DeepSeek本地部署保姆级教程

近期,由于国外大量攻击,导致 DeepSeek 经常无法使用;另外,许多朋友希望在本地搭建自己的知识库,以保护自己的资料不被外泄。因此,越来越多的人希望能够在本地部署 DeepSeek,但对于技术难度有所担忧。别担心,这篇教程将为你扫清所有障碍!从环境搭建到模型运行,每一步都进行了详细拆解,即便是零基础的小白也能轻松上手。让我们一起来解决这些问题,顺利完成本地部署,保护个人隐私的同时,享受强大的 AI 功能。
本地部署适合以下情况:
  1. 电脑配置较高,有独立显卡。
  2. 有私密的数据需要处理,担心泄密。
  3. 需要和本地工作流结合,处理高频任务或复杂任务。
  4.  日常使用量大,调用API需要收费,本地部署能省钱。
  5.  想要在开源模型基础上,做个性化的定制版本。

第一步:安装olama本地部署

安装ollama(理解为:一个装AI的盒子)

1.首先在浏览器搜索ollama,会出现ollama官网,点击进入。

2.进入官网后,点击中间的Download。
3.根据自己的电脑类型,选择不同版本。
4.下载后,点击安装。如果桌面出现了olama图标,说明软件安装成功。图标就是下图的羊驼。

特别说明:最好安装在C盘,安装在其它盘,需要重新配置环境变量。

第二步,选择要安装的模型5,点击红框中的"Models"按钮

7.点击选择deepseek-r1

8.选择不同参数的模型这里的数字越大,参数越多,性能越强,1.5b代表模型具备15亿参数。我的电脑16G显存运行14b参数模型时,需要大约11.5G显存。如果是1.5b版本,2G以下的显存就可以运行,甚至不需要独立显卡核显就可以。如果是32b参数的,就需要32G显存!曰己的电脑性能选择。
参考值如下:

下面选择1.5b参数做示范。
9.复制命令选择1.5b多日主中的命令"ollama run deepseek-r1:1.5b”.

第三步,安装模型10.打开命令行同时按下键盘上的Win和R键,弹出如下窗口。

11.输入下载命令在打开的命令行里,输入上面复制的命令"ollama run deepseek-r1:1.5b"。

点击键盘上的“Enter“键,模型会自动下载。

12.与模型对话下载成功后,就可以与模型对话啦。

此时大模型安装在你的电脑上,就算断网也可以继续用,也不用担心数据泄露。第四步,后续运行模型这里还有一个问题,当你关闭电脑后,下次再打开ollama。会发现点击olama的图标,电脑没反应。因为你点击图标,只是启动了olama,想要和大模型聊天,还是需要打开命令行。13.继续通过命令行和大模型聊天同时按下键盘上的Win和R键,在弹出的窗口里输入cmd,点击确定打开命令行。在命令行界面,输入刚刚的命令"ollama run deepseek-r1:1.5b”。因为你之前已经下载过,这次无需下载,可以直接和模型聊天。


 

数据投喂训练 AI

  • 下载 nomic-embed-text:在终端输入ollama pull nomic-embed-text回车下载 nomic-embed-text 嵌入式模型。

  • 安装 AnythingLLM:进入官网,选择对应系统版本的安装包进行下载。选择 “所有用户” 点击下一步,可修改安装位置,点击完成。软件打开后,点击 “Get started”,点击箭头进行下一步,输入工作区名称,点击下一步箭头。点击 “设置”,可设置模型、界面显示语言等,若软件显示英文,可在 Customization 外观定制里面选择中文。

  • AnythingLLM 设置

    • LLM 首选项界面:提供商选择 Ollama,Ollama Model 选择前面下载的 DeepSeek - R1 系列模型 1.5b-671b,点击 Save changes。

    • Embedder 首选项界面:嵌入引擎提供商选择 Ollama,Ollama Embedding Mode 选择 “nomic-embed-text”,点击保存更改。

    • 工作区设置:点击 “工作区设置”,点击聊天设置,工作区 LLM 提供者选择 “Ollama”,工作区聊天模型选择 “deepseek-r1” 模型,点击 “Update workspace agent”。代理配置界面,工作区代理 LLM 提供商选择 “Ollama”,工作区代理模型选择 “deepseek-r1”,点击 “Update workspace agent”。

  • 数据投喂:在工作区界面,点击 “上传”,点击 upload 选择需要上传的文件,勾选上传的文件,点击 “Move to Workspace”,点击 “Save and Embed”。

© 版权声明

相关文章