闪连 VPN

DeepSeek本地部署新手指南:PC/Mac/Android/iOS

DeepSeek本地部署

DeepSeek是一个出色的AI工具。然而,由于种种原因,许多AI爱好者希望在自己的设备上本地部署它。今天,我们将指导您在不同设备上进行DeepSeek本地部署,以帮助您实现更优质、更私密的AI交互体验。

DeepSeek离线部署是否安全?

DeepSeek安全吗?根据其隐私政策,某些数据管理细节仍存在不确定性。例如,该政策提到用户数据将存储在中国的安全服务器上,但未明确说明这些数据会被保留多久,或者是否可以永久删除。

尽管如此,根据TikTok、小红书、Lemon8等过往的案例来看,DeepSeek的用户数据遭遇重大问题的可能性极低。但需要注意的是,如果您在DeepSeek上发布不当内容,您的数据仍有可能被提交给相关机构。

因此,如果您对DeepSeek的数据管理方式感到不满意,在电脑上进行本地部署是一个不错的替代方案。

小贴士:

另一种保护数据的方法是使用VPN,例如闪连VPN(LightningX VPN)。它是一款适用于AI工具(如 ChatGPT、Gemini、Claude 和 DeepSeek)的优秀 VPN,支持Android、iOS、Windows、macOS、Linux、Apple TV和Android TV。该VPN可以让您切换到全球50+个国家的2000台服务器,操作简单、速度极快且稳定可靠。目前,它还为新用户提供免费试用。

DeepSeek本地部署配置要求

以下是在手机,电脑等设备上本地部署DeepSeek的硬件要求。

Android:

  • 处理器:骁龙 845,骁龙 8 Gen 2/3 或同等规格处理器
  • 内存:6GB、8GB、12GB 或更高
  • 存储空间:8GB、12GB 或更大可用空间

示例设备:OnePlus 6、Samsung Galaxy S9、小米 Pocophone F1、Google Pixel 3、Sony Xperia XZ2

iOS:

  • 内存:8GB、16GB 或更高
  • 适用于小型模型:iPhone 15 Pro、iPad Air(8GB 内存)
  • 适用于大型模型:iPad Pro(16GB 内存)

Windows:

  • 操作系统:Windows 10 或更高版本
  • 内存:至少 8GB(适用于 1.5B 等小型模型),建议 16GB 或更高(适用于更大型模型)
  • 存储空间:SSD,至少 50GB 可用空间
  • GPU:支持 CUDA 的 NVIDIA GPU(建议 RTX 2060 或更高,以获得更好性能)

macOS:

  • 操作系统:macOS 11 Big Sur 或更高版本
  • 处理器:多核 CPU(建议 Apple Silicon M1/M2 或 Intel Core i5/i7/i9)
  • 内存:至少 8GB(建议 16GB 以上以运行更大型模型)
  • 存储空间:至少 10GB 可用空间(建议 50GB 或以上以运行更大型模型)

在Android和iOS上进行DeepSeek本地部署或下载App

如果您想在移动设备上使用DeepSeek,可以直接从Google Play商店或App Store下载官方应用,或者下载DeepSeek本地文件以离线运行它。

通过Google Play商店或App Store下载

以下是获取DeepSeek应用的步骤:

  1. 在您的移动设备上打开Google Play商店或App Store,然后搜索DeepSeek。
  2. 下载并安装应用。
  3. 完成后,您可以注册DeepSeek账户,启用R1模型,然后开始您的DeepSeek之旅。

在移动设备上本地部署DeepSeek

如果您希望在移动设备上本地运行DeepSeek,需要使用终端模拟器,例如:

  • PocketPal AI(适用于Android 和iOS,最适合初学者)
  • Termux(适用于Android)
  • Termius(适用于iOS)

以下是使用PocketPal AI运行DeepSeek的方法:

  1. 从Google Play商店或App Store安装PocketPal AI。
  2. 打开应用,点击屏幕右下角的 “Go to Models”(进入模型)。
  3. 点击右下角的 “+”,然后选择 “Add from Hugging Face”(从Hugging Face添加)。这时,您将看到Hugging Face库中的所有AI模型。
  4. 在底部搜索栏中输入 “DeepSeek”,即可看到所有DeepSeek AI模型。
  5. 下载适合您设备的模型,例如7B是一个适中的选择。您还可以参考前文提到的设备要求。
  6. 下载完成后,返回 “Models” 页面,确认模型是否正确安装。
  7. 在下载的模型下方点击 “Settings”(设置),然后在N PREDICT选项中将Token 限制设置为4096(以提供更好的生成和理解体验)。然后点击“Save Changes”(保存更改)。
  8. 在“Settings”旁边点击“Load”(加载)。
  9. 完成!现在,您可以使用PocketPal AI提供的图形化界面,与本地运行的DeepSeek模型进行交互。

使用Ollama在Windows/Mac/Linux上将DeepSeek本地部署

Ollama是最适合初学者在本地部署LLM的工具之一。此外,在Windows、macOS和Linux上使用Ollama设置离线版DeepSeek的方式几乎相同,主要包括两个步骤。

第一步:下载Ollama桌面应用

前往Ollama官网并点击右上角的“下载”按钮。选择适合您的操作系统。

Windows:可以直接安装Ollama。

macOS:由于macOS下载的文件是.dmg格式,因此需要将Ollama图标拖入“应用程序”文件夹才能运行Ollama。

Linux:在终端中依次输入以下命令,每条命令的作用:第一条命令安装Ollama;第二条命令启动Ollama服务;第三条命令验证安装是否成功,并显示已安装的版本

  • curl -fsSL https://ollama.com/install.sh | sh
  • ollama serve
  • ollama –version

如果Ollama安装成功,应该会显示版本号。

注意:在命令提示符中输入代码时要小心,不当的命令可能会导致数据丢失。

第二步:通过命令行本地部署DeepSeek

1. 打开电脑上的命令提示符 (Command Prompt) 或终端 (Terminal)。

2. 在Ollama官网查找所需的DeepSeek模型,并复制相应的代码。Ollama目前支持 DeepSeek R1、Coder、V2.5、V3等多个版本。不同模型的参数要求在本文的第二部分有详细说明。

从Ollama选择DeepSeek R1参数并复制代码

3. 将复制的代码粘贴到命令提示符或终端中,等待DeepSeek模型安装完成。

4. 安装完成后,即可输入提示词,与DeepSeek AI进行交互。

5. 要退出对话,请按Ctrl + D组合键。

第三步:如果您想通过Web UI访问DeepSeek

如果希望在用户友好的Web界面上使用本地化的DeepSeek模型,可以安装Open WebUI,它与Ollama兼容。

1. 在电脑上安装并设置Python和Pip。

2. 打开命令提示符或终端,输入以下命令安装Open WebUI:

pip install open-webui

3. 运行DeepSeek模型(以DeepSeek R1为例):

ollama run deepseek-r1:1.5b

4. 启动Open WebUI:

open-webui serve

5. 在浏览器中访问http://localhost:8080

6. 点击“Get started”并输入用户名。

7. 完成设置,现在可以在Web界面上与DeepSeek进行聊天了。

8. 要停止会话,右键点击系统托盘中的Ollama图标,然后选择“Quit Ollama”。

使用LM Studio将DeepSeek本地部署在电脑上

LM Studio也是一个可以下载DeepSeek模型的工具,例如DeepSeek Distill、DeepSeek Math和DeepSeek Coder。您可以前往LM Studio的模型目录查看可用的模型。

  1. 访问LMStudio.ai并在您的Mac、Windows或Linux计算机上下载LM Studio软件(0.3.9 或更高版本)。
  2. 启动LM Studio,在左侧面板中点击搜索图标。
  3. 在Model Search(模型搜索)栏下,选择DeepSeek R1 Distill (Qwen 7B) 模型,并点击Download(下载)按钮。该模型占用4.68GB 内存,因此您的电脑至少需要5GB可用存储空间和8GB RAM。
  4. 下载完成后,进入Chat窗口,加载模型。
  5. 点击Load Model(加载模型)按钮。可以将GPU offload设置为0以避免加载错误。
  6. 完成!现在您可以在电脑上离线使用DeepSeek了。

如何卸载Ollama和LM Studio中本地部署的DeepSeek

如果您需要删除已经部署好的DeepSeek模型,请按照以下步骤操作。

从Ollama中删除DeepSeek

1. 打开电脑上的命令提示符(Command Prompt)或终端(Terminal)。

2. 停止Ollama服务(如果正在运行):

ollama stop

3. 检查已安装的DeepSeek模型:

ollama list

4. 删除已安装的DeepSeek模型(以DeepSeek R1为例):

ollama remove deepseek-r1

5. 完成! 如果删除失败,请检查安装的模型名称是否正确。

6. 手动删除DeepSeek残留文件,文件路径如下:

  • Linux/macOS: ~/ollama/models/
  • Windows: C:\Users\<YourUsername>\ollama\models\

从LM Studio中删除DeepSeek

1. 打开LM Studio程序。

2. 在左侧面板中进入My Models(我的模型)选项卡。

3. 找到已安装的DeepSeek 模型。

4. 点击模型名称右侧的三点图标(…)。

5. 选择Delete(删除),然后点击Delete确认操作。

6. 检查DeepSeek文件是否已删除,对应的存储路径如下:

  • Windows: C:\Users\<YourUsername>\LMStudio\Models\
  • macOS: /Users/<YourUsername>/LMStudio/Models/
  • Linux: /home/<YourUsername>/LMStudio/Models/

7. 完成!现在DeepSeek的本地文件已完全从您的计算机中移除。

将DeepSeek本地部署的优缺点

优点:

  • 隐私和安全性:所有数据都会保存在您的设备上,DeepSeek和其他人无法访问您的敏感信息。
  • 离线访问:一旦DeepSeek本地设置完成,就不需要互联网连接。您不必担心DeepSeek服务器繁忙的问题。
  • 定制化:您可以微调或修改模型的行为、提示词和输出,以更好地适应您的特定需求或领域。
  • 无速率限制:您不受API调用速率限制或使用配额的约束,可以进行无限次查询和实验。
  • 成本效益:下载后,不需要为API调用或基于云的推理支付持续费用,而这些费用对于高频使用来说可能非常昂贵。

缺点:

  • 高硬件要求:本地运行DeepSeek需要强大的计算资源。如果您的设备性能较低,体验可能会很差。
  • 维护:您需要保持模型及其依赖项的更新,这可能是一个耗时的过程。如果出现其他问题(如bugs),您需要自己解决。
  • 能耗:本地运行大型模型可能会消耗大量电力,特别是在使用GPU时,可能会增加电费。

结论

总体来说,只需几个简单的步骤,您就可以将DeepSeek本地部署。如今,越来越多的AI爱好者正在探索如何将AI工具部署到本地,如ChatGPT、Gemini和Claude。一些人几乎没有计算机相关知识,但通过这个过程,他们获得了很多知识。如果您也是计算机领域的初学者,阅读本文可能会帮助您设置自己的DeepSeek AI伴侣。

享受无限、高速和安全的浏览!立即保护您的隐私!