1. 配置要求

具体配置依情况而定,16G 内存勉强可以带动 14b 模型。
(更详细的配置参考 Linux 那篇文章。)

2. 下载 Ollama

Windows 端可以使用 Ollama,下载 Windows 版本并安装。

安装完成后,在终端中输入:

1
ollama -v

如果回显 Ollama 版本号,就说明安装成功。

3. 下载模型

在 Ollama 官网选择 Models,找到 deepseek-r1

根据自己电脑配置选择模型版本。比如 4b 代表 40 亿参数,参数越大效果通常越好,但对硬件要求也更高。

我的电脑是 2×16G 双通道内存,所以选择 14b,执行:

1
ollama run deepseek-r1:14b

等待下载完成后即可开始对话。

后续再次启动模型时,仍然执行同一条命令:

1
ollama run deepseek-r1:14b

4. 换个 UI

如果不想只在终端里使用,可以配一个更直观的图形界面,例如 Chatbox

安装后选择你已经下载的 deepseek-r1:14b 模型即可使用。

5. 测试能力(测试模型:deepseek-r1:14b)

5.1 断网测试

离线状态下也可以使用,能生成一些简单代码,但响应速度会偏慢。

5.2 文件交互

终端交互方式无法直接读取本地文件、音频等内容。
如果有文件交互需求,可以使用 Chatbox 等图形界面工具。