1. 硬件准备

  • CPU:建议至少 4 核 8 线程(如 Intel i7 或 AMD Ryzen 5)。
  • 内存:至少 16GB(建议 32GB,尤其是运行更大模型时)。
  • GPU(可选):如果有 GPU(如 NVIDIA RTX 3060 及以上),可以显著加速训练和推理。
  • 存储:至少 50GB 可用空间(用于存储模型、数据集和依赖库)。

2. 环境要求

  • Python:Python 3.8 以上版本
  • Linux 系统:Ubuntu 或 Kali Linux

3. 部署步骤(基于 Kali Linux 和 Python 3.11)

3.1 安装 Python 3.11

3.1.1 更新系统:

1
2
sudo apt update
sudo apt upgrade

3.1.2 安装 Python 3.11 版本:

1
sudo apt install python3.11 python3.11-venv python3.11-dev

(注意):
在 Kali Linux 中,默认软件源可能不包含 python3.11-venv。可以通过添加 Debian 的软件源来解决。

3.1.3 编辑软件源列表:

1
sudo nano /etc/apt/sources.list

3.1.4 在文件末尾添加以下行:

1
2
deb [http://deb.debian.org/debian](http://deb.debian.org/debian) bullseye main contrib non-free
deb-src [http://deb.debian.org/debian](http://deb.debian.org/debian) bullseye main contrib non-free

随后 CTRL+O 保存,EnterCTRL+X 退出。

3.1.5 更新软件包列表:

1
sudo apt update

3.1.6 备选方案:
如果上述方法仍然无法解决问题,可以使用 virtualenv 工具创建虚拟环境:

1
pip install virtualenv

3.2 创建虚拟环境

3.2.1 创建虚拟环境:

1
python3.11 -m venv deepseek-env

3.2.2 激活虚拟环境:

1
source deepseek-env/bin/activate

3.3 安装依赖库

3.3.1 安装基础库:

1
pip install numpy pandas scikit-learn transformers flask

3.3.2 安装 PyTorch(CPU 版本):

1
pip install torch torchvision torchaudio --index-url [https://download.pytorch.org/whl/cpu](https://download.pytorch.org/whl/cpu)
特性 CPU 版本 GPU 版本
硬件要求 无需额外硬件 需要 NVIDIA GPU 和 CUDA 支持
性能 适合轻量级任务,性能较低 适合大规模计算,性能显著提升
安装复杂度 简单,直接 pip 安装 较复杂,需配置 CUDA 和 cuDNN

3.4 下载并加载 DeepSeek R1 b8 模型

注意:访问 Hugging Face 可能需要开启代理(魔法上网)。

3.4.1 加载模型代码:

1
2
3
4
5
6
from transformers import AutoModel, AutoTokenizer

model_name = "deepseek/r1-b8"

tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModel.from_pretrained(model_name)

3.4.2 测试模型:

1
2
3
4
input_text = "Hello, how are you?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model(**inputs)
print(outputs)

3.4.3 部署为 API 服务(Flask):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
from flask import Flask, request, jsonify
from transformers import pipeline

app = Flask(__name__)

# 加载模型 pipeline
model = pipeline("text-generation", model="deepseek/r1-b8")

@app.route("/generate", methods=["POST"])
def generate():
data = request.json
text = data.get("text", "")
result = model(text)
return jsonify(result)

if __name__ == "__main__":
app.run(host="0.0.0.0", port=5000)

3.4.4 测试 API:

1
2
3
curl -X POST http://localhost:5000/generate \
-H "Content-Type: application/json" \
-d '{"text": "Hello, how are you?"}'

完毕!部署完成。