什么是 DeepSeek?
DeepSeek 是由深度求索(DeepSeek)推出的一系列开源大语言模型,支持多种应用场景,如代码生成、文本理解与创作等。本文将指导您如何在本地环境中安装并运行 DeepSeek 模型。
安装前准备
- 操作系统:Linux / Windows WSL / macOS(推荐 Linux)
- Python 版本 ≥ 3.9
- GPU(可选但推荐,需 CUDA 支持)
- 至少 16GB 内存(模型大小不同要求不同)
安装步骤
1. 创建虚拟环境(推荐)
python -m venv deepseek-env
source deepseek-env/bin/activate # Linux/macOS
# 或
deepseek-env\Scripts\activate # Windows
2. 安装依赖
pip install torch transformers accelerate sentencepiece
3. 下载模型(以 DeepSeek-Coder 为例)
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "deepseek-ai/deepseek-coder-1.3b-instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True, device_map="auto")
4. 运行推理
inputs = tokenizer.encode("写一个 Python 快速排序函数", return_tensors="pt").to(model.device)
outputs = model.generate(inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
常见问题
Q:是否需要 Hugging Face Token?
A:部分模型需登录 Hugging Face 并同意使用协议,建议注册账号并设置 token。
Q:显存不足怎么办?
A:可使用量化版本(如 GGUF 格式)配合 llama.cpp 或使用 CPU 推理(速度较慢)。