环境准备
操作系统:Windows 10/11 64位
内存要求:≥8GB RAM(推荐16GB)
存储空间:≥5GB可用空间
网络环境:需要访问国际互联网
一、安装Ollama
下载安装包
访问Ollama官网下载页获取最新Windows安装包自定义安装路径
以管理员身份运行CMD执行(路径可自定义):ollama-setup.exe /DIR="D:\DevelopmentEnvironment\ollama"
📌 注意:目标目录需要预先创建,建议使用全英文路径
验证安装
打开浏览器访问
http://127.0.0.1:11434
正常安装会显示Ollama API运行信息(JSON格式)
二、部署DeepSeek R1模型
获取模型
ollama pull deepseek-r1:1.5b
⏳ 下载时间根据网络情况不同,1.5B模型约需1.5GB存储空间
启动模型
ollama run deepseek-r1:1.5b
首次运行会自动完成初始化配置
三、模型交互方式
命令行交互
直接输入问题与模型对话:
>>> 你好,能介绍一下你自己吗?
API调用(Python示例)
import requests response = requests.post( "http://localhost:11434/api/generate", json={ "model": "deepseek-r1:1.5b", "prompt": "请解释量子计算的基本原理", "stream": False } ) print(response.json()['response'])
Web UI访问
安装官方Web界面:
pip install ollama-webui
ollama-webui
访问 http://localhost:8080
使用可视化界面
四、进阶配置
GPU加速(需NVIDIA显卡)
setx OLLAMA_ACCELERATORS "cuda" ollama run deepseek-r1:1.5b
内存优化配置
在~/.ollama/config.json
中添加:{ "num_ctx": 2048, "num_gqa": 4 }
五、常见问题排查
问题现象 | 解决方案 |
---|---|
403下载错误 | 检查网络代理设置,尝试关闭VPN |
内存不足 | 添加虚拟内存或关闭后台程序 |
响应速度慢 | 添加--num_thread 4 参数提升CPU利用率 |
中文乱码 | 设置控制台编码为UTF-8:chcp 65001 |
六、性能参考
硬件配置 | 推理速度(tokens/s) |
---|---|
i5-12400(CPU) | 12-15 |
RTX 3060(GPU) | 45-50 |
RTX 4090(GPU) | 85-100 |
💡 推荐使用WSL2可获得更好的性能表现
附录:常用命令速查
查看运行中的模型:
ollama list
停止模型服务:
ollama stop deepseek-r1:1.5b
更新模型版本:
ollama pull deepseek-r1:latest
删除本地模型:
ollama rm deepseek-r1:1.5b
通过本指南,您可以在本地快速搭建一个高效的中文对话AI服务。建议首次运行后执行ollama doctor
进行系统环境检查,确保最佳运行状态。