环境准备

  • 操作系统:Windows 10/11 64位

  • 内存要求:≥8GB RAM(推荐16GB)

  • 存储空间:≥5GB可用空间

  • 网络环境:需要访问国际互联网

一、安装Ollama

  1. 下载安装包
    访问Ollama官网下载页获取最新Windows安装包

  2. 自定义安装路径
    以管理员身份运行CMD执行(路径可自定义):

    ollama-setup.exe /DIR="D:\DevelopmentEnvironment\ollama"

    📌 注意:目标目录需要预先创建,建议使用全英文路径

  3. 验证安装

    • 打开浏览器访问 http://127.0.0.1:11434

    • 正常安装会显示Ollama API运行信息(JSON格式)

二、部署DeepSeek R1模型

  1. 获取模型

    ollama pull deepseek-r1:1.5b

    ⏳ 下载时间根据网络情况不同,1.5B模型约需1.5GB存储空间

  2. 启动模型

    ollama run deepseek-r1:1.5b

    首次运行会自动完成初始化配置

三、模型交互方式

命令行交互

直接输入问题与模型对话:

>>> 你好,能介绍一下你自己吗?

API调用(Python示例)

import requests

response = requests.post(
    "http://localhost:11434/api/generate",
    json={
        "model": "deepseek-r1:1.5b",
        "prompt": "请解释量子计算的基本原理",
        "stream": False
    }
)
print(response.json()['response'])

Web UI访问

安装官方Web界面:

pip install ollama-webui
ollama-webui

访问 http://localhost:8080 使用可视化界面

四、进阶配置

  1. GPU加速(需NVIDIA显卡)

    setx OLLAMA_ACCELERATORS "cuda"
    ollama run deepseek-r1:1.5b
  2. 内存优化配置
    ~/.ollama/config.json中添加:

    {
      "num_ctx": 2048,
      "num_gqa": 4
    }

五、常见问题排查

问题现象解决方案
403下载错误检查网络代理设置,尝试关闭VPN
内存不足添加虚拟内存或关闭后台程序
响应速度慢添加--num_thread 4参数提升CPU利用率
中文乱码设置控制台编码为UTF-8:chcp 65001

六、性能参考

硬件配置推理速度(tokens/s)
i5-12400(CPU)12-15
RTX 3060(GPU)45-50
RTX 4090(GPU)85-100

💡 推荐使用WSL2可获得更好的性能表现

附录:常用命令速查

  • 查看运行中的模型:ollama list

  • 停止模型服务:ollama stop deepseek-r1:1.5b

  • 更新模型版本:ollama pull deepseek-r1:latest

  • 删除本地模型:ollama rm deepseek-r1:1.5b

通过本指南,您可以在本地快速搭建一个高效的中文对话AI服务。建议首次运行后执行ollama doctor进行系统环境检查,确保最佳运行状态。

点赞(0) 打赏

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部