本地搭建DeepSeek R1

  1. 安装Ollama,它可以在本地运行和管理大模型。
    Ollama网址:https://ollama.com
    选择对应平台下载并安装

  2. 点击Ollama网站左上角的model,找到deepseek r1

  3. 点击下拉菜单,选择对应的版本,不同的版本对配置要求要求不同,可参考下表

  1. 选择版本后,可在右侧复制相应命令

  2. 打开命令行,执行命令,而后安装成功,可在命令行内与模型对话

  3. 安装open-webui开源工具,在web界面对话大模型

    1. 使用Python安装
      # 安装命令
      pip install open-webui
      # 启动命令
      open-webui serve
    2. 使用docker安装
      docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  4. 关键命令

    # 安装/启动 Ollama
    ollama run deepseek-r1:1.5b
    # 启动open-webui
    open-webui serve
原文链接:,转发请注明来源!
评论已关闭。