Mac本地部署Deepseek
AI-摘要
切换
Abarwaye_irungu GPT
AI初始化中...
介绍自己
生成本文简介
推荐相关文章
前往主页
前往tianli博客
Ollama安装
Ollama官方:https://ollama.com
Ollama 是一个轻量级的 AI 推理框架,支持本地运行 LLM(大型语言模型)。首先,下载并安装 Ollama。
直接官网下载安装也可以:https://ollama.com/download
# brew安装ollama
brew install --cask ollama
# 检查Ollama是否安装成功,成功会显示版本号
ollama --version
下载Deepseek模型
下载 DeepSeek-R1 模型
模型下载地址:https://ollama.ai/library/deepseek-r1
根据电脑配置选择模型
# 该命令会自动下载 DeepSeek-R1 1.5B 版本的模型,并存储在本地。
ollama pull deepseek-r1:1.5b
# 该命令会自动下载 DeepSeek-R1 1.5B 版本的模型,并直接本地运行。
ollama run deepseek-r1:1.5b
本地运行 DeepSeek-R1
执行后,终端会进入交互模式,可以直接输入文本与模型进行对话。
# 查看已下载的模型
ollama list
# 运行模型
ollama run deepseek-r1:1.5b
通过 Open-WebUI 运行
使用 Web 界面交互模型,可以安装 Open-WebUI。该工具提供了一个用户友好的 Web 前端,使得 DeepSeek-R1 更加易用。
克隆 Open-WebUI 仓库
git clone git@github.com:open-webui/open-webui.git
先安装好 Docker ,然后启动 Open-WebUI 容器
docker run -d \
-p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
#停止容器
docker stop open-webui
#删除容器
docker rm open-webui
#删除存储数据
docker volume rm open-webui
-p 3000:8080:将容器的 8080 端口映射到本机 3000 端口;
--add-host=host.docker.internal:host-gateway:允许容器访问宿主机网络;
-v open-webui:/app/backend/data:挂载数据存储目录,保存容器的状态和数据。
--restart always:确保容器在重启后自动运行;
ghcr.io/open-webui/open-webui:main:拉取 Open-WebUI 的最新版本镜像。
运行容器后,访问 http://localhost:3000 即可访问 Open-WebUI。
- 感谢你赐予我前进的力量
赞赏者名单
因为你们的支持让我意识到写文章的价值🙏
本文是原创文章,采用 CC BY-NC-ND 4.0 协议,完整转载请注明来自 随手博客
评论
匿名评论
隐私政策
你无需删除空行,直接评论以获取最佳展示效果