使用 Ollama 部署本地大模型指南

发布时间:2025-01-29
2318 字, 需阅读 5 分钟
已被阅读20

Ollama 是一款可以在本地运行大语言模型的开箱即用工具,你可以运行 Llama 3.3DeepSeek-R1Phi-4MistralGemma 2等开源模型。

安装 Ollama

进入ollama 官网 进行下载,ollama 支持 Liunx、mac、windows. 你只需要选择适合自己的平台进行安装即可,非常简单快捷。

截屏2025-01-28 17.36.03.png

使用 Ollama

使用Ollama很简单,只需要在命令行页面输入 ollama run 模型名称,如运行:ollama run llama3.2,如果要运行的模型没有安装,ollama 会帮你自动安装后运行模型。

你可以在官网查找支持的模型:https://ollama.com/search

截屏2025-01-29 17.28.42.png

在控制台输入:/bye 即可退出对话。

安装图形化界面 Open WebUI

Open WebUI 是一个可扩展、功能丰富、用户友好的自托管人工智能平台,可完全离线运行。它支持各种 LLM 运行程序,如 Ollama 和 OpenAI 兼容 API,并内置 RAG 推理引擎,是一个强大的人工智能部署解决方案。

使用 Python 包安装

Open WebUI 可以使用 Python 软件包安装程序 pip 进行安装。在继续之前,请确保您使用的是 Python 3.11,以避免兼容性问题。

pip install open-webui

启动服务:

open-webui serve

启动服务完成后,在浏览器输入 http://localhost:8080/ 打开。第一次使用需要创建管理员密码,这一步很简单。

WX20250128-114437@2x.png

使用 docker 安装(非必须)

具体安装方式可以查看官方文档地址:https://docs.openwebui.com/

选择模型

进入聊天界面后,界面左侧上方可以选择模型,这里的模型就是上面ollama安装的模型,非常方便。

截屏2025-01-29 17.20.39.png

测试

-think-好的,我现在需要帮用户用JavaScript-Open-WebUI.png

总结

使用 Ollama 和 Open WebUI 非常方便的在本地部署大模型和使用大模型。

作者:admin
版权声明:
本文采用 CC BY-NC-SA 4.0 许可协议。转载请注明出处!
分享到: