Ollama 是一款可以在本地运行大语言模型的开箱即用工具,你可以运行 Llama 3.3, DeepSeek-R1, Phi-4, Mistral, Gemma 2等开源模型。
进入ollama 官网 进行下载,ollama 支持 Liunx、mac、windows. 你只需要选择适合自己的平台进行安装即可,非常简单快捷。
使用Ollama很简单,只需要在命令行页面输入 ollama run 模型名称
,如运行:ollama run llama3.2
,如果要运行的模型没有安装,ollama 会帮你自动安装后运行模型。
你可以在官网查找支持的模型:https://ollama.com/search 。
在控制台输入:/bye
即可退出对话。
Open WebUI 是一个可扩展、功能丰富、用户友好的自托管人工智能平台,可完全离线运行。它支持各种 LLM 运行程序,如 Ollama 和 OpenAI 兼容 API,并内置 RAG 推理引擎,是一个强大的人工智能部署解决方案。
Open WebUI 可以使用 Python 软件包安装程序 pip 进行安装。在继续之前,请确保您使用的是 Python 3.11,以避免兼容性问题。
pip install open-webui
启动服务:
open-webui serve
启动服务完成后,在浏览器输入 http://localhost:8080/ 打开。第一次使用需要创建管理员密码,这一步很简单。
具体安装方式可以查看官方文档地址:https://docs.openwebui.com/
进入聊天界面后,界面左侧上方可以选择模型,这里的模型就是上面ollama安装的模型,非常方便。
使用 Ollama 和 Open WebUI 非常方便的在本地部署大模型和使用大模型。