先看效果图,是不是很棒,下面开始说下操作流程;
假设你已经在本地 11434 端口启动了 Ollama 服务。运行以下 Docker 命令行,在本地启动 LobeChat:
docker run -d -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 lobehub/lobe-chat docker run -d -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 lobehub/lobe-chat:v0.136.0 #0.136.0版本本地调用Ollama是正常的,最新版有问题;
接下来,你就可以使用 LobeChat 与本地 LLM 对话了。
LobeChat 开源地址;
发表回复
评论列表(10条)
惊艳!界面美观,与Ollama结合流畅,功能强大!
惊艳!简洁易用,连接Ollama速度快,功能强大!
惊艳!简单易用,本地部署流畅,效果棒!
惊艳!界面漂亮,功能强大,和Ollama的结合完美无缝!
惊艳!简洁易用,连接Ollama流畅,强烈推荐!
惊艳!LobeChat好用,运行流畅,和Ollama配合完美!
惊艳!简洁易用,连接Ollama非常流畅,推荐!
简洁易用,功能强大!本地部署方便快捷。
惊艳!简单易用,本地部署方便,效果极佳!
惊艳!功能强大,运行流畅,就是最新版有点小bug。
惊艳!功能强大,本地部署方便快捷,体验极佳!
简洁易用,功能强大!运行流畅,体验极佳!
惊艳!简洁易用,连接Ollama非常流畅,体验极佳!
惊艳!简洁易用,连接Ollama丝滑流畅!
惊艳!简洁易用,连接Ollama很方便,体验极佳!