open webui
open webui是一个可扩展的,功能丰富且用户友好的自托管AI平台,旨在完全离线运行。它支持Ollama和OpenAI兼容API等各种LLM跑步者,并具有内置的RAG推理引擎,使其成为强大的AI部署解决方案。
对开源AI充满热情?加入我们的团队→
提示
寻找企业计划? –今天与我们的销售团队交谈!
获得增强功能,包括自定义主题和品牌,服务水平协议(SLA)支持,长期支持(LTS)版本等等!
有关更多信息,请务必查看我们的open webui文档。
open webui的关键特征
-
轻松的设置:使用Docker或Kubernetes(Kubectl,Kustomize或Helm)无缝安装,以获得无忧体验,并支持这两者:Ollama和:Cuda标记的图像。
-
?Ollama/OpenAI API集成:毫不费力地将与OpenAI兼容的API与Ollama模型一起集成了多功能对话。自定义OpenAI API URL,以与Lmstudio,Groqcloud,Mistral,OpenRouter等链接。
-
?️粒状权限和用户组:通过允许管理员创建详细的用户角色和权限,我们可以确保安全的用户环境。这种粒度不仅可以增强安全性,而且还允许定制的用户体验,从而增强用户的所有权和责任感。
-
响应式设计:在台式电脑,笔记本电脑和移动设备上享受无缝体验。
-
用于手机的Progressive Web应用程序(PWA) :使用我们的PWA在您的移动设备上享受类似于本机的应用程序的体验,在Localhost上提供脱机访问和无缝的用户界面。
-
✒️?完整的降价和乳胶支持:通过全面的降价和乳胶功能来提高您的LLM体验,以富含互动。
-
??免费的语音/视频通话:通过集成的免费语音和视频通话功能体验无缝的沟通,从而提供了更具动态和交互式聊天环境。
-
模型构建器:通过Web UI轻松创建Ollama模型。创建并添加自定义角色/代理,自定义聊天元素,并通过open webui社区集成轻松导入模型。
-
?本机Python函数呼叫工具:在工具工作区中使用内置代码编辑器支持增强您的LLM。通过简单地添加纯Python功能,启用自己的功能(BYOF),从而与LLM无缝集成。
-
本地抹布整合:深入探讨与开创性检索增强发电(RAG)支持的聊天互动的未来。此功能无缝将文档互动整合到您的聊天体验中。您可以将文档直接加载到聊天中,也可以将文件添加到您的文档库中,在查询之前毫不费力地使用#命令访问它们。
-
?网络搜索抹布:使用Searxng,Google PSE,Brave Search,Serpstack,Serper,Serply,DuckDuckgo,DuckDuckgo,TavilySearch,Searchapi和Bing等提供商执行网络搜索,并将结果直接注入您的聊天体验中。
-
Web浏览功能:使用#命令随后将网站无缝整合到您的聊天体验中。此功能使您可以将Web内容直接融合到对话中,从而增强交互的丰富性和深度。
-
?图像生成集成:使用诸如Automatic1111 API或Comfyui(本地)和Openai的Dall-E(外部)等选项无缝合并图像生成功能,从而用动态的视觉内容丰富了您的聊天体验。
-
许多模型对话:同时毫不费力地与各种模型互动,并利用其独特的优势来获得最佳响应。通过并行利用各种模型来增强您的体验。
-
?基于角色的访问控制(RBAC) :通过限制权限确保安全访问;只有授权的个人才能访问您的Ollama,而专有的模型创建/拉力权则保留给管理员。
-
?多语言支持:通过我们的国际化(I18N)支持,以您首选的语言体验open webui 。加入我们,扩展我们的支持语言!我们正在积极寻找贡献者!
-
?管道, open webui插件支持:使用Pipelines插件框架将自定义逻辑和Python库无缝集成到open webui中。启动您的管道实例,将OpenAI URL设置为管道URL,并探索无尽的可能性。示例包括函数调用,用户速率限制控制访问,使用Langfuse等工具,使用LibrEtranslate的实时翻译进行多种语言支持,有毒消息过滤等。
-
?连续更新:我们致力于通过常规更新,修复程序和新功能改善open webui 。
是否想了解有关open webui功能的更多信息?查看我们的open webui文档,以获取全面的概述!
赞助商?
翠
| N8N•您的界面有后端吗? 尝试N8N |
|
| 尾部•将自托的AI连接到带有尾部的任何设备 |
我们非常感谢赞助商的慷慨支持。他们的贡献有助于我们维护和改善我们的项目,确保我们可以继续为社区提供优质的工作。谢谢你!
如何安装
通过Python Pip安装?
可以使用PIP,Python软件包安装程序来安装open webui 。在进行之前,请确保您使用Python 3.11避免兼容问题。
-
安装open webui :打开终端并运行以下命令以安装open webui :
pip install open-webui
-
运行open webui :安装后,您可以通过open webui :
open-webui serve
这将启动open webui服务器,您可以在http:// localhost:8080访问该服务器
快速启动Docker?
笔记
请注意,对于某些Docker环境,可能需要其他配置。如果您遇到任何连接问题,我们的open webui文档详细指南就可以为您提供帮助。
警告
使用Docker安装open webui时,请确保在Docker命令中包括-v Open -Webui:/app/backend/data。此步骤至关重要,因为它可以确保您的数据库正确安装并防止任何数据丢失。
提示
如果您希望以Ollama或CUDA加速使用open webui或CUDA加速,我们建议使用标记的官方图像:Cuda或:Ollama。要启用CUDA,您必须在Linux/WSL系统上安装NVIDIA CUDA容器工具包。
带有默认配置的安装
-
如果Ollama在您的计算机上,请使用此命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
-
如果Ollama在其他服务器上,请使用此命令:
要在另一台服务器上连接到Ollama,请将Ollama_base_url更改为服务器的URL:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://exampl**e*.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
-
要使用Nvidia GPU支持open webui ,请使用此命令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
仅用于OpenAI API使用的安装
-
如果您仅使用OpenAI API ,请使用此命令:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
与捆绑的Ollama支持安装open webui
此安装方法使用单个容器映像,该图像open webui ,从而可以通过单个命令进行简化的设置。根据您的硬件设置选择适当的命令:
-
在GPU支持的情况下:通过运行以下命令来利用GPU资源:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
-
仅适用于CPU :如果您不使用GPU,请改用此命令:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
这两种命令均可促进open webui和Ollama的内置无忧安装,以确保您可以迅速启动并运行所有内容。
安装后,您可以在http:// localhost:3000访问open webui 。享受! ?
其他安装方法
我们提供各种安装替代方案,包括非偶数本机安装方法,Docker组成,Kustomize和Helm。请访问我们的open webui文档或加入我们的Discord社区以获取全面的指导。
查看本地开发指南,以获取有关建立本地开发环境的说明。
故障排除
遇到连接问题?我们open webui文档已为您提供服务。要获得进一步的帮助并加入我们充满活力的社区,请访问open webui Discord。
open webui :服务器连接错误
如果您遇到连接问题,通常是由于Webui Docker容器无法在容器内部的127.0.0.0.1:11434(host.docker.internal:11434)到达Ollama Server。在您的Docker命令中使用-network =主机标志来解决此问题。请注意,端口从3000变为8080,导致链接:http:// localhost:8080。
示例Docker命令:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.*0*.*0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
使您的Docker安装保持最新
如果您想将本地Docker安装更新为最新版本,则可以使用watchtower进行操作:
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
在命令的最后一部分中,如果有不同的话,请用您的容器名称替换开路。
检查我们的open webui文档”中可用的更新指南。
使用开发分支?
警告
:开发分支包含最新的不稳定功能和更改。它自身使用它,因为它可能具有错误或不完整的功能。
如果您想尝试最新的出血边缘功能,并且可以偶尔不稳定,则可以使用:Dev Tag这样:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
离线模式
如果您在离线环境中运行open webui ,则可以将HF_HUB_OFFLINE环境变量设置为1,以防止尝试从Internet下载模型。
export HF_HUB_OFFLINE=1
接下来是什么? ?
在open webui文档中的路线图上发现即将到来的功能。
执照
该项目是根据open webui许可”(修订后的BSD-3-CAREASE许可证)获得许可的。您将获得与Classic BSD-3许可证相同的所有权利:您可以使用,修改和分发软件,包括具有最小限制的专有和商业产品。唯一的其他要求是保留许可证文件中详细介绍的“ open webui ”品牌。有关完整的条款,请参阅许可文件。 ?
支持
如果您有任何疑问,建议或需要帮助,请打开问题或加入我们的open webui Discord社区与我们建立联系! ?
星历史
由Timothy Jaeryang Baek创建的 – 让我们让open webui在一起更加惊人! ?
