open webui

2025-12-11 0 524

open webui

open webui是一个可扩展的,功能丰富且用户友好的自托管AI平台,旨在完全离线运行。支持OllamaOpenAI兼容API等各种LLM跑步者,并具有内置的RAG推理引擎,使其成为强大的AI部署解决方案

对开源AI充满热情?加入我们的团队

提示

寻找企业计划?今天与我们的销售团队交谈!

获得增强功能,包括自定义主题和品牌服务水平协议(SLA)支持长期支持(LTS)版本等等!

有关更多信息,请务必查看我们的open webui文档。

open webui的关键特征

  • 轻松的设置:使用Docker或Kubernetes(Kubectl,Kustomize或Helm)无缝安装,以获得无忧体验,并支持这两者:Ollama和:Cuda标记的图像。

  • ?Ollama/OpenAI API集成:毫不费力地将与OpenAI兼容的API与Ollama模型一起集成了多功能对话。自定义OpenAI API URL,以与Lmstudio,Groqcloud,Mistral,OpenRouter等链接。

  • ?️粒状权限和用户组:通过允许管理员创建详细的用户角色和权限,我们可以确保安全的用户环境。这种粒度不仅可以增强安全性,而且还允许定制的用户体验,从而增强用户的所有权和责任感。

  • 响应式设计:在台式电脑,笔记本电脑和移动设备上享受无缝体验。

  • 用于手机的Progressive Web应用程序(PWA) :使用我们的PWA在您的移动设备上享受类似于本机的应用程序的体验,在Localhost上提供脱机访问和无缝的用户界面。

  • ✒️?完整的降价和乳胶支持:通过全面的降价和乳胶功能来提高您的LLM体验,以富含互动。

  • ??免费的语音/视频通话:通过集成的免费语音和视频通话功能体验无缝的沟通,从而提供了更具动态和交互式聊天环境。

  • 模型构建器:通过Web UI轻松创建Ollama模型。创建并添加自定义角色/代理,自定义聊天元素,并通过open webui社区集成轻松导入模型。

  • ?本机Python函数呼叫工具:在工具工作区中使用内置代码编辑器支持增强您的LLM。通过简单地添加纯Python功能,启用自己的功能(BYOF),从而与LLM无缝集成。

  • 本地抹布整合:深入探讨与开创性检索增强发电(RAG)支持的聊天互动的未来。此功能无缝将文档互动整合到您的聊天体验中。您可以将文档直接加载到聊天中,也可以将文件添加到您的文档库中,在查询之前毫不费力地使用#命令访问它们。

  • ?网络搜索抹布:使用Searxng,Google PSE,Brave Search,Serpstack,Serper,Serply,DuckDuckgo,DuckDuckgo,TavilySearch,Searchapi和Bing等提供商执行网络搜索,并将结果直接注入您的聊天体验中。

  • Web浏览功能:使用#命令随后将网站无缝整合到您的聊天体验中。此功能使您可以将Web内容直接融合到对话中,从而增强交互的丰富性和深度。

  • ?图像生成集成:使用诸如Automatic1111 API或Comfyui(本地)和Openai的Dall-E(外部)等选项无缝合并图像生成功能,从而用动态的视觉内容丰富了您的聊天体验。

  • 许多模型对话:同时毫不费力地与各种模型互动,并利用其独特的优势来获得最佳响应。通过并行利用各种模型来增强您的体验。

  • ?基于角色的访问控制(RBAC) :通过限制权限确保安全访问;只有授权的个人才能访问您的Ollama,而专有的模型创建/拉力权则保留给管理员。

  • ?多语言支持:通过我们的国际化(I18N)支持,以您首选的语言体验open webui 。加入我们,扩展我们的支持语言!我们正在积极寻找贡献者!

  • ?管道, open webui插件支持:使用Pipelines插件框架将自定义逻辑和Python库无缝集成到open webui中。启动您的管道实例,将OpenAI URL设置为管道URL,并探索无尽的可能性。示例包括函数调用,用户速率限制控制访问,使用Langfuse等工具,使用LibrEtranslate的实时翻译进行多种语言支持,有毒消息过滤等。

  • ?连续更新:我们致力于通过常规更新,修复程序和新功能改善open webui 。

是否想了解有关open webui功能的更多信息?查看我们的open webui文档,以获取全面的概述!

赞助商?

N8N•您的界面有后端吗?
尝试N8N
尾部•将自托的AI连接到带有尾部的任何设备

我们非常感谢赞助商的慷慨支持。他们的贡献有助于我们维护和改善我们的项目,确保我们可以继续为社区提供优质的工作。谢谢你!

如何安装

通过Python Pip安装?

可以使用PIP,Python软件包安装程序来安装open webui 。在进行之前,请确保您使用Python 3.11避免兼容问题。

  1. 安装open webui :打开终端并运行以下命令以安装open webui :

    pip install open-webui
  2. 运行open webui :安装后,您可以通过open webui :

    open-webui serve

这将启动open webui服务器,您可以在http:// localhost:8080访问该服务器

快速启动Docker?

笔记

请注意,对于某些Docker环境,可能需要其他配置。如果您遇到任何连接问题,我们的open webui文档详细指南就可以为您提供帮助。

警告

使用Docker安装open webui时,请确保在Docker命令中包括-v Open -Webui:/app/backend/data。此步骤至关重要,因为它可以确保您的数据库正确安装并防止任何数据丢失。

提示

如果您希望以Ollama或CUDA加速使用open webui或CUDA加速,我们建议使用标记的官方图像:Cuda或:Ollama。要启用CUDA,您必须在Linux/WSL系统上安装NVIDIA CUDA容器工具包。

带有默认配置的安装

  • 如果Ollama在您的计算机上,请使用此命令:

    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 如果Ollama在其他服务器上,请使用此命令:

    要在另一台服务器上连接到Ollama,请将Ollama_base_url更改为服务器的URL:

    docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://exampl**e*.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 要使用Nvidia GPU支持open webui ,请使用此命令:

    docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

仅用于OpenAI API使用的安装

  • 如果您仅使用OpenAI API ,请使用此命令:

    docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

与捆绑的Ollama支持安装open webui

此安装方法使用单个容器映像,该图像open webui ,从而可以通过单个命令进行简化的设置。根据您的硬件设置选择适当的命令:

  • 在GPU支持的情况下:通过运行以下命令来利用GPU资源:

    docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
  • 仅适用于CPU :如果您不使用GPU,请改用此命令:

    docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

这两种命令均可促进open webui和Ollama的内置无忧安装,以确保您可以迅速启动并运行所有内容。

安装后,您可以在http:// localhost:3000访问open webui 。享受! ?

其他安装方法

我们提供各种安装替代方案,包括非偶数本机安装方法,Docker组成,Kustomize和Helm。请访问我们的open webui文档或加入我们的Discord社区以获取全面的指导。

查看本地开发指南,以获取有关建立本地开发环境的说明。

故障排除

遇到连接问题?我们open webui文档已为您提供服务。要获得进一步的帮助并加入我们充满活力的社区,请访问open webui Discord。

open webui :服务器连接错误

如果您遇到连接问题,通常是由于Webui Docker容器无法在容器内部的127.0.0.0.1:11434(host.docker.internal:11434)到达Ollama Server。在您的Docker命令中使用-network =主机标志来解决此问题。请注意,端口从3000变为8080,导致链接:http:// localhost:8080。

示例Docker命令

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.*0*.*0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

使您的Docker安装保持最新

如果您想将本地Docker安装更新为最新版本,则可以使用watchtower进行操作:

docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

在命令的最后一部分中,如果有不同的话,请用您的容器名称替换开路。

检查我们的open webui文档”中可用的更新指南。

使用开发分支?

警告

:开发分支包含最新的不稳定功能和更改。它自身使用它,因为它可能具有错误或不完整的功能。

如果您想尝试最新的出血边缘功能,并且可以偶尔不稳定,则可以使用:Dev Tag这样:

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev

离线模式

如果您在离线环境中运行open webui ,则可以将HF_HUB_OFFLINE环境变量设置为1,以防止尝试从Internet下载模型。

 export HF_HUB_OFFLINE=1

接下来是什么? ?

在open webui文档中的路线图上发现即将到来的功能。

执照

该项目是根据open webui许可”(修订后的BSD-3-CAREASE许可证)获得许可的。您将获得与Classic BSD-3许可证相同的所有权利:您可以使用,修改和分发软件,包括具有最小限制的专有和商业产品。唯一的其他要求是保留许可证文件中详细介绍的“ open webui ”品牌。有关完整的条款,请参阅许可文件。 ?

支持

如果您有任何疑问,建议或需要帮助,请打开问题或加入我们的open webui Discord社区与我们建立联系! ?

星历史


由Timothy Jaeryang Baek创建的 – 让我们让open webui在一起更加惊人! ?

下载源码

通过命令行克隆项目:

git clone https://github.com/open-webui/open-webui.git

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

左子网 编程相关 open webui https://www.zuozi.net/33984.html

simdjson
上一篇: simdjson
常见问题
  • 1、自动:拍下后,点击(下载)链接即可下载;2、手动:拍下后,联系卖家发放即可或者联系官方找开发者发货。
查看详情
  • 1、源码默认交易周期:手动发货商品为1-3天,并且用户付款金额将会进入平台担保直到交易完成或者3-7天即可发放,如遇纠纷无限期延长收款金额直至纠纷解决或者退款!;
查看详情
  • 1、描述:源码描述(含标题)与实际源码不一致的(例:货不对板); 2、演示:有演示站时,与实际源码小于95%一致的(但描述中有”不保证完全一样、有变化的可能性”类似显著声明的除外); 3、发货:不发货可无理由退款; 4、安装:免费提供安装服务的源码但卖家不履行的; 5、收费:价格虚标,额外收取其他费用的(但描述中有显著声明或双方交易前有商定的除外); 6、其他:如质量方面的硬性常规问题BUG等。 注:经核实符合上述任一,均支持退款,但卖家予以积极解决问题则除外。
查看详情
  • 1、左子会对双方交易的过程及交易商品的快照进行永久存档,以确保交易的真实、有效、安全! 2、左子无法对如“永久包更新”、“永久技术支持”等类似交易之后的商家承诺做担保,请买家自行鉴别; 3、在源码同时有网站演示与图片演示,且站演与图演不一致时,默认按图演作为纠纷评判依据(特别声明或有商定除外); 4、在没有”无任何正当退款依据”的前提下,商品写有”一旦售出,概不支持退款”等类似的声明,视为无效声明; 5、在未拍下前,双方在QQ上所商定的交易内容,亦可成为纠纷评判依据(商定与描述冲突时,商定为准); 6、因聊天记录可作为纠纷评判依据,故双方联系时,只与对方在左子上所留的QQ、手机号沟通,以防对方不承认自我承诺。 7、虽然交易产生纠纷的几率很小,但一定要保留如聊天记录、手机短信等这样的重要信息,以防产生纠纷时便于左子介入快速处理。
查看详情

相关文章

猜你喜欢
发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务