agenticSeek

2025-12-10 0 376

agenticSeek :私人,当地的马努斯替代方案。

英语| 中文| 繁体中文| Français| 日本语|葡萄牙(巴西)| Español

该语音启用AI助手的100%本地替代方案是自动浏览网络,编写代码和计划任务的同时将所有数据保存在设备上的同时。它针对本地推理模型量身定制,完全在您的硬件上运行,确保完全隐私和零云依赖性。

为什么要agenticSeek ?

  • 完全本地和私人 – 机器上的所有内容都运行 – 没有云,没有数据共享。您的文件,对话和搜索保持私密。

  • 智能网络浏览 – agenticSeek可以单独浏览Internet – 搜索,阅读,提取信息,填写Web表单 – 全部免费。

  • 自主编码助手 – 需要代码吗?它可以在Python,C,GO,Java等中编写,调试和运行程序,而无需监督。

  • ?智能代理选择 – 您问,它会自动找出最佳的作业代理。就像有一组专家准备帮助一样。

  • ?计划和执行复杂的任务 – 从旅行计划到复杂的项目 – 它可以将大任务分为步骤,并使用多个AI代理完成工作。

  • ?️语音 – 启用 – 干净,快速,未来派的语音和语音,以使您可以像科幻电影中的个人AI一样与之交谈。 (进行中)

演示

您可以搜索agenticSeek项目,了解需要什么技能,然后打开CV_CANDIDATES.ZIP,然后告诉我哪个最匹配的项目

Agentic_seek_demo.mov

免责声明:此演示,包括所有出现的文件(例如:cv_candidates.zip),都是完全虚构的。我们不是公司,我们寻求开源贡献者而不是候选人。

?配x 积极的工作正在进行中

该项目始于侧项目,并具有零路线图和零资金。它的发展远远超出了我通过在GitHub趋势中结束的期望。贡献,反馈和耐心得到深深的赞赏。

先决条件

在开始之前,请确保已安装以下软件:

  • git:用于克隆存储库。下载git
  • Python 3.10.x:我们强烈建议使用Python版本3.10.x。使用其他版本可能会导致依赖性错误。下载Python 3.10(选择3.10.x版本)。
  • Docker Engine&Docker组成:用于运行Searxng等捆绑服务。
    • 安装Docker桌面(其中包括Docker组成V2):Windows | Mac | Linux
    • 或者,安装Docker Engine和Docker在Linux上单独组成:Docker Engine | Docker组成(确保您安装Compose V2,例如Sudo Apt-Get安装Docker-Compose-Plugin)。

1。克隆存储库和设置

agenticSeek
mv .env.example .env\”>

git clone https://*g*ithu*b.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env

2。更改.ENV文件内容

SEARXNG_BASE_URL= \" http://127.**0.*0.1:8080 \"
REDIS_BASE_URL= \" redis://redis:6379/0 \"
WORK_DIR= \" /Users/mlg/Documents/workspace_for_ai \"
OLLAMA_PORT= \" 11434 \"
LM_STUDIO_PORT= \" 1234 \"
CUSTOM_ADDITIONAL_LLM_PORT= \" 11435 \"
OPENAI_API_KEY= \' optional \'
DEEPSEEK_API_KEY= \' optional \'
OPENROUTER_API_KEY= \' optional \'
TOGETHER_API_KEY= \' optional \'
GOOGLE_API_KEY= \' optional \'
ANTHROPIC_API_KEY= \' optional \'

根据需要更新带有您自己的值的.env文件:

  • searxng_base_url :离开不变
  • redis_base_url :离开不变
  • Work_dir :在本地机器上通往工作目录的路径。 agenticSeek将能够读取并与这些文件进行交互。
  • Ollama_Port :Ollama服务的端口号。
  • LM_STUDIO_PORT :LM Studio服务的端口号。
  • custom_additional_llm_port :用于任何其他自定义LLM服务的端口。

对于选择本地运行LLM的用户而言,API键是完全可选的。这是该项目的主要目的。如果您有足够的硬件,请留空

3。开始码头

确保在系统上安装Docker并运行。您可以使用以下命令启动Docker:

  • 在Linux/MacOS上:
    打开终端并运行:

    sudo systemctl start docker

    或如果安装了应用程序菜单,请启动Docker桌面。

  • 在Windows上:
    从开始菜单开始docker桌面。

您可以通过执行来验证Docker正在运行:

docker info

如果您看到有关Docker安装的信息,则可以正确运行。

有关摘要,请参见下面的本地提供商表。

下一步:本地运行agenticSeek

如果您有问题,请参见故障排除部分。如果您的硬件无法在本地运行LLM,请参见使用API运行的设置。有关详细的config.ini说明,请参见配置部分。


用于在机器上本地运行LLM的设置

硬件要求:

要在本地运行LLMS,您需要足够的硬件。至少需要一个能够运行裁判官,QWEN或DEEPSEEK 14B的GPU。有关详细的模型/性能建议,请参见FAQ。

设置您的本地提供商

例如,与Ollama一起启动您的本地提供商:

ollama serve

请参阅下面的本地支持提供商列表。

更新config.ini

将config.ini文件更改为“提供者”和“供应商” model的provider_name将其设置为提供商支持的LLM。我们建议诸如裁判官DeepSeek之类的推理模型。

有关所需的硬件,请参见README末尾的常见问题解答

[MAIN]
is_local = True # Whenever you are running locally or with remote provider.
provider_name = ollama # or lm-studio, openai, etc..
provider_model = deepseek-r1:14b # choose a model that fit your hardware
provider_server_address = 127.0.0.1:11434
agent_name = Jarvis # name of your AI
recover_last_session = True # whenever to recover the previous session
save_session = True # whenever to remember the current session
speak = False # text to speech
listen = False # Speech to text, only for CLI, experimental
jarvis_personality = False # Whenever to use a more \"Jarvis\" like personality (experimental)
languages = en zh # The list of languages, Text to speech will default to the first language on the list
[BROWSER]
headless_browser = True # leave unchanged unless using CLI on host.
stealth_mode = True # Use undetected selenium to reduce browser detection

警告

  • config.ini文件格式不支持注释。请勿直接复制并粘贴示例配置,因为注释会导致错误。相反,使用所需的设置手动修改config.ini文件,不包括任何注释。

  • 如果使用LM-Studio进行运行LLMS,请勿将Provider_name设置为OpenAI。将其设置为LM-Studio。

  • 一些提供商(例如:LM-Studio)要求您将http://在IP前面。例如http://127.*0**.0.1:1234

当地提供商列表

提供者 当地的? 描述
霍拉马 是的 使用Ollama作为LLM提供商轻松地在本地运行LLMS
LM-Studio 是的 使用LM Studio本地运行LLM(SET Provider_name到LM-Studio)
Openai 是的 使用OpenAI兼容API(例如:Llama.cpp服务器)

下一步:启动服务并运行agenticSeek

如果您有问题,请参见故障排除部分。如果您的硬件无法在本地运行LLM,请参见使用API运行的设置。有关详细的config.ini说明,请参见配置部分。

设置以使用API运行

该设置使用基于云的外部LLM提供商。您需要从所选服务中获得一个API键。

1。选择一个API提供商并获取API密钥:

请参阅下面的API提供商列表。访问他们的网站注册并获取API密钥。

2。将API密钥设置为环境变量:

  • Linux/MacOS:打开终端并使用导出命令。最好将其添加到您的Shell的个人资料文件(例如〜/.bashrc,〜/.zshrc)中以进行持久。

     export PROVIDER_API_KEY= \" your_api_key_here \" 
    # Replace PROVIDER_API_KEY with the specific variable name, e.g., OPENAI_API_KEY, GOOGLE_API_KEY

    一起的示例:

     export TOGETHER_API_KEY= \" xxxxxxxxxxxxxxxxxxxxxx \"
  • 视窗:

    • 命令提示(当前会话临时):

       set PROVIDER_API_KEY = your_api_key_here
    • PowerShell(当前会话的临时):
       $ env: PROVIDER_API_KEY = \" your_api_key_here \"
    • 永久:在Windows搜索栏中搜索“环境变量”,单击“编辑系统环境变量”,然后单击“环境变量…”按钮。添加具有适当名称(例如OpenAI_API_KEY)的新用户变量和您的密钥作为值。

    (请参阅常见问题解答:如何设置API键?有关更多详细信息)。

3。更新config.ini:

 [MAIN]
is_local = False
provider_name = openai # Or google, deepseek, togetherAI, huggingface
provider_model = gpt-3.5-turbo # Or gemini-1.5-flash, deepseek-chat, mistralai/Mixtral-8x7B-Instruct-v0.1 etc.
provider_server_address = # Typically ignored or can be left blank when is_local = False for most APIs
# ... other settings ...

警告:确保config.ini值中没有落后空间。

API提供商列表

提供者 provider_name 当地的? 描述 API密钥链接(示例)
Openai Openai 通过OpenAI的API使用Chatgpt型号。 platform.openai.com/signup
Google双子座 谷歌 通过Google AI Studio使用Google Gemini模型。 aistudio.google.com/keys
DeepSeek DeepSeek 通过其API使用DeepSeek模型。 platform.deepseek.com
拥抱脸 拥抱面 使用拥抱脸部推理API的模型。 huggingface.co/settings/tokens
在一起 在一起 使用各种通过API使用各种开源型号。 api.together.ai/settings/api-keys

笔记:

  • 我们建议不要将GPT-4O或其他OpenAI模型用于复杂的Web浏览和任务计划,因为当前的及时优化是针对DeepSeek之类的模型。
  • 编码/BASH任务可能会遇到双子座的问题,因为它可能不会严格遵循为DeepSeek优化的格式提示。
  • 通常,当is_local = false时,config.ini中的provider_server_address通常不使用,因为API端点通常在相应的提供商的库中进行了硬编码。

下一步:启动服务并运行agenticSeek

如果您有问题,请参阅已知问题部分

有关详细的配置文件说明,请参见“配置”部分。


开始服务并运行

默认情况下, agenticSeek在Docker中完全运行。

选项1:在Docker中运行,使用Web接口:

开始所需的服务。这将从docker -compose.yml启动所有服务,包括:-searxng -redis(Searxng要求) – 前端 – 后端(如果使用Web界面时使用完整)

./start_services.sh full # MacOS
start start_services.cmd full # Window

警告:此步骤将下载并加载所有Docker图像,最多可能需要30分钟。启动服务后,请等到后端服务完全运行(您应该看到后端:“日志中的get /health http /1.1” 200 OK )在发送任何消息之前。后端服务可能需要5分钟才能开始首次运行。

转到http:// localhost:3000/,您应该看到Web界面。

故障排除服务开始:如果这些脚本失败,请确保运行Docker Engine并正确安装Docker Compose(V2,Docker Compose)。检查终端中的输出以获取错误消息。请参阅常见问题解答:帮助!运行agenticSeek或其脚本时,我会遇到错误。

选项2: CLI模式:

要使用CLI接口运行,您必须在主机上安装软件包:

./install.sh
./install.bat # windows

开始所需的服务。这将从docker -compose.yml启动一些服务,包括:-searxng -redis(Searxng要求) – 前端

./start_services.sh # MacOS
start start_services.cmd # Window

使用CLI:UV Run Cli.py


用法

确保服务启动并运行./start_services.sh完整,然后转到Localhost:3000用于Web界面。

您也可以通过在配置中设置listing = true来使用语音来文本。仅适用于CLI模式。

要退出,只需说/输入再见。

以下是一些示例用法:

在Python做蛇游戏!

在法国雷恩(Rennes)的雷恩(Rennes)中搜索网络上的顶级咖啡馆,并在rennes_cafes.txt中保存三个列表。

编写一个GO程序来计算一个数字的阶乘,将其保存为fortorial.go在您的工作空间中

搜索我的summer_pictures文件夹以获取所有jpg文件,以今天的日期重命名它们,然后在photos_list.txt中保存更名的文件列表

在线搜索2024年的流行科幻电影,并选择今晚观看三部。将列表保存在movie_night.txt中。

搜索网络以查看2025年的最新AI新闻文章,选择三个,然后编写Python脚本以刮擦其标题和摘要。将脚本保存为news_scraper.py和ai_news.txt中的摘要 /home /projects

星期五,搜索网络以获取免费股票价格API,在supersuper7434567@gmail.com上注册,然后编写一个Python脚本,使用Tesla的API每日价格来获取,并将结果保存在Stock_prices.csv.csv

请注意,表格填充功能仍然是实验性的,可能会失败。

键入查询后, agenticSeek将分配最佳的代理。

因为这是一个早期的原型,所以代理路由系统可能并不总是根据您的查询分配正确的代理。

因此,您应该非常明确地说明自己想要的内容以及AI可能会继续进行,例如,如果您希望进行网络搜索,请不要说:

您知道独奏旅行的一些好国家吗?

相反,请问:

进行网络搜索,找出哪个是Solo-travel的最佳国家


设置以在您自己的服务器上运行LLM

如果您拥有强大的计算机或可以使用的服务器,但是要从笔记本电脑中使用它,则可以使用我们的自定义LLM服务器在远程服务器上运行LLM。

在将运行AI模型的“服务器”上,获取IP地址

ip a | grep \" inet \" | grep -v 127.0.0.1 | awk \' {print $2} \' | cut -d/ -f1 # local ip
curl https://ip*info.io**/ip # public ip

注意:对于Windows或MacOS,分别使用IPConfig或IFConfig查找IP地址。

克隆存储库,然后输入服务器/文件夹。

agenticSeek/llm_server/\”>

git clone --depth 1 https://*g*ithu*b.com/Fosowl/agenticSeek.git
cd agenticSeek /llm_server/

安装服务器特定要求:

pip3 install -r requirements.txt

运行服务器脚本。

python3 app.py --provider ollama --port 3333

您可以选择使用Ollama和LlamaCpp作为LLM服务。

现在在您的个人计算机上:

将config.ini文件更改为“ provider_name”将服务器和provider_model设置为deepseek-r1:xxb。将Provider_Server_Address设置为将运行模型的机器的IP地址。

[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = http://x.***x.x.x:3333

下一步:启动服务并运行agenticSeek


对文字的讲话

警告:目前对文本的语音仅在CLI模式下工作。

请注意,目前只用英语工作的文本语音。

默认情况下,语音到文本功能是禁用的。要启用它,请在config.ini文件中将“侦听选项”设置为true:

listen = True

启用后,在开始处理输入之前,语音到文本功能会聆听触发关键字,即代理的名称。您可以通过更新config.ini文件中的agent_name值来自定义代理的名称:

agent_name = Friday

为了获得最佳识别,我们建议使用“ John”或“ Emma”作为代理名称的常见英语名称

看到成绩单开始出现后,大声说出代理商的名字以唤醒它(例如,“星期五”)。

清楚地说您的查询。

用确认短语结束您的请求,以向系统发出信号。确认短语的示例包括:

\"do it\", \"go ahead\", \"execute\", \"run\", \"start\", \"thanks\", \"would ya\", \"please\", \"okay?\", \"proceed\", \"continue\", \"go on\", \"do that\", \"go it\", \"do you understand?\"

config

示例配置:

[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:32b
provider_server_address = http://127.*0*.*0.1:11434 # Example for Ollama; use http://127.*0**.0.1:1234 for LM-Studio
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False

jarvis_personality = False
languages = en zh # List of languages for TTS and potentially routing.
[BROWSER]
headless_browser = False
stealth_mode = False

config.ini设置的说明

  • [主要]部分:
    • IS_LOCAL:true如果使用本地LLM提供商(Ollama,LM-Studio,Local openai兼容服务器)或自托管服务器选项。错误,如果使用基于云的API(OpenAI,Google等)。
    • provider_name:指定LLM提供商。
      • 本地选项:Ollama,LM-Studio,OpenAI(适用于本地与OpenAI兼容服务器),服务器(用于自托管服务器设置)。
      • API选项:OpenAI,Google,DeepSeek,Huggingface,gaterai。
    • Provider_Model:所选提供商的特定型号或ID(例如,DeepSeekcoder:Ollama的6.7b,gpt-3.5-turbo for Openai API,Mistralai/Mixtral-8x7b-instruct-instruct-v0.1 for for for for for for for for for for在一起
    • provider_server_address:LLM提供商的地址。
      • 对于本地提供商:例如,http://127.0.0.1:11434对于Ollama,http://127.0.0.0.1:1234对于LM-STUDIO。
      • 对于服务器提供商类型:自托管LLM服务器的地址(例如,http:// your_server_ip:3333)。
      • 对于云API(IS_LOCAL = false):通常会忽略或可以空白,因为API端点通常由客户端库处理。
    • Agent_name:AI助理的名称(例如,星期五)。如果启用了语音到文本,则用作触发单词。
    • reconion_last_session:确实尝试恢复上一个会话的状态,false以开始新鲜。
    • save_session:TRUE保存当前会话的状态以进行潜在恢复,否则为false。
    • 说:忠实启用文本到语音语音输出,虚假禁用。
    • 听:thue启用语音到文本的语音输入(仅CLI模式),错误地禁用。
    • work_dir:至关重要: agenticSeek将读取/写文件的目录。确保此路径在系统上是有效且可访问的。
    • JARVIS_PERSONALITY:正确使用更“类似Jarvis”的系统提示(实验),对于标准提示来说是错误的。
    • 语言:逗号分隔的语言列表(例如,EN,ZH,FR)。用于TTS语音选择(默认为第一个),可以帮助LLM路由器。避免过多或非常相似的语言,以提高路由器效率。
  • [浏览器]部分:
    • Headless_browser:TRUE可以在没有可见窗口的情况下运行自动浏览器(建议用于Web界面或非相互作用)。 false显示浏览器窗口(用于CLI模式或调试)。
    • stealth_mode:true启用措施以使浏览器自动化难以检测。可能需要手动安装浏览器扩展程序,例如Anticaptcha。

本节总结了受支持的LLM提供商类型。在config.ini中配置它们。

本地提供商(在您自己的硬件上运行):

config.ini中的提供商名称 is_local 描述 设置部分
霍拉马 真的 使用Ollama为当地的LLM服务。 本地运行LLM的设置
LM-Studio 真的 使用LM-Studio为当地LLM服务。 本地运行LLM的设置
OpenAI(对于本地服务器) 真的 连接到暴露于OpenAI兼容API的本地服务器(例如Llama.cpp)。 本地运行LLM的设置
服务器 错误的 连接到在另一台计算机上运行的agenticSeek自托管LLM服务器。 设置以在您自己的服务器上运行LLM

API提供商(基于云):

config.ini中的提供商名称 is_local 描述 设置部分
Openai 错误的 使用OpenAI的官方API(例如GPT-3.5,GPT-4)。 设置以使用API运行
谷歌 错误的 通过API使用Google的双子座模型。 设置以使用API运行
DeepSeek 错误的 使用DeepSeek的官方API。 设置以使用API运行
拥抱面 错误的 使用拥抱脸推理API。 设置以使用API运行
在一起 错误的 将API一起用于各种开放型号。 设置以使用API运行

故障排除

如果遇到问题,本节提供了指导。

已知问题

Chromedriver问题

错误示例: SessionNotCreatedException:消息:不会创建会话:此版本Chromedriver仅支持Chrome版本XXX

根本原因

ChromeDriver版本发生不兼容,发生:

  1. 您已安装的Chromedriver版本与您的Chrome浏览器版本不符
  2. 在Docker环境中,Undetected_chromedriver可以下载自己的Chromedriver版本,绕过已安装的二进制文件

解决方案步骤

1。检查您的Chrome版本

打开Google Chrome→设置>有关Chrome以找到您的版本(例如,“ 134.0.6998.88”)

2。下载匹配的Chromedriver

对于Chrome 115和更新:使用Chrome测试API

  • 访问Chrome进行测试可用性仪表板
  • 查找您的Chrome版本或最接近的匹配项
  • 为您的操作系统下载Chromedriver(linux64用于Docker环境)

对于较旧的铬版本:使用旧版Chromedriver下载

3。安装Chromedriver(选择一种方法)

方法A:项目根目录(推荐用于Docker)

 # Place the downloaded chromedriver binary in your project root
cp path/to/downloaded/chromedriver ./chromedriver
chmod +x ./chromedriver  # Make executable on Linux/macOS

方法B:系统路径

 # Linux/macOS
sudo mv chromedriver /usr/local/bin/
sudo chmod +x /usr/local/bin/chromedriver

# Windows: Place chromedriver.exe in a folder that\'s in your PATH 

4。验证安装

 # Test the ChromeDriver version
./chromedriver --version
# OR if in PATH:
chromedriver --version

码头特定的笔记

配x对Docker用户很重要:

  • Docker音量安装式方法可能无法使用隐形模式(Undetected_chromedriver)
  • 解决方案:将Chromedriver放在项目根目录中为./ chromedriver
  • 该应用程序将自动检测并使用此二进制
  • 您应该看到:“使用项目root的Chromedriver:./ chromedriver”日志中

故障排除提示

  1. 还会获得版本不匹配吗?

    • 验证ChromeDriver是可执行的:LS -LA ./chromedriver
    • 检查Chromedriver版本:./chromedriver-version
    • 确保与您的Chrome浏览器版本匹配
  2. Docker容器问题?

    • 检查后端日志:Docker日志后端
    • 查找消息:“使用项目根的Chromedriver”
    • 如果找不到,请验证文件存在并且可执行
  3. 用于测试版本的铬

    • 尽可能使用确切的版本匹配
    • 对于版本134.0.6998.88,请使用Chromedriver 134.0.6998.165(最接近)
    • 主要版本号必须匹配(134 = 134)

版本兼容性矩阵

Chrome版本 Chromedriver版本 地位
134.0.6998.x 134.0.6998.165 ✅有效
133.0.6943.x 133.0.6943.141 ✅有效
132.0.6834.x 132.0.6834.159 ✅有效

有关最新兼容性,请检查镀铬仪表板

异常:无法初始化浏览器:消息:不会创建会话:此版本的Chromedriver仅支持Chrome版本113当前浏览器版本为134.0.6998.89,带有二进制路径

如果您的浏览器和Chromedriver版本之间存在不匹配,则会发生这种情况。

您需要导航以下载最新版本:

https://developer.chr**om*e.com/docs/chromedriver/downloads

如果您使用的是Chrome版本115或较新,请访问:

https://googlechromelabs.g**i*thub.io/chrome-for-testing/

并下载与您的操作系统匹配的Chromedriver版本。

如果本节不完整,请提出问题。

连接适配器问题

Exception: Provider lm-studio failed: HTTP request failed: No connection adapters were found for \'127.0.0.1:1234/v1/chat/completions\'` (Note: port may vary)
  • 原因: config.ini中的provider_server_address for lm-studio(或其他类似的本地openai兼容服务器)缺少http:// prefix或指向错误的端口。
  • 解决方案:

    • 确保地址包括http://。 LM-Studio通常默认为http://127.*0**.0.1:1234。
    • 正确的config.ini:provider_server_address = http://127.0.0.0.1:1234(或您的实际LM-Studio服务器端口)。

searxng base URL未提供

raise ValueError(\"SearxNG base URL must be provided either as an argument or via the SEARXNG_BASE_URL environment variable.\")
ValueError: SearxNG base URL must be provided either as an argument or via the SEARXNG_BASE_URL environment variable.`

常问问题

问:我需要什么硬件?

型号大小 GPU 评论
7b 8GB VRAM 配x不建议。性能很差,频繁的幻觉,计划者的代理可能会失败。
14b 12 GB VRAM(例如RTX 3060) ✅可用于简单任务。可能会在网络浏览和计划任务上困难。
32B 24+ GB VRAM(例如RTX 4090) 大多数任务的成功,可能仍然在任务计划中挣扎
70b+ 48+ GB VRAM ?优秀。建议用于高级用例。

问:我有一个错误我该怎么办?

确保本地运行(Ollama服务),您的config.ini匹配您的提供商,并安装了依赖项。如果没有任何工作可以随意提出问题。

问:它真的可以在本地运行100%吗?

是的,对于Ollama,LM-Studio或服务器提供商,所有对文本,LLM和文本的语音在本地运行。非本地选项(OpenAI或其他API)是可选的。

问:当我有手腕时,为什么要使用agenticSeek ?

与Manus不同, agenticSeek优先考虑与外部系统的独立性,从而为您提供更多的控制,隐私和避免API成本。

问:该项目的背后是谁?

该项目是由我创建的,以及两个朋友,他们是Github开源社区的维护者和贡献者。我们只是一群充满激情的人,而不是任何组织的初创公司或隶属于初创企业。

除我的个人帐户(https://x*.com**/martin993886460)以外的X上的任何agenticSeek帐户都是模仿。

贡献

我们正在寻找开发人员来改善agenticSeek !查看公开问题或讨论。

贡献指南

赞助商:

是否想通过诸如飞行搜索,旅行计划或抢购最佳购物交易之类的功能来升级agenticSeek功能?考虑使用SERPAPI制作自定义工具,以解锁更多类似Jarvis的功能。借助Serpapi,您可以在完全控制的同时进行涡轮增压代理进行专业任务。

请参阅贡献.md,以了解如何整合自定义工具!

赞助人

  • tatra-labs

维护者:

fosowl |巴黎时间

Antoinevivies |台北时间

特别感谢:

TCSENPAI和PLITC帮助后端Dockerization

下载源码

通过命令行克隆项目:

git clone https://github.com/Fosowl/agenticSeek.git

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

左子网 编程相关 agenticSeek https://www.zuozi.net/33859.html

tinyraytracer
上一篇: tinyraytracer
常见问题
  • 1、自动:拍下后,点击(下载)链接即可下载;2、手动:拍下后,联系卖家发放即可或者联系官方找开发者发货。
查看详情
  • 1、源码默认交易周期:手动发货商品为1-3天,并且用户付款金额将会进入平台担保直到交易完成或者3-7天即可发放,如遇纠纷无限期延长收款金额直至纠纷解决或者退款!;
查看详情
  • 1、描述:源码描述(含标题)与实际源码不一致的(例:货不对板); 2、演示:有演示站时,与实际源码小于95%一致的(但描述中有”不保证完全一样、有变化的可能性”类似显著声明的除外); 3、发货:不发货可无理由退款; 4、安装:免费提供安装服务的源码但卖家不履行的; 5、收费:价格虚标,额外收取其他费用的(但描述中有显著声明或双方交易前有商定的除外); 6、其他:如质量方面的硬性常规问题BUG等。 注:经核实符合上述任一,均支持退款,但卖家予以积极解决问题则除外。
查看详情
  • 1、左子会对双方交易的过程及交易商品的快照进行永久存档,以确保交易的真实、有效、安全! 2、左子无法对如“永久包更新”、“永久技术支持”等类似交易之后的商家承诺做担保,请买家自行鉴别; 3、在源码同时有网站演示与图片演示,且站演与图演不一致时,默认按图演作为纠纷评判依据(特别声明或有商定除外); 4、在没有”无任何正当退款依据”的前提下,商品写有”一旦售出,概不支持退款”等类似的声明,视为无效声明; 5、在未拍下前,双方在QQ上所商定的交易内容,亦可成为纠纷评判依据(商定与描述冲突时,商定为准); 6、因聊天记录可作为纠纷评判依据,故双方联系时,只与对方在左子上所留的QQ、手机号沟通,以防对方不承认自我承诺。 7、虽然交易产生纠纷的几率很小,但一定要保留如聊天记录、手机短信等这样的重要信息,以防产生纠纷时便于左子介入快速处理。
查看详情

相关文章

猜你喜欢
发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务