英语| 中文| 日本语| 한국어
gpt researcher
gpt researcher是一位开放的深入研究代理,专为任何给定任务的Web和本地研究设计。
该代理商生产带有引用的详细,事实和公正的研究报告。 gpt researcher提供了一套全套自定义选项,以创建量身定制的制造商和特定领域的研究代理。 gpt researcher受到最新计划和解决论文的启发,通过提供稳定的性能和通过并行化的代理工作提高速度,解决了错误的信息,速度,确定性和可靠性。
我们的使命是通过AI授权个人和组织以准确,公正和事实信息。
为什么gpt researcher ?
- 手动研究的客观结论可能需要数周的时间,需要大量的资源和时间。
- 经过过时的信息培训的LLM会幻觉,与当前的研究任务无关。
- 当前的LLM具有令牌限制,不足以生成长期的研究报告。
- 现有服务中的网络来源有限导致错误信息和浅层结果。
- 选择性网络来源可以将偏见引入研究任务。
演示
untitled.design.5.1.mp4
建筑学
核心想法是利用“计划者”和“执行”代理。计划者会产生研究问题,而执行代理会收集相关信息。然后,出版商将所有调查结果汇总到一份综合报告中。
步骤:
- 根据研究查询创建特定于任务的代理。
- 产生有关该任务的客观意见的问题。
- 使用爬行者代理为每个问题收集信息。
- 总结和来源跟踪每个资源。
- 过滤和汇总到最终研究报告中。
教程
- 它如何工作
- 如何安装
- 现场演示
特征
- 使用Web和本地文档生成详细的研究报告。
- ?️智能图像刮擦和过滤报告。
- 生成超过2,000个单词的详细报告。
- 总体上有20多个来源来实现客观结论。
- 轻巧(HTML/CSS/JS)和生产准备版本(NextJS + Tailwind)版本可提供前端。
- ?启用JavaScript的Web刮擦。
- 在整个研究中保持记忆和环境。
- ?向PDF,Word和其他格式导出报告。
文档
请参阅以下文档:
- 安装和设置指南
- 配置和自定义选项
- 如何示例
- 完整的API参考
入门
安装
-
安装Python 3.11或更高版本。指导。
-
克隆项目并导航到目录:
git clone https://*g*ith*ub.com/assafelovic/gpt-researcher.git cd gpt-researcher -
通过导出或将其存储在.env文件中来设置API键。
export OPENAI_API_KEY={Your OpenAI API Key here} export TAVILY_API_KEY={Your Tavily API Key here}
-
安装依赖项并启动服务器:
pip install -r requirements.txt python -m uvicorn main:app --reload
访问http:// localhost:8000开始。
对于其他设置(例如诗歌或虚拟环境),请检查“入门”页面。
作为PIP软件包运行
pip install gpt-researcher
示例用法:
... from gpt_researcher import GPTResearcher query = \"why is Nvidia stock going up?\" researcher = GPTResearcher ( query = query ) # Conduct research on the given query research_result = await researcher . conduct_research () # Write the report report = await researcher . write_report () ...
有关更多示例和配置,请参阅“ PIP文档”页面。
?MCP客户端
gpt researcher支持MCP集成,以与GitHub存储库,数据库和自定义API等专业数据源连接。这可以通过网络搜索从数据源进行研究。
export RETRIEVER=tavily,mcp # Enable hybrid web + MCP research
from gpt_researcher import GPTResearcher import asyncio import os async def mcp_research_example (): # Enable MCP with web search os . environ [ \"RETRIEVER\" ] = \"tavily,mcp\" researcher = GPTResearcher ( query = \"What are the top open source web research agents?\" , mcp_configs = [ { \"name\" : \"github\" , \"command\" : \"npx\" , \"args\" : [ \"-y\" , \"@modelcontextprotocol/server-github\" ], \"env\" : { \"GITHUB_TOKEN\" : os . getenv ( \"GITHUB_TOKEN\" )} } ] ) research_result = await researcher . conduct_research () report = await researcher . write_report () return report
有关全面的MCP文档和高级示例,请访问MCP集成指南。
深入研究
gpt researcher现在包括深入研究 – 一种先进的递归研究工作流,该工作流探索具有代理深度和广度的主题。此功能采用了类似树状的探索模式,更深入地研究了子主题,同时保持对研究主题的全面看法。
- ?具有可构型深度和宽度的树状探索
- ⚡️并发处理以获得更快的结果
- ?跨研究部门的智能上下文管理
- ⏱️每次深入研究需要5分钟
- ?每项研究成本约为$ 0.4(使用“高”推理工作的O3-Mini)
在我们的文档中了解有关深入研究的更多信息。
与Docker一起运行
步骤1-安装Docker
步骤2-克隆\’.env.example\’文件,将API键添加到克隆文件中,然后将文件保存为\’.ENV\’
步骤3-在Docker -Compose文件注释中,您不想使用Docker运行的服务。
docker-compose up --build
如果那不起作用,请在没有破折号的情况下运行它:
docker compose up --build
步骤4-默认情况下,如果您没有在Docker -Compose文件中删除任何内容,则此流将启动2个进程:
- 在Localhost上运行的Python服务器:8000
- 在Local主机上运行的React应用程序:3000
访问Localhost:在任何浏览器上3000,并享受研究!
?对当地文件的研究
您可以指示gpt researcher根据本地文档执行研究任务。当前支持的文件格式是:PDF,纯文本,CSV,Excel,Markdown,PowerPoint和Word Documents。
步骤1:添加指向文档所在的文件夹的ENV变量Doc_path。
export DOC_PATH= \" ./my-docs \"
步骤2:
- 如果您正在运行Localhost:8000上的前端应用程序,请从“报告源”下拉选项中选择“我的文档”。
- 如果您使用PIP软件包运行gpt researcher ,请在此处实例化GPTRESEARCHER类代码示例时将report_source参数作为“本地”传递。
?MCP服务器
我们已经将MCP服务器移至专用存储库:GPTR-MCP。
gpt researcher MCP服务器使Claude这样的AI应用程序能够进行深入的研究。尽管LLM应用程序可以使用MCP访问Web搜索工具,但gpt researcher MCP可提供更深入,更可靠的研究结果。
特征:
- AI助手的深入研究能力
- 具有优化上下文使用的更高质量信息
- 全面的结果,对LLM的推理更好
- Claude桌面集成
有关详细的安装和使用说明,请访问官方存储库。
?多机构助手
随着AI从迅速的工程和抹布演变为多代理系统,我们很高兴能介绍使用Langgraph构建的新的多代理助手。
通过使用Langgraph,通过利用具有专业技能的多个代理商,可以显着改善研究过程。受到最近的风暴纸的启发,该项目展示了一个AI代理团队如何共同努力,从计划到出版物进行有关特定主题的研究。
平均运行以多种格式产生5-6页研究报告,例如PDF,DOCX和MARKDOWN。
在此处查看或转到我们的文档以获取更多信息。
前端应用
GPT研究人员现在具有增强的前端,以改善用户体验并简化研究过程。前端提供:
- 用于输入研究查询的直观界面
- 实时进度跟踪研究任务
- 研究结果的互动显示
- 可定制的设置,用于量身定制的研究经验
有两个部署选项可用:
- Fastapi提供的轻巧的静态前端
- 高级功能的功能丰富的NextJS应用程序
有关详细的设置说明和有关前端功能的更多信息,请访问我们的文档页面。
贡献
我们非常欢迎捐款!如果您有兴趣,请查看贡献。
如果您有兴趣加入我们的任务,请查看我们的路线图页面,并通过我们的Discord社区与我们联系。
✉️支持 /联系我们
- 社区不和谐
- 作者电子邮件:assaf.elovic@gmail.com
?免责声明
该项目是gpt researcher ,是一个实验应用程序,并提供了“ AS-IS”,而无需任何明示或暗示的保修。我们正在根据Apache 2许可证共享出于学术目的的代码。这里没有什么是学术建议,而不是用于学术或研究论文中的建议。
我们对无偏研究主张的看法:
- gpt researcher的主要目标是减少不正确和偏见的事实。如何?我们假设我们刮擦错误数据的机会越多。通过每个研究刮擦多个站点,并选择最常见的信息,它们都错了的机会极低。
- 我们不打算消除偏见;我们的目标是尽可能减少它。我们在这里是一个社区,可以找出最有效的人类/LLM互动。
- 在研究中,人们也倾向于偏见,因为大多数人已经对他们研究的主题有意见。该工具抓住了许多意见,并将平均解释有偏见的人永远不会读过的各种观点。
⬆️回到顶部
