gpt crawler

2025-12-11 0 231

gpt crawler

德意志| Español| Français| 日本语| 한국어|葡萄牙| n 中文

爬网网站生成知识文件以从一个或多个URL创建您自己的自定义GPT

  • 例子
  • 开始
    • 本地运行
      • 克隆存储库
      • 安装依赖项
      • 配置爬虫
      • 运行您的爬行者
    • 替代方法
      • 在带有Docker的容器中运行
      • 作为API运行
    • 将数据上传到OpenAI
      • 创建自定义GPT
      • 创建自定义助手
  • 贡献

例子

这是我迅速提出的自定义GPT,以帮助回答有关如何使用和集成builder.io的问题,只需将URL提供给构建器文档即可。

该项目使文档爬行,并生成了我上传的文件作为自定义GPT的基础。

通过询问有关如何将Builder.io集成到网站的问题来尝试一下。

请注意,您可能需要一个付费的CHATGPT计划来访问此功能

开始

本地运行

克隆存储库

确保您已安装Node.js> = 16。

git clone https://git*h**ub.com/builderio/gpt-crawler

安装依赖项

npm i

配置爬虫

打开config.ts并编辑URL和Selector属性以符合您的需求。

例如,爬网builder.io文档以使我们可以使用我们的自定义GPT:

 export const defaultConfig : Config = {
  url : \"https://www.*buil*d*er.io/c/docs/developers\" ,
  match : \"https://www.b*ui*l*der.io/c/docs/**\" ,
  selector : `.docs-builder-container` ,
  maxPagesToCrawl : 50 ,
  outputFileName : \"output.json\" ,
} ;

有关所有可用选项,请参见Config.ts。这是常见配置选项的示例:

 type Config = {
  /** URL to start the crawl, if sitemap is provided then it will be used instead and download all pages in the sitemap */
  url : string ;
  /** Pattern to match against for links on a page to subsequently crawl */
  match : string ;
  /** Selector to grab the inner text from */
  selector : string ;
  /** Don\'t crawl more than this many pages */
  maxPagesToCrawl : number ;
  /** File name for the finished data */
  outputFileName : string ;
  /** Optional resources to exclude
   *
   * @example
   * [\'png\',\'jpg\',\'jpeg\',\'gif\',\'svg\',\'css\',\'js\',\'ico\',\'woff\',\'woff2\',\'ttf\',\'eot\',\'otf\',\'mp4\',\'mp3\',\'webm\',\'ogg\',\'wav\',\'flac\',\'aac\',\'zip\',\'tar\',\'gz\',\'rar\',\'7z\',\'exe\',\'dmg\',\'apk\',\'csv\',\'xls\',\'xlsx\',\'doc\',\'docx\',\'pdf\',\'epub\',\'iso\',\'dmg\',\'bin\',\'ppt\',\'pptx\',\'odt\',\'avi\',\'mkv\',\'xml\',\'json\',\'yml\',\'yaml\',\'rss\',\'atom\',\'swf\',\'txt\',\'dart\',\'webp\',\'bmp\',\'tif\',\'psd\',\'ai\',\'indd\',\'eps\',\'ps\',\'zipx\',\'srt\',\'wasm\',\'m4v\',\'m4a\',\'webp\',\'weba\',\'m4b\',\'opus\',\'ogv\',\'ogm\',\'oga\',\'spx\',\'ogx\',\'flv\',\'3gp\',\'3g2\',\'jxr\',\'wdp\',\'jng\',\'hief\',\'avif\',\'apng\',\'avifs\',\'heif\',\'heic\',\'cur\',\'ico\',\'ani\',\'jp2\',\'jpm\',\'jpx\',\'mj2\',\'wmv\',\'wma\',\'aac\',\'tif\',\'tiff\',\'mpg\',\'mpeg\',\'mov\',\'avi\',\'wmv\',\'flv\',\'swf\',\'mkv\',\'m4v\',\'m4p\',\'m4b\',\'m4r\',\'m4a\',\'mp3\',\'wav\',\'wma\',\'ogg\',\'oga\',\'webm\',\'3gp\',\'3g2\',\'flac\',\'spx\',\'amr\',\'mid\',\'midi\',\'mka\',\'dts\',\'ac3\',\'eac3\',\'weba\',\'m3u\',\'m3u8\',\'ts\',\'wpl\',\'pls\',\'vob\',\'ifo\',\'bup\',\'svcd\',\'drc\',\'dsm\',\'dsv\',\'dsa\',\'dss\',\'vivo\',\'ivf\',\'dvd\',\'fli\',\'flc\',\'flic\',\'flic\',\'mng\',\'asf\',\'m2v\',\'asx\',\'ram\',\'ra\',\'rm\',\'rpm\',\'roq\',\'smi\',\'smil\',\'wmf\',\'wmz\',\'wmd\',\'wvx\',\'wmx\',\'movie\',\'wri\',\'ins\',\'isp\',\'acsm\',\'djvu\',\'fb2\',\'xps\',\'oxps\',\'ps\',\'eps\',\'ai\',\'prn\',\'svg\',\'dwg\',\'dxf\',\'ttf\',\'fnt\',\'fon\',\'otf\',\'cab\']
   */
  resourceExclusions ?: string [ ] ;
  /** Optional maximum file size in megabytes to include in the output file */
  maxFileSize ?: number ;
  /** Optional maximum number tokens to include in the output file */
  maxTokens ?: number ;
} ; 

运行您的爬行者

npm start

替代方法

在带有Docker的容器中运行

要通过容器化执行获得输出。JSON,请进入ContainerApp目录,然后修改Config.ts,如上所示。 output.jsonfile应在数据文件夹中生成。注意:Config.ts文件中的outputFileName属性配置为与容器一起使用。

作为API运行

要作为API服务器运行该应用程序,您需要进行NPM安装以安装依赖项。该服务器用Express JS编写。

运行服务器。

NPM运行启动:启动服务器的服务器。默认情况下,该服务器在端口3000上运行。

您可以将端点 /爬网与配置JSON的POST请求主体一起运行爬网。 API文档在端点 /API-DOC上提供,并使用Swagger提供。

要修改环境,您可以将.ENV.example复制到.env并设置诸如端口等的值,以覆盖服务器的变量。

将数据上传到OpenAI

爬网将生成一个名为output.json的文件。将其上传到OpenAI创建您的自定义助手或自定义GPT。

创建自定义GPT

将此选项用于UI访问您的生成知识,您可以轻松地与他人共享

注意:您可能需要一个付费的CHATGPT计划来立即创建和使用自定义GPTS

  1. 访问https://chat.o*pe**nai.com/
  2. 在左下角点击您的名字
  3. 在菜单中选择“我的gpts”
  4. 选择“创建GPT”
  5. 选择“配置”
  6. 在“知识”下,选择“上传文件”并上传您生成的文件
  7. 如果您遇到有关文件太大的错误,则可以尝试将其拆分为多个文件,并使用config.ts文件中的选项maxfilesize单独上传它们,或者还使用令牌化以使用config.ts File中的选项maxokens减少文件的大小。

创建自定义助手

使用此选项将API访问您可以集成到产品中的生成知识。

  1. 访问https://platform.ope**na*i.com/assistants
  2. 单击“+创建”
  3. 选择“上传”并上传您生成的文件

贡献

知道如何使这个项目变得更好吗?发送公关!

下载源码

通过命令行克隆项目:

git clone https://github.com/BuilderIO/gpt-crawler.git

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

左子网 编程相关 gpt crawler https://www.zuozi.net/33880.html

nodegit
上一篇: nodegit
magic_enum
下一篇: magic_enum
常见问题
  • 1、自动:拍下后,点击(下载)链接即可下载;2、手动:拍下后,联系卖家发放即可或者联系官方找开发者发货。
查看详情
  • 1、源码默认交易周期:手动发货商品为1-3天,并且用户付款金额将会进入平台担保直到交易完成或者3-7天即可发放,如遇纠纷无限期延长收款金额直至纠纷解决或者退款!;
查看详情
  • 1、描述:源码描述(含标题)与实际源码不一致的(例:货不对板); 2、演示:有演示站时,与实际源码小于95%一致的(但描述中有”不保证完全一样、有变化的可能性”类似显著声明的除外); 3、发货:不发货可无理由退款; 4、安装:免费提供安装服务的源码但卖家不履行的; 5、收费:价格虚标,额外收取其他费用的(但描述中有显著声明或双方交易前有商定的除外); 6、其他:如质量方面的硬性常规问题BUG等。 注:经核实符合上述任一,均支持退款,但卖家予以积极解决问题则除外。
查看详情
  • 1、左子会对双方交易的过程及交易商品的快照进行永久存档,以确保交易的真实、有效、安全! 2、左子无法对如“永久包更新”、“永久技术支持”等类似交易之后的商家承诺做担保,请买家自行鉴别; 3、在源码同时有网站演示与图片演示,且站演与图演不一致时,默认按图演作为纠纷评判依据(特别声明或有商定除外); 4、在没有”无任何正当退款依据”的前提下,商品写有”一旦售出,概不支持退款”等类似的声明,视为无效声明; 5、在未拍下前,双方在QQ上所商定的交易内容,亦可成为纠纷评判依据(商定与描述冲突时,商定为准); 6、因聊天记录可作为纠纷评判依据,故双方联系时,只与对方在左子上所留的QQ、手机号沟通,以防对方不承认自我承诺。 7、虽然交易产生纠纷的几率很小,但一定要保留如聊天记录、手机短信等这样的重要信息,以防产生纠纷时便于左子介入快速处理。
查看详情

相关文章

猜你喜欢
发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务