NeuroSandboxWebUI

2025-12-11 0 244

功能|依赖项| SystemsRequirentess |安装| Wiki |确认|许可证

  • 正在进行中,但稳定!
  • 英语| n 汉语

描述:

一个简单便捷的接口,用于使用各种神经网络模型。您可以使用文本,语音和图像输入与LLM通信;使用Stablediffusion,Kandinsky,Flux,Hunyuandit,Lumina-T2X,Kolors,Auraflow,Würstchen,DeepfloyDif,Pixart,Cogview3-Plus和Playgroundv2.5,以生成图像; Modelscope,Zeroscope 2,Cogvideox和Latte生成视频; stablefast3d,shap-e和Zero123plus生成3D对象;稳定的曲目,听觉司法部和AudiOldm 2来产生音乐和音频; Coquitts,MMS和Sunobark,用于文本到语音; Openai-Whisper和MMS的语音到文本; Wav2lip用于唇部同步;活动画图像的LivePortrait; Roop to faceswap; REMBG删除背景;面部还原的代码形式;图像像素化的Pixeloe;图像着色的ddcolor; libretranslate和seamlessm4Tv2用于文本翻译;用于音频文件分离的DEMUC和UVR; RVC进行语音转换。您还可以从图库中的输出目录中查看文件,下载LLM和Stablediffusion模型,更改接口内的应用程序设置,然后检查系统传感器

项目的目标 – 创建最简单的使用神经网络模型的应用程序

文本:

图像:

视频:

3D:

声音的:

Extras:

界面:

特征:

  • 通过install.bat(Windows)或install.sh(Linux&MacOS)轻松安装
  • 您可以通过Localhost的移动设备(通过IPv4)或在线(通过共享)使用该应用程序
  • 灵活和优化的界面(通过Gradio)
  • InstallUpdate文件中调试记录到日志
  • 有三种语言可用
  • 支持变形金刚,BNB,GPTQ,AWQ,EXLLAMAV2和LLAMA.CPP模型(LLM)
  • Support for diffusers and safetensors models (StableDiffusion) – txt2img, img2img, depth2img, marigold, pix2pix, controlnet, upscale (latent), refiner, inpaint, outpaint, gligen, diffedit, blip-diffusion, animatediff, hotshot-xl, video, ldm3d, sd3, cascade, t2i-ip-audapter,ip-audapter-faceid和Riffusion选项卡
  • 支持稳定扩散-CPP模型用于通量和稳定扩散
  • Support of additional models for image generation: Kandinsky (txt2img, img2img, inpaint), Flux (txt2img with cpp quantize and LoRA support, img2img, inpaint, controlnet), HunyuanDiT (txt2img, controlnet), Lumina-T2X, Kolors (txt2img with LoRA support, img2img, ip-adapter-plus), Auraflow(带有Lora和Aurasr支持),Würstchen,DeepFloyDif(TXT2IMG,IMG2IMG,Inpaint),Pixart,cogview3-plus和Playgroundv2.52.5
  • 使用REMBG,CodeFormer,Pixeloe,Ddcolor,downscale,Format Changer,FacesWap(Roop)(Roop)和高档(Real-Esrgan)型号的支持额外的款项
  • 支持稳定
  • 支持听力(型号:Musicgen,Audiogen和Magnet)
  • 支持AudiOldm 2(型号:音频和音乐)
  • 支持TTS和耳语模型(对于LLM和TTS-STT)
  • 支持文本到语音和语音到文本的MMS
  • Supports Lora, Textual inversion (embedding), Vae, MagicPrompt, Img2img, Depth, Marigold, Pix2Pix, Controlnet, Upscale (latent), Refiner, Inpaint, Outpaint, GLIGEN, DiffEdit, BLIP-Diffusion, AnimateDiff, HotShot-XL, Videos, LDM3D, SD3, Cascade, T2I-IP-ADAPTER,IP-ADAPTER-FACEID和RIFFUSION模型(用于可稳定率)
  • 支持多播扩散模型(用于听觉)
  • 支持LibrEtranslate(本地API)和SeamlessM4TV2用于语言翻译
  • 支持Modelscope,Zeroscope 2,Cogvideox和拿铁咖啡用于视频生成
  • 支持Sunobark
  • 支持DEMUC和UVR进行音频文件分离
  • 支持RVC语音转换
  • 支持StableFast3D,Shap-E和Zero123plus 3D代
  • 支持wav2lip
  • 支持LivePortrait以动画图像
  • 支持多模式(Moondream 2,Llava-Next-Video,Qwen2-audio),PDF-Parsing(OpenParse),TTS(Coquitts),STT(Whisper),Lora和WebSearch(with Duckduckgo)
  • 用于生成图像,视频和音频的元数据INFO查看器
  • 界面内的模型设置
  • 在线和离线Wiki
  • 画廊
  • ModelDownloader
  • 应用程序设置
  • 看到系统传感器的能力

所需的依赖项:

  • Python(3.10.11)
  • git
  • 仅适用于GPU版本:Cuda(12.4)和Cudnn(9.1)
  • ffmpeg
  • C+编译器
    • Windows:VisualStudio,VisualStudiocode和Cmake
    • Linux:GCC,VisualStudiocode和Cmake

最低系统要求:

  • 系统:Windows,Linux或MacOS
  • GPU:6GB+或CPU:8 Core 3.6GHz
  • RAM:16GB+
  • 磁盘空间:20GB+
  • 用于下载模型和安装的互联网

如何安装:

视窗

  1. 首先安装所有必需的依赖性
  2. Git clone https://github*.co**m/Dartvauder/NeuroSandboxWebUI.git到任何位置
  3. 运行Install.bat ,选择您的版本并等待安装
  4. 安装后,运行Start.bat并通过初始设置
  5. 等待应用程序启动并关注终端的链接
  6. 现在您可以开始生成。享受!
  • 要获取更新,请运行Update.bat
  • 通过终端与虚拟环境一起工作,请运行Venv.bat

Linux&MacOS

  1. 首先安装所有必需的依赖性
  2. Git clone https://github*.co**m/Dartvauder/NeuroSandboxWebUI.git到任何位置
  3. 运行./Install.sh ,选择您的版本并等待安装
  4. 安装后,运行./Start.sh并进行初始设置
  5. 等待应用程序启动并关注终端的链接
  6. 现在您可以开始生成。享受!
  • 要进行更新,请运行./Update.sh
  • 要通过终端与虚拟环境一起运行./Venv.sh

Wiki

感谢开发人员

非常感谢这些项目,因为由于他们的应用程序/库,我能够创建我的应用程序:

首先,我要感谢Pycharm和Github的开发人员。在他们的应用程序的帮助下,我能够创建和共享我的代码

  • gradio -https://github.com/gradio-app/gradio
  • transformers -https://github.com/huggingface/transformers
  • auto-gptq -https://github.com/autogptq/autogptq
  • autoawq -https://github.com/casper-hansen/autoawq
  • exllamav2 -https://github.com/turboderp/exllamav2
  • coqui-tts -https://github.com/idiap/coqui-ai-tts
  • openai-whisper -https://github.com/openai/whisper
  • torch -https://github.com/pytorch/pytorch
  • cuda-python -https://github.com/nvidia/cuda-python
  • gitpython -https://github.com/gitpython-developers/gitpython
  • diffusers -https://github.com/huggingface/diffusers
  • llama.cpp-python -https://github.com/abetlen/llama-cpp-python
  • stable-diffusion-cpp-python -https://github.com/william-murray1204/stable-diffusion-cpp-python
  • audiocraft -https://github.com/facebookresearch/audiocraft
  • xformers -https://github.com/facebookresearch/xformers
  • demucs -https://github.com/facebookresearch/demucs
  • libretranslatepy -https://github.com/argosopentech/libretranslate-py
  • rembg -https://github.com/danielgatis/rembg
  • suno-bark -https://github.com/suno-ai/bark
  • IP-Adapter -https://github.com/tencent-ailab/ip-adapter
  • PyNanoInstantMeshes -https://github.com/vork/pynanoinstantmeshes
  • CLIP -https://github.com/openai/clip
  • rvc-python -https://github.com/daswer123/rvc-python
  • audio-separator -https://github.com/nomadkaraoke/python-audio-separator
  • pixeloe -https://github.com/kohakublueleaf/pixeloe
  • k-diffusion -https://github.com/crowsonkb/k-diffusion
  • open-parse -https://github.com/filimoa/open-parse
  • AudioSR -https://github.com/haoheliu/versatile_audio_super_resolution
  • sd_embed -https://github.com/xhinker/sd_embed
  • triton -https://github.com/triton-lang/triton/

第三方许可证:

许多型号都有自己的使用许可证。在使用之前,我建议您熟悉它们:

  • 变压器
  • AutoGPTQ
  • AutoAWQ
  • Exllamav2
  • Llama.cpp
  • 稳定扩散
  • coquitts
  • Openai-whisper
  • librenslate
  • 扩散器
  • Stablediffusion1.5
  • Stablediffusion2
  • Stablediffusion3
  • Stablediffusion3.5
  • StablediffusionXl
  • Stablecascade
  • netent -DiffusionModel3d
  • 稳定的VIDEDISPUSHION
  • i2vgen-xl
  • REMBG
  • 形状
  • 稳固的蛋白
  • 听众
  • AudiOldM2
  • demucs
  • Sunobark
  • Moondream2
  • llava-next-video
  • qwen2-audio
  • Zeroscope2
  • gligen
  • wav2lip
  • Roop
  • CodeFormer
  • 控制网
  • Animatediff
  • PIX2PIX
  • Kandinsky 2.1; 2.2; 3
  • Flux-Schnell
  • 通量dev
  • Hunyuandit
  • Lumina-t2x
  • deepfloydif
  • Pixart
  • Cogvideox
  • 拿铁
  • Kolors
  • Auraflow
  • Würstchen
  • ModelsCope
  • StableFast3D
  • Zero123plus
  • 房地产
  • 炼油厂
  • Playgroundv2.5
  • Aurasr
  • IP-ADAPTER-FACEID
  • T2I-IP-ADAPTER
  • MMS
  • SeamlessM4TV2
  • hotshot-xl
  • 复活
  • Mozillacommonvoice17
  • UVR-MDX
  • RVC
  • ddcolor
  • Pixeloe
  • LivePortrait
  • Magic Prompt
  • 万寿菊
  • Blip扩散
  • 一致性解码器
  • 微小的Autoencoder
  • cogview3-plus

这些第三方存储库代码也在我的项目中使用:

  • 额外的代码形式
  • 真实的Esrgan进行高档
  • Hotshot-XL用于可stablediffusion
  • Roop for Extras
  • 3D的StableFast3D
  • 重新稳定式
  • ddcolor用于附加功能
  • 视频的LivePortrait
  • taesd用于稳定和通量

捐款

如果您喜欢我的项目并想捐赠,这里是捐赠的选择。非常感谢您!

星历史

下载源码

通过命令行克隆项目:

git clone https://github.com/Dartvauder/NeuroSandboxWebUI.git

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

左子网 编程相关 NeuroSandboxWebUI https://www.zuozi.net/34103.html

libimobiledevice
上一篇: libimobiledevice
aeron
下一篇: aeron
常见问题
  • 1、自动:拍下后,点击(下载)链接即可下载;2、手动:拍下后,联系卖家发放即可或者联系官方找开发者发货。
查看详情
  • 1、源码默认交易周期:手动发货商品为1-3天,并且用户付款金额将会进入平台担保直到交易完成或者3-7天即可发放,如遇纠纷无限期延长收款金额直至纠纷解决或者退款!;
查看详情
  • 1、描述:源码描述(含标题)与实际源码不一致的(例:货不对板); 2、演示:有演示站时,与实际源码小于95%一致的(但描述中有”不保证完全一样、有变化的可能性”类似显著声明的除外); 3、发货:不发货可无理由退款; 4、安装:免费提供安装服务的源码但卖家不履行的; 5、收费:价格虚标,额外收取其他费用的(但描述中有显著声明或双方交易前有商定的除外); 6、其他:如质量方面的硬性常规问题BUG等。 注:经核实符合上述任一,均支持退款,但卖家予以积极解决问题则除外。
查看详情
  • 1、左子会对双方交易的过程及交易商品的快照进行永久存档,以确保交易的真实、有效、安全! 2、左子无法对如“永久包更新”、“永久技术支持”等类似交易之后的商家承诺做担保,请买家自行鉴别; 3、在源码同时有网站演示与图片演示,且站演与图演不一致时,默认按图演作为纠纷评判依据(特别声明或有商定除外); 4、在没有”无任何正当退款依据”的前提下,商品写有”一旦售出,概不支持退款”等类似的声明,视为无效声明; 5、在未拍下前,双方在QQ上所商定的交易内容,亦可成为纠纷评判依据(商定与描述冲突时,商定为准); 6、因聊天记录可作为纠纷评判依据,故双方联系时,只与对方在左子上所留的QQ、手机号沟通,以防对方不承认自我承诺。 7、虽然交易产生纠纷的几率很小,但一定要保留如聊天记录、手机短信等这样的重要信息,以防产生纠纷时便于左子介入快速处理。
查看详情

相关文章

猜你喜欢
发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务