Deep Learning in Production

2025-12-07 0 167

深度学习生产

在此存储库中,我将分享一些有关在生产中部署深度学习模型有用注释和参考。

转换生产中的Pytorch模型:

  • Pytorch生产级教程[很棒]
  • 通往1.0的道路:生产准备
  • Pytorch 1.0跟踪JIT和LIBTORCH C ++ API将Pytorch集成到Nodejs [好文章]
  • pytorch中的模型
  • Pytorch Summer Hackathon [非常重要]
  • 使用烧瓶部署Pytorch并建造REST API [重要]
  • Pytorch型号识别部署在烧瓶上的热狗和未开玩笑的模型
  • 将Pytorch 1.0模型作为C ++中的Web服务器[有用的示例]
  • pytorch内部[有趣而有用的文章]
  • 烧瓶应用以支持Pytorch模型预测
  • 在烧瓶螺纹安全上提供Pytorch型号
  • 使用Caffe2和onnx在AWS lambda上使用Pytorch型号
  • 使用Caffe2和onnx在AWS lambda上使用Pytorch模型(另一个版本)
  • 深入研究ONNX运行时
  • EuclidesDB-带Pytorch的多模型机器学习功能数据库
  • Euclidesdb -github
  • WebDNN:Web浏览器上的最快DNN执行框架
  • Fastai Pytorch无服务器API(带有AWS lambda)
  • Fastai Pytorch生产(讨论)
  • OpenMMLAB模型部署框架
  • Pytorch本地体系结构优化:Torchao
  • Torchserve [出色的工具]
  • Torchserve视频教程
  • Litserve:快速提供AI模型闪电

将Pytorch型号转换为C ++:

  • 在C ++中加载Pytorch型号[奇妙]
  • Pytorch C ++ API [ BRAVO ]
  • 火炬介绍(Pytorch)C ++前端[非常好]
  • 关于使用Pytorch C ++ API的博客[良好]
  • Aten:张量库
  • 关于类似Pytorch的C ++接口的重要问题
  • Pytorch C ++ API测试
  • Pytorch通过C ++ [有用的注释]
  • 自动加热
  • Pytorch C ++库
  • 直接C ++接口到Pytorch
  • 用于将Pytorch图编译为C的Python模块

在生产中部署TensorFlow模型:

  • 如何使用TensorFlow部署机器学习模型-Part1
  • 如何使用TensorFlow部署机器学习模型-Part2
  • 如何使用TensorFlow部署机器学习模型-Part3
  • Tensorflow中的神经结构学习(NSL)[ Great ]
  • 建立强大的生产准备深度学习视觉模型
  • 为TensorFlow模型创建REST API
  • Siraj Raval在YouTube上的“如何在生产中部署张量流模型”
  • Siraj Raval在YouTube上的“如何在生产中部署TensorFlow模型”的代码
  • 如何使用TensorFlow服务部署对象检测模型[非常好的教程]
  • 冻结TensorFlow模型并在网络上服务[非常好的教程]
  • 如何使用TF服务将张量流模型部署到生产中[]
  • Zendesk如何在生产中提供张量流模型
  • TensorFlow服务示例项目
  • 使用TensorFlow服务中的生产模型[ Tensorflow Dev Summit 2017视频]
  • 建立张量作为独立项目
  • TensorFlow C ++ API示例
  • tensorflow.js
  • 引入TensorFlow.js:JavaScript中的机器学习

将Keras模型转换为生产:

  • 与Keras,Redis,Flask和Apache一起Deep Learning in Production [等级:第一和一般有用教程]
  • 在Python中部署Keras深度学习模型作为Web应用程序[非常好]
  • 在AWS上部署Python Web应用程序[非常好]
  • 部署深度学习模型第1部分:准备模型
  • 部署您的Keras模型
  • 使用keras.js部署KERAS模型
  • Siraj Raval在YouTube上的“如何将Keras模型部署到生产中”
  • 在10分钟内用烧瓶作为Web应用程序部署Keras模型[好存储库]
  • 用烧瓶部署Keras深学习模型
  • keras2cpp

在生产中部署MXNET模型:

  • apache mxnet的模型服务器
  • 运行模型服务器
  • 多模型服务器(MMS)文档
  • 引入Apache MXNET的模型服务器
  • 单拍多对象检测推理服务
  • 亚马逊射手制造商
  • 我们如何服务使用Gluon API构建的MXNET模型
  • MXNET C ++软件包
  • MXNET C ++软件包示例
  • MXNET图像分类示例C ++
  • MXNET C ++教程
  • MXNET API简介[学习MXNET的很好的教程]
  • Gluoncv
  • Gluonnlp
  • 生产级神经网络推断的模型量化[优秀]

使用GO部署机器学习模型:

  • 皮层:在生产中部署机器学习模型
  • Cortex-主页
  • 为什么我们使用GO部署机器学习模型 – 而不是Python
  • torch
  • gotch- pytorch的api
  • Tensorflow Go lang
  • go-onnx

一般深度学习部署工具包:

  • OpenVino Toolkit-深度学习部署工具包存储库[ Great ]
  • Clearml -ML/DL开发和生产套件
  • 使用Heroku的模型部署:Heroku的完整指南[Good]
  • NVIDIA TRITON推理服务器[ Great ]
  • NVIDIA TRITON推理服务器-Github [ Great ]
  • 与NVIDIA TRITON推理服务器相连的推理速度
  • NVIDIA深度学习示例的张力核心[有趣]
  • 使用Triton推理服务器部署Jasper推理模型[有用]
  • NVIDIA MLOPS课程通过Triton
  • 很棒的生产机器学习[伟大]
  • Bentoml模型服务

华为深度学习框架:

  • 思维孔 – 华为深度学习框架
  • Mindspore-教程

一般深度学习编译器堆栈:

  • TVM堆栈

深度学习框架之间的模型转换:

  • ONNX(开放神经网络交换)
  • 使用ONNX的教程
  • mmdnn [奇妙]
  • 将完整的Imagenet预先训练的模型从MXNET转换为Pytorch [奇妙和完整的Imagenet模型是指在〜14m图像上训练的模型]

一些Caffe2教程:

  • 使用caffe2的mnist
  • caffe2 C ++教程和示例
  • 使Caffe2上的Squeezenet进行转移学习
  • 通过在C ++中使用CAFFE2框架来构建基本程序

设计UI的一些有用资源(前端开发):

  • ReactJs vs angular5 vs vue.js
  • 角度和反应及其核心语言之间的比较
  • 成为全栈开发人员的指南[非常好的教程]
  • 在2018年成为网络开发人员的路线图[非常好的存储库]
  • 2018年现代前端开发人员
  • 成为2018年成为React开发人员的路线图
  • 2019 UI和UX设计趋势[]
  • 简化[构建自定义ML工具的最快方法]
  • Gradio []
  • 网络开发人员月度
  • 23最佳React UI组件框架
  • 2018年的9个React样式组件UI库
  • 35 UI设计的新工具
  • 5种加快应用程序开发的工具[非常好]
  • 如何使用WebPack 4,Babel 7和材料设计使用ReactJS
  • Adobe Typekit [大字体,您需要它们]
  • 使用Angular 6构建现实世界美丽的网络应用
  • 你不知道JS
  • JavaScript前10篇文章
  • 使用Adobe XD的网页设计
  • Inspinia Bootstrap Web主题
  • 前端开发人员的学习跟踪器
  • 最好的前端黑客作弊表 – 全部在一个地方[有用&有趣]
  • 对机器学习工作流程(机器流)进行配对
  • 电子 – 使用JavaScript构建跨平台桌面应用程序[非常好]
  • Opyrator-将Python的功能转换为Web API [ Great ]的微服务
  • 首次查看Pyscript:Web浏览器中的Python [ Fimfter ]

移动和嵌入式设备开发:

  • Pytorch手机[优秀]
  • 2018年移动UI设计趋势
  • NCNN-针对移动平台优化的高性能神经网络推理框架[有用]
  • 阿里巴巴-MNN
  • 很棒的移动机器学习
  • EMDL-嵌入式和移动深度学习
  • Fritz- iOS和Android的机器学习平台
  • Tensorflow Lite
  • 微小的机器学习:下一个AI革命
  • TLT -NVIDIA转移学习工具包
  • NVIDIA JETSON推断[伟大]
  • Editificml.AI讲座(麻省理工学院课程)
  • Pytorch Edge:使用Executorch启用跨移动和边缘设备的设备推理

后端开发部分:

  • 2018年现代后端开发人员
  • 部署前端应用程序 – 有趣的方式[非常好]
  • RABBITMQ [消息经纪软件]
  • 芹菜[分布式任务队列]
  • kafka [分布式流式平台]
  • Dockerme的Docker培训
  • kubernetes -github
  • 在Google Kubernetes引擎上部署机器学习管道
  • 数据科学家的Kubernetes简介
  • Jenkins和Kubernetes和Docker桌面
  • 掌舵:Kubernetes的包装经理
  • 使用Docker群创建群集
  • Deepo-所有DL框架尊敬的Docker图像
  • KubeFlow [ ML工作流程在Kubernetes上的部署]
  • kubespray-部署生产准备就绪的kubernetes群集
  • KFSERVING -KUBERNETES用于服务ML模型
  • 用KFServing部署拥抱面NLP模型[有趣]
  • Seldon Core-在Kubernetes上部署机器学习模型
  • Seldon Core -GitHub
  • 机器学习:在Ubuntu上使用KubeFlow服务模型,第1部分
  • CoreWeave Kubernetes云
  • MLOPS参考[ ML的DevOps ]
  • 数据版本控制-DVC [ Great ]
  • MLEM:软件包和部署机器学习模型
  • Pysyft-一个用于加密的,隐私的图书馆,保存深度学习
  • LocalStack-功能齐全的本地AWS云堆栈
  • 诗歌:Python包装和依赖管理
  • Netflix的强大数据库选择用于大规模流式传输
  • Ray:统一缩放AI和Python应用程序的统一框架

GPU管理库:

  • gputil
  • PY3NVML [ Python 3与NVIDIA管理库结合]
  • pycuda -github
  • pycuda
  • Pycuda教程
  • setgpu
  • 监视您的GPU [优秀]
  • GPU-burn-多GPU CUDA应力测试[有用]
  • Grafana-监测和可观察性[极好]
  • Prometheus [非常适合监视解决方案和提取所需指标]
  • Openai Triton:神经网络的开源GPU编程

加速和Scalabale Python代码:

  • numba-快速制作Python代码
  • dask-天生的缩放python
  • 什么是dask
  • Ray-运行分布式应用程序
  • 神经网络蒸馏器[ Pytorch中深度学习模型的蒸馏和量化]
  • Autodistill
  • Pytorch修剪教程
  • 您可以删除99%的神经网络而不会失去准确性吗? – 修剪体重的简介
  • PocketFlow-自动型号压缩(AUTOMC)框架[伟大]
  • 引入张量流的模型优化工具包
  • Tensorflow模型优化工具包 – 训练后整数量化
  • Tensorflow训练后量化
  • pytorch中的动态量化
  • pytorch中的静态量化
  • NVIDIA DALI-深度学习中预处理的高度优化数据
  • Horovod-分布式培训框架
  • onnx float32到float16
  • 加快使用张力的深度学习推断
  • 加快训练
  • 本地Pytorch自动混合精度,以更快地训练NVIDIA GPU
  • JAX- PYTHON+NUMPY程序的可组合转换
  • Tensorrtx-张力的流行DL网络
  • 使用TensorFlow,ONNX和Tensorrt加速深度学习推断
  • Tensorrt开发人员指南
  • 如何将模型从pytorch转换为张力并加快推理[]
  • CUDF:GPU DataFrame库
  • CUDF示例

深度学习的硬件笔记:

  • 深度学习的硬件

MLOPS课程和资源:

  • Mlops-Basics [伟大]
  • MLOPS-Zoomcamp [Great]
  • 一系列资源来了解MLOP [伟大]
  • 很棒的MLOP [伟大]
  • 数据科学主题和MLOP [Great]
  • MLEM:软件包和部署机器学习模型
  • DevOps练习
  • MLOPS样本项目
  • 县长:编排和观察您的所有工作流程
  • Datatalks Club:谈论数据的地方
  • OpenNMT ctranslate2:变压器模型的快速推理引擎

其他:

  • 生产水平深度学习指南
  • Facebook表示,开发人员会喜欢Pytorch 1.0
  • 一些Pytorch工作流程变化
  • WANDB-一种可视化和跟踪机器学习实验的工具
  • Pytorch和Caffe2存储库越来越近
  • Pytorch还是Tensorflow?
  • 在2018年选择深度学习框架:Tensorflow还是Pytorch?
  • Pytorch和Tensorflow之间的深度学习战争
  • 将机器学习模型嵌入Web应用程序(第1部分)
  • 部署深度学习模型:第1部分概述
  • 生产机器学习
  • 如何通过Python进行2–6倍的数据进行2–6倍的速度
  • 使您的C库从Python callable
  • Mil Webdnn
  • 多GPU框架比较[伟大]

下载源码

通过命令行克隆项目:

git clone https://github.com/ahkarami/Deep-Learning-in-Production.git

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

左子网 开发教程 Deep Learning in Production https://www.zuozi.net/32028.html

run aspnetcore
上一篇: run aspnetcore
Gopherus
下一篇: Gopherus
常见问题
  • 1、自动:拍下后,点击(下载)链接即可下载;2、手动:拍下后,联系卖家发放即可或者联系官方找开发者发货。
查看详情
  • 1、源码默认交易周期:手动发货商品为1-3天,并且用户付款金额将会进入平台担保直到交易完成或者3-7天即可发放,如遇纠纷无限期延长收款金额直至纠纷解决或者退款!;
查看详情
  • 1、描述:源码描述(含标题)与实际源码不一致的(例:货不对板); 2、演示:有演示站时,与实际源码小于95%一致的(但描述中有”不保证完全一样、有变化的可能性”类似显著声明的除外); 3、发货:不发货可无理由退款; 4、安装:免费提供安装服务的源码但卖家不履行的; 5、收费:价格虚标,额外收取其他费用的(但描述中有显著声明或双方交易前有商定的除外); 6、其他:如质量方面的硬性常规问题BUG等。 注:经核实符合上述任一,均支持退款,但卖家予以积极解决问题则除外。
查看详情
  • 1、左子会对双方交易的过程及交易商品的快照进行永久存档,以确保交易的真实、有效、安全! 2、左子无法对如“永久包更新”、“永久技术支持”等类似交易之后的商家承诺做担保,请买家自行鉴别; 3、在源码同时有网站演示与图片演示,且站演与图演不一致时,默认按图演作为纠纷评判依据(特别声明或有商定除外); 4、在没有”无任何正当退款依据”的前提下,商品写有”一旦售出,概不支持退款”等类似的声明,视为无效声明; 5、在未拍下前,双方在QQ上所商定的交易内容,亦可成为纠纷评判依据(商定与描述冲突时,商定为准); 6、因聊天记录可作为纠纷评判依据,故双方联系时,只与对方在左子上所留的QQ、手机号沟通,以防对方不承认自我承诺。 7、虽然交易产生纠纷的几率很小,但一定要保留如聊天记录、手机短信等这样的重要信息,以防产生纠纷时便于左子介入快速处理。
查看详情

相关文章

猜你喜欢
发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务