Daily DeepLearning

2025-12-10 0 442

Daily-DeepLearning

欢迎来到 Daily-DearnLearning,涵盖计算机基础课程、Python快速入门、数据科学包的使用、机器学习、深度学习、自然语言处理、LLM等。

2017年:Attention is All you need

Background

在《Attention is all you need》之前,因为李飞飞教授推动的ImageNet数据集、GPU算力的提升,像CNN刚刚开始流行起来,如用Tensoflow或者Theano写一个手写数字识别。后来开始有人在NLP领域,用word2vec和LSTM的组合,在很多领域里做到SOTA的效果。后来就是2017年,由Google团队提出的这篇里程碑式的论文

核心解析 | 论文链接 | 简单例子 | 自注意力机制 | 多头注意力 | 位置编码 | Harvard NLP PyTorch实现Transformer | Transformer复现

2018年 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

Background

Bert比较特殊的地方在于采用了双向上下文建模,通过掩码语言模型(Masked language Model),同时利用左右两侧上下文,解决传统模型中的单向性问题。还有很重要的一点,从Bert看来是,形成了“预训练+微调”的新范式,统一了多种NLP任务的框架,仅需在预训练模型基础上添加简单任务头即可适配下游任务。当时在11项NLP任务上刷新SOTA,开启了大规模预训练模型(Pre-trained Language Model, PLM)时代。

Bert解析 | 论文链接 | Bert复现

2018年 GPT1:Generative Pre-trained Transformer

Background

在NLP任务依赖定制化模型、传统单向语言模型(如LSTM)难以建模长距离上下文的背景下,GPT-1首次将Transformer解码器架构与无监督预训练结合,提出“生成式预训练+微调”范式。通过自回归预训练(预测下一个词)学习通用文本表示,仅需简单微调即可适配分类、推理等任务,在12项NLP任务中9项达到SOTA,验证了大模型规模化训练的潜力,为后续GPT系列奠定了基础。

2018年 ELMo:Embeddings from Language Models

Background

ELMo这个工作主要还是对词向量的改进,从静态的词向量转变成动态词向量,从而提升各项NLP任务上的性能。虽然和GPT、BERT在同一年的工作,但其实应该放在这两项工作前面的,从马后炮的角度来说,主要用的还是双向LSTM,相较于Transformer这样支持并行计算的架构,再配合上MLM来捕捉双向上下文。

ELMo解析 | 论文链接

More….


计算机基础课程

数据结构

基本概念和算法评价 | 线性表 | 栈和队列 | 树和二叉树 | 图 | 查找 | 排序

操作系统

操作系统的基本概念 | 操作系统的发展和分类 | 操作系统的运行环境 | 进程和线程 | 处理机调度 | 进程同步 | 死锁 | 内容管理概念 | 虚拟内存管理 | 文件系统基础

计算机网络

计算机网络概述 | 计算机网络结构体系 | 通信基础 | 奈氏准则和香农定理 | 传输介质 | 物理层设备 | 数据链路层的功能


? Python 快速入门

变量、字符串、数字和运算符 | 列表、元组 | 字典、集合 | 条件语句、循环 | 函数的定义与调用 | 迭代、生成器、迭代器 | 高阶函数、装饰器 | 面向对象编程 | 类的高级特性 | 错误处理与调试 | 文件操作 | 多线程与多进程 | 日期时间、集合、结构体 | 协程与异步编程 | 综合实践


数据科学包的使用

NumPy

创建 ndarray | 数据类型和运算 | 索引和切片 | 矩阵操作

Pandas

加载数据 | 行列选择 | 索引操作 | 数据过滤 | 更新行列 | 数据排序 | 数据聚合 | 数据清洗 | 时间数据处理

Matplotlib

直线图 | 柱状图 | 饼状图 | 堆叠图 | 填充图 | 直方图 | 散点图 | 时序图 | 子图


? 机器学习理论与实战

理论

逻辑回归 | EM 算法 | 集成学习 | 随机森林与 GBDT | ID3/C4.5 算法 | K-means | K 最近邻 | 贝叶斯 | XGBoost/LightGBM | Gradient Boosting | Boosting Tree | 回归树 | XGBoost | GBDT 分类 | GBDT 回归 | LightGBM | CatBoost


?‍♀️ 深度学习理论与实战

理论

Word2Vec | BatchNorm | Dropout | CNN | RNN | LSTM | Attention | ELMo | Transformer | BERT | ALBERT | XLNet

实战

  • TensorFlow

    Hello World | 线性回归 | 逻辑回归 | 基本图像分类

  • PyTorch

    入门 | 自动求导 | 神经网络


? NLP 相关

Word2Vec | LSTM | ELMo | ALBERT | XLNet


? 联系我们

如果你有任何问题或建议,欢迎通过以下方式联系我们:

  • 邮箱:lauzanhing@gmail.com
  • GitHub Issues:https://githu*b*.c*om/yourusername/Daily-DearnLearning/issues

下载源码

通过命令行克隆项目:

git clone https://github.com/zkywsg/Daily-DeepLearning.git

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

左子网 编程相关 Daily DeepLearning https://www.zuozi.net/33168.html

python rvc cli
上一篇: python rvc cli
zxcvbn gui
下一篇: zxcvbn gui
常见问题
  • 1、自动:拍下后,点击(下载)链接即可下载;2、手动:拍下后,联系卖家发放即可或者联系官方找开发者发货。
查看详情
  • 1、源码默认交易周期:手动发货商品为1-3天,并且用户付款金额将会进入平台担保直到交易完成或者3-7天即可发放,如遇纠纷无限期延长收款金额直至纠纷解决或者退款!;
查看详情
  • 1、描述:源码描述(含标题)与实际源码不一致的(例:货不对板); 2、演示:有演示站时,与实际源码小于95%一致的(但描述中有”不保证完全一样、有变化的可能性”类似显著声明的除外); 3、发货:不发货可无理由退款; 4、安装:免费提供安装服务的源码但卖家不履行的; 5、收费:价格虚标,额外收取其他费用的(但描述中有显著声明或双方交易前有商定的除外); 6、其他:如质量方面的硬性常规问题BUG等。 注:经核实符合上述任一,均支持退款,但卖家予以积极解决问题则除外。
查看详情
  • 1、左子会对双方交易的过程及交易商品的快照进行永久存档,以确保交易的真实、有效、安全! 2、左子无法对如“永久包更新”、“永久技术支持”等类似交易之后的商家承诺做担保,请买家自行鉴别; 3、在源码同时有网站演示与图片演示,且站演与图演不一致时,默认按图演作为纠纷评判依据(特别声明或有商定除外); 4、在没有”无任何正当退款依据”的前提下,商品写有”一旦售出,概不支持退款”等类似的声明,视为无效声明; 5、在未拍下前,双方在QQ上所商定的交易内容,亦可成为纠纷评判依据(商定与描述冲突时,商定为准); 6、因聊天记录可作为纠纷评判依据,故双方联系时,只与对方在左子上所留的QQ、手机号沟通,以防对方不承认自我承诺。 7、虽然交易产生纠纷的几率很小,但一定要保留如聊天记录、手机短信等这样的重要信息,以防产生纠纷时便于左子介入快速处理。
查看详情

相关文章

猜你喜欢
发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务