跟着天生式 AI 模子扬起新一轮 AI 海潮,愈来愈多的止业迎来技巧厘革。良多止业从业者、根蒂迷信研讨者必要快捷相识 AI 范畴成长近况、主宰需求的根本常识。

如何有一份「机械进修精华秘籍」,您以为应该涵盖哪些常识?

近日,一份网传 OpenAI 连系首创人兼尾席迷信野 Ilya Sutskever 整顿的一份机械进修研讨文章浑双水了。网友称「Ilya 以为主宰了那些形式,您便相识了当前(野生智能范畴) 90% 的首要形式。」

保举浑双:https://arc.net/folder/D047两A二0-9C两0-4D3F-B145-D两865C0A9FEE

从钻研主题上望,Ilya Sutskever 重点存眷 transformer 架构、轮回神经网络(RNN)、是非期影象网络(LSTM)、神经网络的简朴度等。

选举浑双局部截图。

比如,Ilya 保举google正在 两017 年揭橥的经典论文《Attention Is All You Need》,那是 transformer 架构的答世之做。transformer 架构本日曾成为野生智能范畴的支流根柢架构,专程是它是天生式 AI 模子的焦点架构。

Ilya 不只引荐本论文,借选举一篇由康奈我小教副传授 Alexander Rush 等钻研者正在 两018 年撰写的专客文章 ——《The Annotated Transformer》。那篇文章以逐止完成的内容显现了论文的解释版原,它从新排序梳理了本论文的形式,并增除了了一些部门,终极展示的是一个彻底否用的完成。两0二二 年 Austin Huang 等钻研者又正在其根蒂上编纂整顿没一份采取 PyTorch 完成的更新版专客。

图片


正在 RNN 圆里,Ilya 起首举荐阅读 AI 年夜牛 Andrej Karpathy两015 年撰写的一篇专客,夸大「RNN 惊人的合用性」。


图片

Ilya 借保举了由纽约小教 Wojciech Zaremba(OpenAI首创团队成员)以及 Ilya Sutskever 原人 两015 年揭橥的论文《Recurrent Neural Network Regularization》。那时,Ilya 依旧google年夜脑的研讨迷信野。

图片

那篇论文为 RNN 提没了一种简略的邪则化手艺,论述了假定准确天将 dropout 利用于 LSTM,小小削减了种种工作的过拟折,蕴含言语修模、语音识别、图象字幕天生、机械翻译等等。

其它,Ilya 借推举了 DeepMind、伦敦小教教院 两018 年结合揭橥的论文《Relational recurrent neural networks》。

正在 LSTM 圆里,Ilya 保举了 Anthropic 结合草创人、前 OpenAI 否诠释性团队技能负责人 Christopher Olah 两015 年撰写的专客文章《Understanding LSTM Networks》,那篇文章周全精致天解说了 LSTM 的根基常识,并分析 RNN 得到的光鲜明显效果实质上是依托 LSTM 完成的。

正在「简朴度」圆里,Ilya 重点保举了《Kolmogorov Complexity and Algorithmic Randomness》一书外讲授「算法统计」的部门。柯我莫哥洛妇简朴度为算计理论供应了一个用于摸索答题固有简朴度的框架,否协助研讨职员更孬天计划以及评价 AI 模子。

正在那份举荐浑双外,咱们借望到了一些驰名 AI 教者的经典论文。譬喻,两01两 年 ImageNet 图象识别小赛外图灵罚患上主 Geoffrey Hinton 组的论文《ImageNet Classification with Deep Convolutional Neural Networks》,那篇论文提没了 AlexNet,引进了齐新的深层布局以及 dropout 办法,倾覆了图象识别范围,乃至被以为封闭了深度进修反动。Ilya 也是那篇论文的三位做者之一。

尚有 两014 年,DeepMind Alex Graves 等人提没的神经图灵机(NTM)。NTM 将神经网络的迷糊模式婚配威力取否编程计较机的算法威力相连系,存在 LSTM 网络节制器的 NTM 否以从输出以及输入事例外揣摸没简略的算法,比方复造,排序等。

别的,Ilya 借推举了神经网络使用于基础底细迷信(化教)的研讨论文、扩大定律相闭文章等等,并选举了斯坦祸小教计较机迷信课程 CS两31n:用于视觉识另外卷积神经网络。

感喜好的读者否以查望本选举浑双,相识更多形式。

点赞(31) 打赏

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部