1. 首页
  2. 教育
  3. 深度学习

细数二十一世纪以来深度学习框架的发展历程

当前,各式各样深度学习框架的发展充分赋能机器学习,尤其是深度学习领域,为开发者提供了极致便利。在本文中,Waymo软件工程师LinYuan细数了二十一世纪以来深度学习框架的发展历程,并划分为了石器、青铜、铁器、罗马和工业化时代。

当前,各式各样深度学习框架的发展充分赋能机器学习,尤其是深度学习领域,为开发者提供了极致便利。在本文中,Waymo软件工程师LinYuan细数了二十一世纪以来深度学习框架的发展历程,并划分为了石器、青铜、铁器、罗马和工业化时代。

过去十年,机器学习(尤其是深度学习)领域涌现了大量算法和应用。在这些深度学习算法和应用涌现的背后,是各种各样的深度学习工具和框架。它们是机器学习革命的脚手架:TensorFlow和PyTorch等深度学习框架的广泛使用,使得许多ML从业者能够使用适合的领域特定的编程语言和丰富的构建模块更容易地组装模型。

回顾深度学习框架的演变,我们可以清楚地看到深度学习框架和深度学习算法之间的紧密耦合关系。这种相互依赖的良性循环推动了深度学习框架和工具的快速发展。

细数二十一世纪以来深度学习框架的发展历程

ByNationalmuseet,CCBY-SA3.0,

https://commons.wikimedia.org/w/index.php?curid=90400464

石器时代(21世纪初)

神经网络的概念已经出现一段时间了。在21世纪初之前,有一些工具可以用来描述和开发神经网络。这些工具包括MATLAB、OpenNN、Torch等,它们要么不是专门为神经网络模型开发定制的,要么拥有复杂的用户api,缺乏GPU支持。在此期间,ML实践者在使用这些原始的深度学习框架时不得不做很多繁重的工作。

细数二十一世纪以来深度学习框架的发展历程

ByNationalmuseet,CCBY-SA3.0,

https://commons.wikimedia.org/w/index.php?curid=90400464

青铜时代(~2012年)

2012年,多伦多大学的AlexKrizhevsky等人提出了一种深度神经网络架构,后来被称为AlexNet[1],该架构在ImageNet数据集上达到了SOTA精度,并大大超过了第二名的选手。这一出色的结果引发了深度神经网络的热潮,此后各种深度神经网络模型在ImageNet数据集的准确性上不断创下新高。

大约在这个时候,一些早期的深度学习框架,如Caffe、Chainer和Theano应运而生。使用这些框架,用户可以方便地建立复杂的深度神经网络模型,如CNN、RNN、LSTM等。此外,这些框架还支持多GPU训练,这大大减少了对这些模型的训练时间,并且能够对以前无法装入单一GPU内存的大型模型进行训练。在这些框架中,Caffe和Theano使用声明式编程风格,而Chainer采用命令式编程风格。这两种不同的编程风格也为即将到来的深度学习框架设定了两条不同的开发路径。

细数二十一世纪以来深度学习框架的发展历程

Nordiskfamiljebok—Nordiskfamiljebok(1910),vol.13,Tillart.Järnåldern.https://commons.wikimedia.org/w/index.php?curid=109777

铁器时代(2015~2016)

AlexNet的成功引起了计算机视觉领域的高度关注,并重新点燃了神经网络的希望,大型科技公司加入了开发深度学习框架的行列。其中,谷歌开源了著名的TensorFlow框架,它至今仍是ML领域最流行的深度学习框架。Caffe的发明者加入了Facebook并发布了Caffe2;与此同时,FacebookAI研究(FAIR)团队也发布了另一个流行的框架PyTorch,它基于Torch框架,但使用了更流行的Pythonapi。微软研究院开发了CNTK框架。亚马逊采用了MXNet,这是华盛顿大学、CMU和其他机构的联合学术项目。TensorFlow和CNTK借鉴了Theano的声明式编程风格,而PyTorch则继承了Torch的直观和用户友好的命令式编程风格。命令式编程风格更加灵活(比如定义一个While循环等)并且容易跟踪,而声明式编程风格通常为内存和基于计算图的运行时优化提供了更多的空间。另一方面,被称为「mix」-net的MXNet同时支持一组符号(声明性)api和一组命令式api,并通过一种称为杂交(hybridization)的方法优化了使用命令式api描述的模型的性能,从而享受了这两个领域的好处。2015年,何凯明等人提出了ResNet[2],再次突破了图像分类的边界,在ImageNet的准确率上再创新高。业界和学界已经达成共识,深度学习将成为下一个重大技术趋势,解决各种领域的挑战,这些挑战在过去被认为是不可能的。在此期间,所有深度学习框架都对多GPU训练和分布式训练进行了优化,提供了更加用户直观的api,并衍生出了专门针对计算机视觉、自然语言处理等特定任务的modelzoo和工具包。还值得注意的是,FrancoisChollet几乎是独自开发了Keras框架,该框架在现有框架(如TensorFlow和MXNet)之上提供了神经网络和构建块的更直观的高级抽象。从今天开始,这种抽象成为TensorFlow中模型层面事实上的api。

细数二十一世纪以来深度学习框架的发展历程

ByUserLamréonsv.wikipedia

https://commons.wikimedia.org/w/index.php?curid=801434

罗马时代(2019~2020)

正如人类历史的发展一样,深度学习框架经过一轮激烈的竞争,最终形成了两大「帝国」:TensorFlow和PyTorch的双头垄断,这两大「帝国」代表了深度学习框架研发和生产中95%以上的用例。2019年,Chainer团队_将他们的开发工作转移到PyTorch;类似地,微软_停止了CNTK框架的积极开发,部分团队成员转而支持Windows和ONNX运行时上的PyTorch。Keras被TensorFlow收编,并在TensorFlow2.0版本中成为其高级api之一。在深度学习框架领域,MXNet仍然位居第三。

在此期间,深度学习框架空间有两种趋势。首先是大型模型训练。随着BERT[3]的诞生,以及它的近亲GPT-3[4]的诞生,训练大型模型的能力成为了深度学习框架的理想特性。这就要求深度学习框架能够在数百台(如果不是数千台的话)设备的规模下有效地进行训练。第二个趋势是可用性。这一时期的深度学习框架都采用命令式编程风格,语义灵活,调试方便。同时,这些框架还提供了用户级的装饰器或api,以通过一些JIT(即时)编译器技术实现高性能。

细数二十一世纪以来深度学习框架的发展历程

ByTharunbr77—Ownwork,CCBY-SA4.0,

https://commons.wikimedia.org/w/index.php?curid=86866550

工业时代(2021+)

深度学习在c++fans.com/tags/自动驾驶/’ target=’_blank’ class=’arckwlink_hide’>自动驾驶、个性化推荐、自然语言理解到医疗保健等广泛领域取得了巨大成功,带来了前所未有的用户、开发者和投资者浪潮。这也是未来十年开发深度学习工具和框架的黄金时期。尽管深度学习框架从一开始就有了长足的发展,但它们之于深度学习的地位还远远不如编程语言JAVA/c++之于互联网应用那样的成熟。还有很多令人兴奋的机会和工作有待探索和完成。展望未来,有几个技术趋势有望成为下一代深度学习框架的主流:

基于编译器的算子(operator)优化。

如今,许多操作符内核都是通过手动或第三方库实现的,比如BLAS、CuDNN、OneDNN等,这些库针对特定的硬件平台。当模型被训练或部署在不同的硬件平台上时,这会造成很大的开销。此外,新的深度学习算法的增长速度往往比这些库的迭代速度快得多,这使得这些库常常不支持新的算子。深度学习编译器,如ApacheTVM、MLIR、FacebookGlow等,已经提出了在任何硬件后端上有效优化和运行计算的建议。它们可以作为深度学习框架的整个后端。

统一的API标准。

许多深度学习框架共享类似但略有不同的用户api。这给用户从一个框架切换到另一个框架带来了困难和不必要的学习曲线。虽然大多数机器学习从业者和数据科学家都熟悉NumPy库,但在新的深度学习框架中,NumPyAPI自然会成为tenor操作API的标准。我们已经看到快速发展的框架JAX受到了用户的热烈欢迎,它的api完全与NumPy兼容。

数据搬运作为一等公民。

多节点或多设备训练正在成为深度神经网络训练的规范。最近开发的深度学习框架,如OneFlow,从设计的第一天起就将这一观点纳入设计考虑,并将数据通信视为模型训练的整体计算图的一部分。这为性能优化打开了更多的机会,而且由于它不需要像以前的深度学习框架那样维护多种训练策略(单设备vs分布式训练),因此除了提供更好的性能之外,它还可以提供更简单的用户界面。

总结

我们正处于一场人工智能革命的黎明。人工智能领域的新研究和新应用正在以前所未有的速度涌现。八年前,AlexNet网络包含6000万个参数,最新的GPT-3网络包含1750亿参数,网络规模在8年内增加了3000倍!另一方面,人类的大脑包含大约100万亿个参数(即突触)。这表明,如果有可能的话,神经网络要达到人类的智能水平还有很大的差距。

这种难以接受的网络规模对模型训练和推理的硬件和软件计算效率都提出了很大的挑战。未来的深度学习框架很可能是算法、高性能计算、硬件加速器和分布式系统的跨学科成果。

责任编辑:lq

免责声明:本站旨在传递信息,不代表有传资讯的观点和立场。本站遵循行业规范,如转载您的文章未标注版权,请联系我们(QQ:78799268)改正。本站的原创文章,如若转载,请注明出处:http://www.ainoline.cn/jiaoyu/shenduxuexi/15940.html

发表评论

电子邮件地址不会被公开。 必填项已用*标注

联系我们

在线咨询:点击这里给我发消息

邮件:78799268@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

QR code