谷歌的 Tensorflow 与 Facebook 的 PyTorch 一直是颇受社区欢迎的两种深度学习框架。那么究竟哪种框架最适宜自己手边的深度学习项目呢?本文作者从这两种框架各自的功能效果、优缺点以及安装、版本更新等诸多方面给出了自己的建议。
作者:Vihar Kurama,机器之心编译,参与:吴攀、杜伟。
如果你在读这篇文章,那么你可能已经开始了自己的深度学习之旅。如果你对这一领域还不是很熟悉,那么简单来说,深度学习使用了「人工神经网络」,这是一种类似大脑的特殊架构,这个领域的发展目标是开发出能解决真实世界问题的类人计算机。为了帮助开发这些架构,谷歌、Facebook 和 Uber 等科技巨头已经为 Python 深度学习环境发布了多款框架,这让人们可以更轻松地学习、构建和训练不同类型的神经网络。本文将详细介绍和比较两种流行的框架:TensorFlow 与 PyTorch。
目录
-
谷歌的 TensorFlow
-
Facebook 的 PyTorch
-
我们可以用 TensorFlow 和 PyTorch 构建什么?
-
PyTorch 和 TensorFlow 对比
-
PyTorch 和 TensorFlow 的优点和缺点
-
PyTorch 和 TensorFlow 安装、版本、更新
-
TensorFlow 还是 PyTorch?我的建议
谷歌的 TensorFlow
TensorFlow 是谷歌的开发者创造的一款开源的深度学习框架,于 2015 年发布。官方研究发布于论文《TensorFlow:异构分布式系统上的大规模机器学习》。
TensorFlow 现已被公司、企业与创业公司广泛用于自动化工作任务和开发新系统,其在分布式训练支持、可扩展的生产和部署选项、多种设备(比如安卓)支持方面备受好评。
Facebook 的 PyTorch
论文地址:https://openreview.net/pdf?id=BJJsrmfCZ
PyTorch 很简洁、易于使用、支持动态计算图而且内存使用很高效,因此越来越受欢迎。接下来还会更详细地介绍。
我们可以用 TensorFlow 和 PyTorch 构建什么?
神经网络起初是被用于解决手写数字识别或用相机识别汽车注册车牌等简单的分类问题。但随着近来框架的发展以及英伟达高计算性能图形处理单元(GPU)的进步,我们可以在 TB 级的数据上训练神经网络并求解远远更加复杂的问题。一个值得提及的成就是在 TensorFlow 和 PyTorch 中实现的卷积神经网络在 ImageNet 上都达到了当前最佳的表现。训练后的模型可以用在不同的应用中,比如目标检测、图像语义分割等等。
尽管神经网络架构可以基于任何框架实现,但结果却并不一样。训练过程有大量参数都与框架息息相关。举个例子,如果你在 PyTorch 上训练一个数据集,那么你可以使用 GPU 来增强其训练过程,因为它们运行在 CUDA(一种 C++ 后端)上。TensorFlow 也能使用 GPU,但它使用的是自己内置的 GPU 加速。因此,根据你所选框架的不同,训练模型的时间也总是各不相同。
TensorFlow 顶级项目
Magenta:一个探索将机器学习用作创造过程的工具的开源研究项目:https://magenta.tensorflow.org/
Sonnet:这是一个基于 TensorFlow 的软件库,可用于构建复杂的神经网络:https://sonnet.dev/
Ludwig:这是一个无需写代码就能训练和测试深度学习模型的工具箱:https://uber.github.io/ludwig/
PyTorch 顶级项目
PYRO:这是一种用 Python 编写的通用概率编程语言(PPL),后端由 PyTorch 支持:https://pyro.ai (https://pyro.ai/)
这些只是基于 TensorFlow 和 PyTorch 构建的少量框架和项目。你能在 TensorFlow 和 PyTorch 的 GitHub 和官网上找到更多。
PyTorch 和 TensorFlow 对比
PyTorch 和 TensorFlow 的关键差异是它们执行代码的方式。这两个框架都基于基础数据类型张量(tensor)而工作。你可以将张量看作是下图所示的多维数组。
机制:动态图定义与静态图定义
TensorFlow 框架由两个核心构建模块组成:
-
一个用于定义计算图以及在各种不同硬件上执行这些图的运行时间的软件库。
-
一个具有许多优点的计算图(后面很快就会介绍这些优点)。
当你在 TensorFlow 中运行代码时,计算图是以静态方式定义的。与外部世界的所有通信都是通过 tf.Sessionobject 和 tf.Placeholder 执行,它们是在运行时会被外部数据替换的张量。例如,看看以下代码段:
下图是 TensorFlow 中运行代码之前以静态方式生成计算图的方式。计算图的核心优势是能实现并行化或依赖驱动式调度(dependency driving scheduling),这能让训练速度更快,更有效率。
类似于 TensorFlow,PyTorch 也有两个核心模块:
-
计算图的按需和动态构建
-
Autograd:执行动态图的自动微分
根据你所用的框架,在软件领域有很大的不同。TensorFlow 提供了使用 TensorFlow Fold 库实现动态图的方式,而 PyTorch 的动态图是内置的。
分布式训练
PyTorch 和 TensorFlow 的一个主要差异特点是数据并行化。PyTorch 优化性能的方式是利用 Python 对异步执行的本地支持。而用 TensorFlow 时,你必须手动编写代码,并微调要在特定设备上运行的每个操作,以实现分布式训练。但是,你可以将 PyTorch 中的所有功能都复现到 TensorFlow 中,但这需要做很多工作。下面的代码片段展示了用 PyTorch 为模型实现分布式训练的简单示例:
可视化
在训练过程的可视化方面,TensorFlow 更有优势。可视化能帮助开发者跟踪训练过程以及实现更方便的调试。TensorFlow 的可视化库名为 TensorBoard。PyTorch 开发者则使用 Visdom,但是 Visdom 提供的功能很简单且有限,所以 TensorBoard 在训练过程可视化方面更好。
-
跟踪和可视化损失和准确度等指标
-
可视化计算图(操作和层)
-
查看权重、偏差或其它张量随时间变化的直方图
-
展示图像、文本和音频数据
-
分析 TensorFlow 程序
Visdom 的特性
-
处理回调
-
绘制图表和细节
-
管理环境
生产部署
在将训练好的模型部署到生产方面,TensorFlow 显然是赢家。我们可以直接使用 TensorFlow serving 在 TensorFlow 中部署模型,这是一种使用了 REST Client API 的框架。
用 PyTorch 和 TensorFlow 定义一个简单的神经网络
我们比较一下如何在 PyTorch 和 TensorFlow 中声明神经网络。
近期 Keras 被合并到了 TensorFlow 库中,这是一个使用 TensorFlow 作为后端的神经网络框架。从那时起,在 TensorFlow 中声明层的句法就与 Keras 的句法类似了。首先,我们声明变量并将其分配给我们将要声明的架构类型,这里的例子是一个 Sequential() 架构。
TensorFlow 和 PyTorch 的优缺点
TensorFlow和PyTorch各有其优缺点。
-
简单的内置高级 API
-
使用 TensorBoard 可视化训练
-
通过 TensorFlow serving 容易实现生产部署
-
很容易的移动平台支持
-
开源
-
良好的文档和社区支持
-
静态图
-
调试方法
-
难以快速修改
-
类 Python 的代码
-
动态图
-
轻松快速的编辑
-
良好的文档和社区支持
-
开源
-
很多项目都使用 PyTorch
-
可视化需要第三方
-
生产部署需要 API 服务器
PyTorch 和 TensorFlow 安装、版本、更新
PyTorch 安装
pip3 install torch torchvision
pip3 install https://download.pytorch.org/whl/cu90/torch-1.1.0-cp36-cp36m-win_amd64.whlpip3 install https://download.pytorch.org/whl/cu90/torchvision-0.3.0-cp36-cp36m-win_amd64.whl
macOS、Linux 和 Windows
# Current stable release for CPU-onlypip install tensorflow# Install TensorFlow 2.0 Betapip install tensorflow==2.0.0-beta1
TensorFlow 还是 PyTorch?我的建议
今天的文章TensorFlow与PyTorch之争,哪个框架最适合深度学习分享到此就结束了,感谢您的阅读。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:http://bianchenghao.cn/17040.html