tensorflow分批训练_tensorflow卷积神经网络

tensorflow分批训练_tensorflow卷积神经网络参考这篇文章: https://zhuanlan.zhihu.com/p/56991108 一文说清楚Tensorflow分布式训练必备知识 模型并行 在tensorflow的术语中,模型并行称之为"in-graph replication"。 数据并行 在tensorflow的

参考这篇文章:

https://zhuanlan.zhihu.com/p/56991108

 

一文说清楚Tensorflow分布式训练必备知识

 

模型并行

在tensorflow的术语中,模型并行称之为”in-graph replication”。

 

 

数据并行

在tensorflow的术语中,数据并行称之为”between-graph replication”。

 

分布式并行模式

tensorflow分批训练_tensorflow卷积神经网络

 

 

异步训练

异步训练中,各个设备完成一个mini-batch训练之后,不需要等待其它节点,直接去更新模型的参数。

异步训练总体会训练速度会快很多,但是异步训练的一个很严重的问题是梯度失效问题(stale gradients)。由于梯度失效问题,异步训练可能陷入次优解(sub-optimal training performance)。

tensorflow分批训练_tensorflow卷积神经网络

 

 

在tensorflow中异步训练是默认的并行训练模式。

同步训练

tensorflow分批训练_tensorflow卷积神经网络

 

 

小结

下图可以一目了然地看出同步训练与异步训练之间的区别。

tensorflow分批训练_tensorflow卷积神经网络

 

 

同步训练看起来很不错,但是实际上需要各个设备的计算能力要均衡,而且要求集群的通信也要均衡,类似于木桶效应,一个拖油瓶会严重拖慢训练进度,所以同步训练方式相对来说训练速度会慢一些。

虽然异步模式理论上存在缺陷,但因为训练深度学习模型时使用的随机梯度下降本身就是梯度下降的一个近似解法,而且即使是梯度下降也无法保证达到全局最优值。在实际应用中,在相同时间内使用异步模式训练的模型不一定比同步模式差。所以这两种训练模式在实践中都有非常广泛的应用。

分布式训练架构

Parameter Server架构

Parameter server架构(PS架构)是深度学习最常采用的分布式训练架构。在PS架构中,集群中的节点被分为两类:parameter server和worker。其中parameter server存放模型的参数,而worker负责计算参数的梯度。在每个迭代过程,worker从parameter sever中获得参数,然后将计算的梯度返回给parameter server,parameter server聚合从worker传回的梯度,然后更新参数,并将新的参数广播给worker。

tensorflow分批训练_tensorflow卷积神经网络

 

 

Ring AllReduce架构

PS架构中,当worker数量较多时,ps节点的网络带宽将成为系统的瓶颈。

Ring AllReduce架构中各个设备都是worker,没有中心节点来聚合所有worker计算的梯度。Ring AllReduce算法将 device 放置在一个逻辑环路(logical ring)中。每个 device 从上行的device 接收数据,并向下行的 deivce 发送数据,因此可以充分利用每个 device 的上下行带宽。

tensorflow分批训练_tensorflow卷积神经网络

 

分布式tensorflow

推荐使用 TensorFlow Estimator API 来编写分布式训练代码

要让tensorflow分布式运行,首先我们需要定义一个由参与分布式计算的机器组成的集群,如下:

cluster = {'chief': ['host0:2222'],
             'ps': ['host1:2222', 'host2:2222'],
             'worker': ['host3:2222', 'host4:2222', 'host5:2222']}

集群中一般有多个worker,需要指定其中一个worker为主节点(cheif),chief节点会执行一些额外的工作,比如模型导出之类的。在PS分布式架构环境中,还需要定义ps节点。

 

可以参考下面的资料:

    1. 基于Tensorflow高阶API构建大规模分布式深度学习模型系列: 开篇
    2. 基于Tensorflow高阶API构建大规模分布式深度学习模型系列: 基于Dataset API处理Input pipeline
    3. 基于Tensorflow高阶API构建大规模分布式深度学习模型系列: 自定义Estimator(以文本分类CNN模型为例)
    4. 基于Tensorflow高阶API构建大规模分布式深度学习模型系列: 特征工程 Feature Column
    5. 基于Tensorflow高阶API构建大规模分布式深度学习模型系列: CVR预估案例之ESMM模型

 

 

 

今天的文章tensorflow分批训练_tensorflow卷积神经网络分享到此就结束了,感谢您的阅读,如果确实帮到您,您可以动动手指转发给其他人。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/49739.html

(0)
编程小号编程小号
上一篇 2023-09-02 20:06
下一篇 2023-09-02

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注