摘要:
通过对大量数据进行训练并采用分布式深度学习算法可以学习到比较好的数据结构,而传统的分布式深度学习算法在处理大数据集时存在训练时间比较慢或者训练精度比较低的问题。提出Bootstrap向下聚合随机梯度下降(Bootstrap aggregating-down stochastic gradient descent,Bagging-Down SGD)算法重点来提高分布式深度网络的学习速率。Bagging-Down SGD算法通过在众多单机模型上加入速度控制器,对单机计算的参数值做统计处理,减少了参数更新的频率,并且可以使单机模型训练和参数更新在一定程度上分开,在保证训练精度的同时,提高了整个分布式模型的训练速度。该算法具有普适性,可以对多种类别的数据进行学习。
秦超, 高晓光, 陈大庆. 基于Bagging-Down SGD算法的分布式深度网络[J]. 系统工程与电子技术, 2019, 41(5): 1021-1027.
QIN Chao, GAO Xiaoguang, CHEN Daqing. Distributed deep networks based on Bagging-Down SGD algorithm[J]. Systems Engineering and Electronics, 2019, 41(5): 1021-1027.