线上期刊服务咨询,发表咨询:400-808-1701 订阅咨询:400-808-1721

基于训练数据动态分配的深度学习并行优化机制

颜子杰; 陈孟强; 吴维刚 计算机工程与科学 2018年第A01期

摘要:基于MXNet框架,针对同步并行下参数同步耗时过长这一问题,提出了一种多机同步并行下的训练数据动态分配算法。基于计算节点的计算效率,每一次迭代后将动态调整节点需要处理的样本数据量。这样的机制使模型既能同步并行也降低了等待梯度更新的耗时。最后,利用天河二号超级计算机对此优化算法进行了对比实验,实验结果表明,所提出的优化机制达到了预期效果。

关键词:深度学习数据分配同步并行并行训练超级计算

单位:中山大学数据科学与计算机学院; 广东广州510006

注:因版权方要求,不能公开全文,如需全文,请咨询杂志社

计算机工程与科学

北大期刊

¥624.00

关注 46人评论|5人关注