富士通双打深度学习神经网络规模技术提高GPU内存效率

富士通公司今天宣布,以简化GPU的内存以支持不断增长的神经网络的规模,提高机器学习的精度的技术发展。这种发展使神经网络机器学习的一个规模的两倍,是能够与以前的技术。近年来

看到使用GPU的高速机器学习支持计算量庞大的深层学习必要的处理技术的重点。为了充分利用GPU的高速计算能力,数据被用于一系列的计算需要存储在GPU内存。然而,这创造了一个问题,可以内置的神经网络的规模是有限的内存容量。

富士通实验室已开发的技术来提高记忆效率,实施和评价它在咖啡的开放源码的深入学习框架的软件。在学习开始时,该技术分析了神经网络的结构,并优化了计算和分配的数据的顺序,以内存,使内存空间可以有效地重用。AlexNet和VGGNet(1)、图像识别神经网络研究中广泛应用,这种技术被证实可使神经网络的学习是增加了大约两倍,以前的技术规模,从而减少用超过40%内部的GPU内存量。

这种技术使得它可以扩大一个神经网络,可以在高速上一个GPU学到的规模,使发展更精确的模型。富士通实验室的目标是将这种技术商业化作为富士通有限公司的一部分,人工智能技术,以人为中心的艾zinrai,与AI的使用客户的工作。

细节这一技术被宣布在MLSP(2016 IEEE信号处理机器学习),一个国际会议在Salerno举行,意大利从9月13日到16。

发展背景

近年来,深度学习已经获得关注的一种机器学习的方法,模拟人脑的结构。在深度学习中,神经网络中的层次越多,它执行任务的准确性越精确,如识别或分类。为了提高精度,神经网络的规模越来越大,但这种延长学习时间。同时,更多的注意力放在GPU上执行的计算数据量大,技术,加速过程,采用多GPU并行,与超级计算机。

问题

方法增加深度学习的规模是分配一个单一的神经网络模型在多台计算机和并行做计算,但是量必须在计算机之间传输交换成为一个瓶颈的数据,大大降低了学习的速度。为了充分利用GPU的高速计算能力,在可能的范围内进行系列计算需要存储在GPU内存中的数据。然而,随着GPU内存比普通的计算机通常较小,出现了神经网络能够高速学习规模限制问题。

对新开发的技术

现在富士通实验室开发的技术来简化记忆效率扩大一个GPU的计算规模的神经网络,而不使用并行化的方法,大大降低了学习的速度。这项技术使内存资源的重用,减少记忆量;利用独立执行计算的加权数据生成中间误差数据的能力,并计算从中间数据生成加权数据错误。当学习开始时,分析了神经网络的每一层的结构,并改变了计算的顺序,使更大的数据已分配的内存空间可以重复使用。

影响

富士通实验室实施这一新开发的技术,到咖啡的开源软件框架和测量深度学习GPU内存使用。在使用alexnet和vggnet评价,被广泛应用于研究领域,它实现了内存的使用量减少40%以上相比,这一技术的应用,使学习的神经网络为每个GPU将增加至约两倍的规模。

这将使高速学习计算使用GPU的全部功能,甚至大规模神经网络需要复杂的处理,加快发展更精确的模型。

未来计划

富士通实验室旨在推广这一新开发的技术,作为富士通有限公司的一部分,人工智能技术,以人为中心的艾zinrai,2017年3月31日。此外,计划在这一技术以其已经公布的高速技术,通过GPU并行化深度学习过程结合起来(2),进一步提高这些技术。

(1)alexnet和vggnet:多层图像识别的神经网络。2012 alexnet
在图像分类的竞争中获得了最高荣誉,并在2014 vggnet获得最高荣誉的位置检测的竞争,每一个达到世界最高识别精度。今天,他们每一个形式的图像识别神经网络的基础。

(2)高速技术,通过GPU并行化
“富士通高速发展技术进行深入学习深入学习的过程,”。

富士通实验室

成立于1968作为富士通有限公司的全资子公司,富士通公司是世界上著名的研究中心。随着全球对中国在日本的实验室网络,美国和欧洲的机构进行广泛的基础研究和应用研究领域的下一代服务,计算机服务器、网络、电子设备和先进的材料。 

富士通公司

富士通是日本领先的信息和通信技术(ICT)的公司,提供全方位的技术产品、解决方案和服务。大约有159000富士通人支持在100多个国家的客户。我们使用我们的经验和信息和通信技术的力量,塑造未来的社会与我们的客户。富士通有限公司(东京证交所:6702;不良反应:一块业务)报告的合并收入4兆7000亿日元(410亿美元)截至2016年3月31日的财政年度。 

相关新闻