基于GPU并行计算的深度神经网络加速技术研究

摘要

深度学习在图像识别和自然语言处理等方面有着广阔的应用前景。但是,深层神经网络的运算复杂度很高,所以它的学习与推理需要耗费大量的时间与资源。近几年,基于 GPU的并行运算能力为实现深度神经网络的快速提升开辟了新途径。本项目拟从基于 GPU的深层神经网络并行计算方法入手,研究基于图像处理的并行数据并行计算、基于流水线设计的指令并行计算、基于数据重排和共享的通讯优化、基于硬件体系结构的 GPU网络拓扑结构设计等多个方面的研究。本项目的研究将为深层神经网络的发展提供新的思路和方法。

关键词:深度学习, GPU并行运算,神经网络加速

目录

摘要 1
1. 前言 2
1.1选题的背景及意义 2
1.2国内外研究现状 2
1.3试验的宗旨与内容 3
1.4研究思路与技术路线 3
2.相关的概念和理论依据 3
2.1深层神经网路的理论基础 3
2.2图形处理器的体系结构与工作原理 4
2.3基于GPU的深层神经网络的并行算法 4
2.4关联加速算法的研究与优势与不足 5
3.基于深度学习的加速算法中存在的问题 5
3.1深层神经网络的“瓶颈” 5
3.2 GPU并行技术面临的若干问题 6
3.3深层神经网络的加速方法 6
3.4在有关方面存在的问题 6
4.基于深度学习的加速算法优化方法 7
4.1利用图象处理技术实现数据的平行运算 7
4.2采用流水设计方法实现指令并行化 7
4.3在数据重新排序和共享的基础上优化通讯 7
4.4硬件体系结构在 GPU上的拓扑结构 8
结论 8

参考文献 8


扫码免登录支付
原创文章,限1人购买
是否支付34元后完整阅读并下载?

如果您已购买过该文章,[登录帐号]后即可查看

已售出的文章系统将自动删除,他人无法查看

阅读并同意:范文仅用于学习参考,不得作为毕业、发表使用。

×
请选择支付方式
虚拟产品,一经支付,概不退款!