谷动谷力

 找回密码
 立即注册
谷动谷力 首页 编程 查看内容

超详细案例解读,利用FPGA加速深度神经网络运算

2020-7-21 22:47| 发布者: admin| 查看: 30| 评论: 0|原作者: 叶子

摘要:   全联接神经网络是一种计算量比较大的机器学习模型,在训练和推断过程中需要对所有神经元进行矩阵计算。为了加快计算速度,各公司的大佬们采取了不同手段进行数据的抽象和综合。   通常来说,我们采用卷积操作 ...
  全联接神经网络是一种计算量比较大的机器学习模型,在训练和推断过程中需要对所有神经元进行矩阵计算。为了加快计算速度,各公司的大佬们采取了不同手段进行数据的抽象和综合。

  通常来说,我们采用卷积操作,将数据进行抽象和综合,然后送入到全连接神经网络进行最后的计算,实质上就是矩阵运算等数学计算的一系列综合操作。

  熟悉矩阵运算的朋友都知道,矩阵当中的每个元素和其他元素是没有关联的,这种特性天然就适合使用并行计算的方式来加快其计算速度。

  重点来了!并行计算正是 FPGA 等芯片的强项,利用FPGA将有效实现深度学习神经网络的加速计算(推理),下面是具体的操作展示。

  1.深度学习神经网络的环境搭建

  2.安装 OpenCL的开发环境,使Intel? Arria? 10 FPGA作为OpenCL的设备,注意安Intel对应的SDK

  3.利用 Tensorflow 作为框架,实现一个简单的全连接神经网络

  (提供一个算法描述示例,使用 Mnist 数据集作为训练和测试)

  1)Mnist 数据集每张图片为 28×28 像素,将每张图片的像素点作为输入

  2)第一个隐藏层设置 500 个神经元,与输入图像的 784 个像素点做计算(矩阵乘法)

  3)将得到的结果使用 relu 函数进行结果,只保留数值 >0 的结果,其他的设置为 0

  4)第二个隐藏层设置 10 个神经元,与第一个隐藏层的输出进行计算(矩阵乘法),最终得到 10 个结果作为输出

  从上述的算法描述当中,我们可以看到实际上就是几次矩阵的计算过程:一个 [1,784] 和 [784, 500] 的矩阵乘法,得到一个 [1,500] 的中间矩阵;然后这个 [1,500] 的中间矩阵与 [500, 10] 的矩阵进行计算,最终得到一个 [1,10] 的矩阵,这个就是我们的最终结果。

  4.对搭建完成的神经网络进行训练,训练之后得到模型文件

  5.通过一定的操作方式,提取这些模型文件中的模型参数

  6.把模型参数当作输入的参数,送入到FPGA当中进行加速计算,实现推理过程

  上述神经网络算法的OpenCL实现,大致如下:

  

  7.最后使用C/C++编写CPU程序,与 FPGA 进行交互,来验证 OpenCL 算法实现的正确性。

  以下是 CPU 程序的部分代码。

  

  通过以上步骤,我们就成功的使用OpenCL在Intel FPGA上实现了一个简单的神经网络的推理加速。


鲜花

握手

雷人

路过

鸡蛋

相关阅读

发表评论

最新评论

最新热点

QQ|Archiver|手机版|深圳市光明谷科技有限公司|光明谷商城|Sunshine Silicon Corpporation ( 粤ICP备14060730号|Sitemap

GMT+8, 2023-7-1 23:05 , Processed in 0.068866 second(s), 31 queries .

Powered by Discuz! X3.2 Licensed

© 2001-2013 Comsenz Inc.

返回顶部