差别
这里会显示出您选择的修订版和当前版本之间的差别。
两侧同时换到之前的修订记录 前一修订版 后一修订版 | 前一修订版 | ||
students:xuhao [2019/08/26 15:30] xuhao [方案思路] |
students:xuhao [2019/08/26 19:07] (当前版本) xuhao |
||
---|---|---|---|
行 1: | 行 1: | ||
+ | # 培训总结 | ||
+ | |||
+ | [培训内容](students:peixun) | ||
+ | |||
# KiCad pcb和原理图设计 | # KiCad pcb和原理图设计 | ||
* KiCad,是一款免费开源的PCB设计工具,提供了一个用于原理图输入和PCB布局布线的集成化开发环境,在这个工具中还有用于产生BOM、Gerber文件、对PCB及其上元器件进行3D查看的功能,支持Python脚本定制。 | * KiCad,是一款免费开源的PCB设计工具,提供了一个用于原理图输入和PCB布局布线的集成化开发环境,在这个工具中还有用于产生BOM、Gerber文件、对PCB及其上元器件进行3D查看的功能,支持Python脚本定制。 | ||
行 5: | 行 9: | ||
* [官方库](https://kicad.github.io/) | * [官方库](https://kicad.github.io/) | ||
* [Ultra Librarian](https://www.ultralibrarian.com/) | * [Ultra Librarian](https://www.ultralibrarian.com/) | ||
- | * [SamacSys](www.samacsys.com) | + | * [SamacSys](https://www.samacsys.com) |
* 几点心得 | * 几点心得 | ||
* 少用标签 | * 少用标签 | ||
行 197: | 行 201: | ||
* 保存神经网络数据 | * 保存神经网络数据 | ||
* 如何保存训练数据?训练好的网络参数是以浮点数(float)类型存储,而在硬件电路中,浮点数计算较慢,所以把网络参数转化为定点数类型导入网络。设计的硬件ip中,乘法运算采用int16型乘法,所以网络权重参数采用int16存储,但可以配置小数点位数(fraction_cnt)来存储小数(= int16 / pow(2, fraction_cnt))。将数据以字节的形式存放在bin中。 | * 如何保存训练数据?训练好的网络参数是以浮点数(float)类型存储,而在硬件电路中,浮点数计算较慢,所以把网络参数转化为定点数类型导入网络。设计的硬件ip中,乘法运算采用int16型乘法,所以网络权重参数采用int16存储,但可以配置小数点位数(fraction_cnt)来存储小数(= int16 / pow(2, fraction_cnt))。将数据以字节的形式存放在bin中。 | ||
- | * 在fpga中搭建神经网络 | + | * 在pynq的pl中搭建神经网络 |
* fpga的配置采用ip设计,主要包括卷积运算ip和池化运算ip。 | * fpga的配置采用ip设计,主要包括卷积运算ip和池化运算ip。 | ||
* 利用对卷积计算ip和池化运算ip的复用来实现多层卷积神经网络。 | * 利用对卷积计算ip和池化运算ip的复用来实现多层卷积神经网络。 | ||
{{ :students:硬件卷积神经网络.jpg?200 |}} | {{ :students:硬件卷积神经网络.jpg?200 |}} | ||
- | * 在jupyter notebook中控制 | + | * 在pynq的ps中控制神经网络,能够实现对数字的识别 |
+ | * 在jupyter notebook的环境中开发。 | ||
+ | * 主要包括导入比特流文件配置pl部分,读取图片和利用网络识别数字。 | ||
- | ## vivado综合硬件模块:卷积和池化 | + | ## 搭建并训练神经网络,保存网络数据 |
+ | * 参考[深入MNIST](http://www.tensorfly.cn/tfdoc/tutorials/mnist_pros.html)搭建网络,网络数据按照想要的格式保存下来。 | ||
+ | |||
+ | ## vivado综合硬件ip:卷积和池化 | ||
### 开发工具 | ### 开发工具 | ||
行 306: | 行 315: | ||
* 卷积算法 | * 卷积算法 | ||
- | ## jupyter硬件加速识别数字 | + | ## jupyter配置硬件,加速识别数字 |
* Vivado构建pynq的overlay——利用ip配置pynq中的PL部分 | * Vivado构建pynq的overlay——利用ip配置pynq中的PL部分 | ||
行 313: | 行 322: | ||
{{ :students:捕获.jpg?200 |}} | {{ :students:捕获.jpg?200 |}} | ||
- | * 连上pynq开发板——download比特流,配置fpga | + | * 连上pynq开发板,将hwh文件和bit文件通过本地资源管理器连接pynq上传到板子的文件系统内,并在该目录下新建一个ipynb文件,在该文件中实现相应功能程序。 |
- | * 将hwh文件和bit文件通过本地资源管理器连接pynq上传到板子的文件系统内,并在该目录下新建一个ipynb文件 | + | * 导入比特流文件,配置pynq上的pl部分。 |
- | * 导入比特流文件,配置板子上的 | + | |
+ | ```python | ||
+ | from pynq import Overlay | ||
+ | from pynq import Xlnk | ||
+ | ol = Overlay("conv.bit") | ||
+ | ol.download() | ||
+ | print(ol.ip_dict.keys()) | ||
+ | dma = ol.axi_dma_0 | ||
+ | pool = ol.pool_stream_0 | ||
+ | conv = ol.Conv_0 | ||
+ | xlnk = Xlnk() | ||
+ | ``` | ||
+ | * 导入网络参数 | ||
+ | |||
+ | ```python | ||
+ | import driver | ||
+ | from MNIST_LARGE_cfg import * | ||
+ | driver.Load_Weight_From_File(W_conv1, "./record/W_conv1.bin") | ||
+ | driver.Load_Weight_From_File(W_fc1, "./record/W_fc1.bin") | ||
+ | driver.Load_Weight_From_File(W_fc2, "./record/W_fc2.bin") | ||
+ | ``` | ||
+ | * 导入数字图片,并使用搭建好的网络识别数字,同时利用内置计时器观察硬件执行时间 | ||
+ | |||
+ | ```python | ||
+ | start=time.time() | ||
+ | driver.Run_Conv(conv, 1,32, 3,3, 1,1, 1,0, src_buffer,PTR_IMG,W_conv1,PTR_W_CONV1,h_conv1,PTR_H_CONV1) | ||
+ | driver.Run_Pool(pool,dma, 32, 4,4, h_conv1,h_pool1) | ||
+ | driver.Run_Conv(conv, 32,256, 7,7, 1,1, 0,0, h_pool1,PTR_H_POOL1,W_fc1,PTR_W_FC1,h_fc1,PTR_H_FC1) | ||
+ | driver.Run_Conv(conv, 256,10, 1,1, 1,1, 0,0, h_fc1,PTR_H_FC1,W_fc2,PTR_W_FC2,h_fc2,PTR_H_FC2) | ||
+ | end=time.time() | ||
+ | print("Hardware run time=%s s"%(end-start)) | ||
+ | ``` | ||
+ | * 观察最后识别出的数字 | ||
+ | |||
+ | ```python | ||
+ | max=-32768 | ||
+ | num=0 | ||
+ | for i in range(10): | ||
+ | if(h_fc2[i//K][0][0][i%K]>max): | ||
+ | max=h_fc2[i//K][0][0][i%K] | ||
+ | num=i; | ||
+ | print("predict num is %d"%num); | ||
+ | ``` | ||