更改

2016012128

添加1,485字节2017年7月1日 (六) 18:22
完成调试pynq audio部分
 
2017年7月1日
 
 
今天延续昨天的教学实验,进一步完成了usb_webcam 和opencv_filter_webcam的例子运行。
 
通过对pynk板进行调试,将其输出接口与显示器相连接,运行代码即可以拍摄出照片,还可以将照片属性进行改变,旋转或转换成黑白轮廓,得到处理后的图片。
 
我们可以从这几个例子中看到利用python代码可以控制pynq板实现功能,显示器或者耳机只是提供输出端的途径。
 
下午我们首先听了老师对两个pdf文件的解读,大致明白了利用tensorboard对数据进行训练的原理,然后使用tensorflow来训练系统,识别图片。远程连接电脑并下载了dota(为了利用速度更快的GPU)之后用cmd执行了tfExample文件,进行了简单的操作,在tensorbroad上显示出了最终结果,一个十维向量在三维的表示。
 
在老师的讲解和助教对代码的解读之后,我明白了tensorflow对图形化界面的识别其实是一个反馈调节的过程,不断修改权重分布, 最终能将输入数据进行分类。这与代数中的矩阵运算相关,其实是一个强行计算的过程。学习的次数越多,分类识别越精准,正是深度学习次数太少,我们点击一个九,会看到七等数字也被化为同类,这就说明反馈的过程是存在一定的容错性的。如果这个反馈进行上万次,深度学习就会更加精准,应用范围也是非常广的。
10
个编辑