李睿

2018年7月22日 (日) 17:35Lirui16讨论 | 贡献的版本

第一天课上,我对智能硬件和智能系统的概念有了初步的了解:从端到云,从可编程到联网到自主运行。我还学习了如何用python编写程序在PYNQ上调试并运行。

第二天课上,我和队友利用罗技摄像头和PYNQ进行了人脸和眼部识别的实验,识别效果比较好,不足是用板子控制相机拍照的延迟比较大,以及会将鼻孔或嘴识别为眼。在进行简单的识别之后,我们作了更进一步的尝试:一是用板子上的按键控制拍照;二是利用板子上的led灯显示检测到的人脸和眼的个数。在显示眼个数时,我尝试打印变量eyes,打印结果是一个矩阵,行数和眼的个数相同,因此len(eyes)就是眼的个数。通过以上尝试,我进一步学习了如何用python编程实现对硬件的控制。

人脸识别 李睿.jpeg

第三天课上,老师为我们展示了语音和图像识别,并讲解了相关代码。我还练习了控制台的使用。

第四天课上,我们录制了若干音频,将其作为机器学习的训练集。老师结合教材为我们讲解了神经网络的相关术语,并为我们演示了用audioPlot进行语音识别的过程:将音频转换为时频谱图,再训练计算机识别这些图像。时频谱对于我们电子工程系的学生来说并不陌生,但是利用时频谱图作语音识别还是让我耳目一新,让我更加认识到了语音、图像处理两个领域之间的紧密关联。我们还安装了audioPlot的相关组件,并运行程序。

最后修改于2018年7月22日 (星期日) 17:35