“智能硬件与智能系统”版本间的差异
(→课程项目) |
(→课程项目) |
||
第84行: | 第84行: | ||
=课程项目= | =课程项目= | ||
− | ==语音识别== | + | ==课程项目-语音识别== |
− | ==实验1== | + | |
+ | ===ASR-实验1=== | ||
声控智能硬件-语音指令录音 | 声控智能硬件-语音指令录音 | ||
第112行: | 第113行: | ||
时间:10月7日中午12点之前 | 时间:10月7日中午12点之前 | ||
− | ==实验2== | + | ===ASR-实验2=== |
声控智能硬件-频谱图生成 | 声控智能硬件-频谱图生成 | ||
第120行: | 第121行: | ||
时间:2016年10月14日中午12点之前 | 时间:2016年10月14日中午12点之前 | ||
+ | |||
+ | ===Thrift协议实验=== | ||
2016年10月12日 (三) 03:10的版本
教学团队
互联网+实验室 iNetLab
助教:郑文勋 王晗
教学背景
随着计算机应用的日益普及和计算机网络的快速发展,互联网+的社会经济浪潮日益显现,以互联网连接的物理硬件系统和以大数据云计算为基础的信息系统,使得具有智能的机器人、自动驾驶的无人机等等智能系统成为新的技术发展浪潮,并催生了“智能硬件”的新生态。
课程内容
云计算与大数据
Azure云使用
iCenter-Cloud云使用
嵌入式开发平台
NVIDIA JETSON TK1
Raspberry Pi
项目分组
第一组
组长: 许越
组员: 吴俣帅 杨应人
第二组
组长: 王亦凡
组员: 刘梦旸 张力
第三组
组长: 刘晓明
组员: 常昊男 全光林 朱泽宇
第四组
组长: 郑钰琦
组员: 郑安然 郑钰琦 高一川
论文研读
Group1
Convolutional, long short-term memory, fully connected deep neural networks, ICASSP 2015.
Context dependent phone models for LSTM RNN acoustic modelling, ICASSP 2015.
Group2
Listen, attend and spell: A neural network for large vocabulary conversational speech recognition, ICASSP 2015.
Group3
Audio augmentation for speech recognition
Group4
Deep Speech 2 End-to-End Speech Recognition in English and Mandarin, JMLR 2016.
EESEN_ End-to-End Speech Recognition using Deep RNN Models and WFST-based Decoding, ASRU 2015.
课程项目
课程项目-语音识别
ASR-实验1
声控智能硬件-语音指令录音
通过给手机语音指令,手机APP自动识别指令种类,进行相应的控制。
语音指令录音
a蓝牙开机 b蓝牙拨打电话/bb蓝牙打电话 c蓝牙接听电话/cc蓝牙接电话 d蓝牙拒接 e蓝牙播放音乐/ee蓝牙开始音乐 f蓝牙暂停音乐/ff蓝牙停止音乐 g蓝牙上一首/gg蓝牙上一曲 h蓝牙下一首/hh蓝牙下一曲 i蓝牙音量增大/ii蓝牙声音增大/iii蓝牙音量增加/iiii蓝牙声音增加 j蓝牙音量减小/jj蓝牙声音减小 k蓝牙关机 l蓝牙电量提醒/ll蓝牙还剩多少电/lll蓝牙还剩多少电量
存放目录:\\166.111.134.110\team-saturn\智能硬件录音
以学号建立文件夹
每位同学提交24条语音,要求高质量保证。
时间:10月7日中午12点之前
ASR-实验2
声控智能硬件-频谱图生成
(1)将24条语音文件生成对应的频谱图(spectrogram)[5],频谱图文件名称为*.spec
(2)熟悉TensorFlow环境[6],使用TensorFlow搭建3层全连接的神经网络(24个softmax输出)。
时间:2016年10月14日中午12点之前
Thrift协议实验
课程项目-深度学习
基本任务:手写数字识别
利用附件提供的Matlab Deep Learning Toolbox中的卷积神经网络(CNN),在MNIST手写数字样本集上,利用训练集样本进行训练,并对测试集样本进行测试。
建议阅读附件中的背景知识和工具箱中的CNN源代码,在了解算法原理和技术实现细节基础上,参照示例程序CNN/test_example_CNN.m,自行调整算法中至少一种关键参数或设置,例如调整CNN的卷积层及下采样层的层数、或模板大小等参数;在至少一种与原始程序不同的参数或设置下分别进行训练,做出测试集识别率(或错误率)随参数或设置变化的对照图或对照表,并标出最高识别率对应的参数或设置。
提高任务:物体检测
请参考工具箱中tests/test_example_SAE.m示例文件,利用STL-10数据集中的无标注图片训练一个自动编码器,再用自动编码器隐含层的参数初始化一个神经网络分类器,并使用训练集中有标注的图片进行训练,最后使用神经网络分类器在测试集上进行测试。测试阶段,调用nntest的返回值“er”为测试集上的识别错误率。
在训练过程中,尝试调整算法中至少一种关键参数或设置,例如自动编码器隐含层的节点个数;在至少一种与原始程序不同的参数或设置下进行实验,做出测试结果随参数或设置变化的对照图或对照表。
在test_example_SAE.m中,建议修改第16行和第28行的opts.numepochs数值,比如将原来的1改为3;如果改变自动编码器隐含层节点数目进行实验比较,需要注意:
- 第12行:sae = saesetup([784 100]);
- 第22行:nn = nnsetup([784 100 10]);
中红色标注的参数要修改一致。
报告要求
报告应包含以下内容:
- 在MNIST手写数字样本测试集上,识别率(或错误率)随参数或设置变化的对照图或对照表。
- (选做)在STL-10 测试集上,识别率(或错误率)随参数或设置变化的对照图或对照表。
- 总结收获和体会。
提交报告时,请一并提交自己编写或修改过的源代码。
附件
更多帮助,请阅读实验指导书。
实验指导书和工具箱下载:
http://166.111.6.122/RegionDownloadService/1511/0A6A33E76DFD6DFCD75E20F7C1226B7E3.html
(助教:王晗 wang-han13@mails.tsinghua.edu.cn)
课程项目-智能医药问答
(常嘉辉)
致谢
本课程获得微软Azure云计算与机器学习捐赠支持。
参考文献
1. Stuart Russell and Peter Norvig, Artificial Intelligence: A modern approach. Prentice-Hall, 2005.
2. Ferrucci, David A. "Introduction to “this is watson”." IBM Journal of Research and Development 56.3.4 (2012): 1-1.
3. Bradski, Gary, and Adrian Kaehler. Learning OpenCV: Computer vision with the OpenCV library. O'Reilly Media, Inc., 2008.
4. Hauswald, Johann, et al. "Sirius: An open end-to-end voice and vision personal assistant and its implications for future warehouse scale computers." ASPLOS, ACM, 2015.
5. Spectrogram, https://en.wikipedia.org/wiki/Spectrogram
6. TensorFlow, https://www.tensorflow.org