“智能硬件与智能系统”版本间的差异

来自iCenter Wiki
跳转至: 导航搜索
课程项目-云端整合
ASR-实验1
第107行: 第107行:
 
存放目录:\\166.111.134.110\team-saturn\智能硬件录音
 
存放目录:\\166.111.134.110\team-saturn\智能硬件录音
  
以学号建立文件夹
+
以学号建立文件夹,限定使用*.wav格式。
  
 
每位同学提交24条语音,要求高质量保证。
 
每位同学提交24条语音,要求高质量保证。

2016年10月14日 (五) 04:44的版本

教学团队

互联网+实验室 iNetLab

陈震 马晓东 章屹松 王蓓蓓 高英

助教:郑文勋 王晗

教学背景

随着计算机应用的日益普及和计算机网络的快速发展,互联网+的社会经济浪潮日益显现,以互联网连接的物理硬件系统和以大数据云计算为基础的信息系统,使得具有智能的机器人、自动驾驶的无人机等等智能系统成为新的技术发展浪潮,并催生了“智能硬件”的新生态。

课程内容

云计算与大数据

Azure云使用

iCenter-Cloud云使用

嵌入式开发平台

NVIDIA JETSON TK1

jetson-tk1

Raspberry Pi

Raspberry Pi

项目分组

第一组

组长: 许越

组员: 吴俣帅 杨应人

第二组

组长: 王亦凡

组员: 刘梦旸 张力

第三组

组长: 刘晓明

组员: 常昊男 全光林 朱泽宇

第四组

组长: 郑钰琦

组员: 郑安然 郑钰琦 高一川

论文研读

Group1

Convolutional, long short-term memory, fully connected deep neural networks, ICASSP 2015.

Context dependent phone models for LSTM RNN acoustic modelling, ICASSP 2015.

Group2

Listen, attend and spell: A neural network for large vocabulary conversational speech recognition, ICASSP 2015.

Group3

Audio augmentation for speech recognition

Group4

Deep Speech 2 End-to-End Speech Recognition in English and Mandarin, JMLR 2016.


EESEN_ End-to-End Speech Recognition using Deep RNN Models and WFST-based Decoding, ASRU 2015.

课程项目

课程项目-语音识别

ASR-实验1

声控智能硬件-语音指令录音

通过给手机语音指令,手机APP自动识别指令种类,进行相应的控制。

语音指令录音

     a蓝牙开机
     b蓝牙拨打电话/bb蓝牙打电话
     c蓝牙接听电话/cc蓝牙接电话 
     d蓝牙拒接
     e蓝牙播放音乐/ee蓝牙开始音乐
     f蓝牙暂停音乐/ff蓝牙停止音乐
     g蓝牙上一首/gg蓝牙上一曲
     h蓝牙下一首/hh蓝牙下一曲
     i蓝牙音量增大/ii蓝牙声音增大/iii蓝牙音量增加/iiii蓝牙声音增加
     j蓝牙音量减小/jj蓝牙声音减小 
     k蓝牙关机
     l蓝牙电量提醒/ll蓝牙还剩多少电/lll蓝牙还剩多少电量

存放目录:\\166.111.134.110\team-saturn\智能硬件录音

以学号建立文件夹,限定使用*.wav格式。

每位同学提交24条语音,要求高质量保证。

时间:10月7日中午12点之前

ASR-实验2

声控智能硬件-频谱图生成

(1)将24条语音文件生成对应的频谱图(spectrogram)[5],频谱图文件名称为*.spec

(2)熟悉TensorFlow环境[6],使用TensorFlow搭建3层全连接的神经网络(24个softmax输出)。

时间:2016年10月14日中午12点之前

课程项目-云+端整合

Thrift协议

client端

调用API录音 调用Thrift接口

server端

接收录音文件

调用服务端程序

参考: Android开发入门

课程项目-深度学习

基本任务:手写数字识别

利用附件提供的Matlab Deep Learning Toolbox中的卷积神经网络(CNN),在MNIST手写数字样本集上,利用训练集样本进行训练,并对测试集样本进行测试。

建议阅读附件中的背景知识和工具箱中的CNN源代码,在了解算法原理和技术实现细节基础上,参照示例程序CNN/test_example_CNN.m,自行调整算法中至少一种关键参数或设置,例如调整CNN的卷积层及下采样层的层数、或模板大小等参数;在至少一种与原始程序不同的参数或设置下分别进行训练,做出测试集识别率(或错误率)随参数或设置变化的对照图或对照表,并标出最高识别率对应的参数或设置。

提高任务:物体检测

请参考工具箱中tests/test_example_SAE.m示例文件,利用STL-10数据集中的无标注图片训练一个自动编码器,再用自动编码器隐含层的参数初始化一个神经网络分类器,并使用训练集中有标注的图片进行训练,最后使用神经网络分类器在测试集上进行测试。测试阶段,调用nntest的返回值“er”为测试集上的识别错误率。

在训练过程中,尝试调整算法中至少一种关键参数或设置,例如自动编码器隐含层的节点个数;在至少一种与原始程序不同的参数或设置下进行实验,做出测试结果随参数或设置变化的对照图或对照表。

test_example_SAE.m中,建议修改第16行和第28行的opts.numepochs数值,比如将原来的1改为3;如果改变自动编码器隐含层节点数目进行实验比较,需要注意:

第12行:sae = saesetup([784 100]);
第22行:nn = nnsetup([784 100 10]);

中红色标注的参数要修改一致。

报告要求

报告应包含以下内容:

  1. 在MNIST手写数字样本测试集上,识别率(或错误率)随参数或设置变化的对照图或对照表。
  2. (选做)在STL-10 测试集上,识别率(或错误率)随参数或设置变化的对照图或对照表。
  3. 总结收获和体会。

提交报告时,请一并提交自己编写或修改过的源代码。

附件

更多帮助,请阅读实验指导书。

实验指导书和工具箱下载:

http://166.111.6.122/RegionDownloadService/1511/0A6A33E76DFD6DFCD75E20F7C1226B7E3.html

(助教:王晗 wang-han13@mails.tsinghua.edu.cn)

课程项目-智能医药问答

(常嘉辉)

致谢

本课程获得微软Azure云计算与机器学习捐赠支持。


参考文献

1. Stuart Russell and Peter Norvig, Artificial Intelligence: A modern approach. Prentice-Hall, 2005.

2. Ferrucci, David A. "Introduction to “this is watson”." IBM Journal of Research and Development 56.3.4 (2012): 1-1.

3. Bradski, Gary, and Adrian Kaehler. Learning OpenCV: Computer vision with the OpenCV library. O'Reilly Media, Inc., 2008.

4. Hauswald, Johann, et al. "Sirius: An open end-to-end voice and vision personal assistant and its implications for future warehouse scale computers." ASPLOS, ACM, 2015.

5. Spectrogram, https://en.wikipedia.org/wiki/Spectrogram

6. TensorFlow, https://www.tensorflow.org