“智能硬件-课程项目”版本间的差异

来自iCenter Wiki
跳转至: 导航搜索
(以“==学生准备== 携带笔记本,智能手机 (Bring your own laptop computers and camera-ready smart phones) ==课程项目-语音识别== ===ASR-实验1===...”为内容创建页面)
 
云+端整合
 
(2位用户的25个中间修订版本未显示)
第1行: 第1行:
==学生准备==
+
== 目标 ==
  
携带笔记本,智能手机
+
硬件智能化:让计算设备能看见,能听见,能对话。
  
(Bring your own laptop computers and camera-ready smart phones)
+
平台:
 +
#嵌入式智能硬件(Jetson_Kit/PYNQ)
 +
#移动终端(安卓智能平板)
  
==课程项目-语音识别==
+
== 准备工作 ==
  
===ASR-实验1===
+
* Install TensorFlow Mobile in HUAWEI MediaPad M2 8.0
  
声控智能硬件-语音指令录音
+
* Install TensorFlow in Jetson TK1/TX1
  
通过给手机语音指令,手机APP自动识别指令种类,进行相应的控制。
+
: TensorFlow 清华校内镜像(THU-TUNA):[https://mirrors.tuna.tsinghua.edu.cn/help/tensorflow/ TUNA-TensorFlow]
  
[[智能硬件-语音指令集]]
+
* Install Keras in Jetson TK1/TX1
  
存放目录:\\101.6.160.42\智能硬件录音
+
: [https://keras.io/ Keras]: Deep Learning library for Theano and TensorFlow
  
以学号建立文件夹,限定使用*.wav格式。
+
=== JetsonKit TX1===
  
每位同学提交24条语音,要求高质量保证。
+
[[CUDA | CUDA编程]]
  
时间:10月7日中午12点之前
+
=== Xilinx PYNQ===
  
===ASR-实验2===
+
PYNQ( Python for Zynq )是xilinx生产的一款嵌入式智能硬件。
  
声控智能硬件-频谱图生成
+
[http://pynq.io PYNQ开发入门]
+
# 将24条语音文件生成对应的频谱图(Spectrogram)[5],频谱图文件名称为*.spec
+
# 熟悉TensorFlow环境[6],使用TensorFlow搭建3层全连接的神经网络(24个softmax输出)。
+
  
时间:2016年10月14日中午12点之前
+
== 课程项目 ==
  
==课程项目-人脸识别==
+
=== [[智能硬件-语音识别 | 语音识别]] ===
  
[[智能硬件-人脸识别]]
+
=== [[智能硬件-对象检测 | 对象检测]] ===
  
==课程项目-云+端整合==
+
=== [[智能硬件-云端整合 | 云+端整合]] ===
  
[[智能硬件-云端整合]]
+
=== [[智能硬件-云端整合2]] ===
  
==课程项目-深度学习==
+
== 课程项目(选做)==
  
===基本任务:手写数字识别===
 
  
利用附件提供的Matlab Deep Learning Toolbox中的卷积神经网络(CNN),在MNIST手写数字样本集上,利用训练集样本进行训练,并对测试集样本进行测试。
+
=== [[智能硬件-手写数字识别 | 手写数字识别]] ===
 
+
建议阅读附件中的背景知识和工具箱中的CNN源代码,在了解算法原理和技术实现细节基础上,参照示例程序'''''CNN/test_example_CNN.m''''',自行调整算法中至少一种关键参数或设置,例如调整CNN的卷积层及下采样层的层数、或模板大小等参数;在至少一种与原始程序不同的参数或设置下分别进行训练,做出测试集识别率(或错误率)随参数或设置变化的对照图或对照表,并标出最高识别率对应的参数或设置。
+
 
+
===提高任务:物体检测===
+
 
+
请参考工具箱中'''''tests/test_example_SAE.m'''''示例文件,利用STL-10数据集中的无标注图片训练一个自动编码器,再用自动编码器隐含层的参数初始化一个神经网络分类器,并使用训练集中有标注的图片进行训练,最后使用神经网络分类器在测试集上进行测试。测试阶段,调用nntest的返回值“er”为测试集上的识别错误率。
+
 
+
在训练过程中,尝试调整算法中至少一种关键参数或设置,例如自动编码器隐含层的节点个数;在至少一种与原始程序不同的参数或设置下进行实验,做出测试结果随参数或设置变化的对照图或对照表。
+
 
+
在'''''test_example_SAE.m'''''中,建议修改第16行和第28行的'''''opts.numepochs'''''数值,比如将原来的1改为3;如果改变自动编码器隐含层节点数目进行实验比较,需要注意:
+
:第12行:sae = saesetup([784 <font color="#FF0000">'''100'''</font>]);
+
:第22行:nn = nnsetup([784 <font color="#FF0000">'''100'''</font> 10]);
+
中红色标注的参数要修改一致。
+
 
+
===报告要求===
+
 
+
报告应包含以下内容:
+
 
+
# 在MNIST手写数字样本测试集上,识别率(或错误率)随参数或设置变化的对照图或对照表。
+
# ''(选做)''在STL-10 测试集上,识别率(或错误率)随参数或设置变化的对照图或对照表。
+
# 总结收获和体会。
+
 
+
提交报告时,请一并提交自己编写或修改过的源代码。
+
 
+
===附件===
+
 
+
更多帮助,请阅读实验指导书。
+
 
+
实验指导书和工具箱下载:
+
 
+
http://166.111.6.122/RegionDownloadService/1511/0A6A33E76DFD6DFCD75E20F7C1226B7E3.html
+
 
+
(助教:王晗 wang-han13@mails.tsinghua.edu.cn)
+
 
+
==课程项目-智能医药问答==
+
 
+
(常嘉辉)
+

2017年6月7日 (三) 09:08的最后版本

目标

硬件智能化:让计算设备能看见,能听见,能对话。

平台:

  1. 嵌入式智能硬件(Jetson_Kit/PYNQ)
  2. 移动终端(安卓智能平板)

准备工作

  • Install TensorFlow Mobile in HUAWEI MediaPad M2 8.0
  • Install TensorFlow in Jetson TK1/TX1
TensorFlow 清华校内镜像(THU-TUNA):TUNA-TensorFlow
  • Install Keras in Jetson TK1/TX1
Keras: Deep Learning library for Theano and TensorFlow

JetsonKit TX1

CUDA编程

Xilinx PYNQ

PYNQ( Python for Zynq )是xilinx生产的一款嵌入式智能硬件。

PYNQ开发入门

课程项目

语音识别

对象检测

云+端整合

智能硬件-云端整合2

课程项目(选做)

手写数字识别