[[文件:下载 (1).png|200px|thumb|left|人脸识别]]<br />
===电子实习-智能硬件挑战课程实验日志===
'''实验日志7/5'''
--sess开始之后才可以开始喂数据
--在图上,由后向前查找相关结点求导插入并更新计算图
'''实验日志7/7'''
*softmax function,交叉熵cross entropy,权重是分层的,右上标括号内数字表示层数。
*BP算法机智地避开了这种冗余,它对于每一个路径只访问一次就能求顶点对所有下层节点的偏导值。
从最上层的节点e开始,初始值为1,以层为单位进行处理。对于e的下一层的所有子节点,将1乘以e到某个节点路径上的偏导值,并将结果“堆放”在该子节点中。等e所在的层按照这样传播完毕后,第二层的每一个节点都“堆放”些值,然后我们针对每个节点,把它里面所有“堆放”的值求和,就得到了顶点e对该节点的偏导。然后将这些第二层的节点各自作为起始顶点,初始值设为顶点e对它们的偏导值,以”层”为单位重复上述传播过程,即可求出顶点e对每一层节点的偏导数。
*CNN卷积神经网络,RNN循环神经网络。
CNN主要应用于图像领域,RNN主要应用于语音识别,NLP。
Dense(全连接网络)&CNN(松散连接网络,和大脑中的神经连接模式更加类似)
'''实验日志7/8'''
*RNN有一个问题就是vanishing gradient over time,可以用LSTM长短时记忆,将早期记忆单独记录于cell,并通过门控的方式选择记忆或者遗忘。cell state
*门电路:input->X(<-control(类似一个单独的神经元))->output
*LSTM:
1,cell gate
2,input gate
3,update
4,output gate
*Gated Recurrent Unit(GRU)<br />
--combine the input gate and the forget gate into the update gate<br />
--merge the cell state and the hidden gate<br />
Stacked-lstm准确率提高,时间延迟比较严重(多层GRU-LSTM的叠加)
*Neuron Turing Machines,DNC
语音处理技术
--ASR,TTS(语音识别,语音合成)
声控智能硬件(AI唤醒万物)
IBM watson,参与危险边缘综艺节目,需要用自然语言给出70%问题的答案,正确率要高于80%
--基本思路:问题分类-线索-答案
--语法分析,知识提取,文本类证据获取与分析
*实验过程:<br />
audioPlot:笔记本或者手机<br />
(1)录音生成对应语音指令的录音文件<br />
(2)对应文件生成时频谱图(spectrogram)<br />
audioNet:GPU工作站<br />
(3)用tensorflow搭一个深度神经网络<br />
(4)使用录音集进行训练<br />
(5)验证神经网络准确率<br />
androidAudioRec<br />
(6)部署神经网络到硬件平台上<br />
--wav文件通过stfft(傅里叶变换),转化为时频谱图<br />
--涵盖了两种信息,时间和波形<br />
[[文件:下载 (1).png|200px|thumb|left|人脸识别]]
[[文件:IMG 20190708 093439.jpg|200px|thumb|left|硅智能音箱主板]]<br /><br />