摘要:在递归神经网络(RNN)语言模型输入中增加表示当前词所对应主题的特征向量是一种有效利用长时间跨度历史信息的方法。由于在不同文档中各主题的概率分布通常差别很大,该文提出一种使用文档主题概率改进当前词主题特征的方法,并将改进后的特征应用于基于长短时记忆(LSTM)单元的递归神经网络语言模型中。实验表明,在PTB数据集上该文提出的方法使语言模型的困惑度相对于基线系统下降11.8%。在SWBD数据集多候选重估实验中,该文提出的特征使LSTM模型相对于基线模型词错误率(WER)相对下降6.0%;在WSJ数据集上的实验中,该特征使LSTM模型相对于基线模型词错误率(WER)相对下降6.8%,并且在eval92测试集上,改进隐含狄利克雷分布(LDA)特征使RNN效果与LSTM相当。
关键词:语音识别 语言模型 隐含狄利克雷分布 长短时记忆
单位:中国科学院声学研究所语言声学与内容理解重点实验室; 北京100190; 中国科学院大学; 北京100049; 中国科学院新疆理化技术研究所新疆民族语音语言信息处理实验室; 乌鲁木齐830011
注:因版权方要求,不能公开全文,如需全文,请咨询杂志社