自然语言处理:概率语言模型
Natural Language Processing: Probabilistic Language Modeling
作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)
译者:我爱自然语言处理(www.52nlp.cn ,2009年2月16日)
六、 插值及回退
a) The Bias-Variance Trade-Off
i. 未平滑的三元模型估计(Unsmoothed trigram estimate):
ii. 未平滑的二元模型估计(Unsmoothed bigram estimate):
iii. 未平滑的一元模型估计(Unsmoothed unigram estimate):
iv. 这些不同的估计中哪个和“真实”的
b) 插值(Interpolation)
i. 一种解决三元模型数据稀疏问题的方法是在模型中混合使用受数据稀疏影响较小的二元模型和一元模型(One way of solving the sparseness in a trigram model is to mix that model with bigram and unigram models that suffer less from data sparseness)。
ii. 权值可以使用期望最大化算法(EM)或其它数值优化技术设置(The weights can be set using the Expectation-Maximization Algorithm or another numerical optimization technique)
iii. 线性插值(Linear Interpolation)
这里
iv. 参数估计(Parameter Estimation)
1. 取出训练集的一部分作为“验证”数据(Hold out part of training set as “validation” data)
2. 定义
3. 选择
这里
注:关于参数估计的其他内容,由于公式太多,这里略,请参考原始课件
c)Kats回退模型-两元(Katz Back-Off Models (Bigrams)):
i. 定义两个集合(Define two sets):
ii. 一种两元模型(A bigram model):
iii.
1. Kats对于Count(x)<5使用Good-Turing方法,对于Count(x)>=5令
2. “Kneser-Ney”方法(“Kneser-Ney” method):
七、 综述
a) N元模型的弱点(Weaknesses of n-gram Models)
i. 有何想法(Any ideas)?
短距离(Short-range)
中距离(Mid-range)
长距离(Long-range)
b) 更精确的模型(More Refined Models)
i. 基于类的模型(Class-based models)
ii. 结构化模型(Structural models)
iii. 主题和长距离模型(Topical and long-range models)
c) 总结(Summary)
i. 从一个词表开始(Start with a vocabulary)
ii. 选择一种模型(Select type of model)
iii. 参数估计(Estimate Parameters)
d) 工具包参考:
i. CMU-Cambridge language modeling toolkit:
http://mi.eng.cam.ac.uk/~prc14/toolkit.html
ii.SRILM - The SRI Language Modeling Toolkit:
http://www.speech.sri.com/projects/srilm/
第三讲结束!
第四讲:标注
附:课程及课件pdf下载MIT英文网页地址:
http://people.csail.mit.edu/regina/6881/
注:本文遵照麻省理工学院开放式课程创作共享规范翻译发布,转载请注明出处“我爱自然语言处理”:www.52nlp.cn
本文链接地址:
https://www.52nlp.cn/mit-nlp-third-lesson-probabilistic-language-modeling-sixth-part/
公式显示有问题啊。
[回复]
52nlp 回复:
18 7 月, 2015 at 08:34
这个公式插件失效了,暂时先这样了,抱歉
[回复]