上一节主要介绍的是利用最大熵工具包来做字标注中文分词,这一节我们直奔主题,借用条件随机场工具“CRF++: Yet Another CRF toolkit”来完成字标注中文分词的全过程。
关于条件随机场(CRF)的背景知识,推荐参考阅读一些经典的文献:《条件随机场文献阅读指南》,另外再额外推荐一个tutorial:《Classical Probabilistic Models and Conditional Random Fields》, 这份关于CRF的文档分别从概率模型(NB,HMM,ME, CRF)之间的关系以及概率图模型背景来介绍条件随机场,比较清晰:
While a Hidden Markov Model is a sequential extension to the Nave Bayes Model, Conditional Random Fields can be understood as a sequential extension to the Maximum Entropy Model.
如果这些还不够过瘾,推荐课程图谱上收录的Coursera创始人之一Daphne Koller的概率图模型公开课,相信拿下这门课之后,对于上述概率模型,会有一种“一览众山小”的感觉。
不过我们还是要从安装CRF++工具包说起,在Linux或者Mac OS系统下,下载C++源代码安装包(这里用的是 CRF++-0.58.tar.gz )之后,依然是 “configure & make & (sudo) make install",安装完毕之后,可以cd python进入到其同样用SWIG生成的Python工具包下,安装python包:python setup.py build & (sudo) python setup.py install。安装完毕之后,可以在python解释器下测试,是否能成功import CRFPP,如果ok,则准备工作就绪。
上一节我们利用最大熵模型工具包里自带的词性标注工具进行的中文分词,稍微有些曲折,这一节我们依然利用CRF++ example里的样例进行测试,不过好处是,CRF++ example里有个seg目录,这个seg目录对应的是一个日文分词的样例,正好可以套用到我们的中文分词中来。在安装包目录下,cd example, cd seg目录后,有4个文件:
exec.sh(执行脚本)
template(特征模板)
test.data(测试集)
train.data(训练集)
有了这4个文件,我们可以做得事情就比较简单,只要按测试集,训练集的格式准备数据就可以了,特征模板和执行脚本可以套用,不过这里简单解读一下这几个CRF++文件。首先来看训练集:
毎 k B
日 k I
新 k I
聞 k I
社 k I
特 k B
別 k I
顧 k B
問 k I
4 n B
这里第一列是待分词的日文字,第二列暂且认为其是词性标记,第三列是字标注中的2-tag(B, I)标记,这个很重要,对于我们需要准备的训练集,主要是把这一列的标记做好,不过需要注意的是,其断句是靠空行来完成的。
再来看测试集的格式:
よ h I
っ h I
て h I
私 k B
た h B
ち h I
の h B
世 k B
代 k I
が h B
同样也有3列,第一列是日文字,第二列第三列与上面是相似的,不过在测试集里第三列主要是占位作用。事实上,CRF++对于训练集和测试集文件格式的要求是比较灵活的,首先需要多列,但不能不一致,既在一个文件里有的行是两列,有的行是三列;其次第一列代表的是需要标注的“字或词”,最后一列是输出位"标记tag",如果有额外的特征,例如词性什么的,可以加到中间列里,所以训练集或者测试集的文件最少要有两列。
接下里我们再来详细的分析一下特征模板文件:
# Unigram
U00:%x[-2,0]
U01:%x[-1,0]
U02:%x[0,0]
U03:%x[1,0]
U04:%x[2,0]
U05:%x[-2,0]/%x[-1,0]/%x[0,0]
U06:%x[-1,0]/%x[0,0]/%x[1,0]
U07:%x[0,0]/%x[1,0]/%x[2,0]
U08:%x[-1,0]/%x[0,0]
U09:%x[0,0]/%x[1,0]
# Bigram
B
关于CRF++中特征模板的说明和举例,请大家参考官方文档上的“Preparing feature templates”这一节,而以下部分的说明拿上述日文分词数据举例。在特征模板文件中,每一行(如U00:%x[-2,0])代表一个特征,而宏“%x[行位置,列位置]”则代表了相对于当前指向的token的行偏移和列的绝对位置,以上述训练集为例,如果当前扫描到“新 k I”这一行,
毎 k B
日 k I
新 k I <== 扫描到这一行,代表当前位置
聞 k I
社 k I
特 k B
別 k I
顧 k B
問 k I
4 n B
那么依据特征模板文件抽取的特征如下:
# Unigram
U00:%x[-2,0] ==> 毎
U01:%x[-1,0] ==> 日
U02:%x[0,0] ==> 新
U03:%x[1,0] ==> 聞
U04:%x[2,0] ==> 社
U05:%x[-2,0]/%x[-1,0]/%x[0,0] ==> 每/日/新
U06:%x[-1,0]/%x[0,0]/%x[1,0] ==> 日/新/聞
U07:%x[0,0]/%x[1,0]/%x[2,0] ==> 新/聞/社
U08:%x[-1,0]/%x[0,0] ==> 日/新
U09:%x[0,0]/%x[1,0] ==> 新/聞
# Bigram
B
CRF++里将特征分成两种类型,一种是Unigram的,“U”起头,另外一种是Bigram的,“B”起头。对于Unigram的特征,假如一个特征模板是"U01:%x[-1,0]", CRF++会自动的生成一组特征函数(func1 ... funcN) 集合:
func1 = if (output = B and feature="U01:日") return 1 else return 0
func2 = if (output = I and feature="U01:日") return 1 else return 0
....
funcXX = if (output = B and feature="U01:問") return 1 else return 0
funcXY = if (output = I and feature="U01:問") return 1 else return 0
生成的特征函数的数目 = (L * N),其中L是输出的类型的个数,这里是B,I这两个tag,N是通过模板扩展出来的所有单个字符串(特征)的个数,这里指的是在扫描所有训练集的过程中找到的日文字(特征)。
而Bigram特征主要是当前的token和前面一个位置token的自动组合生成的bigram特征集合。最后需要注意的是U01和U02这些标志位,与特征token组合到一起主要是区分“U01:問”和“U02:問”这类特征,虽然抽取的日文"字"特征是一样的,但是在CRF++中这是有区别的特征。
最后我们再来看一下执行脚本:
#!/bin/sh
../../crf_learn -f 3 -c 4.0 template train.data model
../../crf_test -m model test.data
../../crf_learn -a MIRA -f 3 template train.data model
../../crf_test -m model test.data
rm -f model
执行脚本告诉了我们如何训练一个CRF模型,以及如何利用这个模型来进行测试,执行这个脚本之后,对于输入的测试集,输出结果多了一列:
よ h I B
っ h I I
て h I B
私 k B B
た h B B
ち h I I
の h B B
世 k B B
代 k I I
が h B B
而这一列才是模型预测的改字的标记tag,也正是我们所需要的结果。到此为止,关于日文分词样例的介绍已经完毕,读者应该可以猜测到接下来我们会如何做中文分词吧?
和上一节利用最大熵模型进行中文分词相似,第一步仍然是将backoff2005里的训练数据转化为CRF++所需的训练数据格式,还是以微软亚洲研究院提供的中文分词语料为例,依然采用4-tag(B(Begin,词首), E(End,词尾), M(Middle,词中), S(Single,单字词))标记集,只处理utf-8编码文本。原始训练集./icwb2-data/training/msr_training.utf8的形式是人工分好词的中文句子形式,如:
“ 人们 常 说 生活 是 一 部 教科书 , 而 血 与 火 的 战争 > 更 是 不可多得 的 教科书 , 她 确实 是 名副其实 的 ‘ 我 的 > 大学 ’ 。
“ 心 静 渐 知 春 似 海 , 花 深 每 觉 影 生 香 。
“ 吃 屎 的 东西 , 连 一 捆 麦 也 铡 不 动 呀 ?
他 “ 严格要求 自己 , 从 一个 科举 出身 的 进士 成为 一个 伟> 大 的 民主主义 者 , 进而 成为 一 位 杰出 的 党外 共产主义 战 士 , 献身 于 崇高 的 共产主义 事业 。
“ 征 而 未 用 的 耕地 和 有 收益 的 土地 , 不准 荒芜 。
“ 这 首先 是 个 民族 问题 , 民族 的 感情 问题 。
’ 我 扔 了 两颗 手榴弹 , 他 一下子 出 溜 下去 。
“ 废除 先前 存在 的 所有制 关系 , 并不是 共产主义 所 独具 的 特征 。
“ 这个 案子 从 始 至今 我们 都 没有 跟 法官 接触 过 , 也 > 没有 跟 原告 、 被告 接触 过 。
“ 你 只有 把 事情 做好 , 大伙 才 服 你 。
这里同样提供一个脚本 make_crf_train_data.py,将这个训练语料转换为CRF++训练用的语料格式(2列,4-tag):
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# Author: 52nlpcn@gmail.com
# Copyright 2014 @ YuZhen Technology
#
# 4 tags for character tagging: B(Begin), E(End), M(Middle), S(Single)
import codecs
import sys
def character_tagging(input_file, output_file):
input_data = codecs.open(input_file, 'r', 'utf-8')
output_data = codecs.open(output_file, 'w', 'utf-8')
for line in input_data.readlines():
word_list = line.strip().split()
for word in word_list:
if len(word) == 1:
output_data.write(word + "\tS\n")
else:
output_data.write(word[0] + "\tB\n")
for w in word[1:len(word)-1]:
output_data.write(w + "\tM\n")
output_data.write(word[len(word)-1] + "\tE\n")
output_data.write("\n")
input_data.close()
output_data.close()
if __name__ == '__main__':
if len(sys.argv) != 3:
print "pls use: python make_crf_train_data.py input output"
sys.exit()
input_file = sys.argv[1]
output_file = sys.argv[2]
character_tagging(input_file, output_file)
只需要执行“python make_crf_train_data.py ./icwb2-data/training/msr_training.utf8 msr_training.tagging4crf.utf8” 即可得到CRF++要求的格式的训练文件msr_training.tagging4crf.utf8,样例如下:
“ S
人 B
们 E
常 S
说 S
生 B
活 E
是 S
一 S
部 S
...
有了这份训练语料,就可以利用crf的训练工具crf_learn来训练模型了,执行如下命令即可:
crf_learn -f 3 -c 4.0 template msr_training.tagging4crf.utf8 crf_model
这次训练的时间稍微有些长,在我的4G内存的mac pro上跑了将近700轮,大约2个小时,最终训练的crf_model约51M。有了模型,现在我们需要做得还是准备一份CRF++用的测试语料,然后利用CRF++的测试工具crf_test进行字标注。原始的测试语料是icwb2-data/testing/msr_test.utf8 ,样例如下:
扬帆远东做与中国合作的先行
希腊的经济结构较特殊。
海运业雄踞全球之首,按吨位计占世界总数的17%。
另外旅游、侨汇也是经济收入的重要组成部分,制造业规模相对较小。
多年来,中希贸易始终处于较低的水平,希腊几乎没有在中国投资。
十几年来,改革开放的中国经济高速发展,远东在崛起。
瓦西里斯的船只中有40%驶向远东,每个月几乎都有两三条船停靠中国港口。
他感受到了中国经济发展的大潮。
他要与中国人合作。
他来到中国,成为第一个访华的大船主。
这里我们同样提供一个python脚本 make_crf_test_data.py 对测试语料进行处理,将其转换为CRF++要求的格式(2列,B作为最后一列的占位符)
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# Author: 52nlpcn@gmail.com
# Copyright 2014 @ YuZhen Technology
#
# 4 tags for character tagging: B(Begin), E(End), M(Middle), S(Single)
import codecs
import sys
def character_split(input_file, output_file):
input_data = codecs.open(input_file, 'r', 'utf-8')
output_data = codecs.open(output_file, 'w', 'utf-8')
for line in input_data.readlines():
for word in line.strip():
word = word.strip()
if word:
output_data.write(word + "\tB\n")
output_data.write("\n")
input_data.close()
output_data.close()
if __name__ == '__main__':
if len(sys.argv) != 3:
print "pls use: python make_crf_test_data.py input output"
sys.exit()
input_file = sys.argv[1]
output_file = sys.argv[2]
character_split(input_file, output_file)
执行“python make_crf_test_data.py ./icwb2-data/testing/msr_test.utf8 msr_test4crf.utf8”即可得到可用于CRF++测试的测试语料msr_test4crf.utf8,样例如下:
扬 B
帆 B
远 B
东 B
做 B
与 B
中 B
国 B
合 B
作 B
...
现在执行crf_test即可得到字标注结果:
crf_test -m crf_model msr_test4crf.utf8 > msr_test4crf.tag.utf8
msr_test4crf.tag.utf8即是标注结果,样例如下:
扬 B B
帆 B E
远 B B
东 B E
做 B S
与 B S
中 B B
国 B E
合 B B
作 B E
...
最后我们还需要一个脚本,按标注的词位信息讲这份结果再转化为分词结果,这里我们仍然提供一个转换脚本 crf_data_2_word.py :
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# Author: 52nlpcn@gmail.com
# Copyright 2014 @ YuZhen Technology
#
# 4 tags for character tagging: B(Begin), E(End), M(Middle), S(Single)
import codecs
import sys
def character_2_word(input_file, output_file):
input_data = codecs.open(input_file, 'r', 'utf-8')
output_data = codecs.open(output_file, 'w', 'utf-8')
for line in input_data.readlines():
if line == "\n":
output_data.write("\n")
else:
char_tag_pair = line.strip().split('\t')
char = char_tag_pair[0]
tag = char_tag_pair[2]
if tag == 'B':
output_data.write(' ' + char)
elif tag == 'M':
output_data.write(char)
elif tag == 'E':
output_data.write(char + ' ')
else: # tag == 'S'
output_data.write(' ' + char + ' ')
input_data.close()
output_data.close()
if __name__ == '__main__':
if len(sys.argv) != 3:
print "pls use: python crf_data_2_word.py input output"
sys.exit()
input_file = sys.argv[1]
output_file = sys.argv[2]
character_2_word(input_file, output_file)
只需执行“python crf_data_2_word.py msr_test4crf.tag.utf8 msr_test4crf.tag2word.utf8” 即可得到合并后的分词结果文件 msr_test4crf.tag2word.utf8,样例如下:
扬帆 远东 做 与 中国 合作 的 先行
希腊 的 经济 结构 较 特殊 。
海运 业 雄踞 全球 之 首 , 按 吨 位 计 占 世界 总数 的 17% 。
另外 旅游 、 侨汇 也是 经济 收入 的 重要 组成部分 , 制造业 规模 相对 较小 。
多年来 , 中 希 贸易 始终 处于 较低 的 水平 , 希腊 几乎 没有 在 中国 投资 。
十几年 来 , 改革开放 的 中国 经济 高速 发展 , 远东 在 崛起 。
瓦西里斯 的 船只 中 有 40% 驶 向 远东 , 每个 月 几乎 都 有 两三条 船 停靠 中国 港口 。
他 感受 到 了 中国 经济 发展 的 大潮 。
他 要 与 中国人 合作 。
他 来到 中国 , 成为 第一个 访 华 的 大船 主 。
...
有了这个CRF字标注分词结果,我们就可以利用backoff2005的测试脚本来测一下这次分词的效果了:
./icwb2-data/scripts/score ./icwb2-data/gold/msr_training_words.utf8 ./icwb2-data/gold/msr_test_gold.utf8 msr_test4crf.tag2word.utf8 > msr_crf_segment.score
结果如下:
=== SUMMARY:
=== TOTAL INSERTIONS: 1412
=== TOTAL DELETIONS: 1305
=== TOTAL SUBSTITUTIONS: 2449
=== TOTAL NCHANGE: 5166
=== TOTAL TRUE WORD COUNT: 106873
=== TOTAL TEST WORD COUNT: 106980
=== TOTAL TRUE WORDS RECALL: 0.965
=== TOTAL TEST WORDS PRECISION: 0.964
=== F MEASURE: 0.964
=== OOV Rate: 0.026
=== OOV Recall Rate: 0.647
=== IV Recall Rate: 0.974
### msr_test4crf.tag2word.utf8 1412 1305 2449 5166 106873 106980 0.965 0.964 0.964 0.026 0.647 0.974
这次我们获得了一个准确率,召回率以及F值都在96%以上的结果,相对于前面几节的测试结果,这个CRF字标注分词结果还相对不错。不过是不是感觉上面的步骤有些繁琐,有没有一次到位的CRF分词器,这里我们同样提供一个CRF分词脚本 crf_segmenter.py ,利用CRF++的python工具包,做到一次输入,一次输出:
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# Author: 52nlpcn@gmail.com
# Copyright 2014 @ YuZhen Technology
#
# CRF Segmenter based character tagging:
# 4 tags for character tagging: B(Begin), E(End), M(Middle), S(Single)
import codecs
import sys
import CRFPP
def crf_segmenter(input_file, output_file, tagger):
input_data = codecs.open(input_file, 'r', 'utf-8')
output_data = codecs.open(output_file, 'w', 'utf-8')
for line in input_data.readlines():
tagger.clear()
for word in line.strip():
word = word.strip()
if word:
tagger.add((word + "\to\tB").encode('utf-8'))
tagger.parse()
size = tagger.size()
xsize = tagger.xsize()
for i in range(0, size):
for j in range(0, xsize):
char = tagger.x(i, j).decode('utf-8')
tag = tagger.y2(i)
if tag == 'B':
output_data.write(' ' + char)
elif tag == 'M':
output_data.write(char)
elif tag == 'E':
output_data.write(char + ' ')
else: # tag == 'S'
output_data.write(' ' + char + ' ')
output_data.write('\n')
input_data.close()
output_data.close()
if __name__ == '__main__':
if len(sys.argv) != 4:
print "pls use: python crf_segmenter.py model input output"
sys.exit()
crf_model = sys.argv[1]
input_file = sys.argv[2]
output_file = sys.argv[3]
tagger = CRFPP.Tagger("-m " + crf_model)
crf_segmenter(input_file, output_file, tagger)
只需执行“python crf_segmenter.py crf_model ./icwb2-data/testing/msr_test.utf8 msr_test.seg.utf8”即可得到与前面几步得到的分词结果完全一致的CRF分词结果:msr_test.seg.utf8 。
好了,到此为止,关于字标注中文分词的系列终于可以画上句号了,这个系列中所举的例子以及所提供的脚本都是toy级别的中文分词工具,距离一个真正实用的中文分词器还有很多路要走,不过既然路已经打开,欢迎大家和我们一起继续探索中文分词的奥秘。
注:原创文章,转载请注明出处“我爱自然语言处理”:www.52nlp.cn
本文链接地址:https://www.52nlp.cn/中文分词入门之字标注法4
借宝地做个广告,试试CRFSharp(http://crfsharp.codeplex.com/),CRF++在.net平台上的开源移植,同时对训练时的CPU和内存使用做了很多优化,在多核CPU上能够显著缩短训练时间,同样的内存能够支持更多的特征。
[回复]
木木 回复:
18 5 月, 2015 at 21:45
你好,请问一下,window下CRF++做训练是怎么对cpu和内存做优化
[回复]
52nlp 回复:
21 5 月, 2015 at 18:57
抱歉,这个不清楚
[回复]
[…] 另外在上一节关于CRF中文分词的介绍中,通过CRF++训练了一个CRF模型,实际训练的时间比较长,为了方便大家测试,也把这个crf_model上传到微盘了,感兴趣的同学可以下载:crf_model。 […]
请问crf_learn语句可否在python中实现?crf++可以导入ide中么?
[回复]
木叶飞飞 回复:
10 11 月, 2014 at 15:55
可以的
[回复]
cannon0102 回复:
13 6 月, 2016 at 11:53
crf_learn的功能怎么在 python调用?有示例代码么?
[回复]
我分词结束后,调用脚本
perl score msr_training_words.utf8 msr_test_gold.utf8 result.utf8 >info
总是 出现 :
warning: No output in test data where there is in training data ,line 2
Illegal division by zero at score line 152
不知该如何解决。
操作环境:Ubuntu 系统虚拟终端,root权限。
[回复]
52nlp 回复:
20 11 月, 2014 at 19:32
这个问题估计和你跑出的数据有关,仔细检查一下几个文件看看,具体什么情况我不是太清楚;另外我刚才google了一下,发现你之前留言在最大熵分词时遇到过此类问题,不过解决了。
[回复]
张义 回复:
21 11 月, 2014 at 17:43
您好,谢谢回复。在终端跟了一下,我发现最后的结果文件没有换行更改了去标签脚本 crf_data_2_word.py, 第15行
if line == "\n":
改成了 if line == "\r\n":
在Ubuntu 系统虚拟终端就跑通了。
但是,新的问题是,
1、score的针对每个句子都进行了评分,是这样的吗?
2、学习时,我开了19个线程,为什么老是崩掉。(我的计算机是24个CUP的), 貌似特征数超过300万,就开不了多线程,怎么提高速度呢? 我看了网上的相关说法, 也没调MIRA 算法呀。
[回复]
52nlp 回复:
21 11 月, 2014 at 21:42
关于1,score既有针对每个句子的评分,也有汇总评分,你看看评分结果的尾部就知道了;关于2,你是说crf++的多线程问题吧,抱歉这个不太清楚,需要你自己去定位解决。
张义 回复:
21 11 月, 2014 at 21:51
OK,还有几个问题
1、请问用CRF进行训练时,参数选取有什么建议没?f 设3,设4? c 设3, 还是4?,谢谢
2、关于特征选取。有人说用,字位置概率特征模板,就是把字的位置概率作为特征,您觉得如何呢?对于特征选取,您有什么改进的建议吗?
谢谢~
[回复]
52nlp 回复:
22 11 月, 2014 at 11:09
这两个问题可以一并回答:无论调参和还是特征选择都是一个经验性的东西,而且还依赖于数据,需要你自己不断去调试,多跑跑实验,多对比一下调参或者调整特征后的实验效果。
Nice written up, really appreciated!
Spent 1.5 days on MSR training data, and achieved the state-of-the-art results:
### ../VBT/icwb2.tag2word.utf 1050 1389 2311 4750 106873 106534 0.965 0.968 0.967 0.026 0.706 0.972
Do you know any recent Chinese Segmentation corpus? Thanks a lot!
[回复]
52nlp 回复:
29 11 月, 2014 at 09:53
Sorry, corpus is "Rare animal"
[回复]
请问这个例子中跑中文分词的template是哪个?和JapaneseNE 例子下的一样?不知为何,我run下来,好像loading数据有问题。training data generation没有问题。
Jamess-MacBook-Pro-2:chinese weidezhang$ crf_learn -f 3 -c 4.0 template msr_training.tagging4crf.utf8 crf_model
CRF++: Yet Another CRF Tool Kit
Copyright (C) 2005-2013 Taku Kudo, All rights reserved.
reading training data: tagger.cpp(393) [feature_index_->buildFeatures(this)]
0.00 s
[回复]
52nlp 回复:
8 1 月, 2015 at 09:38
是日文分词目录下的:CRF++-0.58/example/seg/
[回复]
你好,按上面的步骤,训练出来的model文件的基本内容骨架应该是:
version: 100
cost-factor: 1
maxid: 2159868
xsize: 1
B
E
M
S
U00:%x[-2,0]
U01:%x[-1,0]
U02:%x[0,0]
U03:%x[1,0]
U04:%x[2,0]
U05:%x[-2,0]/%x[-1,0]/%x[0,0]
U06:%x[-1,0]/%x[0,0]/%x[1,0]
U07:%x[0,0]/%x[1,0]/%x[2,0]
U08:%x[-1,0]/%x[0,0]
U09:%x[0,0]/%x[1,0]
B
0 B
16 U00:-
20 U00:0
24 U00:1
28 U00:2
32 U00:3
36 U00:4
40 U00:5
44 U00:6
48 U00:7
52 U00:8
56 U00:9
60 U00:_B-1
64 U00:_B-2
……
17404 U01:厨
17408 U01:去
17412 U01:县
17416 U01:参
17420 U01:又
17424 U01:叉
17428 U01:及
17432 U01:友
17436 U01:双
17440 U01:反
17444 U01:发
17448 U01:叔
17452 U01:取
17456 U01:受
……
77800 U05:_B-1/一/个
107540 U05:一/方/面
107544 U05:一/无/所
107548 U05:一/日/三
107552 U05:一/日/为
107556 U05:一/日/之
……
566536 U06:万/吨/_B+1
……
2159864 U09:v/e
-8.5354017525999719
9.0491453814148901
7.0388286231971700
-7.2545558164093009
5.2799470769112835
-8.5333633546653758
-5.3549190735606933
5.2575182675282477
-5.4259109736696054
但是为什么我解析model文件的时候,中间这部分内容都是0.
17404 U01:厨
17408 U01:去
17412 U01:县
17416 U01:参
17420 U01:又
17424 U01:叉
17428 U01:及
17432 U01:友
其他的内容都是可以解析出来的。谢谢。
[回复]
52nlp 回复:
19 1 月, 2015 at 13:03
抱歉,这个方面不太清楚,需要你自己追踪一下。
[回复]
博主,你好。我执行到crf_learn这步:
crf_learn -f 3 -c 4.0 template msr_training.tagging4crf.utf8 crf_model
输入上面这个命令后,报出了以下错误:
CRF++: Yet Another CRF Tool Kit Copyright (C) 2005-2013 Taku Kudo, All rights reserved. encoder.cpp(340) [feature_index.open(templfile, trainfile)] feature_index.cpp(135) [ifs] open failed: template_file
CRF++已经正确安装了,在python中也可以正常import,不知道这是怎么回事了?还望博主答疑,谢谢。
[回复]
52nlp 回复:
27 1 月, 2015 at 21:38
"open failed: template_file" 没有template文件吧?
[回复]
木叶飞飞 回复:
27 1 月, 2015 at 21:52
template文件是example文件夹下那个码?
[回复]
52nlp 回复:
27 1 月, 2015 at 21:57
CRF++-0.58/example/seg/
木叶飞飞 回复:
27 1 月, 2015 at 22:07
恩。原来在这个目录下,在主目录下折腾了半天。谢谢博主提醒!
[回复]
您好,我想问您一下在训练中文样本的时候,template是用的哪个?还是自己写?
[回复]
52nlp 回复:
27 4 月, 2015 at 10:44
这里用的是这个 CRF++-0.58/example/seg/template,如果你对这些比较熟悉,也可以自己定义。
[回复]
我把crf++封装成CRFPP.jar和libCRF.so,然后用java调用,出现这个 怎么回事?
Exception in thread "main" java.lang.RuntimeException: tagger.cpp(57) [feature_index_->open(model.c_str(), 0)] feature_index.cpp(105) [mmap_.open(filename1)] mmap.h(160) [(fd = open__(filename, flag | O_BINARY)) >= 0] open failed: ../lib/model-all
at org.chasen.crfpp.CRFPPJNI.new_Tagger(Native Method)
at org.chasen.crfpp.Tagger.(Tagger.java:171)
at test.main(test.java:12)
[回复]
52nlp 回复:
27 4 月, 2015 at 10:43
抱歉,对java这块儿不熟
[回复]
我想知道,我们还可以从语料中分出一个开发集,这个开发集主要是用来调参数的,在CRF++中,我们应该如何使用开发集来调参。
[回复]
52nlp 回复:
7 5 月, 2015 at 10:30
这个需要你自己来划分训练集,开发集和测试集了,应该自己来写脚本跑很多轮实验了。
[回复]
我想知道,我们还可以从语料中分出一个开发集,这个开发集主要是用来调参数的,在CRF++中,我们应该如何使用开发集来调参。求指导。
[回复]
您好,我在用CRF++ python调用时一直不成功。那个文件夹里我按照doc里边的C++安装,python文件夹里边build setup都做过后,在python 环境中import CRFPP提示错误:
Traceback (most recent call last):
File "", line 1, in
File "/Users/Andy/Library/Enthought/Canopy_32bit/User/lib/python2.7/site-packages/CRFPP.py", line 19, in
_CRFPP = swig_import_helper()
File "/Users/Andy/Library/Enthought/Canopy_32bit/User/lib/python2.7/site-packages/CRFPP.py", line 15, in swig_import_helper
_mod = imp.load_module('_CRFPP', fp, pathname, description)
ImportError: dlopen(/Users/Andy/Library/Enthought/Canopy_32bit/User/lib/python2.7/site-packages/_CRFPP.so, 2): Symbol not found: __ZN5CRFPP12createTaggerEPKc
Referenced from: /Users/Andy/Library/Enthought/Canopy_32bit/User/lib/python2.7/site-packages/_CRFPP.so
Expected in: flat namespace
in /Users/Andy/Library/Enthought/Canopy_32bit/User/lib/python2.7/site-packages/_CRFPP.so
不知道是什么缘故?
[回复]
52nlp 回复:
7 5 月, 2015 at 10:36
抱歉,我这边没有遇到这个问题,另外google了一下,没有找到所以然
[回复]
kate zhang 回复:
6 3 月, 2017 at 17:47
想问有没有解决这个问题
[回复]
您好,我运行crf_segment.py 的时候出现下面的错误,请问您知道是什么原因吗?
yhluo@Lenovo:~/Desktop/CRFSegment$ python crf_segment.py msr_4tag_model.utf8 ./icwb2-data/testing/msr_test.utf8 result.utf8
Traceback (most recent call last):
File "crf_segment.py", line 47, in
tagger = CRFPP.Tagger("-m " + crf_model)
File "/usr/local/lib/python2.7/dist-packages/CRFPP.py", line 102, in __init__
this = _CRFPP.new_Tagger(*args)
RuntimeError: tagger.cpp(57) [feature_index_->open(model.c_str(), 0)] feature_index.cpp(112) [version_ / 100 == version / 100] model version is different: 161251554 vs 100 : msr_4tag_model.utf8
[回复]
52nlp 回复:
8 5 月, 2015 at 09:04
抱歉,这个不清楚
[回复]
您好,请问下,bakeoff 2006的数据集有吗?有的话不知可否分享下。官方网站上没有了
[回复]
52nlp 回复:
11 9 月, 2015 at 10:07
官网上还有啊
[回复]
我在MAC下其实遇到更多问题。比如./configure的时候死活找不到.sub文件,这个时候幸好参考了“http://blog.sina.com.cn/s/blog_586c261a0101jil1.html”,用automake -a生成了.sub文件才得以继续。
但是安装后仍然有问题。命令行运行crf_learn倒是没事,但是cd python后,执行python setup.py build总提示找不到crfpp.h。即使把外面的crfpp.h拷贝进来也不行。
[回复]
52nlp 回复:
11 9 月, 2015 at 10:09
我觉得可能和你的mac编程基础环境没有配置好有关
[回复]
kate zhang 回复:
6 3 月, 2017 at 16:59
我也遇到了这个问题,报错CRFPP_wrap.cxx:3046:10: fatal error: 'crfpp.h' file not found
#include "crfpp.h"求问如何解决?谢谢!
[回复]
kate zhang 回复:
6 3 月, 2017 at 17:31
装了一下xcode command tools就好了
请问一下分词结果的召回率、准确率和f分别指的什么?
[回复]
52nlp 回复:
21 9 月, 2015 at 19:01
这个请自行google或者找一本自然语言处理书籍看一下就知道了。
[回复]
原始训练集的形式是人工分好词的中文句子形式??怎么做到的?
[回复]
52nlp 回复:
3 3 月, 2017 at 15:04
人工做得切分
[回复]
求助,这个怎样解决?
Traceback (most recent call last):
File "", line 1, in
File "/home/scj/tbnlp/segmenter.py", line 46, in seg
model.add((char + "\to\tB").encode('utf-8'))
File "/usr/local/lib/python3.5/dist-packages/CRFPP.py", line 101, in add
def add(self, *args): return _CRFPP.Tagger_add(self, *args)
TypeError: in method 'Tagger_add', argument 2 of type 'char const *'
[回复]
52nlp 回复:
12 4 月, 2017 at 14:22
你这个应该是python3引起的问题吧,目前这篇文章适用于Python2.x,Python3.x没有测试过。
[回复]
老师,您好,请问cfr++。模板U01:%X[x,x],U02:%X[x,x]~这个数字U01,U02中的01,02有讲究吗?即同样的特征模板U01~Un顺序有讲究吗?这些条特征模板每条能设权值吗?
还有就是针对下面这组模板,为什么U后面的下标不连续,U06后面为什么不是U07而是直接跳到U10?为什么U模板有两个换行(U06与U10之间,U18与U20之间),看着像似3组模板:
# Unigram
U00:%x[-2,0]
U01:%x[-1,0]
U02:%x[0,0]
U03:%x[1,0]
U04:%x[2,0]
U05:%x[-1,0]/%x[0,0]
U06:%x[0,0]/%x[1,0]
U10:%x[-2,1]
U11:%x[-1,1]
U12:%x[0,1]
U13:%x[1,1]
U14:%x[2,1]
U15:%x[-2,1]/%x[-1,1]
U16:%x[-1,1]/%x[0,1]
U17:%x[0,1]/%x[1,1]
U18:%x[1,1]/%x[2,1]
U20:%x[-2,1]/%x[-1,1]/%x[0,1]
U21:%x[-1,1]/%x[0,1]/%x[1,1]
U22:%x[0,1]/%x[1,1]/%x[2,1]
# Bigram
B
请教老师,非常感谢!
[回复]
52nlp 回复:
21 5 月, 2017 at 18:56
有段时间没碰,有点忘了。大概印象这个UXX只是标号,应该没有太多规则;所以不连续没问题;可以认为换两行后的是其他组的特征,按你的理解没问题。
[回复]