CN102314507B - 一种中文命名实体识别歧义消解方法 - Google Patents
一种中文命名实体识别歧义消解方法 Download PDFInfo
- Publication number
- CN102314507B CN102314507B CN 201110265457 CN201110265457A CN102314507B CN 102314507 B CN102314507 B CN 102314507B CN 201110265457 CN201110265457 CN 201110265457 CN 201110265457 A CN201110265457 A CN 201110265457A CN 102314507 B CN102314507 B CN 102314507B
- Authority
- CN
- China
- Prior art keywords
- word
- feature
- sequence
- named entity
- entity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
一种中文命名实体识别歧义消解方法,属于命名实体抽取领域,该方法包括以下步骤:(1)首先本发明采用特征归纳法来减少特征个数,即通过训练学习让其分类器自动去选择有意义的特征。(2)在选取特征后,通过Viterbi算法从CRF模型学习中选择N-BEST最佳标记序列,也就是选出观测序列的N个概率最大的标记序列。(3)考虑中文命名实体出现的频率及其词长,该方法采用改进的贪婪算法进行歧义消解,从而得到实体标记序列。
Description
技术领域:
本发明属于命名实体抽取领域,特别涉及一种中文命名实体识别歧义消解方法。
背景技术:
针对WEB海量的信息,如何快速有效地找到用户解决问题所需要的知识。随着互联网技术的不断发展,互联网已经成为重要的信息源。面对海量的WEB信息,人们仍然面临着知识匮乏的困境。
目前绝大多数网页是用HTML编写的,而HTML中的标签仅仅刻画了数据的表达方式,并没有刻画数据的语义信息,这使得计算机很难理解Web上的信息。面对着海量的信息,人们只能通过搜索引擎等工具执行基于关键字的查找,而搜索引擎以网页地址的超链接和网页内容摘要的形式返回各种查询结果。人们通过阅读大量的WEB文档来获取想要的信息,而其中一些网页地址链接根本就不是用户需要的。虽然信息检索技术的出现对解决WEB海量信息获取问题起到了很大的作用,但是仅仅对文本进行关键词检索已经不能满足人们很多的应用需求。因此作为信息检索的一个分支,信息抽取技术得到了学术界的重视。信息抽取的目的是通过自然语言处理等方法将人们可读的非结构化文本转变为机器可读的结构化文本,特别是从各种信息源中抽取到用户感兴趣的实体、事件以及实体之间的关系等。而从信息源中抽取出各种实体的技术称为命名实体识别技术,命名实体识别技术是信息抽取研究的重要内容之一。命名实体是信息的主要载体,所以命名实体识别技术的好坏对信息抽取结果有着重要的影响。从广义上理解,命名实体可以是某个特定领域中的专有知识,电影名称,书名,人名,地名,组织机构名称等专有名词,可以概括为用户想要获取的各种关键信息;从狭义上理解命名实体是指人名,地名,组织机构名称等专有名称。
命名实体的识别方法主要包括两大类:基于规则的方法和基于统计的方法。基于规则的方法是命名实体识别中最早使用的技术,命名实体识别依赖于知识库和词库。知识库是通过人工而建立的抽取规则库,而词库通常包括常用姓氏、常用组织机构名称的后缀,常用地名的后缀等。采用这种方法的系统比较多,一般都是针对不同类型的命名实体识别使用不同的规则,但是随着时间的发展,新的实体名称大量涌现,需要人工不断添加规则库。此外,有些规则本身就是有一定的局限的,对于那些比较生僻的地名和人名还是无法进行正确识别的。相对基于规则的抽取技术,基于统计的方法利用完全或部分标注的语料进行训练,语料的标注可以通过半自动的方法完成。因此较小规模的训练可以在短时间以及接受人力代价的情况完成。同时,基于统计方法事先的系统只经过较少的改动就可以移植到新的领域中去,只需要利用新领域的语料重新训练即可。目前广泛应用于命名实体识别的统计方法主要有:隐马尔科夫模型(HMM),条件概率模型,最大熵模型(MEMM),条件随机场模型(CRF)等。基于规则的方法需要人工参与,并且具有领域性,难于移植;而基于统计的方法适应性较好,只要少量的人工参与,但是需要大量的训练数据时,需要花费大量的时间和存储空间。所以比较理想的解决方法是结合两种方法的优点,用于命名实体识别,这种方法是基于混合的命名实体识别方法,目前也得到了广泛的应用。
发明内容
本发明提供了一种中文命名实体识别歧义消解方法。本发明采用的技术方案包括以下步骤。
(1)通过特征归纳的CRF算法选取有意义的特征来减少特征个数。
(2)采用修正的Viterbi算法来从基于特征归纳的CRF算法学习结果中选择N-BEST最佳标记序列,也就是选出观测序列x的N个概率最大的标记序列。
(3)通过对这N个标记序列的比对,找出其中标记不一致的部分,并认为这部分之所以出现歧义切分是因为对实体边界及其类型界定的不同,导致标记结果出现不一致,转步骤4。如果一致,则不用进行歧义消解,直接得到最终的标记序列。
(4)从N个最佳候选序列中找出不一致部分并找出其对应的观测子序列xs,采用基于改进的贪婪算法进行歧义消解。得到最终的标记序列。
对于步骤1,其实现过程为:
(1)考虑一组最新提供的特征,包括原子特征和组合特征。
(2)只选择那些将会大大提高似然概率的候选特征,提高似然概率值不低于设定的阈值(threshold)。
(3)训练特征的权重。
(4)重复执行步骤(1)-(3)直到选完所有的特征。
步骤(2)在进行Viterbi算法选择最佳标记序列之前,考虑了新加入特征的效果,从而定义新的概率模型,新的模型中加入了新的特征函数g和新的权重μ,这样概率模型就变为:
其中Z′(x)为归一化因子,其完整形式为:
假设当我们估计新特征对似然函数的影响时,原先模型中那些特征函数的权重是不变的,这样我们估计新增加的似然概率为:
其中训练集为{(xi,yi):i=1...M},新的似然函数LΛ+μ为:
为了估计参数μ,使用拟牛顿法进行迭代并求解计算出GΛ(g,μ)的最大值。
在通过修正的Viterbi算法从CRF模型学习结果中选择N-BEST最佳标记序列,也就是选出观测序列x的N个概率最大的标记序列。通过对这N个标记序列的比对,找出其中标记不一致的部分,并认为这部分之所以出现歧义切分是因为对实体边界及其类型界定的不同,导致标记结果出现不一致。所以在使用N-BEST最佳标记序列找出歧义切分位置时,需要设定最优标记序列概率值的阈值Pro(Threshold)。如果最优标记序列的概率值高于阈值Pro,我们就认为该最优标记序列就是最好的切分结果;反之,如果最优标记序列的概率值低于阈值Pro,就从N个最佳候选序列中找出不一致部分并找出其对应的观测子序列xs,然后再用改进的贪婪方法对xs进行重新标记得到最终的切分结果。
改进的贪婪方法基本原理是通过构建赋权无环有向图G,然后求解权重最大的路径。其具体实现具体步骤如下:
(1)将不一致观测子序列xs中字的个数记为Ls,则G的顶点的个数为Ls+1。一个个单字Ci的有序组合成构成G的边{Eij},其中1≤i≤Ls,2≤j≤Ls+1,边Eij表示字序列Ci...Cj-1组成的词,也就是Eij实际上是一个词,词长为LW=j-i。若i=j-1则表示字Ci单独成词。由G的定义可知,G中有向边的个数为
(2)为每个词构成的边Eij赋权值Wij,其中Wij和词Eij的出现频率相关,显然可知词Eij的词长越长,其在文本中出现的频率就会不大于比它词长更短的词,也就是短词出现的频率一定会大于等于包含该词的长词的词频,所以我们认为词长影响着词的权重Wij。设词Eij在测试数据中出现的频率为Fij,那么词的权重Eij为:
其中m表示词长的扩大级数。
(3)采用贪婪算法求出G中最长的权重路径P*,路径Pk中词边所组成的字序列必须和xs完全一样,建立的模型为:
(4)组成路径P*中的边是xs的最终切分结果,把这个切分结果和标注一致的部分进行整合,就得到观测序列x最终的切分结果。
本发明的优点体现在以下两个方面:首先该方法提出的基于特征归纳的步骤可以有效降低模型训练的时间复杂度;其次,该方法可以提高中文命名实体歧义消解精度。
附图说明:
图1基于特征归纳法的CRF模型求解过程
图2中文命名实体识别歧义消解过程
图3最佳实体抽取在N上的分布
具体实施方式
本发明的一个实施例,使用的训练语料库来自于MSRA Bakeoff 2003,设计了五个特征模板,实验时不仅使用了上下文多个字的位置信息,还使用了上下文字的类型信息,以丰富特征模板所包含的信息。训练语料共有46364个句子,其中命名实体的总量为75059个,也就是平均每个句子有1.6个命名实体。测试语料共有4365个句子,其中命名实体的总数为6190个,平均每个句子有1.4个命名实体。语料库是以XML文档形式存储。在实验的过程中电脑的CPU为酷睿2双核,主频2.4GHZ,内存为1G,操作系统为RedHat 9.0Linux,使用的CRF模型训练工具为CRF++-0.54。
在训练时使用的特征模板如表1所示,在实验中一共使用了五个特征模板,其中模板Ta和Tb都使用了上下文的三个字特征,即前一个字,当前字,下一个字以及这些字的二元组合特征,而模板Tb在Ta的基础上使用了连续的三个字串特征。模板Tc使用了上下文的五个字特征,即前两个字,前一个字,当前字,下一个字,下两个字以及这些字的二元组合特征。特征模板Td和Te除了使用上下文三个字的位置特征外,还考虑前一个字和当前字的标记特征(Token)T-1T0。字的标记特征有三种,一种是字为命名实体的首字,一种是字为命名实体的非首字,还有一种就是字为非命名实体,即该字不在命名实体中。在训练的过程中,训练工具会根据设计的特征模板自动生成相应的特征函数。然后通过采用特征归纳法,根据特征的似然函数贡献值过滤那些贡献度低的特征,从而降低训练的复杂度,提高训练的效率。
根据训练所设计的特征模板可以看出,在训练语料时,我们不仅考虑了上下文字的位置特征信息,而且还使用了上下文字的标记类型特征信息,这样使得训练时有了更多的特征信息。之所以没有在模板Tc的基础上再使用更多字的组合特征是因为在实验中发现,当模板中的特征过多时,不但训练时间呈倍增加,而且训练所得的效果也降低了,所以在训练时就没有再引入更加复杂的特征模板。
表1 训练语料库的特征模板
模板名称 | 一元特征 | 多元特征 |
Ta | Cn,n=-1,0,1 | CnCn+1,n=-1,0;C-1C1 |
Tb | Cn,n=-1,0,1 | CnCn+1,n=-1,0;C-1C1;C-1C0C1 |
Tc | Cn,n=-2,-1,0,1,2 | CnCn+1,n=-2,-1,0,1;C-1C1 |
Td | Cn,n=-1,0,1; | CnCn+1,n=-1,0;C-1C1;T-1T0 |
Te | Cn,n=-1,0,1; | CnCn+1,n=-1,0;C-1C1;C-1C0C1;T-1T0 |
对表1中各个特征模板的实验结果进行评价的标准是准确率,召回率和F值。
在封闭测试的实验过程中,一共设置了5个特征模板,Fre阈值共设置了4组,分别为5,10,15,20;标记序列的置信度Pro阈值设置了9组,区间为0.1-0.9,以0.1递增;N-BEST中N的取值范围为1-10。
在封闭测试中,对于N-BEST命名实体抽取结果中有歧义部分,采用基于改进的贪婪算法消除歧义。在实验中我们发现,当命名实体的词长级数m阈值越大,越有利于长命名实体的消歧,m阈值越小越有利于短命名实体的消歧,所以在设置m阈值时,最好能够根据测试语料中命名实体的长短分布进行相应的调整。为了提高训练的效率,降低训练的复杂度,需要采用特征归纳法对那些对最大似然概率贡献小的特征函数也就是权重小的特征函数进行剔除。在使用CRF++训练工具进行训练时,我们通过设置特征出现频度Fre的阈值过滤对最大似然概率贡献小的特征,从而达到降低训练复杂度,提高训练效率的目的。在实验中我们发现,特征出现频度Fre阈值设置过大或者过小时都会降低命名实体抽取效果。
从表2中可以看出,特征模板Tb比Ta多了多元字串特征C-1C0C1,但是特征模板Tb的命名实体抽取效果在相同的频度阈值Fre下都比Ta的抽取效果要好1%左右。通过特征模板Ta,Tb,Tc可以看出,使用五个上下文字的位置特征的命名实体抽取效果要好于使用三个上下文字位置特征。模板Td和Te除了使用上下文字的位置特征还使用了字的类型特征,命名实体抽取效果要好于仅仅使用字位置特征的Ta,Tb,Tc。表2是使用CRF++工具对测试语料进行命名实体抽取所得的结果,是本文改进命名实体抽取方法抽取结果的一个基本参照。从表2中这五个模板的实体抽取效果可以看出,特征模板对命名实体抽取效果的好坏有着重要的影响,而且一般来说特征模板的涵盖的上下文信息越多,实验抽取效果越好。
从表2可以看出,当特征出现频度Fre的阈值为10时,实体抽取效果达到最佳,其次是Fre为5时,而当Fre为15和20时,实体抽取的效果越来越差。这也说明在实体抽取实验中,采用特征归纳法是很有必要的,合适的Fre不但能够提高实体抽取的准确度而且能够降低训练的复杂度,提高训练效率。当然设置的阈值Fre最佳值跟训练语料库大小有关系,如果训练语料库比较大,Fre应该尽量取合适的较大值,反之如果训练语料库比较小,Fre应该尽量取合适的较小值,如果取值过大会过滤太多的有效特征信息,反而使实体抽取效果下降。
表2 CRF++命名实体抽取结果
在基于N-BEST实体抽取结果中,若置信度最大的标记序列其值高于阈值Pro,则以该标注序列作为最终的实体抽取结果,而对于那些最大置信度低于阈值的标注序列,先要从N个标注序列中找出标注不一致的部分,然后采用改进的贪婪算法进行消歧,表3是采用基于改进贪婪算法消除歧义后的最佳命名实体抽取结果。从表3可以看出,在模板Ta,Tb实体抽取效果不是很理想的效果下,通过采用改进的贪婪算法消歧,命名实体抽取改善的效果比较明显,最好的情况提高了7.05%。而模板Tc,Td,Te虽然也采用了贪婪算法进行歧义消除,但是实体抽取改善的效果不超过4%。这其中的原因在于,当实体抽取效果本身比较理想时,出现标注歧义的情况比较少,而实体抽取效果不是很理想的时候,出现标注歧义的情况比较多。
表3 基于改进贪婪算法的最佳命名实体抽取结果
在实验的过程中,我们发现当标记序列的置信度Pro阈值为0.2时,命名实体抽取结果的F值基本上要优于其他设置的Pro阈值。表3是特征模板Ta在Fre分别为5,10,15,20时,取不同标记序列置信度阈值下的命名实体抽取结果。从四幅子图中我们也可以看出当标记序列的置信度阈值Pro高于0.5以后,命名实体抽取结果比较差。分析其中的原因主要在于,最佳标记序列的置信度阈值Pro设置越大,需要处理的标记序列歧义情况就越多,而处理的过程中很有可能把一些正确的标记结果当成歧义部分处理,从而导致实体抽取效果下降。
如果在给定的模板,Fre以及Pro下,以N的取值从2-10为一组实验,本实验过程中一共有180组实验,然后从中找出该组实验中最佳的实体抽取结果其对应的N值,可以得到如图3所示的最佳实体抽取结果在不同N值中的分布图。从图3中可以看出,N-Best中的N基本上分布在[2,4]这个区间上,也就是说在消除歧义时,我们基本上只需考虑前4个最佳候选标记序列。此外,实验中我们还发现,当置信度阈值Pro比较小时,N-Best标记序列中的N取值要偏大,也就是Pro越小,需要考虑的最佳候选标记序列也越多。
最近一届的中文自然语言处理的Bakeoff是在印度举行的,测评项目主要包括中文分词,命名实体识别以及中文词性的标注。在本次测评活动中,参加MSRA训练语料库命名实体识别封闭测试的单位共有六家[57],其中有一家单位进行了两轮封闭测试,与他们实验结果的比较如表4所示,其中b-1表示b单位第一轮封闭测试结果。从表4的实验结果对比中可以看出本文的实验结果还是比较好的,与最好的结果相差0.05%。通过对a参赛单位的方法进行研究发现,他们在封闭测试时采用两阶段CRF进行命名实体识别,在第一阶段实验后行实体抽取后得到一个命名实体列表;在第二阶段进行抽取时,除了考虑字的位置特征,字的标记类别特征以及实体类型特征,设计特征模板比较复杂,是以增加时间成本来提高命名实体识别的效果,与之相比本文命名实体抽取方法的实际可应用性更强。
表4 MSRA命名实体封闭测试结果对比分析
ID | F(%) |
a | 92.81 |
b-2 | 90.78 |
c | 90.20 |
b-1 | 89.96 |
d | 89.86 |
e | 85.50 |
f | 85.26 |
本实施最佳实验结果 | 92.76 |
Claims (2)
1.一种中文命名实体识别歧义消解方法,其特征是该方法包括以下步骤:
(1)通过特征归纳的CRF算法选取有意义的特征来减少特征个数;
(2)采用修正的Viterbi算法来从基于特征归纳的CRF算法学习结果中选择N-BEST最佳标记序列,即选出观测序列x的N个概率最大的标记序列;
(3)通过对这N个标记序列的比对,找出其中标记不一致的部分,并认为这部分之所以出现歧义切分是因为对实体边界及其类型界定的不同,导致标记结果出现不一致,转步骤4;如果一致,则不用进行歧义消解,直接得到最终的标记序列;
(4)从N个最佳候选序列中找出不一致部分并找出其对应的观测子序列xs,采用基于改进的贪婪算法进行歧义消解,得到最终的标记序列;
其中,步骤(1)实现过程为:
①考虑一组最新提供的特征,包括原子特征和组合特征;
②只选择那些将会大大提高似然概率的候选特征,提高似然概率值不低于设定的阈值;
③训练特征的权重;
④重复执行步骤①-③直到选完所有的特征;
步骤(4)基本原理是通过构建赋权有向无环图G,然后求解权重最大的路径,其具体实现具体步骤如下:
1)将不一致观测子序列xs中字的个数记为Ls,则G的顶点的个数为Ls+1,一个个单字Ci的有序组合成构成G的边{Eij},其中1≤i≤Ls,2≤j≤Ls+1,边Eij表示字序列Ci…Cj-1组成的词,即Eij实际上是一个词,词长为LW=j-i,若i=j-1则表示字Ci单独成词,由G的定义可知,G中有向边的个数为
2)为每个词构成的边Eij赋权值Wij,其中Wij和词Eij的出现频率相关,显然可知词Eij的词长越长,其在文本中出现的频率就会不大于比它词长更短的词,即短词出现的频率一定会大于等于包含该词的长词的词频,所以我们认为词长影响着词的权重Wij,设词Eij在测试数据中出现的频率为Fij,那么词Eij的权重Wij为:
其中m表示词长的扩大级数;
3)采用贪婪算法求出G中最长的权重路径P*,路径Pk中词边所组成的字序列必须和xs完全一样,建立的模型为:
4)组成路径P*中的边是xs的最终切分结果,把这个切分结果和标注一致的部分进行整合,就得到观测序列x最终的切分结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110265457 CN102314507B (zh) | 2011-09-08 | 2011-09-08 | 一种中文命名实体识别歧义消解方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110265457 CN102314507B (zh) | 2011-09-08 | 2011-09-08 | 一种中文命名实体识别歧义消解方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102314507A CN102314507A (zh) | 2012-01-11 |
CN102314507B true CN102314507B (zh) | 2013-07-03 |
Family
ID=45427672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110265457 Expired - Fee Related CN102314507B (zh) | 2011-09-08 | 2011-09-08 | 一种中文命名实体识别歧义消解方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102314507B (zh) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103294661A (zh) * | 2012-03-01 | 2013-09-11 | 富泰华工业(深圳)有限公司 | 语言歧义消除系统及方法 |
CN103049501B (zh) * | 2012-12-11 | 2016-08-03 | 上海大学 | 基于互信息和条件随机场模型的中文领域术语识别方法 |
CN104111973B (zh) * | 2014-06-17 | 2017-10-27 | 中国科学院计算技术研究所 | 一种学者重名的消歧方法及其系统 |
US9875736B2 (en) * | 2015-02-19 | 2018-01-23 | Microsoft Technology Licensing, Llc | Pre-training and/or transfer learning for sequence taggers |
CN106294308B (zh) * | 2015-05-19 | 2020-06-30 | 深圳市腾讯计算机系统有限公司 | 命名实体识别方法及装置 |
CN106294313A (zh) * | 2015-06-26 | 2017-01-04 | 微软技术许可有限责任公司 | 学习用于实体消歧的实体及单词嵌入 |
CN107291708A (zh) * | 2016-03-30 | 2017-10-24 | 《中国学术期刊(光盘版)》电子杂志社有限公司 | 一种基于文本的自动识别文献研究的方法 |
CN106202039B (zh) * | 2016-06-30 | 2019-06-11 | 昆明理工大学 | 基于条件随机场的越南语组合词消歧方法 |
US10372743B2 (en) * | 2016-07-20 | 2019-08-06 | Baidu Usa Llc | Systems and methods for homogeneous entity grouping |
CN107045496B (zh) * | 2017-04-19 | 2021-01-05 | 畅捷通信息技术股份有限公司 | 语音识别后文本的纠错方法及纠错装置 |
CN107808124B (zh) * | 2017-10-09 | 2019-03-26 | 平安科技(深圳)有限公司 | 电子装置、医疗文本实体命名的识别方法及存储介质 |
CN108509419B (zh) * | 2018-03-21 | 2022-02-22 | 山东中医药大学 | 中医药古籍文献分词和词性标引方法及系统 |
CN109145303B (zh) * | 2018-09-06 | 2023-04-18 | 腾讯科技(深圳)有限公司 | 命名实体识别方法、装置、介质以及设备 |
CN111858948A (zh) * | 2019-04-30 | 2020-10-30 | 杭州海康威视数字技术股份有限公司 | 一种本体构建方法、装置、电子设备及存储介质 |
CN110750523A (zh) * | 2019-09-12 | 2020-02-04 | 苏宁云计算有限公司 | 数据标注方法、系统、计算机设备和存储介质 |
CN110781682B (zh) * | 2019-10-23 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 命名实体识别模型训练方法、识别方法、装置及电子设备 |
CN111125438B (zh) * | 2019-12-25 | 2023-06-27 | 北京百度网讯科技有限公司 | 实体信息提取方法、装置、电子设备及存储介质 |
CN111597817B (zh) * | 2020-05-27 | 2023-12-08 | 北京明略软件系统有限公司 | 一种事件信息抽取方法及装置 |
CN112989834B (zh) * | 2021-04-15 | 2021-08-20 | 杭州一知智能科技有限公司 | 一种基于平格增强线性转换器的命名实体识别方法和系统 |
CN113343686A (zh) * | 2021-04-30 | 2021-09-03 | 山东师范大学 | 文本多特征歧义消解方法及系统 |
CN113282689B (zh) * | 2021-07-22 | 2023-02-03 | 药渡经纬信息科技(北京)有限公司 | 基于领域知识图谱的检索方法、装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100684160B1 (ko) * | 2005-12-08 | 2007-02-20 | 한국전자통신연구원 | 개체명 인식을 이용한 대화 분석 장치 및 방법 |
US8112402B2 (en) * | 2007-02-26 | 2012-02-07 | Microsoft Corporation | Automatic disambiguation based on a reference resource |
US8594996B2 (en) * | 2007-10-17 | 2013-11-26 | Evri Inc. | NLP-based entity recognition and disambiguation |
CN101446943A (zh) * | 2008-12-10 | 2009-06-03 | 苏州大学 | 一种中文处理中基于语义角色信息的指代消解方法 |
CN101770453A (zh) * | 2008-12-31 | 2010-07-07 | 华建机器翻译有限公司 | 基于领域本体结合机器学习模型的汉语文本共指消解方法 |
CN101510221B (zh) * | 2009-02-17 | 2012-05-30 | 北京大学 | 一种用于信息检索的查询语句分析方法与系统 |
-
2011
- 2011-09-08 CN CN 201110265457 patent/CN102314507B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN102314507A (zh) | 2012-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102314507B (zh) | 一种中文命名实体识别歧义消解方法 | |
CN104391942B (zh) | 基于语义图谱的短文本特征扩展方法 | |
CN107463607B (zh) | 结合词向量和自举学习的领域实体上下位关系获取与组织方法 | |
CN101398814B (zh) | 一种同时抽取文档摘要和关键词的方法及系统 | |
CN100583101C (zh) | 基于领域知识的文本分类特征选择及权重计算方法 | |
CN104765769A (zh) | 一种基于词矢量的短文本查询扩展及检索方法 | |
CN110298032A (zh) | 文本分类语料标注训练系统 | |
CN111190900B (zh) | 一种云计算模式下json数据可视化优化方法 | |
CN108197117A (zh) | 一种基于文档主题结构与语义的中文文本关键词提取方法 | |
CN101231634A (zh) | 一种多文档自动文摘方法 | |
CN107092675B (zh) | 一种基于统计和浅层语言分析的维吾尔文语义串抽取方法 | |
CN104199965A (zh) | 一种语义信息检索方法 | |
CN112051986B (zh) | 基于开源知识的代码搜索推荐装置及方法 | |
CN103678656A (zh) | 一种基于重复字串的微博新词非监督自动抽取方法 | |
CN103324626A (zh) | 一种建立多粒度词典的方法、分词的方法及其装置 | |
CN106528524A (zh) | 一种基于MMseg算法与逐点互信息算法的分词方法 | |
Bilgin et al. | Sentiment analysis with term weighting and word vectors | |
CN107590119B (zh) | 人物属性信息抽取方法及装置 | |
CN108763192B (zh) | 用于文本处理的实体关系抽取方法及装置 | |
CN104881399A (zh) | 基于概率软逻辑psl的事件识别方法和系统 | |
CN102360436B (zh) | 一种基于部件的联机手写藏文字符的识别方法 | |
CN1916904A (zh) | 一种基于文档扩展的单文档摘要方法 | |
Schraagen | Aspects of record linkage | |
CN103646017A (zh) | 用于命名的缩略词生成系统及其工作方法 | |
CN101499056A (zh) | 倒排参考句型语言分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130703 Termination date: 20190908 |