CN1447264A - 基于语义构词约束的汉语二字词抽取方法 - Google Patents
基于语义构词约束的汉语二字词抽取方法 Download PDFInfo
- Publication number
- CN1447264A CN1447264A CN 03121940 CN03121940A CN1447264A CN 1447264 A CN1447264 A CN 1447264A CN 03121940 CN03121940 CN 03121940 CN 03121940 A CN03121940 A CN 03121940A CN 1447264 A CN1447264 A CN 1447264A
- Authority
- CN
- China
- Prior art keywords
- state
- semantic
- probability
- character
- sigma
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
基于语义构词约束的汉语二字词抽取方法属于自然语言处理技术领域,其特征在于,它是通过衡量字之间的语义约束强度来判断候选字符串能否成词的方法,即它以表示汉语词汇语义的隐马尔可夫模型(HMM)为基础,用Baum-Welch算法来更新HMM中的语义状态转移概率矩阵和状态转移处的输出字符概率矩阵,然后根据表示状态转移次数和转移处产生字符次数的概率矩阵来求出表征语义约束关系的字符对应语义的概率和语义序列的联合紧密程度,最后根据这两个参数便可算出成词的判决值。它与传统的互信息法比较,在召回率相同下,准确率更高些。
Description
技术领域
基于语义构词约束的汉语二字词抽取方法属于自然语言处理技术领域
背景技术
语言是随着时间流逝而发展的,互联网强大的交流能力使得人们的词汇量增长变化更为迅速,单纯地使用通用词典或是专业词典都不能够容纳所有的信息。而在汉语中,词语之间没有显式的分隔符号,如何自动识别词语成为一项重要的研究课题。汉语自动抽词方法以计算机为处理工具,通过机器自动学习,使得计算机能自动判断一个候选字串是否成词。
汉语中,词是由字组成的。这和英语中短语的情况类似:短语由若干个词构成,短语之间亦无显式分隔符号。因此汉语的自动抽词与英语的短语自动抽取工作是相似的。目前关于词或短语抽取的研究,国内外学者都做了不少工作,方法大致可分为两类:基于统计和基于规则。
基于规则的方法则需要一些事先掌握知识的指导,从而建立相应规则来判断是否成词或短语。例如:将语料进行词性标注后使用语法或语义规则来识别;建立停用词表,将所有含有停用词或功能词的串识别为非词。但从语言学中归纳出相应规则相当困难,且规则的通用程度差,故此类方法效果均不甚佳。基于统计的方法是当前研究的主流。主要从两个角度考察一个符号串成词或短语的可能性。一是衡量该符号串内部结合紧密度,认为结合紧密度高的串成词可能性大。常用的衡量方法包括频度(Frequency)、互信息(Mutual Information)以及其它一些统计量。另一角度则考察该串对上下文环境的依赖度,认为候选串过分依赖于其上下文环境时,其成词可能性小。
目前的统计方法中,那些基于内部结合紧密度的抽词方法,主要以字为单位进行处理,往往忽略了汉语的重要特性:对大部分的词(复合词)而言,其组成成分(字或词)之间存在一定的语义构词约束关系。可以认为这些语义约束关系反映了汉语中的一些构词法,即存在强约束力的两个语义能够搭配成词的可能性大。这意味着,可以利用语义约束关系来帮助识别词语。
基于语义约束的自动抽词思想很直接:不是从组成的字来判断是否成词,而是从其对应语义来判断是否能成词。例如:词典中已经收录了“美军”,“日军”和“苏军”三个词,它们都遵从“国家+军队”的语义搭配模式。因此,通过对词典的学习,我们可以发现“国家+军队”这个语义搭配存在较强的约束关系。于是对于具有同样语义搭配模式的候选串“俄军”,就可正确地推断出它也是一个词。
发明内容
本发明的目的在于提供一种基于语义构词约束的汉语二字词抽取方法。
本发明的特征在于:它是通过衡量字之间的语义约束强度来判断候选字符串能否成词的一种方法,即它以表示汉语词汇语义的隐马尔可夫模型(HMM)为基础,用Baum-Welch算法来不断地更新HMM中的语义状态转移概率矩阵和状态转移处的输出字符概率矩阵,直到收敛为止,然后再确定重新估算的上述HMM参数,根据这些表示状态转移的次数和转移处产生字符次数的概率矩阵便可得出表征语义约束关系的字符对应语义的概率和语义序列的联合紧密程度,最后便可由此计算出表征成词可能性的参数;该方法是在计算机上依次按下列步骤实现的,具体而言,可分为两个阶段。学习阶段:
(1)训练词典中的词条全部输入计算机,构成训练词典W:
W={(wi,freqi)|i=1,…,l}
其中,wi、freqi分别为第i个词及其频度;
(2)用隐马尔可夫模型HMM表示汉语词汇的语义集合:
HMM=(S,C,PS,PC,II)
其中,S={s0,s1,s2,…,sn},si表示词w的任意一个语义,s0为初始状态,S为语义的状态集合;
C={c1,c2,…,cm},ct为状态转移处输出的任意一个汉字,C为输出字符集合;
PS=[pij]为状态转移概率矩阵,其中pij=p(sj|si),表示从状态si转移到状态sj的概率,i=0,…,n,j=1,…,n。
PC=[ait]为一个n×m的输出矩阵,其中ait=p(ct|si),表示状态si产生输出字符ct的概率。
II=(π0,…,πn)为初始向量,其中πi为状态si作为初始状态的概率。
(3)按平均的策略初始化PS、PC:
对PS有:pij=1/n,其中i=0,…,n,j=1,…,n,即从语义状态si到状态集S中任伺一个语义状态sj的转移概率都相等。
对PC有:ait=1/m,其中i=1,…,n,t=1,…,m,即语义状态si产生字符集中任意字符ct的概率相等。
(4)初始化当前参数PS、PC下HMM的可信度QW=0。
(5)结合Baum-Welch算法和当前参数PS、PC,重新估计HMM的参数PS′、PC′:
(5.1)设:w是由c1和c2组成的二字词,即w=c1c2,从《汉字义类信息库》中统计出词w所有可能的语义状态、语义序列、及状态转移路径:
c2具有n2个语义:s21,s22,…,
由于全部语义序列都从初始状态s0出发,
(5.2)用Baum-Welch算法和当前参数PS、PC求出:发生状态转移s0→s1i的概率p(s0→s1i):
p(s1i|s0):从状态s0转移状态s1i的概率,
p(c1|s1i):在状态s1i处产生输出字符c1的概率,
p(s2j|s1i):从状态s1i转移状态s2j的概率,
p(c2|s2j):在状态s2j处产生输出字符c2的概率,
p(s0→s1i)表示:在满足从状态s0转移状态s1i并产生输出字符c1,再从状态s1i转移到s2j并产生输出字符c2这一概率条件下,从状态s0转移状态s1i的概率;
p(s1i→s2j)=p(s1i|s0)p(c1|s1i)p(s2j|s1i)p(c2|s2j),表示在从状态s0转移状态s1i并产生输出字符c1,再从状态s1i转移到s2j并产生输出字符c2这一概率条件下,从状态s1i转移状态s2j的概率;
(5.3)根据下式求出,词w从状态si转移到状态sj,且在状态sj处产生输出字符集中任一字符ct∈C的次数:
这表示,词w从状态s0转移状态s1i,且在状态s1i处产生输出字符c1的次数为p(s0→s1i)×freq;词w从状态s1i转移状态s2j且在状态s2j处产生输出字符c2的次数为p(s1i→s2j)×freq;其他情况发生的次数为零。
(5.4)累计训练词典中所有词w各自的Countw(ct;si→sj),得到整部训练词典中从状态si转移到状态sj,且在状态sj处产生输出字符ct的总次数C(ct;si→sj):
(5.5)计算其他辅助矩阵,以便重新估计HMM参数PS′、PC′: ,表示整部训练词典中从状态si转移到状态sj处产生输出字符集C中任意一个字符ct∈C的次数,它也是从状态si转移到状态sj的次数; ,表示整部训练词典中由状态si转移到状态集S中任意一个语义状态sj的次数之和,即由状态si发生转移的次数; ,表示从状态集S中任意一个语义状态si转移到sj,且在sj输出字符ct的次数之和,即表示整部词典中任一语义状态sj输出字符ct的次数; ,表示整部词典中状态sj出现的次数,即等于状态sj产生输出字符集C中任意字符ct∈C的次数之和。
(5.6)根据以上的辅助矩阵即次数矩阵,重新估计HMM参数PS′、PC′:状态转移矩阵PS′=[pij′]:pij′为状态si到状态sj的转移概率,可用从si转移到sj的次数C1(si,sj)与由si发生转移次数C2(si)的比值来估计,即pij′=C1(si,sj)/C2(si)。输出矩阵PC′=[ait′]:ait′为状态si产生字符ct的概率,可用si产生ct的次数C3(ct;si)与整部词典中si出现次数C4(si)的比值来估计,即ait′=C3(ct;si)/C4(si);
(6)评估在新参数PS′、PC′下HMM的可信度QW′: 其中,c1c2表示训练词典W中的任意一个词条。s1表示字c1可对应的任意一个语义,s2表示c2可对应的任一语义,s1、s2∈S。p′(s1|c1)表示新参数PS′、PC′下,汉字c1对应语义s1的概率,可用步骤(5)的辅助矩阵计算:
,sk是属于S的任意语义。
p′(s2|c2)表示新参数PS′、PC′下,汉字c2对应语义s2的概率,计算方法与p(s1|c1)相同,即
p′(s1,s2)表示新参数PS′、PC′下语义序列s1s2的同现概率,其计算方式为 ,sk,st是属于状态集S的任意语义。
(7)计算:δQ=QW′-QW
设定:δ0为是否收敛的阈值。
若δQ≤δ0则HMM参数估计过程收敛,执行下一步骤(8);否则便用PS′、PC′、QW′分别代替PS、PC、QW,返回步骤(4),重新估计HMM参数PS′、PC′。
(8)根据步骤(5)所得的辅助矩阵,来计算语义约束关系p(sj|ct)、MI(si,sj)。设sk,st是属于状态集S的任意语义,则有: ,表示汉字ct对应语义sj的概率。 ,表示语义序列sisj的联合紧密程度和构词的可能性。其中p(si)为语义si出现概率,
;p(sisj)为语义序列sisj的同现概率,
(9)保存所需的p(sj|ct)和MI(si,sj)矩阵,学习阶段结束抽词决策阶段:
(1)输入要候选二字串c1c2。
(2)从《汉字义类信息库》中查询到:
汉字c2具有n2个语义,分别是s21,s22,…,
(3)计算成词可能性LWMI(c1c2)。
此式的物理意义为,对c1c2的每个语义序列s1i,s2j查询其构词的可能性MI(s1i,s2j),并将所有可能语义序列的构词可能性加权组合起来,作为c1c2这个汉字串的成词可能性。
(4)若LW(c1c2)≥t0则判断c1c2为词。其中,t0为给定的阈值,通过大量实验结果,我们认为较合适的选择为t0=0。
实验证明:语义约束法的准确率在相同的召回率下要高于传统的互信息方法。
附图说明
图1.学习阶段程序流程框图
图2.抽词决策阶段程序流程框图
图3.语义约束法和互信息法的抽此行能比较图
具体实施方式
见图1~2。以“俄军”二字作为候选串,步骤如下:
(1)入“俄军”
(2)查《汉字义类信息库》:
“俄”字有Di02(俄国)、Eb25(时间很短)两个意思;
“军”字有Di09(军队的编制单位)、Di11(军队)两个意思;
(3)从训练数据查得
p11=p(Di02|俄)=0.99686 p12=p(Eb25|俄)=0.00314
p21=p(Di09|军)=0.00485 p21=p(Di11|军)=0.99515
MI11=MI(Di02,Di09)=-0.15850
MI12=MI(Di02,Di11)=4.31200
MI21=MI(Eb25,Di09)=3.76725
MI22=MI(Eb25,Di11)=-10.74512
(4)计算成词可能性
(5)LW(俄军)>t0,于是判断“俄军”是一个词。
为了评测我们发明的基于语义约束汉语自动抽词方法,我们设计了如下的实验:
实验条件:PII650MHZ的PC,256M内存,Visual C++语言实现程序
实验数据:从1998年人民日报的标注语料中生成一个标准答案表,该表中共有238,946个二字串,其中23,725个是词。应用《汉字义类信息库》(由清华大学人工智能技术与系统国家重点实验室自然语言处理组提供)来为每个汉字寻找所有对应的语义。
实验结果:抽词的性能用两个性能指标来衡量:召回率和准确率。
为了观察基于语义约束的方法的效果,我们将它与传统最通用的基于字的互信息方法进行比较。互信息方法为,对每个候选串计算
,若MI(c1c2),大于给定阈值,则判断候选串为词。上式中p(c1)和p(c1c2)分别表示c1和c1c2在实际语料中出现的概率。本实验中,这些概率信息从102MB大小的人民日报语料库中统计而得。表1.两种抽词方法在不同召回率时相应的F-Measure性能
召回率(%) | 10 | 20 | 30 | 40 | 50 | 60 | 70 | 80 | 90 | 100 | 平均 |
Sem | 18.0 | 32.0 | 43.0 | 52.5 | 60.0 | 65.0 | 68.0 | 68.5 | 54.0 | 18.1 | 47.9 |
MI | 17.5 | 30.5 | 39.8 | 45.3 | 47.5 | 46.7 | 43.0 | 36.2 | 26.6 | 18.1 | 35.1 |
在表1中,Sem表示基于语义约束的方法,MI表示传统的互信息方法。观察图、表可发现,基于语义约束的抽词方法比传统基于字的抽词方法在性能上有了相当显著的提高。Sem的最大F-Measure比MI高21个百分点,而平均F-Measure指标也提高了12.8%。
本项技术可用于各种自然语言处理中,包括未登录词识别、词典自动生成、基于n-gram的信息检索特征选取、自动建立文档索引等应用。
Claims (1)
1.基于语义构词约束的汉语二字词抽取方法,其特征在于,它是通过衡量字之间的语义约束强度来判断候选字符串能否成词的一种方法,即它以表示汉语词汇语义的隐马尔可夫模型(HMM)为基础,用Baum-Welch算法来不断地更新HMM中的语义状态转移概率矩阵和状态转移处的输出字符概率矩阵,直到收敛为止,然后再确定重新估算的上述HMM参数,根据这些表示状态转移的次数和转移处产生字符次数的概率矩阵便可得出表征语义约束关系的字符对应语义的概率和语义序列的联合紧密程度,最后便可由此计算出表征成词可能性的参数;该方法是在计算机上依次按下列步骤实现的,具体而言,可分为两个阶段:学习阶段:
(1)训练词典中的词条全部输入计算机,构成训练词典W:
W={(wi,freqi)|i=1,…,l}
其中,wi、freqi分别为第i个词及其频度;
(2)用隐马尔可夫模型HMM表示汉语词汇的语义集合:
HMM=(S,C,PS,PC,II)
其中,S={s0,s1,s2,…,sn},si表示词w的任意一个语义,s0为初始状态,S为语义的状态集合;
C={c1,c2,…,cm},ct为状态转移处输出的任意一个汉字,C为输出字符集合;
PS=[pij]为状态转移概率矩阵,其中pij=p(sj|si),表示从状态si转移到状态sj的概率,i=0,…,n,j=1,…,n;
PC=[ait]为一个n×m的输出矩阵,其中ait=p(ct|si),表示状态si产生输出字符ct的概率;
II=(π0,…,πn)为初始向量,其中πi为状态si作为初始状态的概率;
(3)按平均的策略初始化PS、PS:
对PS有:pij=1/n,其中i=0,…,n,j=1,…,n,即从语义状态si到状态集S中任何一个语义状态sj的转移概率都相等;
对PC有:ait=1/m,其中i=1,…,n,t=1,…,m,即语义状态si产生字符集中任意字符ct的概率相等;
(4)初始化当前参数PS、PC下HMM的可信度QW=0;
(5)结合Baum-Welch算法和当前参数PS、PC,重新估计HMM的参数PS′、PC′:
(5.1)设:w是由c1和c2组成的二字词,即w=c1c2,从《汉字义类信息库》中统计出词w所有可能的语义状态、语义序列、及状态转移路径:
c1具有n1个语义:s11,s12,…,
由于全部语义序列都从初始状态s0出发,
则:词w有n1×n2个可能的语义序列:s0s11s21,s0s11s22,……,
,可能的状态转移路径为s0→s1i、s1i→s2j(其中i=1,...,n1,j=1,...,n2);
(5.2)用Baum-Welch算法和当前参数PS、PC求出:发生状态转移s0→s1i的概率p(S0→S1i):
p(S1i|s0):从状态s0转移状态s1i的概率,
p(c1|s1i):在状态s1i处产生输出字符c1的概率,
p(s2j|s1i):从状态s1i转移状态s2j的概率,
p(c2|s2j):在状态s2j处产生输出字符c2的概率,
p(s0→s1i)表示;在满足从状态s0转移状态s1i并产生输出字符c1,再从状态s1i转移到s2j并产生输出字符c2这一概率条件下,从状态s0转移状态s1i的概率;
p(s1i→s2j)=p(s1i|s0)p(c1|s1i)p(s2j|s1i)p(c2|s2j),表示在从状态s0转移状态s1i并产生输出字符c1,再从状态s1i转移到s2j并产生输出字符c2这一概率条件下,从状态s1i转移状态s2j的概率;
这表示,词w从状态s0转移状态s1i,且在状态s1i处产生输出字符c1的次数为p(s0→s1i)×freq;词w从状态s1i转移状态s2j且在状态s2j处产生输出字符c2的次数为p(s1i→s2j)×freq;其他情况发生的次数为零;
(5.4)累计训练词典中所有词w各自的Countw(ct;si→sj),得到整部训练词典中从状态si转移到状态sj,且在状态sj处产生输出字符ct的总次数C(ct;si→sj):
(5.5)计算其他辅助矩阵,以便重新估计HMM参数PS′、PC′: ,表示整部训练词典中从状态si转移到状态sj处产生输出字符集C中任意一个字符ct∈C的次数,它也是从状态si转移到状态sj的次数; ,表示整部训练词典中由状态si转移到状态集S中任意一个语义状态sj的次数之和,即由状态si发生转移的次数; ,表示从状态集S中任意一个语义状态si转移到sj,且在sj输出字符ct的次数之和,即表示整部词典中任一语义状态sj输出字符ct的次数; ,表示整部词典中状态sj出现的次数,即等于状态sj产生输出字符集C中任意字符ct∈C的次数之和;
(4.6)根据以上的辅助矩阵即次数矩阵,重新估计HMM参数PS′、PC′:状态转移矩阵PS′=[pij′]:pij′为状态si到状态sj的转移概率,可用从si转移到sj的次数C1(si,sj)与由si发生转移次数C2(si)的比值来估计,即pij′=C1(si,sj)/C2(si);
输出矩阵PC′=[ait′]:ait′为状态si产生字符ct的概率,可用si产生ct的次数C3(ct;si)与整部词典中si出现次数C4(si)的比值来估计,即ait′=C3(ct;si)/C4(si);
(6)评估在新参数PS′、PC′下HMM的可信度QW′: 其中,c1c2表示训练词典W中的任意一个词条;
s1表示字c1可对应的任意一个语义,s2表示c2可对应的任一语义,s1、s2∈S;p′(s1|c1)表示新参数PS′、PC′下,汉字c1对应语义s1的概率,可用步骤(5)的辅助矩阵计算:
,sk是属于S的任意语义;
p′(s2|c2)表示新参数PS′、PC′下,汉字c2对应语义s2的概率,计算方法与p(s1|c1)相同,即
p′(s1,s2)表示新参数PS′、PC′下语义序列s1s2的同现概率,其计算方式为 ,sk,st是属于状态集S的任意语义;
(7)计算:δQ=QW′-QW
设定:δ0为是否收敛的阈值;
若δQ≤δ0则HMM参数估计过程收敛,执行下一步骤(8);否则便用PS′、PC′、QW′分别代替PS、PC、QW,返回步骤(4),重新估计HMM参数PS′、PC′;
(8)根据步骤(5)所得的辅助矩阵,来计算语义约束关系p(sj|ct)、MI(si,sj);设sk,st是属于状态集S的任意语义,则有: 表示汉字ct对应语义sj的概率; ,表示语义序列sisj的联合紧密程度和构词的可能性;其中p(si)为语义si出现概率,
;p(sisj)为语义序列sisj的同现概率,
(9)保存所需的p(sj|ct)和MI(si,sj)矩阵,学习阶段结束
抽词决策阶段:
(1)输入要候选二字串c1c2;
(2)从《汉字义类信息库》中查询到:
汉字c1具有n1个语义,分别是s11,s12,…,
(3)计算成词可能性LWM1(c1c2);
此式的物理意义为,对c1c2的每个语义序列s1i,s2j查询其构词的可能性MI(s1i,s2j),并将所有可能语义序列的构词可能性加权组合起来,作为c1c2这个汉字串的成词可能性;
(4)若LW(c1c2)≥t0则判断c1c2为词;
其中,t0为给定的阈值,通过大量实验结果,我们认为较合适的选择为t0=0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 03121940 CN1258725C (zh) | 2003-04-18 | 2003-04-18 | 基于语义构词约束的汉语二字词抽取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 03121940 CN1258725C (zh) | 2003-04-18 | 2003-04-18 | 基于语义构词约束的汉语二字词抽取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1447264A true CN1447264A (zh) | 2003-10-08 |
CN1258725C CN1258725C (zh) | 2006-06-07 |
Family
ID=28050549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 03121940 Expired - Fee Related CN1258725C (zh) | 2003-04-18 | 2003-04-18 | 基于语义构词约束的汉语二字词抽取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN1258725C (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009000103A1 (en) * | 2007-06-25 | 2008-12-31 | Google Inc. | Word probability determination |
CN102609436A (zh) * | 2011-12-22 | 2012-07-25 | 北京大学 | 一种社交网络热词和事件挖掘系统及方法 |
WO2013007210A1 (zh) * | 2011-07-14 | 2013-01-17 | 腾讯科技(深圳)有限公司 | 文字输入方法、装置及系统 |
CN105912570A (zh) * | 2016-03-29 | 2016-08-31 | 北京工业大学 | 基于隐马尔可夫模型的英文简历关键字段抽取方法 |
CN108234347A (zh) * | 2017-12-29 | 2018-06-29 | 北京神州绿盟信息安全科技股份有限公司 | 一种提取特征串的方法、装置、网络设备及存储介质 |
-
2003
- 2003-04-18 CN CN 03121940 patent/CN1258725C/zh not_active Expired - Fee Related
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009000103A1 (en) * | 2007-06-25 | 2008-12-31 | Google Inc. | Word probability determination |
CN101785000B (zh) * | 2007-06-25 | 2013-04-24 | 谷歌股份有限公司 | 词概率确定方法和系统 |
US8630847B2 (en) | 2007-06-25 | 2014-01-14 | Google Inc. | Word probability determination |
WO2013007210A1 (zh) * | 2011-07-14 | 2013-01-17 | 腾讯科技(深圳)有限公司 | 文字输入方法、装置及系统 |
US9176941B2 (en) | 2011-07-14 | 2015-11-03 | Tencent Technology (Shenzhen) Company Limited | Text inputting method, apparatus and system based on a cache-based language model and a universal language model |
CN102609436A (zh) * | 2011-12-22 | 2012-07-25 | 北京大学 | 一种社交网络热词和事件挖掘系统及方法 |
CN102609436B (zh) * | 2011-12-22 | 2014-06-11 | 北京大学 | 一种社交网络热词和事件挖掘系统及方法 |
CN105912570A (zh) * | 2016-03-29 | 2016-08-31 | 北京工业大学 | 基于隐马尔可夫模型的英文简历关键字段抽取方法 |
CN105912570B (zh) * | 2016-03-29 | 2019-11-15 | 北京工业大学 | 基于隐马尔可夫模型的英文简历关键字段抽取方法 |
CN108234347A (zh) * | 2017-12-29 | 2018-06-29 | 北京神州绿盟信息安全科技股份有限公司 | 一种提取特征串的方法、装置、网络设备及存储介质 |
CN108234347B (zh) * | 2017-12-29 | 2020-04-07 | 北京神州绿盟信息安全科技股份有限公司 | 一种提取特征串的方法、装置、网络设备及存储介质 |
US11379687B2 (en) | 2017-12-29 | 2022-07-05 | Nsfocus Technologies Group Co., Ltd. | Method for extracting feature string, device, network apparatus, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
CN1258725C (zh) | 2006-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109472024B (zh) | 一种基于双向循环注意力神经网络的文本分类方法 | |
CN107239446B (zh) | 一种基于神经网络与注意力机制的情报关系提取方法 | |
Poon et al. | Unsupervised semantic parsing | |
CN109033080B (zh) | 基于概率转移矩阵的医疗术语标准化方法及系统 | |
TWI662425B (zh) | 一種自動生成語義相近句子樣本的方法 | |
CN109325229B (zh) | 一种利用语义信息计算文本相似度的方法 | |
CN113221567A (zh) | 司法领域命名实体及关系联合抽取方法 | |
CN108363743A (zh) | 一种智能问题生成方法、装置和计算机可读存储介质 | |
CN110134954B (zh) | 一种基于Attention机制的命名实体识别方法 | |
CN110162771B (zh) | 事件触发词的识别方法、装置、电子设备 | |
CN111177383B (zh) | 一种融合文本语法结构和语义信息的文本实体关系自动分类方法 | |
CN111274790B (zh) | 基于句法依存图的篇章级事件嵌入方法及装置 | |
CN101661462A (zh) | 四层结构的中文文本正则化体系及实现 | |
CN112328800A (zh) | 自动生成编程规范问题答案的系统及方法 | |
WO2021175005A1 (zh) | 基于向量的文档检索方法、装置、计算机设备及存储介质 | |
CN110209816A (zh) | 基于对抗模仿学习的事件识别及分类方法、系统、装置 | |
CN113282713B (zh) | 基于差异性神经表示模型的事件触发词检测方法 | |
CN110717330A (zh) | 基于深度学习的词句级短文本分类方法 | |
CN114912449B (zh) | 基于代码描述文本的技术特征关键词抽取方法与系统 | |
CN112232087A (zh) | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 | |
CN111581364B (zh) | 一种面向医疗领域的中文智能问答短文本相似度计算方法 | |
CN113609267B (zh) | 基于GCNDT-MacBERT神经网络框架的话语关系识别方法及系统 | |
CN105677639A (zh) | 一种基于短语结构句法树的英文词义消歧方法 | |
CN112667797B (zh) | 自适应迁移学习的问答匹配方法、系统及存储介质 | |
CN1447264A (zh) | 基于语义构词约束的汉语二字词抽取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20060607 |