CN110222338A - 一种机构名实体识别方法 - Google Patents
一种机构名实体识别方法 Download PDFInfo
- Publication number
- CN110222338A CN110222338A CN201910448361.5A CN201910448361A CN110222338A CN 110222338 A CN110222338 A CN 110222338A CN 201910448361 A CN201910448361 A CN 201910448361A CN 110222338 A CN110222338 A CN 110222338A
- Authority
- CN
- China
- Prior art keywords
- word vector
- word
- matrix
- corpus
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Character Discrimination (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种机构名实体识别方法,该方法首先通过无监督方法构建领域词词库的领域字符字向量,再在领域字向量中引入通用标记语料的上下文知识获得最终使用的字向量矩阵。使用最终使用的字向量矩阵训练分词模型来划分领域待识别语料。接着,分析通用标记语料的N‑Gram特征获得拓扑关系矩阵。通过拓扑关系矩阵来构建语料的拓扑关系并训练用于机构名实体识别的GCN模型。最终实现对于特定领域的机构名实体识别。本发明方法解决了在特定领域的机构名识别场景下,领域标记语料不足、识别准确率低以及对于领域专有名词识别能力较弱的问题。
Description
技术领域
本发明属于自然语言处理中的实体识别领域,其中涉及一种基于LSTM(LongShort-Term Memory)和GCN(Graph Convolutional Network)结构的机构名实体识别方法。
背景技术
随着世界的高速发展,各类文本数据都呈现出了爆炸式的增长趋势,从海量的文本数据中高效、准确地提炼出有效信息的相关技术正在成为众多公司和研究机构所关注的热点。传统的信息检索方法,通常通过字符串模糊匹配的方式,对文本中的目标信息进行抓取,再通过后续的规则方法过滤出有效信息。这种方法虽然可以在一定程度上获取到目标信息,但在海量文本复杂的上下文情景下其方法效率较低,且准确率难以达到要求。
机构名实体识别是从指定文本上下文中识别出具有机构名意义的实体部分。在中文实体识别中,其过程主要分为两步:(1)实体的边界划分;(2)实体类别的识别。因为中文与英文语言特性的差异,中文实体识别需要对实体的边界进行划分,这一点使得中文实体识别相较于英文实体识别挑战更大,问题更多。
发明内容
本发明的目的在于针对现有技术的不足,提供一种通过引入外部语料预训练词向量,基于词的GCN模型进行机构名实体识别的方法。
本发明的目的是通过以下技术方案来实现的:一种机构名实体识别方法,该方法包括以下步骤:
步骤1:将目标领域中的专有名词作为领域词构成领域词词库,为领域词中出现的每个字符分配与其对应的字向量。
步骤2:将领域词词库中的字符进行数字编码,每个数字编码分别对应该字符的字向量序号,并使用数字编码来编码领域词词库中的每一个词。
步骤3:对步骤2中产生的词编码进行one-hot编码后,用无监督方法进行字向量训练,得到以每个字符的领域字向量为行元素的矩阵,记为领域信息矩阵。
步骤4:在步骤3训练出的领域字向量基础上加入通用标记语料N的上下文信息,得到最终使用的字向量矩阵。
步骤5:使用步骤4产生的最终使用的字向量矩阵以及通用标记语料N训练分词模型。
步骤6:统计通用标记语料N的N-Gram特征,在N-Gram特征大于设定阈值的词对之间建立拓扑连接,权重为N-Gram特征值,生成拓扑关系矩阵。
步骤7:根据拓扑关系矩阵分析通用标记语料N,生成词和词之间的拓扑关系。通过查询拓扑关系矩阵相应词对出现的频次,若其大于预期值S则认为它们之间存在拓扑关系,否则无拓扑关系。
步骤8:将通用标记语料N和步骤7中产生的拓扑关系作为GCN模型的输入,训练机构名实体识别模型。
步骤9:在预测时,首先将待预测语料送入步骤5中所产生的分词模型,获得分词结果后,再根据步骤6中获得的拓扑关系矩阵分析其拓扑关系,最后将分词结果和拓扑关系作为步骤8获得的机构名实体识别模型的输入,来获得最终的机构名实体识别结果。
进一步地,所述步骤1中,为单音字分配一个字向量,为多音字的每个发音分配一个字向量;所述步骤2中,对于多音字,为每种发音生成一个数字编码。
进一步地,所述步骤3中,对词编码进行one-hot编码后,使用CBOW(ContinuousBag-of-Words)或skip-gram方法进行n维字向量训练。
进一步地,所述步骤4中,将领域字向量和通用标记语料N训练出的字向量进行拼接,得到最终使用的字向量矩阵,具体包括以下子步骤:
i)使用双向LSTM训练通用标记语料N的字向量。用通用标记语料N训练双向LSTM模型后,将同一个字符的前向和后向输出结果进行拼接后作为该字符的通用字向量。以这些通用字向量为行元素的矩阵记为通用上下文信息矩阵;
ii)将领域信息矩阵和通用上下文信息矩阵中相同字符的字向量进行拼接整合,得到最终字向量矩阵。若相应字符只在领域信息矩阵中或通用上下文信息矩阵中出现,则用0向量进行拼接补齐为等维向量。
iii)对步骤ii)获得的字向量矩阵进行降维,得到最终使用的字向量矩阵。
进一步地,所述步骤4中,固定领域字向量,根据通用标记语料N的上下文信息构建以领域字向量为中心的其它字符的字向量表达,得到最终使用的字向量矩阵,具体包括以下子步骤:
i)将步骤3中训练得到的领域字向量作为其代表字符的初始化值,初始化到双向LSTM模型前接的embedding层,作为对应字符的初始化字符向量,并将其固定,即在训练过程中不改变初始化字符向量的值。对于在通用上下文信息矩阵中出现,但在领域信息矩阵中未出现的字符,将该字符对应的字符向量初始化为全部由0组成的等维向量。
ii)使用通用标记语料N训练双向LSTM模型,以领域字向量为中心,构建在通用上下文信息矩阵中出现,但在领域信息矩阵中未出现的字符对应的字向量。训练完成后将前向LSTM和后向LSTM的两个embedding层中表示同一字符的两个字向量进行拼接,最终使用的字向量矩阵。
进一步地,所述步骤5中,所述分词模型需选择可引入字向量的分词模型,包括Bi-LSTM,CNN等模型。
本发明的有益效果是:本发明方法解决了在特定领域的机构名识别场景下,领域标记语料不足、识别准确率低以及对于领域专有名词识别能力较弱的问题。
附图说明
图1为将领域字向量和通用语料训练出的字向量进行拼接模型示意图;
图2为固定领域字向量,以其为中心构建相关字表达的模型示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述,以下实施例用于说明本发明,但不用来限制本发明的范围。
本发明提供的一种机构名实体识别方法,该方法包括以下步骤:
步骤1:将目标领域中的专有名词作为领域词构成领域词词库,为领域词中出现的每个字符分配与其对应的字向量,为单音字分配一个字向量,为多音字的每个发音分配一个字向量。如“审判长”为一个领域词,因“长”字为多音字,拼音分别为“cháng”和“zhǎng”,因此“长”字有两个字向量,分别对应两种发音。
步骤2:将领域词词库中的字符进行数字编码,每个数字编码分别对应该字符的字向量序号。对于多音字,为每种发音生成一个数字编码。并使用数字编码来编码领域词词库中的每一个词。
步骤3:对步骤2中产生的词编码进行one-hot编码后,使用无监督方法进行n维字向量训练,可选择CBOW(Continuous Bag-of-Words)或skip-gram方法,得到以每个字符的领域字向量为行元素的矩阵,记为领域信息矩阵,以如下形式表示:
[x0,0 x0,1 … x0,n]
[x1,0 x1,1 … x1,n]
[xk,0 xk,1 … xk,n]
其中,k为领域词词库中出现的不同字符总数,n为人为设定的领域字向量维度。
步骤4:在步骤3训练出的领域字向量基础上加入通用标记语料N(可以采用人民日报语料库、搜狗新闻语料库等)的上下文信息,得到最终使用的字向量矩阵,这里有两套方案可选,根据具体领域情况而定:
方案1:将领域字向量和通用标记语料N训练出的字向量进行拼接。
i)使用双向LSTM训练通用标记语料N的字向量。其示意图如图1所示,用通用标记语料N训练双向LSTM模型后,将同一个字符的前向和后向输出结果进行拼接后作为该字符的通用字向量。如图1中将“浙”字的前向输出和后向输出进行了拼接。以这些通用字向量为行元素的矩阵记为通用上下文信息矩阵,以如下形式表示:
[y0,0 y0,1 … y0,q]
[y1,0 y1,1 … y1,q]
[yl,0 yl,1 … yl,q]
其中,l为通用标记语料N中出现的不同字符总数;q为人为设定的通用字向量维度;
ii)将领域信息矩阵和通用上下文信息矩阵中相同字符的字向量进行拼接整合,得到最终字向量矩阵。例如,若[xi,0 xi,1 … xi,n]和[yj,0 yj,1 … yj,q]表达的是同一个字符则将其拼接成[xi,0 xi,1 … xi,n yj,0 yj,1 … yj,q],若同一字符存在多个字向量则将同一发音的字向量进行拼接。若相应字符只在领域信息矩阵中或通用上下文信息矩阵中出现,则用0向量进行拼接补齐为q+n维。其形式为:[xr,0 xr,1 … xr,n 0 0 … 0]和[0 0 … 0ys,0 ys,1 … ys,q]。
iii)上一步中得到最终字向量矩阵,其字向量维度往往较大,且较为稀疏,此处将使用一些降维方法对字向量进行降维,可选PCA(PrincipalComponentAnalysis)降维方法。降维后的字向量矩阵才是最终使用的字向量矩阵。
方案2:固定领域字向量,根据通用标记语料N的上下文信息构建以领域字向量为中心的其它字符的字向量表达。
i)将步骤3中训练得到的领域字向量作为其代表字符的初始化值,初始化到双向LSTM模型前接的embedding层,作为对应字符的初始化字符向量,如图2所示,并将其固定,即在训练过程中不改变初始化字符向量的值。对于在通用上下文信息矩阵中出现,但在领域信息矩阵中未出现的字符,将该字符对应的字符向量初始化为全部由0组成的等维向量。
ii)使用通用标记语料N训练双向LSTM模型,以领域字向量为中心,构建在通用上下文信息矩阵中出现,但在领域信息矩阵中未出现的字符对应的字向量。训练完成后将前向LSTM和后向LSTM的两个embedding层中表示同一字符的两个字向量进行拼接,最终使用的字向量矩阵,如图2所示。
步骤5:使用步骤4产生的最终使用的字向量矩阵以及通用标记语料N训练分词模型,分词模型需选择可引入字向量的分词模型,如:Bi-LSTM,CNN等模型。
步骤6:统计通用标记语料N的N-Gram特征,在N-Gram特征大于设定阈值的词对之间建立拓扑连接,权重为N-Gram特征值,生成拓扑关系矩阵。
以二维N-Gram特征(即根据两个相连词的组合情况进行统计)为例子:
有一条语料:浙江|邦盛科技|位于|杭州。
其中“|”为分词标记,我们在统计二维N-Gram特征的时候,根据词对进行统计,如“浙江”和“邦盛科技”这两个词前后相连出现,则其词对频次加1,同样的词对“邦盛科技”和“位于”也加1。将这条语料处理后其N-Gram特征形成的矩阵如下:
浙江 | 邦盛科技 | 位于 | 杭州 | |
浙江 | 0 | 1 | 0 | 0 |
邦盛科技 | 1 | 0 | 1 | 0 |
位于 | 0 | 1 | 0 | 1 |
杭州 | 0 | 0 | 1 | 0 |
将所有语料进行上述统计操作并累加合并成一个大矩阵后即为最终的拓扑关系矩阵。
步骤7:根据拓扑关系矩阵分析通用标记语料N,生成词和词之间的拓扑关系。通过查询拓扑关系矩阵相应词对出现的频次,若其大于预期值S则认为它们之间存在拓扑关系,否则无拓扑关系。
步骤8:将通用标记语料N和步骤7中产生的拓扑关系作为GCN模型的输入,训练机构名实体识别模型。
步骤9:在预测时,首先将待预测语料送入步骤5中所产生的分词模型,获得分词结果后,再根据步骤6中获得的拓扑关系矩阵分析其拓扑关系,最后将分词结果和拓扑关系作为步骤8获得的机构名实体识别模型的输入,来获得最终的机构名实体识别结果。
上述实施例用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。
Claims (6)
1.一种机构名实体识别方法,其特征在于,该方法包括以下步骤:
步骤1:将目标领域中的专有名词作为领域词构成领域词词库,为领域词中出现的每个字符分配与其对应的字向量。
步骤2:将领域词词库中的字符进行数字编码,每个数字编码分别对应该字符的字向量序号,并使用数字编码来编码领域词词库中的每一个词。
步骤3:对步骤2中产生的词编码进行one-hot编码后,用无监督方法进行字向量训练,得到以每个字符的领域字向量为行元素的矩阵,记为领域信息矩阵。
步骤4:在步骤3训练出的领域字向量基础上加入通用标记语料N的上下文信息,得到最终使用的字向量矩阵。
步骤5:使用步骤4产生的最终使用的字向量矩阵以及通用标记语料N训练分词模型。
步骤6:统计通用标记语料N的N-Gram特征,在N-Gram特征大于设定阈值的词对之间建立拓扑连接,权重为N-Gram特征值,生成拓扑关系矩阵。
步骤7:根据拓扑关系矩阵分析通用标记语料N,生成词和词之间的拓扑关系。通过查询拓扑关系矩阵相应词对出现的频次,若其大于预期值S则认为它们之间存在拓扑关系,否则无拓扑关系。
步骤8:将通用标记语料N和步骤7中产生的拓扑关系作为GCN模型的输入,训练机构名实体识别模型。
步骤9:在预测时,首先将待预测语料送入步骤5中所产生的分词模型,获得分词结果后,再根据步骤6中获得的拓扑关系矩阵分析其拓扑关系,最后将分词结果和拓扑关系作为步骤8获得的机构名实体识别模型的输入,来获得最终的机构名实体识别结果。
2.根据权利要求1所述的一种机构名实体识别方法,其特征在于,所述步骤1中,为单音字分配一个字向量,为多音字的每个发音分配一个字向量;所述步骤2中,对于多音字,为每种发音生成一个数字编码。
3.根据权利要求1所述的一种机构名实体识别方法,其特征在于,所述步骤3中,对词编码进行one-hot编码后,使用CBOW或skip-gram方法进行n维字向量训练。
4.根据权利要求1所述的一种机构名实体识别方法,其特征在于,所述步骤4中,将领域字向量和通用标记语料N训练出的字向量进行拼接,得到最终使用的字向量矩阵,具体包括以下子步骤:
i)使用双向LSTM训练通用标记语料N的字向量。用通用标记语料N训练双向LSTM模型后,将同一个字符的前向和后向输出结果进行拼接后作为该字符的通用字向量。以这些通用字向量为行元素的矩阵记为通用上下文信息矩阵;
ii)将领域信息矩阵和通用上下文信息矩阵中相同字符的字向量进行拼接整合,得到最终字向量矩阵。若相应字符只在领域信息矩阵中或通用上下文信息矩阵中出现,则用0向量进行拼接补齐为等维向量。
iii)对步骤ii)获得的字向量矩阵进行降维,得到最终使用的字向量矩阵。
5.根据权利要求1所述的一种机构名实体识别方法,其特征在于,所述步骤4中,固定领域字向量,根据通用标记语料N的上下文信息构建以领域字向量为中心的其它字符的字向量表达,得到最终使用的字向量矩阵,具体包括以下子步骤:
i)将步骤3中训练得到的领域字向量作为其代表字符的初始化值,初始化到双向LSTM模型前接的embedding层,作为对应字符的初始化字符向量,并将其固定,即在训练过程中不改变初始化字符向量的值。对于在通用上下文信息矩阵中出现,但在领域信息矩阵中未出现的字符,将该字符对应的字符向量初始化为全部由0组成的等维向量。
ii)使用通用标记语料N训练双向LSTM模型,以领域字向量为中心,构建在通用上下文信息矩阵中出现,但在领域信息矩阵中未出现的字符对应的字向量。训练完成后将前向LSTM和后向LSTM的两个embedding层中表示同一字符的两个字向量进行拼接,最终使用的字向量矩阵。
6.根据权利要求1所述的一种机构名实体识别方法,其特征在于,所述步骤5中,所述分词模型需选择可引入字向量的分词模型,包括Bi-LSTM,CNN等模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910448361.5A CN110222338B (zh) | 2019-05-28 | 2019-05-28 | 一种机构名实体识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910448361.5A CN110222338B (zh) | 2019-05-28 | 2019-05-28 | 一种机构名实体识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110222338A true CN110222338A (zh) | 2019-09-10 |
CN110222338B CN110222338B (zh) | 2022-11-22 |
Family
ID=67818519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910448361.5A Active CN110222338B (zh) | 2019-05-28 | 2019-05-28 | 一种机构名实体识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110222338B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110738052A (zh) * | 2019-09-29 | 2020-01-31 | 中国中医科学院 | 一种基于特征字的半监督中医命名实体获取方法 |
CN111159407A (zh) * | 2019-12-30 | 2020-05-15 | 北京明朝万达科技股份有限公司 | 训练实体识别和关系分类模型的方法、装置、设备及介质 |
CN112926319A (zh) * | 2021-02-26 | 2021-06-08 | 北京百度网讯科技有限公司 | 一种领域词汇的确定方法、装置、设备以及存储介质 |
CN113221561A (zh) * | 2021-01-27 | 2021-08-06 | 北京云天互联科技有限公司 | 基于nlp结合上下文的实体识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018028077A1 (zh) * | 2016-08-11 | 2018-02-15 | 中兴通讯股份有限公司 | 一种基于深度学习的中文语义分析的方法及装置 |
CN108182976A (zh) * | 2017-12-28 | 2018-06-19 | 西安交通大学 | 一种基于神经网络的临床医学信息提取方法 |
CN109359291A (zh) * | 2018-08-28 | 2019-02-19 | 昆明理工大学 | 一种命名实体识别方法 |
-
2019
- 2019-05-28 CN CN201910448361.5A patent/CN110222338B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018028077A1 (zh) * | 2016-08-11 | 2018-02-15 | 中兴通讯股份有限公司 | 一种基于深度学习的中文语义分析的方法及装置 |
CN108182976A (zh) * | 2017-12-28 | 2018-06-19 | 西安交通大学 | 一种基于神经网络的临床医学信息提取方法 |
CN109359291A (zh) * | 2018-08-28 | 2019-02-19 | 昆明理工大学 | 一种命名实体识别方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110738052A (zh) * | 2019-09-29 | 2020-01-31 | 中国中医科学院 | 一种基于特征字的半监督中医命名实体获取方法 |
CN111159407A (zh) * | 2019-12-30 | 2020-05-15 | 北京明朝万达科技股份有限公司 | 训练实体识别和关系分类模型的方法、装置、设备及介质 |
CN111159407B (zh) * | 2019-12-30 | 2022-01-28 | 北京明朝万达科技股份有限公司 | 训练实体识别和关系分类模型的方法、装置、设备及介质 |
CN113221561A (zh) * | 2021-01-27 | 2021-08-06 | 北京云天互联科技有限公司 | 基于nlp结合上下文的实体识别方法 |
CN112926319A (zh) * | 2021-02-26 | 2021-06-08 | 北京百度网讯科技有限公司 | 一种领域词汇的确定方法、装置、设备以及存储介质 |
CN112926319B (zh) * | 2021-02-26 | 2024-01-12 | 北京百度网讯科技有限公司 | 一种领域词汇的确定方法、装置、设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110222338B (zh) | 2022-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111177394B (zh) | 基于句法注意力神经网络的知识图谱关系数据分类方法 | |
CN109857990B (zh) | 一种基于文档结构与深度学习的金融类公告信息抽取方法 | |
WO2021114745A1 (zh) | 一种基于词缀感知的社交媒体命名实体识别方法 | |
CN106202010B (zh) | 基于深度神经网络构建法律文本语法树的方法和装置 | |
CN108959242B (zh) | 一种基于中文字符词性特征的目标实体识别方法及装置 | |
CN109753660B (zh) | 一种基于lstm的中标网页命名实体抽取方法 | |
CN107729309A (zh) | 一种基于深度学习的中文语义分析的方法及装置 | |
CN110222338A (zh) | 一种机构名实体识别方法 | |
CN109543181B (zh) | 一种基于主动学习和深度学习相结合的命名实体模型和系统 | |
CN110427623A (zh) | 半结构化文档知识抽取方法、装置、电子设备及存储介质 | |
CN109684642B (zh) | 一种结合页面解析规则和nlp文本向量化的摘要提取方法 | |
CN108874997A (zh) | 一种面向电影评论的人名命名实体识别方法 | |
CN107168957A (zh) | 一种中文分词方法 | |
CN106598940A (zh) | 基于全局优化关键词质量的文本相似度求解算法 | |
CN110688862A (zh) | 一种基于迁移学习的蒙汉互译方法 | |
CN110472235A (zh) | 一种面向中文文本的端到端实体关系联合抽取方法 | |
CN101866337A (zh) | 词性标注系统、用于训练词性标注模型的装置及其方法 | |
CN113704416B (zh) | 词义消歧方法、装置、电子设备及计算机可读存储介质 | |
CN112417854A (zh) | 中文文档抽取式摘要方法 | |
CN112966525B (zh) | 一种基于预训练模型和卷积神经网络算法的法律领域事件抽取方法 | |
CN108108468A (zh) | 一种基于概念和文本情感的短文本情感分析方法和装置 | |
CN110750646B (zh) | 一种旅店评论文本的属性描述提取方法 | |
CN107357785A (zh) | 主题特征词抽取方法及系统、情感极性判断方法及系统 | |
CN112417823B (zh) | 一种中文文本语序调整和量词补全方法及系统 | |
CN111858933A (zh) | 基于字符的层次化文本情感分析方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: Room ABCD, 17th floor, building D, Paradise Software Park, No.3 xidoumen Road, Xihu District, Hangzhou City, Zhejiang Province, 310012 Applicant after: Zhejiang Bangsheng Technology Co.,Ltd. Address before: Room ABCD, 17th floor, building D, Paradise Software Park, No.3 xidoumen Road, Xihu District, Hangzhou City, Zhejiang Province, 310012 Applicant before: ZHEJIANG BANGSUN TECHNOLOGY Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |