CN110032634A - 一种基于多类型深度特征的中文命名实体识别方法 - Google Patents
一种基于多类型深度特征的中文命名实体识别方法 Download PDFInfo
- Publication number
- CN110032634A CN110032634A CN201910310766.2A CN201910310766A CN110032634A CN 110032634 A CN110032634 A CN 110032634A CN 201910310766 A CN201910310766 A CN 201910310766A CN 110032634 A CN110032634 A CN 110032634A
- Authority
- CN
- China
- Prior art keywords
- character
- feature
- vector
- different degree
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 239000013598 vector Substances 0.000 claims abstract description 58
- 238000012545 processing Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000012360 testing method Methods 0.000 abstract description 5
- 238000011160 research Methods 0.000 abstract description 3
- 238000013528 artificial neural network Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 101100136092 Drosophila melanogaster peng gene Proteins 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 101001013832 Homo sapiens Mitochondrial peptide methionine sulfoxide reductase Proteins 0.000 description 1
- 102100031767 Mitochondrial peptide methionine sulfoxide reductase Human genes 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Character Discrimination (AREA)
Abstract
本发明涉及一种基于多类型深度特征的中文命名实体识别方法,属于计算机与信息科学技术领域。本发明首先依据公开且已训练好的字符向量表,将非结构化文本中的字符替换为数值向量;其次分别提取字符级数值向量序列中的文本序列特征、字符重要度特征和上下文重要度特征;然后将每个字符对应的三个特征向量串联成一个特征向量,用线性链式条件随机场对其进行标注;最后将非结构化文本和标签序列对齐,使字符和标签按顺序一一对应,根据标签获得命名实体,表示为“实体——类别”对。本发明在Microsoft Research Asia中文命名实体识别语料上进行实验,结果表明通过引入软注意力模型和上下文注意力模型,实现了对字符重要度特征和上下文重要度特征的利用,提高了F1值。
Description
技术领域
本发明涉及一种基于多类型深度特征的中文命名实体识别方法,属于计算机与信息科学技术领域。
背景技术
中文命名实体识别技术可以从非结构化中文文本中,抽取指定类别的实体,形成结构化的“实体——类别”对作为输出。为了解决现有中文命名实体识别方法缺少对字符重要度特征和上下文重要度特征的利用问题,需要针对非结构化中文文本缺少明确的词边界、以字符为基本单元的特点研究基于多类型深度特征的中文命名实体识别技术。因此,本发明将提供一种基于多类型深度特征的中文命名实体识别方法来提高系统在中文文本上识别命名实体的能力。
基于多类型深度特征的中文命名实体识别方法需要解决的基本问题是:从非结构化中文文本中,抽取指定类别的实体,形成结构化的“实体——类别”对作为输出。综观现有的中文命名实体识别方法,具体包括以下几种:
1.基于手工特征的方法
Chen等人于2006年使用一元语法、二元语法和类型特征来辅助分类器识别命名实体。到了2015年,Han等人同样使用一元和二元语法特征,表明某些手工特征确实有益于中文命名实体识别。然而,手工特征需要耗费大量人力和时间去构造和筛选,且不能随着语言环境的变化自动调节。目前,使用计算机自动获取特征是一种更好的途径。
2.基于神经网络自动提取特征的方法
神经网络自动提取特征的过程由计算机完成。Lu等设计的位置敏感skip-gram模型可以提取多原型中文字符级别特征。Zheng等人提供的神经网络结构联合提取字符特征和上下文特征。Cao等人使用双向长短时记忆和自注意力模型搭建对抗迁移学习框架,该框架充分使用任务共享的词边界信息并阻止来自中文分词的任务特殊特征。Yang等人应用卷积神经网络来提取n元语法特征。神经网络自动提取特征的限制在于神经网络的结构对结果的影响。
3.基于神经网络和额外知识的方法
Zhang和Yang通过提出lattice神经网络模型,将词信息引入到字符级别命名实体识别中。Peng和Dredze基于长短时记忆——条件随机场,提出针对中文分词和中文命名实体识别任务的联合训练模型,引入词边界信息到命名实体识别任务中。He和Sun使用双向长短时记忆-max margin神经网络提取特征,同时将领域外语料作为额外知识引入,以提升领域内结果。然而,额外知识意味着额外的工作,会降低方法的实际运行效率。
综上所述,现有中文命名实体识别方法缺少对字符重要度特征和上下文重要度特征的利用,所以本发明提出一种基于多类型深度特征的中文命名实体识别方法。
发明内容
本发明的目的是为缓解现有方法缺少对字符重要度特征和上下文重要度特征的利用问题,以提高中文命名实体识别的综合性能,提出一种基于多类型深度特征的中文命名实体识别方法。
本发明的设计原理为:首先通过查找一个训练好的字符向量表,替换输入的非结构化文本中每一个字符为数值向量;接下来,字符向量序列分别经过三种特征提取模型的处理,得到对应的特征向量序列,分别包含文本序列特征、字符重要度特征和上下文重要度特征;然后,将每个字符对应的三种特征向量串联为一个向量,即三个特征向量序列合并为一个串联后的特征向量序列;一个线性链式条件随机场对串联后的特征向量序列进行标注,得到标签序列;最后通过比对非结构化文本和标签序列,输出文本中的命名实体,具体表示为结构化的“实体——类别”对。
本发明的技术方案是通过如下步骤实现的:
步骤1,对非结构化文本进行预处理。
步骤1.1,获取公开的、已训练好的字符向量表。
步骤1.2,依次选择非结构化文本中的字符,到字符向量表中查找字符并将其替换为对应的向量。
步骤2,提取字符向量序列的特征。
步骤2.1,字符向量序列依次经过两个BLSTM的处理,提取文本序列特征。
步骤2.2,字符向量序列依次经过一个BLSTM和一个软注意力模型的处理,提取字符重要度特征。
步骤2.3,字符向量序列依次经过一个BLSTM和一个上下文注意力模型的处理,提取上下文重要度特征。
步骤3,串联特征向量并进行标注。
步骤3.1,将每个字符对应的三个特征向量串联成一个特征向量。
步骤3.2,用线性链式条件随机场对串联后的特征向量序列进行标注。
步骤4,对非结构化文本和标签序列进行后处理。
步骤4.1,将非结构化文本和标签序列对齐,使字符和标签按顺序一一对应。
步骤4.2,根据标签获得命名实体,表示为“实体——类别”对。
有益效果
相比于现有的中文命名实体识别方法,本发明有效缓解现有方法缺少对字符重要度特征和上下文重要度特征的利用问题。
附图说明
图1为本发明一种基于多类型深度特征的中文命名实体识别方法的原理图。
图2为软注意力模型的原理图。
图3为上下文注意力模型的原理图。
具体实施方式
为了更好地说明本发明的目的和优点,下面结合实例对本发明方法的实施方式做进一步详细说明。
具体流程为:
步骤1,对非结构化文本进行预处理。
步骤1.1,采用Peng和Dredze提供的字符向量表。表中不同的字符对应不同的数值向量,同一个字符不会对应两个及两个以上的数值向量。经统计,存在23992个字符,对应的数值向量有100维。对于字符向量表没有的字符,使用“</s>”来替代它们,并赋予其不同于其他字符的数值向量。
步骤1.2,依次选择非结构化文本中的字符,到字符向量表中查找字符并将其替换为对应的向量,得到数值向量序列作为输出。
步骤2,提取字符向量序列的特征。
步骤2.1,一个BLSTM包括两个LSTM:前向LSTM和后向LSTM。前向LSTM以顺序处理序列数据,而后向LSTM以逆序处理序列数据。序列数据中每一个元素对应的前向LSTM和后向LSTM输出的串联即为BLSTM的输出。
LSTM是一种经过特殊设计的,能够处理前一时刻输出和当前时刻输入的神经网络模型。LSTM中的cell负责连接其他功能结构,帮助记忆更早的信息,使得LSTM善于处理长文本。除cell外,LSTM还包含输入门、遗忘门和输出门。输入门控制进入cell的信息,如式1所示。
it=σ(Wvivt+Whiht-1+Wcict-1+bi) (1)
其中it表示输入门当前的状态,σ为sigmoid函数,vt为当前的输入,ht-1为前一时刻的输出,ct-1为前一时刻cell的状态,而Wvi、Whi和Wci为权重,bi为偏置值。
遗忘门控制cell保留部分信息,如式2所示。
ft=σ(Wvfvt+Whfht-1+Wcfct-1+bf) (2)
其中ft表示遗忘门当前的状态,Wvf、Whf和Wcf为权重,bf为偏置值。
因此,当前cell的状态ct如式3所示。
ct=ftct-1+ittanh(Wvcvt+Whcht-1+bc) (3)
其中tanh表示双曲正切函数,Wvc和Whc为权重,bc为偏置值。
输出门控制cell输出部分信息,如式4所示。
ot=σ(Wvovt+Whoht-1+Wcoct+bo) (4)
其中ot表示输出门当前的状态,Wvo、Who和Wco为权重,bo为偏置值。
最终LSTM输出的信息ht如式5所示。
ht=ottanh(ct) (5)
实验发现,字符向量序列依次经过两个BLSTM的处理,提取文本序列特征的效果较好。
步骤2.2,基于点乘的软注意力模型如式6所示。
Attention(Q,K,V)=softmax(QKT)V (6)
本发明使用的软注意力模型为Attention(QWQ,KWK,VWV),其中Q、K和V都是输入向量序列构成的矩阵,WQ、WK和WV为权重。
实验发现,字符向量序列依次经过一个BLSTM和一个软注意力模型的处理,提取字符重要度特征的效果较好。
步骤2.3,上下文注意力模型和步骤2.2中提到的软注意力模型的差别在于,先计算softmax(QKT)和一个mask矩阵的哈达玛积,然后再将此积乘以V。mask矩阵的大小为文本长度*文本长度,且除对角线上的元素为0,其它元素为1。
同步骤2.2,字符向量序列依次经过一个BLSTM和一个上下文注意力模型的处理,提取上下文重要度特征。
步骤3,串联特征向量并进行标注。
步骤3.1,经过步骤2的处理,文本中每个字符对应三种特征向量,即文本序列特征向量、字符重要度特征向量和上下文重要度特征向量。这三种特征向量串联起来,使每个字符只对应一个特征向量。
步骤3.2,线性链式条件随机场接受观测变量序列x={x1,x2,...,xn},依赖构造好的条件概率函数P(y|x)进行判别,得到标签变量序列y={y1,y2,...,yn}。因此,用线性链式条件随机场对串联后的特征向量序列进行标注,得到文本中每个字符对应的标签。
步骤4,对非结构化文本和标签序列进行后处理。
步骤4.1,将非结构化文本和标签序列对齐,使字符和标签按顺序一一对应。
步骤4.2,根据标签可知一个字符是否属于某个命名实体,如果属于,它是位于实体的开头、中间还是结尾。通过组合属于同一实体类型的连续字符,得到命名实体,以“实体——类别”对的形式进行输出。
测试结果:基于多类型深度特征的中文命名实体识别方法,在MicrosoftResearch Asia(MSRA)中文命名实体识别语料(2006年第三届国际中文语言处理评测发布的面向简体中文命名实体识别评测任务公开语料)上进行中文命名实体识别方法的对比实验,对比方法包括Zheng等人分别于2016年和2017年提出的方法。本发明优于Zheng等人提出的方法,实现了对字符重要度特征和上下文重要度特征的利用,结果如表1所示,有效实现了中文命名实体识别。
表1对比实验结果
以上所述的具体描述,对发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于多类型深度特征的中文命名实体识别方法,其特征在于所述方法包括如下步骤:
步骤1,对非结构化文本进行预处理,包括:获取公开的、已训练好的字符向量表,然后依次选择非结构化文本中的字符,到字符向量表中查找字符并将其替换为对应的向量;
步骤2,提取字符向量序列的特征,包括:让字符向量序列通过两个BLSTM的处理提取文本序列特征,通过一个BLSTM和一个软注意力模型的处理提取字符重要度特征,通过一个BLSTM和一个上下文注意力模型的处理提取上下文重要度特征;
步骤3,串联特征向量并进行标注,包括:将每个字符对应的三个特征向量串联成一个特征向量,用线性链式条件随机场对串联后的特征向量序列进行标注;
步骤4,对非结构化文本和标签序列进行后处理,包括:将非结构化文本和标签序列对齐,使字符和标签按顺序一一对应,根据标签获得命名实体,表示为“实体——类别”对。
2.根据权利要求1所述的一种基于多类型深度特征的中文命名实体识别方法,其特征在于:步骤2中提取字符重要度特征时,字符向量序列依次经过一个BLSTM和一个软注意力模型的处理,基于点乘的软注意力模型如式1所示
Attention(Q,K,V)=softmax(QKT)V (1)
本发明使用的软注意力模型为Attention(QWQ,KWK,VWV),其中Q、K和V都是输入向量序列构成的矩阵,WQ、WK和WV为权重。
3.根据权利要求1所述的一种基于多类型深度特征的中文命名实体识别方法,其特征在于:步骤2中提取上下文重要度特征时,字符向量序列依次经过一个BLSTM和一个上下文注意力模型的处理。
4.根据权利要求1所述的一种基于多类型深度特征的中文命名实体识别方法,其特征在于:步骤2中提取上下文重要度特征时,上下文注意力模型和本发明使用的软注意力模型的差别在于,先计算softmax(QKT)和一个mask矩阵的哈达玛积,然后再将此积乘以V,mask矩阵的大小为文本长度*文本长度,且除对角线上的元素为0,其它元素为1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910310766.2A CN110032634A (zh) | 2019-04-17 | 2019-04-17 | 一种基于多类型深度特征的中文命名实体识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910310766.2A CN110032634A (zh) | 2019-04-17 | 2019-04-17 | 一种基于多类型深度特征的中文命名实体识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110032634A true CN110032634A (zh) | 2019-07-19 |
Family
ID=67238817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910310766.2A Pending CN110032634A (zh) | 2019-04-17 | 2019-04-17 | 一种基于多类型深度特征的中文命名实体识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110032634A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110609986A (zh) * | 2019-09-30 | 2019-12-24 | 哈尔滨工业大学 | 一种基于预训练的结构化数据生成文本的方法 |
CN110852103A (zh) * | 2019-10-28 | 2020-02-28 | 青岛聚好联科技有限公司 | 一种命名实体识别方法及装置 |
CN111597815A (zh) * | 2020-05-22 | 2020-08-28 | 北京慧闻科技(集团)有限公司 | 一种多嵌入命名实体识别方法、装置、设备及存储介质 |
CN111651993A (zh) * | 2020-05-11 | 2020-09-11 | 北京理工大学 | 融合局部-全局字符级关联特征的中文命名实体识别方法 |
CN112241558A (zh) * | 2020-09-03 | 2021-01-19 | 深圳市华阳国际工程设计股份有限公司 | 元素类型名的统一方法、装置以及计算机存储介质 |
CN112632993A (zh) * | 2020-11-27 | 2021-04-09 | 浙江工业大学 | 一种基于卷积注意力网络的电力计量实体识别模型的分类方法 |
CN112765319A (zh) * | 2021-01-20 | 2021-05-07 | 中国电子信息产业集团有限公司第六研究所 | 一种文本的处理方法、装置、电子设备及存储介质 |
CN112989834A (zh) * | 2021-04-15 | 2021-06-18 | 杭州一知智能科技有限公司 | 一种基于平格增强线性转换器的命名实体识别方法和系统 |
CN113139116A (zh) * | 2020-01-19 | 2021-07-20 | 北京中科闻歌科技股份有限公司 | 基于bert的媒体信息观点抽取方法、装置、设备和存储介质 |
US20220222441A1 (en) * | 2021-01-13 | 2022-07-14 | Salesforce.Com, Inc. | Machine learning based named entity recognition for natural language processing |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6311152B1 (en) * | 1999-04-08 | 2001-10-30 | Kent Ridge Digital Labs | System for chinese tokenization and named entity recognition |
WO2018028077A1 (zh) * | 2016-08-11 | 2018-02-15 | 中兴通讯股份有限公司 | 一种基于深度学习的中文语义分析的方法及装置 |
CN108388560A (zh) * | 2018-03-17 | 2018-08-10 | 北京工业大学 | 基于语言模型的gru-crf会议名称识别方法 |
CN108959252A (zh) * | 2018-06-28 | 2018-12-07 | 中国人民解放军国防科技大学 | 基于深度学习的半监督中文命名实体识别方法 |
CN109558487A (zh) * | 2018-11-06 | 2019-04-02 | 华南师范大学 | 基于层次性多注意力网络的文档分类方法 |
-
2019
- 2019-04-17 CN CN201910310766.2A patent/CN110032634A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6311152B1 (en) * | 1999-04-08 | 2001-10-30 | Kent Ridge Digital Labs | System for chinese tokenization and named entity recognition |
WO2018028077A1 (zh) * | 2016-08-11 | 2018-02-15 | 中兴通讯股份有限公司 | 一种基于深度学习的中文语义分析的方法及装置 |
CN108388560A (zh) * | 2018-03-17 | 2018-08-10 | 北京工业大学 | 基于语言模型的gru-crf会议名称识别方法 |
CN108959252A (zh) * | 2018-06-28 | 2018-12-07 | 中国人民解放军国防科技大学 | 基于深度学习的半监督中文命名实体识别方法 |
CN109558487A (zh) * | 2018-11-06 | 2019-04-02 | 华南师范大学 | 基于层次性多注意力网络的文档分类方法 |
Non-Patent Citations (1)
Title |
---|
GUL KHAN SAFI QAMAS等: "基于深度神经网络的命名实体识别方法研究", 《信息网络安全》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110609986B (zh) * | 2019-09-30 | 2022-04-05 | 哈尔滨工业大学 | 一种基于预训练的结构化数据生成文本的方法 |
CN110609986A (zh) * | 2019-09-30 | 2019-12-24 | 哈尔滨工业大学 | 一种基于预训练的结构化数据生成文本的方法 |
CN110852103A (zh) * | 2019-10-28 | 2020-02-28 | 青岛聚好联科技有限公司 | 一种命名实体识别方法及装置 |
CN113139116B (zh) * | 2020-01-19 | 2024-03-01 | 北京中科闻歌科技股份有限公司 | 基于bert的媒体信息观点抽取方法、装置、设备和存储介质 |
CN113139116A (zh) * | 2020-01-19 | 2021-07-20 | 北京中科闻歌科技股份有限公司 | 基于bert的媒体信息观点抽取方法、装置、设备和存储介质 |
CN111651993A (zh) * | 2020-05-11 | 2020-09-11 | 北京理工大学 | 融合局部-全局字符级关联特征的中文命名实体识别方法 |
CN111597815A (zh) * | 2020-05-22 | 2020-08-28 | 北京慧闻科技(集团)有限公司 | 一种多嵌入命名实体识别方法、装置、设备及存储介质 |
CN112241558A (zh) * | 2020-09-03 | 2021-01-19 | 深圳市华阳国际工程设计股份有限公司 | 元素类型名的统一方法、装置以及计算机存储介质 |
CN112632993A (zh) * | 2020-11-27 | 2021-04-09 | 浙江工业大学 | 一种基于卷积注意力网络的电力计量实体识别模型的分类方法 |
US20220222441A1 (en) * | 2021-01-13 | 2022-07-14 | Salesforce.Com, Inc. | Machine learning based named entity recognition for natural language processing |
CN112765319A (zh) * | 2021-01-20 | 2021-05-07 | 中国电子信息产业集团有限公司第六研究所 | 一种文本的处理方法、装置、电子设备及存储介质 |
CN112765319B (zh) * | 2021-01-20 | 2021-09-03 | 中国电子信息产业集团有限公司第六研究所 | 一种文本的处理方法、装置、电子设备及存储介质 |
CN112989834A (zh) * | 2021-04-15 | 2021-06-18 | 杭州一知智能科技有限公司 | 一种基于平格增强线性转换器的命名实体识别方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110032634A (zh) | 一种基于多类型深度特征的中文命名实体识别方法 | |
CN108763326B (zh) | 一种基于特征多样化的卷积神经网络的情感分析模型构建方法 | |
CN110765775B (zh) | 一种融合语义和标签差异的命名实体识别领域自适应的方法 | |
CN110826338B (zh) | 一种单选择门与类间度量的细粒度语义相似识别的方法 | |
CN108009148B (zh) | 基于深度学习的文本情感分类表示方法 | |
Basu et al. | An MLP based Approach for Recognition of HandwrittenBangla'Numerals | |
Coquenet et al. | Recurrence-free unconstrained handwritten text recognition using gated fully convolutional network | |
CN111966812B (zh) | 一种基于动态词向量的自动问答方法和存储介质 | |
CN110263174B (zh) | —基于焦点关注的主题类别分析方法 | |
CN113886626B (zh) | 基于多重注意力机制的动态记忆网络模型的视觉问答方法 | |
CN111259768A (zh) | 基于注意力机制的结合自然语言的图像目标定位方法 | |
CN108805223A (zh) | 一种基于Incep-CapsNet网络的篆文识别方法及系统 | |
Naseer et al. | Comparative analysis of raw images and meta feature based Urdu OCR using CNN and LSTM | |
CN110516070A (zh) | 一种基于文本纠错与神经网络的中文问句分类方法 | |
CN110826056A (zh) | 一种基于注意力卷积自编码器的推荐系统攻击检测方法 | |
CN107247755A (zh) | 一种基于上下文序列记忆网络的个性化图像字幕生成方法 | |
CN111274794A (zh) | 一种基于传递的同义词扩展方法 | |
CN113704416A (zh) | 词义消歧方法、装置、电子设备及计算机可读存储介质 | |
CN111651993A (zh) | 融合局部-全局字符级关联特征的中文命名实体识别方法 | |
CN111046915A (zh) | 一种风格字符生成的方法 | |
Inunganbi et al. | Recognition of handwritten Meitei Mayek script based on texture feature | |
CN111737470A (zh) | 文本分类方法 | |
CN110321565B (zh) | 基于深度学习的实时文本情感分析方法、装置及设备 | |
Hajihashemi et al. | A pattern recognition based Holographic Graph Neuron for Persian alphabet recognition | |
Wang et al. | Robust end-to-end offline Chinese handwriting text page spotter with text kernel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190719 |