CN108875000B - 一种融合多句法结构的语义关系分类方法 - Google Patents

一种融合多句法结构的语义关系分类方法 Download PDF

Info

Publication number
CN108875000B
CN108875000B CN201810614041.8A CN201810614041A CN108875000B CN 108875000 B CN108875000 B CN 108875000B CN 201810614041 A CN201810614041 A CN 201810614041A CN 108875000 B CN108875000 B CN 108875000B
Authority
CN
China
Prior art keywords
text sequence
vector
bidirectional
weighted
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810614041.8A
Other languages
English (en)
Other versions
CN108875000A (zh
Inventor
郝志峰
陈培辉
蔡瑞初
温雯
王丽娟
陈炳丰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201810614041.8A priority Critical patent/CN108875000B/zh
Publication of CN108875000A publication Critical patent/CN108875000A/zh
Application granted granted Critical
Publication of CN108875000B publication Critical patent/CN108875000B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars

Abstract

本发明涉及自然语言处理技术领域,涉及一种融合多句法结构的语义关系分类方法,包括以下步骤,先对文本序列进行数据预处理;然后对文本序列的向量进行双向编码,利用注意力机制对编码信息进行加权学习,通过CRF对加权后的编码信息进行双向解码,获取文本序列上的实体标签信息;然后构造联合向量,构造融合多句法的复杂网络,利用共享参数进行端到端的训练,获取三元组上的隐状态并进行拼接,经线性变换后输出语义关系类别。本发明基于叠层的循环神经网络模型,将多种句法结构进行融合,解决了单一句法结构模型无法有效适应其他句法结构的问题,从而能有效处理不同的句法结构,提高了模型的鲁邦性,并提升了分类效率。

Description

一种融合多句法结构的语义关系分类方法
技术领域
本发明涉及自然语言处理技术领域,更具体地说,涉及一种融合多句法结 构的语义关系分类方法。
背景技术
随着互联网发展,非结构化的文本正在以指数级爆发式增长,通过利用自 动化抽取工具将非结构化的文本转化为结构化的知识,将这些结构化知识应用 于检索系统和知识库的构建中,能够有效帮助人们提高工作效率。语义关系分 类是其中的重要技术手段之一。
语义关系分类包含实体识别和关系分类两个子任务,对应的方法分别是基 于序列标注和基于句法结构。已有的语义关系分类过程主要采用单一特定的句 法结构,而单一特定的句法结构模型无法有效处理其他句法结构的问题。比如, 对于SDP结构的模型,在处理其他结构如SubTree和FullTree结构时会存在信 息丢失,但简洁的结构在训练速度上较快;而SubTree和FullTree结构在文本 和结构信息上更丰富,但训练速度较慢。目前没有一个具备鲁棒性的方法来兼 具这三者的优点,从而达到一个更加稳定高效的分类结果。
随着深度学习的发展,通过利用神经网络模型,借助共享参数,构造大型 学习矩阵,利用反向传播的机制来优化模型,在效果方面已经超过了传统的机 器学习方法,因此基于深度学习的方法成为当下的主流做法。我们的目标就是 利用神经网络融合不同的句法结构,从而为输入的文本输出其语义关系。但不 同的句法结构具备不同的形式,必须将其处理成具备某种共性的数据,并转化 为向量的形式输入到网络中进行训练。因此,如何将多种不同的句法结构融合 到一个网络中,使得网络具备自适应不同句法结构的鲁棒能力,具备一定的研 究价值和意义。
发明内容
有鉴于此,本发明提供了一种融合多句法结构的语义关系分类方法,以解 决现有技术中没办法有效融合多种句法结构信息的缺陷。
一种融合多句法结构的语义关系分类方法,其特征在于,包括以下步骤:
S1、对文本序列进行数据预处理,获取该文本序列S={S1,S2,...,Sn}的词性标 签P={P1,P2,...,Pn}和依赖关系标签D={D1,D2,...,Dn};在步骤S1中,对要输入网 络的文本序列S={S1,S2,...,Sn}进行预处理,通过利用Stanford解析工具获取该文 本序列的词性标签P={P1,P2,...,Pn}和依赖关系标签D={D1,D2,...,Dn},文本序列 S={S1,S2,...,Sn}中每一个字符Sn对应一个词性标签Pn和关系标签Dn,均作为网络 训练的数据输入;
S2、对文本序列S={S1,S2,...,Sn}以及词性标签P={P1,P2,...,Pn}进行双向编码h={h1,h2}与加权学习获得加权后的双向编码h'={h'1,h'2},并对加权后的双向编码 h'={h'1,h'2}进行解码获得该文本序列S={S1,S2,...,Sn}的实体标签L={L1,L2,...,Ln};步骤S2具体为:S21、对文本序列S={S1,S2,...,Sn}以及词性标签P={P1,P2,...,Pn}进 行拼接,得到文本词性拼接向量V={Sn,Pn};S22、将文本词性拼接向量V={Sn,Pn} 输入到双向循环神经网络Bi-LSTM中,获取两个方向的隐状态向量h1和h2;S23、 对隐状态向量h1和h2进行拼接获得双向编码h={h1,h2};S24、利用注意力机制 对双向编码h={h1,h2}进行加权学习并获得加权后的双向编码h'={h'1,h'2},所述步 骤S24具体为:将双向编码h={h1,h2}输入到基于word-level的Attention机制 模型中进行加权学习,获得加权后的双向编码h'={h'1,h'2};S25、对加权后的双向 编码h'={h1',h2}'进行解码获得该文本序列S={S1,S2,...,Sn}的实体标签L={L1,L2,...,Ln},所述步骤S25具体为:采用标准的CRF模型,基于BILOU标注 模式,通过极大似然估计的方式,对加权后的双向编码h'={h'1,h'2}进行解码获得 该文本序列S={S1,S2,...,Sn}的实体标签L={L1,L2,...,Ln}。
S3、利用依赖关系标签D={D1,D2,...,Dn}、双向编码h={h1,h2}以及实体标签 L={L1,L2,...,Ln}构建联合向量V={D,h,L},并利用联合向量V={D,h,L}对双向树 结构网络进行端到端的训练,获取文本序列S={S1,S2,...,Sn}的三元组结构化信息 并进行非线性变换后输出语义关系类别。S31、将双向编码h={h1,h2}以及实体标 签L={L1,L2,...,Ln}嵌套到关系层的依赖关系标签D={D1,D2,...,Dn}上进行拼接,获 得联合向量V={D,h,L};S32、构建基于双向循环的树结构网络Bi-Tree-LSTM模 型;S33、将联合向量V={D,h,L}输入到基于双向循环的树结构网络Bi-Tree-LSTM 模型中进行端到端训练,得到文本序列S={S1,S2,...,Sn}的三元组结构化信息向量; S34、对文本序列S={S1,S2,...,Sn}的三元组结构化信息进行拼接并进行非线性变换 得到候选关系Dp;S35、对候选关系Dp输入到分类器C得到该文本序列 S={S1,S2,...,Sn}的语义关系类别。
从上述的技术方案可以看出,本发明先对文本序列进行数据预处理(包括词 性解析和句法解析);其次,在序列层上,将文本序列的向量进行双向编码,利 用注意力机制对编码信息进行加权学习,通过CRF对加权后的编码信息进行双 向解码,获取文本序列上的实体标签信息;然后,在关系层上,首先构造联合 向量,基于双向树结构网络,构造融合多句法的复杂网络,利用共享参数进行 端到端的训练,获取三元组上的隐状态并进行拼接,作进一步的线性变换,最 终输出语义关系类别;因此,本发明将文本序列统一处理转换为向量形式输入 到神经网络模型中,借助共享参数,构造大型学习矩阵,利用反向传播的机制 来优化模型,利用神经网络融合不同的句法结构,使得网络具备自适应不同句 法结构的鲁棒能力,解决了现有技术中没办法有效融合多种句法结构信息的缺 陷,有效提高了模型的鲁邦性和分类效率。
附图说明
图1为一种融合多句法结构的语义关系分类方法的处理流程图。
图2为一种融合多句法结构的语义关系分类方法的叠层神经网络结构图。
图3为一种融合多句法结构的语义关系分类方法的具体步骤流程框图。
图4为步骤S2的具体步骤流程框图。
图5为步骤S3的具体步骤流程框图。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施 例或现有技术描述中所述的附图作简单地介绍,显而易见,下面的描述中的附 图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造 性劳动的前提下,还可以根据这些附图获得其他的附图。
具体实施方式
如图1-5所示,本发明实施例公开了一种融合多句法结构的语义关系分类 方法,包括以下步骤:
S1、对文本序列进行数据预处理,获取该文本序列S={S1,S2,...,Sn}的词性标 签P={P1,P2,...,Pn}和依赖关系标签D={D1,D2,...,Dn};在步骤S1中,对要输入网 络的文本序列S={S1,S2,...,Sn}进行预处理,通过利用Stanford解析工具获取该文 本序列的词性标签P={P1,P2,...,Pn}和依赖关系标签D={D1,D2,...,Dn},文本序列 S={S1,S2,...,Sn}中每一个字符Sn对应一个词性标签Pn和关系标签Dn,均作为网络 训练的数据输入。
在该步骤中,该Stanford解析工具为现有的文本序列解析工具,其目的是 将文本序列S={S1,S2,...,Sn}分析处理成词性标签P={P1,P2,...,Pn}和依赖关系标签D={D1,D2,...,Dn},用户可根据实际需求选择不同的解析工具,只要能实现将文 本序列S={S1,S2,...,Sn}分析处理成词性标签P={P1,P2,...,Pn}和依赖关系标签 D={D1,D2,...,Dn}的目的即可。
S2、对文本序列S={S1,S2,...,Sn}以及词性标签P={P1,P2,...,Pn}进行双向编码h={h1,h2}与加权学习获得加权后的双向编码h'={h'1,h'2},并对加权后的双向编码 h'={h'1,h'2}进行解码获得该文本序列S={S1,S2,...,Sn}的实体标签L={L1,L2,...,Ln};步骤S2具体为:S21、对文本序列S={S1,S2,...,Sn}以及词性标签P={P1,P2,...,Pn}进 行拼接,得到文本词性拼接向量V={Sn,Pn};S22、将文本词性拼接向量V={Sn,Pn} 输入到双向循环神经网络Bi-LSTM中,获取两个方向的隐状态向量h1和h2;S23、 对隐状态向量h1和h2进行拼接获得双向编码h={h1,h2};S24、利用注意力机制 对双向编码h={h1,h2}进行加权学习并获得加权后的双向编码h'={h'1,h'2},所述步 骤S24具体为:将双向编码h={h1,h2}输入到基于word-level的Attention机制 模型中进行加权学习,获得加权后的双向编码h'={h'1,h'2};S25、对加权后的双向 编码h'={h1',h2}'进行解码获得该文本序列S={S1,S2,...,Sn}的实体标签 L={L1,L2,...,Ln},所述步骤S25具体为:采用标准的CRF模型,基于BILOU标注 模式,通过极大似然估计的方式,对加权后的双向编码h'={h'1,h'2}进行解码获得 该文本序列S={S1,S2,...,Sn}的实体标签L={L1,L2,...,Ln}。
在步骤S21中,主要是采用将后一个序列向量链接到前一个序列向量的尾 端,在此处,主要是将词性标签P={P1,P2,...,Pn}链接到文本序列S={S1,S2,...,Sn}的 尾端,形成文本词性拼接向量V={Sn,Pn}。
在步骤S22中,该双向循环神经网络Bi-LSTM主要含有输入门it、忘记门ft、 候选状态ut以及输出门ot;先将文本词性拼接向量V={Sn,Pn}输入到输入门it中, 利用预设的输入门处理算法it=σ(W(i)xt+U(i)ht-1+b(i))对文本词性拼接向量V={Sn,Pn}进 行数据向量预处理;然后再利用预设的忘记门ft处理算法ft=(W(f)xt+U(f)ht-1+b(f)),对 文本词性拼接向量V={Sn,Pn}进行数据遗忘处理,使得该双向循环神经网络 Bi-LSTM遗忘部分无用信息;然后再利用候选状态ut处理算法 ot=σ(W(o)xt+U(o)ht-1+b(o)),使得该双向循环神经网络Bi-LSTM在遗忘部分无用信息后 再次学习候选信息,对忘记门ft进行补充,最后经过出门ot处理算法组
Figure BDA0001696405960000061
输出两个方向的隐状态向量h1和h2;其中,σ是逐元素 的非线性sigmoid函数,
Figure BDA0001696405960000062
是逐元素的积,W和U是权重矩阵,b是偏置向量,ht-1是前一时刻的隐状态,ct是新的长记忆信息,ct-1是前一时刻的长记忆信息。
在步骤S23中,主要是采用将后一个序列向量链接到前一个序列向量的尾 端,在此处,主要是将隐状态向量h2链接到隐状态向量h1的末端形成双向编 码h={h1,h2}。
在步骤S24中,先利用权重公式zt=tanh(W(w)st),将双向编码h={h1,h2}与权重矩阵相乘并进行非线性变化得到权重向量zt;然后再利用权重标量公式
Figure RE-GDA0001764631870000063
计算得到权重标量αt,最后利用加权向量信息公式
Figure RE-GDA0001764631870000064
将权重标量αt与双向编码h={h1,h2}进行加权,得到最终的加权向量信息r,即得 到加权后的双向编码h'={h'1,h'2}。
在步骤S25中,主要是定义好一组特征函数f后,给每个特征函数fj赋予一 个权重λj,接收加权后的双向编码h'={h'1,h'2},利用定义的特征函数f来对双向编 码h'={h'1,h'2}的序列l进行评分;
Figure BDA0001696405960000065
然后利用标准化公式
Figure BDA0001696405960000066
对这个分数进行指数化和标准化, 得到双向编码h'={h'1,h'2}的序列l的概率值p(l|r),从而确定相应的实体标签。
S3、利用依赖关系标签D={D1,D2,...,Dn}、双向编码h={h1,h2}以及实体标签 L={L1,L2,...,Ln}构建联合向量V={D,h,L},并利用联合向量V={D,h,L}对双向树 结构网络进行端到端的训练,获取文本序列S={S1,S2,...,Sn}的三元组结构化信息 并进行拼接与非线性变换后输出语义关系类别。S31、将双向编码h={h1,h2}以及 实体标签L={L1,L2,...,Ln}嵌套到关系层的依赖关系标签D={D1,D2,...,Dn}上进行 拼接,获得联合向量V={D,h,L};S32、构建基于双向循环的树结构网络 Bi-Tree-LSTM模型;S33、将联合向量V={D,h,L}输入到基于双向循环的树结构 网络Bi-Tree-LSTM模型中进行端到端训练,得到文本序列S={S1,S2,...,Sn}的三元 组结构化信息向量;S34、对文本序列S={S1,S2,...,Sn}的三元组结构化信息拼接并 进行非线性变换得到候选关系Dp;S35、对候选关系Dp输入到分类器C得到该文 本序列S={S1,S2,...,Sn}的语义关系类别。
在步骤S31中,主要是采用将后一个序列向量链接到前一个序列向量的尾 端,在此处,主要是将双向编码h={h1,h2}链接到依赖关系标签D={D1,D2,...,Dn}的 末端,然后再将实体标签L链接到双向编码h={h1,h2}的末端,从而得到联合向 量V={D,h,L}。
在步骤S32-S33中,其主要过程为:先定义结点信息:一种是SDP路径上 的结点,另一种是SubTree和FullTree上除了最短路径之外的其他所有结点; 然后对于第t个字,将其联合向量Vt与权重矩阵进行相乘,并对该字在三种不 同的句法结构下进行学习,同时要统计该字的孩子结点数量。该结构与步骤S22 的双向循环神经网络Bi-LSTM类似,余下步骤均仿照S22;然后依据公式
Figure BDA0001696405960000081
Figure BDA0001696405960000082
Figure BDA0001696405960000083
Figure BDA0001696405960000084
ct=it⊙ut+f⊙ct-1
ht=ot⊙tanh(ct)
输出文本序列S={S1,S2,...,Sn}的三元组结构化信息向量,公式中各个字母符号跟 步骤S22保持一致,即其中,σ是逐元素的非线性sigmoid函数,
Figure BDA0001696405960000087
是逐元素的 积,W和U是权重矩阵,b是偏置向量,ht-1是前一时刻的隐状态,ct是新的长记忆 信息,ct-1是前一时刻的长记忆信息。
在步骤S34-S35中,其主要过程为:先将文本序列S={S1,S2,...,Sn}的三元组 结构化信息向量与权重矩阵相乘,如公式所示
Figure BDA0001696405960000085
加上偏置向量, 作进一步的非线性变换,得到候选关系Dp,;然后再候选关系Dp输入到分类器 C中,利用分类器C中的分类公式
Figure BDA0001696405960000086
得到该文本序列 S={S1,S2,...,Sn}的语义关系类别。
因此,在本实施例中,本发明将文本序列统一处理转换为向量形式输入到 神经网络模型中,借助共享参数,构造大型学习矩阵,利用反向传播的机制来 优化模型,利用神经网络融合不同的句法结构,使得网络具备自适应不同句法 结构的鲁棒能力,解决了现有技术中没办法有效融合多种句法结构信息的缺陷, 有效提高了模型的鲁邦性和分类效率。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是 与其他实施例的不同之处,各个实施例之间相同相似部分相互参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现本发明。 对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文 中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施 例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合 与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (4)

1.一种融合多句法结构的语义关系分类方法,其特征在于,包括以下步骤:
S1、对文本序列进行数据预处理,获取该文本序列S={S1,S2,...,Sn}的词性标签P={P1,P2,...,Pn}和依赖关系标签D={D1,D2,...,Dn};
S2、对文本序列S={S1,S2,...,Sn}以及词性标签P={P1,P2,...,Pn}进行双向编码h={h1,h2}与加权学习获得加权后的双向编码h'={h'1,h'2},并对加权后的双向编码h'={h'1,h'2}进行解码获得该文本序列S={S1,S2,...,Sn}的实体标签L={L1,L2,...,Ln};
S3、利用依赖关系标签D={D1,D2,...,Dn}、双向编码h={h1,h2}以及实体标签L={L1,L2,...,Ln}构建联合向量V={D,h,L},并利用联合向量V={D,h,L}对双向树结构网络进行端到端的训练,获取文本序列S={S1,S2,...,Sn}的三元组结构化信息并进行非线性变换后输出语义关系类别;
步骤S2具体为:
S21、对文本序列S={S1,S2,...,Sn}以及词性标签P={P1,P2,...,Pn}进行拼接,得到文本词性拼接向量V={Sn,Pn};
S22、将文本词性拼接向量V={Sn,Pn}输入到双向循环神经网络Bi-LSTM中,获取两个方向的隐状态向量h1和h2;
S23、对隐状态向量h1和h2进行拼接获得双向编码h={h1,h2};
S24、利用注意力机制对双向编码h={h1,h2}进行加权学习并获得加权后的双向编码h'={h'1,h'2};
S25、对加权后的双向编码h'={h'1,h'2}进行解码获得该文本序列S={S1,S2,...,Sn}的实体标签L={L1,L2,...,Ln};所述步骤S24具体为:将双向编码h={h1,h2}输入到基于word-level的Attention机制模型中进行加权学习,获得加权后的双向编码h'={h'1,h'2}。
2.如权利要求1所述的一种融合多句法结构的语义关系分类方法,其特征在于,在步骤S1中,对要输入网络的文本序列S={S1,S2,...,Sn}进行预处理,通过利用Stanford解析工具获取该文本序列的词性标签P={P1,P2,...,Pn}和依赖关系标签D={D1,D2,...,Dn},文本序列S={S1,S2,...,Sn}中每一个字符Sn对应一个词性标签Pn和关系标签Dn,均作为网络训练的数据输入。
3.如权利要求1所述的一种融合多句法结构的语义关系分类方法,其特征在于,所述步骤S25具体为:采用标准的CRF模型,基于BILOU标注模式,通过极大似然估计的方式,对加权后的双向编码h'={h'1,h'2}进行解码获得该文本序列S={S1,S2,...,Sn}的实体标签L={L1,L2,...,Ln}。
4.如权利要求1所述的一种融合多句法结构的语义关系分类方法,其特征在于,所述步骤S3具体为:
S31、将双向编码h={h1,h2}以及实体标签L={L1,L2,...,Ln}嵌套到关系层的依赖关系标签D={D1,D2,...,Dn}上进行拼接,获得联合向量V={D,h,L};
S32、构建基于双向循环的树结构网络Bi-Tree-LSTM模型;
S33、将联合向量V={D,h,L}输入到基于双向循环的树结构网络Bi-Tree-LSTM模型中进行端到端训练,得到文本序列S={S1,S2,...,Sn}的三元组结构化信息向量;
S34、对文本序列S={S1,S2,...,Sn}的三元组结构化信息进行拼接并进行非线性变换得到候选关系Dp
S35、对候选关系Dp输入到分类器C得到该文本序列S={S1,S2,...,Sn}的语义关系类别。
CN201810614041.8A 2018-06-14 2018-06-14 一种融合多句法结构的语义关系分类方法 Active CN108875000B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810614041.8A CN108875000B (zh) 2018-06-14 2018-06-14 一种融合多句法结构的语义关系分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810614041.8A CN108875000B (zh) 2018-06-14 2018-06-14 一种融合多句法结构的语义关系分类方法

Publications (2)

Publication Number Publication Date
CN108875000A CN108875000A (zh) 2018-11-23
CN108875000B true CN108875000B (zh) 2021-12-28

Family

ID=64338402

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810614041.8A Active CN108875000B (zh) 2018-06-14 2018-06-14 一种融合多句法结构的语义关系分类方法

Country Status (1)

Country Link
CN (1) CN108875000B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299246B (zh) * 2018-12-04 2021-08-03 北京容联易通信息技术有限公司 一种文本分类方法及装置
CN109598000B (zh) * 2018-12-28 2023-06-16 百度在线网络技术(北京)有限公司 语义关系识别方法、装置、计算机设备和存储介质
CN110390941A (zh) * 2019-07-01 2019-10-29 清华大学 基于系数相关模型的mp3音频隐写分析方法及装置
CN110705301B (zh) * 2019-09-30 2021-01-26 北京京东智能城市大数据研究院 实体关系抽取方法及装置、存储介质、电子设备
CN110795411B (zh) * 2019-11-01 2022-01-04 北京理工大学 一种基于类别门机制的文本分类方法
CN110879859A (zh) * 2019-11-23 2020-03-13 安徽大学 一种保存序列关联关系的属性网络表示学习方法
CN111241234B (zh) * 2019-12-27 2023-07-18 北京百度网讯科技有限公司 文本分类方法及装置
CN111581387B (zh) * 2020-05-09 2022-10-11 电子科技大学 一种基于损失优化的实体关系联合抽取方法
CN112560441B (zh) * 2020-12-22 2024-02-09 东北大学 自下而上规则结合神经网络的成分句法分析树构造方法
CN112988996B (zh) * 2021-03-10 2024-03-08 中国平安人寿保险股份有限公司 知识库生成方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104252533A (zh) * 2014-09-12 2014-12-31 百度在线网络技术(北京)有限公司 搜索方法和搜索装置
CN106407211A (zh) * 2015-07-30 2017-02-15 富士通株式会社 对实体词的语义关系进行分类的方法和装置
CN106844327A (zh) * 2015-12-07 2017-06-13 科大讯飞股份有限公司 文本编码方法及系统
CN107168945A (zh) * 2017-04-13 2017-09-15 广东工业大学 一种融合多特征的双向循环神经网络细粒度意见挖掘方法
CN107305543A (zh) * 2016-04-22 2017-10-31 富士通株式会社 对实体词的语义关系进行分类的方法和装置
CN107562752A (zh) * 2016-06-30 2018-01-09 富士通株式会社 对实体词的语义关系进行分类的方法、装置和电子设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2307846A1 (en) * 1997-11-21 1999-06-03 Genset S.A. Chlamydia pneumoniae genomic sequence and polypeptides, fragments thereof and uses thereof, in particular for the diagnosis, prevention and treatment of infection
US20130197900A1 (en) * 2010-06-29 2013-08-01 Springsense Pty Ltd Method and System for Determining Word Senses by Latent Semantic Distance
US8719006B2 (en) * 2010-08-27 2014-05-06 Apple Inc. Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis
CN107622050B (zh) * 2017-09-14 2021-02-26 武汉烽火普天信息技术有限公司 基于Bi-LSTM和CRF的文本序列标注系统及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104252533A (zh) * 2014-09-12 2014-12-31 百度在线网络技术(北京)有限公司 搜索方法和搜索装置
CN106407211A (zh) * 2015-07-30 2017-02-15 富士通株式会社 对实体词的语义关系进行分类的方法和装置
CN106844327A (zh) * 2015-12-07 2017-06-13 科大讯飞股份有限公司 文本编码方法及系统
CN107305543A (zh) * 2016-04-22 2017-10-31 富士通株式会社 对实体词的语义关系进行分类的方法和装置
CN107562752A (zh) * 2016-06-30 2018-01-09 富士通株式会社 对实体词的语义关系进行分类的方法、装置和电子设备
CN107168945A (zh) * 2017-04-13 2017-09-15 广东工业大学 一种融合多特征的双向循环神经网络细粒度意见挖掘方法

Also Published As

Publication number Publication date
CN108875000A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
CN108875000B (zh) 一种融合多句法结构的语义关系分类方法
CN108363695B (zh) 一种基于双向依赖语法树表征的用户评论属性抽取方法
CN113704416B (zh) 词义消歧方法、装置、电子设备及计算机可读存储介质
CN111325571B (zh) 一种多任务学习的商品评论标签自动生成方法、装置及系统
CN113761893B (zh) 一种基于模式预训练的关系抽取方法
CN112100485A (zh) 一种基于评论的评分预测物品推荐方法及系统
CN109933792A (zh) 基于多层双向lstm和验证模型的观点型问题阅读理解方法
CN113254616B (zh) 面向智能问答系统的句向量生成方法及系统
CN112559734B (zh) 简报生成方法、装置、电子设备及计算机可读存储介质
CN110245349A (zh) 一种句法依存分析方法、装置及一种电子设备
CN114841140A (zh) 依存分析模型及基于依存分析的中文联合事件抽取方法
CN110781271A (zh) 一种基于层次注意力机制的半监督网络表示学习模型
CN113515632A (zh) 基于图路径知识萃取的文本分类方法
CN113158051B (zh) 一种基于信息传播和多层上下文信息建模的标签排序方法
CN114742016A (zh) 一种基于多粒度实体异构图的篇章级事件抽取方法及装置
CN110210033B (zh) 基于主述位理论的汉语基本篇章单元识别方法
CN116663566A (zh) 一种基于商品评价的方面级情感分析方法及系统
Wakchaure et al. A scheme of answer selection in community question answering using machine learning techniques
CN116150334A (zh) 基于UniLM模型和Copy机制的中文共情语句训练方法及系统
CN116468030A (zh) 一种基于多任务神经网络的端到端方面级情感分析方法
CN114297408A (zh) 一种基于级联二进制标注框架的关系三元组抽取方法
CN113516198A (zh) 一种基于记忆网络和图神经网络的文化资源文本分类方法
Zanzotto et al. Can we explain natural language inference decisions taken with neural networks? Inference rules in distributed representations
CN114154505A (zh) 一种面向电力规划评审领域的命名实体识别方法
CN114491029A (zh) 基于图神经网络的短文本相似度计算方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant