CN111382333A - 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 - Google Patents

基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 Download PDF

Info

Publication number
CN111382333A
CN111382333A CN202010165910.0A CN202010165910A CN111382333A CN 111382333 A CN111382333 A CN 111382333A CN 202010165910 A CN202010165910 A CN 202010165910A CN 111382333 A CN111382333 A CN 111382333A
Authority
CN
China
Prior art keywords
case
elements
candidate
sentence
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010165910.0A
Other languages
English (en)
Other versions
CN111382333B (zh
Inventor
余正涛
赵承鼎
郭军军
黄于欣
朱恩昌
相艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kunming University of Science and Technology
Original Assignee
Kunming University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kunming University of Science and Technology filed Critical Kunming University of Science and Technology
Priority to CN202010165910.0A priority Critical patent/CN111382333B/zh
Publication of CN111382333A publication Critical patent/CN111382333A/zh
Application granted granted Critical
Publication of CN111382333B publication Critical patent/CN111382333B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明涉及基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,属于自然语言处理技术领域。本发明首先以依存句法分析工具分析待抽取句中的核心成分,构成备选要素组,通过图卷积神经网络对候选要素的依存关系进行特征建模,捕捉到其内在的关联性,再通过对待抽取句进行时序逻辑上的特征建模,学习其案件领域的相关性特征,最后综合候选要素的特征及其所在句的特征判断候选要素是否是一组案件要素。本发明能有效学习到待抽取要素的案件领域相关性与其内在的关联性,有利于预测准确率的提升。

Description

基于案件相关性联合学习与图卷积的新闻文本句中案件要素 抽取方法
技术领域
本发明涉及基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,属于自然语言处理技术领域。
背景技术
法律领域新闻舆情分析是当前自然语言处理研究的热点问题,新闻文本中的案件要素抽取是法律领域新闻舆情分析的重要环节,是后续案件新闻舆情分析的基础、前提和支柱,其准确率直接影响到多个后续新闻舆情分析的准确与否,例如:情感分类、话题分析、摘要生成等。为了解决后续工作的质量和性能,需要构建高准确率的新闻文本中的案件要素抽取方法。案件要素具有两个特性:案件领域的相关性和案件要素之间的关联性,因此,提出了基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法。
发明内容
本发明提供了基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,以用于充分利用案件要素的案件领域相关性与案件要素之间的关联性,提升了新闻文本中案件要素抽取的准确率。
本发明的技术方案是:基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,包括:
Step1、首先从裁判文书网获取法律文书,利用规则从法律文书中抽取出案件描述句,再通过句法解析工具对案件描述句进行解析,根据词性得到一组该法律文书的案件要素,从而构建案件要素知识库;
Step2、利用案件要素知识库进行新闻爬取,根据一组案件要素是否共现进行要素标注,再对其进行案件领域相关性标注,得到具有标注的新闻文本语料库;
Step3、利用依存句法分析提取待抽取句中核心成分,通过词性与词间的依赖关系进行剪枝,得到候选要素;输入新闻的一句文本为D={w1...wn},其中w为句中的词,经预处理后得到其中的{w*1...w*m}为候选要素集合;
进一步地,所述步骤Step3的具体步骤为:
Step3.1、以整个句子依存句法中的每个动词最为基础,根据词性与依存关系抽取出与其具有依存边的时间、地点、主语及谓语词,没有出现的成分以空值代替。
Step4、对候选要素集合根据两两间是否具有依存关系构成关系矩阵A,其中Aij=1则表示w*i与w*j之间存在依存关系;
进一步地,所述步骤Step4的具体步骤为:
Step4.1、根据候选要素两两间是否具有依存关系填写关系矩阵,有关系则对应位置为1,无关系则对应位置为0,矩阵的对角线为全1。
Step5、利用Step3中得到的候选要素集合和Step4中得到的关系矩阵,通过依存关系层对候选要素建模,得到候选要素的关系特征;
进一步地,所述步骤Step5的具体步骤为:
Step5.1利用候选要素集合中的词和Step4中得到的关系矩阵,通过图卷积神经网络对候选要素进行建模,得到依存关系中间层特征;
Step5.2利用Step5.1中得到的依存关系中间层特征,通过多层感知机网络对其进行建模,得到候选要素的关系特征。
具体流程为:为了让词能被计算机表示,首先通过预训练的词向量矩阵,对整个待抽取句中的词与候选要素中的词进行词嵌入,将每个词映射到向量空间中表示;
使用图卷积神经网络(GCN)对候选要素进行建模,在第k层GCN中,节点i的特征向量
Figure BDA0002407450960000021
计算公式为:
Figure BDA0002407450960000022
其中W(k)与b(k)为k层的权重向量与偏置向量,皆为可训练的参数,RELU为激活函数,k=0时h为输入的词向量。在图卷积的最终层通过多层感知机网络将所有节点映射为一个张量El,计算公式为:El=tanh(Wl*G+bl);
其中
Figure BDA0002407450960000023
l为图卷积的深度,tanh为激活函数。El即为候选要素的关系特征;
Step6、通过上下文建模层对整个待抽取句进行建模,得到整个待抽取句的上下文特征;
进一步地,所述步骤Step6的具体步骤为:
Step6.1通过双向循环神经网络对整个待抽取句进行建模,得到上下文中间特征;
Step6.2利用Step6.1中得到的上下文中间特征进行首位拼接操作,得到整个待抽取句的上下文特征。
具体包括:
使用双向循环神经网络(BiLSTM)分别对嵌入后的新闻文档、新闻中案件要素和案件描述进行编码,得到新闻、新闻中案件要素和案件描述的浅层语义表征。在每个时间步上,LSTM通过计算上一步的隐层表示ht-1、输入词向量w和长期记忆ct-1得到隐层表示ht和长期记忆ct,具体公式为:(ht,ct)=LSTM(ct-1,ht-1,w)。通过拼接前向和后向的隐状态,得到BiLSTM的隐状态,具体公式为:
Figure BDA0002407450960000031
分别取BiLSTM的正向和反向操作的最终结果拼接作为句子的最终向量表示,即Eg=[H1[:q];Hn[q:]],Eg即为整个待抽取句的上下文特征;
Step7、利用Step6中得到的待抽取句上下文特征进行案件领域相关性预测,得到待抽取句的案件领域预测损失;
具体为:通过将待抽取句的上下文特征Eg传入一个softmax分类器来预测出该句是否与案件领域相关。计算公式为:
Figure BDA0002407450960000032
Figure BDA0002407450960000033
其中
Figure BDA0002407450960000034
即为预测该句是否与案件领域相关的结果;
通过案件领域相关性的预测结果与标注数据计算交叉熵损失,计算公式为:
Figure BDA0002407450960000035
其中Jg是案件领域预测损失,
Figure BDA0002407450960000036
Figure BDA0002407450960000037
表示
Figure BDA0002407450960000038
的取值,例如当
Figure BDA0002407450960000039
为1时,
Figure BDA00024074509600000310
为1,
Figure BDA00024074509600000311
为0;yg-0和yg-1表示标注数据yg的的取值,例如当yg为1时,yg-1为1,yg-0为0。
Step8、利用Step5中得到的候选要素的关系特征和Step6中得到的待抽取句的上下文特征进行案件要素预测,得到要素预测损失;
具体为:通过拼接待抽取句的上下文特征Eg与候选要素的关系特征El,将其作为预测层的输入特征E,计算公式为:E=[Eg;El];
通过将E传入softmax分类器来预测出该组候选要素是否是案件要素;利用案件领域预测损失和要素预测损失进行联合学习提高要素抽取的准确率。计算公式为:
Figure BDA0002407450960000041
Figure BDA0002407450960000042
Figure BDA0002407450960000043
为预测的结果。若
Figure BDA0002407450960000044
为1,即预测该候选要素组是案件要素,否则预测该后续按要素组不是案件要素;
通过案件要素预测的结果与标注数据计算交叉熵损失,计算公式为:
Figure BDA0002407450960000045
其中Jl是案件领域预测损失,
Figure BDA0002407450960000046
Figure BDA0002407450960000047
表示
Figure BDA0002407450960000048
的取值,例如当
Figure BDA0002407450960000049
为1时,
Figure BDA00024074509600000410
为1,
Figure BDA00024074509600000411
为0。y0和y1表示标注数据y的的取值,例如当y为1时,y1为1,y0为0。
Step9、利用Step7中得到的案件领域预测损失和Step8中得到的要素预测损失进行联合学习,得到案件要素抽取模型,利用得到的案件要素抽取模型进行案件要素抽取。
本发明的有益效果是:
本发明实现了针对案件要素的领域性和关联性的联合建模,能准确地抽取出新闻句中的案件要素,为后续案件领域的自然语言处理如文本摘要、文本关联分析等工作提供强有力的支撑。实验表明,该方法可以有效地提升新闻文本中案件要素抽取的准确性。
附图说明
图1为本发明中的流程图;
图2为本发明中的基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取模型图。
具体实施方式
实施例1:如图1-2所示,基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,包括:
Step1、首先从裁判文书网获取法律文书17191篇,利用规则从法律文书中抽取出案件描述句,再通过句法解析工具对案件描述句进行解析,根据词性得到法律文书的案件要素4311组,将其构建为案件要素知识库;
Step2、利用案件要素知识库进行新闻爬取,得到新闻文档3449篇,根据一组案件要素是否共现进行要素标注,再对其进行案件领域相关性标注,得到具有标注的新闻文本语料库6532组候选要素,其中案件要素3312组,非案件要素3220组;
Step3、利用依存句法分析提取待抽取句中核心成分,通过词性与词间的依赖关系进行剪枝,得到候选要素;输入新闻的一句文本为D={w1...wn},其中w为句中的词,经预处理后得到其中的{w*1...w*m}为候选要素集合;
进一步地,所述步骤Step3的具体步骤为:
Step3.1、以整个句子依存句法中的每个动词最为基础,根据词性与依存关系抽取出与其具有依存边的时间、地点、主语及谓语词,没有出现的成分以空值代替。
Step4、对候选要素集合根据两两间是否具有依存关系构成关系矩阵A,若w*i与w*j之间存在依存关系,则Aij=1,否则Aij=0,特别的,Aii=1;
Step5、利用Step3中得到的候选要素集合和Step4中得到的关系矩阵,通过依存关系层对候选要素建模,得到候选要素的关系特征;
具体流程为:为了让词能被计算机表示,首先通过预训练的词向量矩阵,对整个待抽取句中的词与候选要素中的词进行词嵌入,将每个词映射到向量空间中表示;
使用图卷积神经网络(GCN)对候选要素进行建模,在第k层GCN中,节点i的特征向量
Figure BDA0002407450960000051
计算公式为:
Figure BDA0002407450960000052
其中,图卷积神经网络的深度为2,节点数为5,W(k)与b(k)为k层的权重向量与偏置向量,皆为可训练的参数,RELU为激活函数,k=0时h为输入的词向量。在图卷积的最终层通过多层感知机网络将所有节点映射为一个张量El,计算公式为:El=tanh(Wl*G+bl);
其中
Figure BDA0002407450960000053
l为图卷积的深度,tanh为激活函数。El即为候选要素的关系特征;
Step6、通过上下文建模层对整个待抽取句进行建模,得到整个待抽取句的上下文特征;
具体包括:
使用双向循环神经网络(BiLSTM)分别对嵌入后的新闻文档、新闻中案件要素和案件描述进行编码,得到新闻、新闻中案件要素和案件描述的浅层语义表征。在每个时间步上,LSTM通过计算上一步的隐层表示ht-1、输入词向量w和长期记忆ct-1得到隐层表示ht和长期记忆ct,具体公式为:(ht,ct)=LSTM(ct-1,ht-1,w)。通过拼接前向和后向的隐状态,得到BiLSTM的隐状态,具体公式为:
Figure BDA0002407450960000061
分别取BiLSTM的正向和反向操作的最终结果拼接作为句子的最终向量表示,即Eg=[H1[:q];Hn[q:]],Eg即为整个待抽取句的上下文特征;
Step7、利用Step6中得到的待抽取句上下文特征进行案件领域相关性预测,得到待抽取句的案件领域预测损失;
具体为:通过将待抽取句的上下文特征Eg传入一个softmax分类器来预测出该句是否与案件领域相关。计算公式为:
Figure BDA0002407450960000062
Figure BDA0002407450960000063
其中
Figure BDA0002407450960000064
即为预测该句是否与案件领域相关的结果;
通过案件领域相关性的预测结果与标注数据计算交叉熵损失,计算公式为:
Figure BDA0002407450960000065
其中Jg是案件领域预测损失,
Figure BDA0002407450960000066
Figure BDA0002407450960000067
表示
Figure BDA0002407450960000068
的取值,例如当
Figure BDA0002407450960000069
为1时,
Figure BDA00024074509600000610
为1,
Figure BDA00024074509600000611
为0;yg-0和yg-1表示标注数据yg的的取值,例如当yg为1时,yg-1为1,yg-0为0。
Step8、利用Step5中得到的候选要素的关系特征和Step6中得到的待抽取句的上下文特征进行案件要素预测,得到要素预测损失;
具体为:通过拼接待抽取句的上下文特征Eg与候选要素的关系特征El,将其作为预测层的输入特征E,计算公式为:E=[Eg;El];
通过将E传入softmax分类器来预测出该组候选要素是否是案件要素;利用案件领域预测损失和要素预测损失进行联合学习提高要素抽取的准确率。计算公式为:
Figure BDA0002407450960000071
Figure BDA0002407450960000072
Figure BDA0002407450960000073
为预测的结果。若
Figure BDA0002407450960000074
为1,即预测该候选要素组是案件要素,否则预测该后续按要素组不是案件要素;
通过案件要素预测的结果与标注数据计算交叉熵损失,计算公式为:
Figure BDA0002407450960000075
其中Jl是案件领域预测损失,
Figure BDA0002407450960000076
Figure BDA0002407450960000077
表示
Figure BDA0002407450960000078
的取值,例如当
Figure BDA0002407450960000079
为1时,
Figure BDA00024074509600000710
为1,
Figure BDA00024074509600000711
为0。y0和y1表示标注数据y的的取值,例如当y为1时,y1为1,y0为0。
Step9、利用Step7中得到的案件领域预测损失和Step8中得到的要素预测损失进行联合学习,得到案件要素抽取模型,利用得到的案件要素抽取模型进行案件要素抽取。
为了说明本发明的效果,表1为是否使用基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法的效果对比;
表1不同方法的有效性验证结果
Figure BDA00024074509600000712
从表1可以看出,使用基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法时的准确率为82.99%,比不使用案件相关性联合学习的方法高出8.73%,比不使用图卷积建模依存关系的方法高出6.04%。由此可见,基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法能有效学习到待抽取要素的案件领域相关性与其内在的关联性,有利于预测准确率的提升。
上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。

Claims (5)

1.基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,其特征在于:包括:
Step1、利用依存句法分析提取待抽取句中核心成分,构成候选要素集合;
Step2、利用Step1中得到的候选要素之间的依存关系,构成要素间的关系矩阵;
Step3、利用Step1中得到的候选要素集合和Step2中得到的关系矩阵,通过依存关系层对候选要素建模,得到候选要素的关系特征;
Step4、通过上下文建模层对整个待抽取句进行建模,得到整个待抽取句的上下文特征;
Step5、利用Step4中得到的待抽取句上下文特征进行案件领域相关性预测,得到待抽取句的案件领域预测损失;
Step6、利用Step3中得到的候选要素的关系特征和Step4中得到的待抽取句的上下文特征进行案件要素预测,得到要素预测损失;
Step7、利用Step5中得到的案件领域预测损失和Step6中得到的要素预测损失进行联合学习,得到案件要素抽取模型,利用得到的案件要素抽取模型进行案件要素抽取。
2.根据权利要求1所述的基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,其特征在于:所述步骤Step1的具体步骤为:
Step1.1、以整个句子依存句法中的每个动词最为基础,根据词性与依存关系抽取出与其具有依存边的时间、地点、主语及谓语词,没有出现的成分以空值代替。
3.根据权利要求1所述的基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,其特征在于:所述步骤Step2的具体步骤为:
Step2.1、根据候选要素两两间是否具有依存关系填写关系矩阵,有关系则对应位置为1,无关系则对应位置为0,矩阵的对角线为全1。
4.根据权利要求1所述的基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,其特征在于:所述步骤Step3的具体步骤为:
Step3.1利用候选要素集合中的词和Step2中得到的关系矩阵,通过图卷积神经网络对候选要素进行建模,得到依存关系中间层特征;
Step3.2利用Step3.1中得到的依存关系中间层特征,通过多层感知机网络对其进行建模,得到候选要素的关系特征。
5.根据权利要求1所述的基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,其特征在于:所述步骤Step4的具体步骤为:
Step4.1通过双向循环神经网络对整个待抽取句进行建模,得到上下文中间特征;
Step4.2利用Step4.1中得到的上下文中间特征进行首位拼接操作,得到整个待抽取句的上下文特征。
CN202010165910.0A 2020-03-11 2020-03-11 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 Active CN111382333B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010165910.0A CN111382333B (zh) 2020-03-11 2020-03-11 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010165910.0A CN111382333B (zh) 2020-03-11 2020-03-11 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法

Publications (2)

Publication Number Publication Date
CN111382333A true CN111382333A (zh) 2020-07-07
CN111382333B CN111382333B (zh) 2022-06-21

Family

ID=71217377

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010165910.0A Active CN111382333B (zh) 2020-03-11 2020-03-11 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法

Country Status (1)

Country Link
CN (1) CN111382333B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114091450A (zh) * 2021-11-19 2022-02-25 南京通达海科技股份有限公司 一种基于图卷积网络的司法领域关系抽取方法和系统
US11669680B2 (en) 2021-02-02 2023-06-06 International Business Machines Corporation Automated graph based information extraction

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110270604A1 (en) * 2010-04-28 2011-11-03 Nec Laboratories America, Inc. Systems and methods for semi-supervised relationship extraction
CN108628970A (zh) * 2018-04-17 2018-10-09 大连理工大学 一种基于新标记模式的生物医学事件联合抽取方法
CN109800304A (zh) * 2018-12-29 2019-05-24 北京奇安信科技有限公司 案件笔录的处理方法、装置、设备及介质
CN109933801A (zh) * 2019-03-25 2019-06-25 北京理工大学 基于预测位置注意力的双向lstm命名实体识别方法
CN110009257A (zh) * 2019-04-17 2019-07-12 青岛大学 基于城市交通拥堵蔓延分析的多尺度可变窗口元胞自动机模型
CN110147553A (zh) * 2019-05-23 2019-08-20 贵州大学 一种基于案件要素的法律文书分析方法
CN110210019A (zh) * 2019-05-21 2019-09-06 四川大学 一种基于递归神经网络的事件要素抽取方法
CN110276068A (zh) * 2019-05-08 2019-09-24 清华大学 法律案情分析方法及装置
CN110472003A (zh) * 2019-08-08 2019-11-19 东北大学 基于图卷积网络的社交网络文本情感细粒度分类方法
CN110489541A (zh) * 2019-07-26 2019-11-22 昆明理工大学 基于案件要素及BiGRU的涉案舆情新闻文本摘要方法
CN110717332A (zh) * 2019-07-26 2020-01-21 昆明理工大学 基于非对称孪生网络的新闻与案件相似度计算方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110270604A1 (en) * 2010-04-28 2011-11-03 Nec Laboratories America, Inc. Systems and methods for semi-supervised relationship extraction
CN108628970A (zh) * 2018-04-17 2018-10-09 大连理工大学 一种基于新标记模式的生物医学事件联合抽取方法
CN109800304A (zh) * 2018-12-29 2019-05-24 北京奇安信科技有限公司 案件笔录的处理方法、装置、设备及介质
CN109933801A (zh) * 2019-03-25 2019-06-25 北京理工大学 基于预测位置注意力的双向lstm命名实体识别方法
CN110009257A (zh) * 2019-04-17 2019-07-12 青岛大学 基于城市交通拥堵蔓延分析的多尺度可变窗口元胞自动机模型
CN110276068A (zh) * 2019-05-08 2019-09-24 清华大学 法律案情分析方法及装置
CN110210019A (zh) * 2019-05-21 2019-09-06 四川大学 一种基于递归神经网络的事件要素抽取方法
CN110147553A (zh) * 2019-05-23 2019-08-20 贵州大学 一种基于案件要素的法律文书分析方法
CN110489541A (zh) * 2019-07-26 2019-11-22 昆明理工大学 基于案件要素及BiGRU的涉案舆情新闻文本摘要方法
CN110717332A (zh) * 2019-07-26 2020-01-21 昆明理工大学 基于非对称孪生网络的新闻与案件相似度计算方法
CN110472003A (zh) * 2019-08-08 2019-11-19 东北大学 基于图卷积网络的社交网络文本情感细粒度分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
吴文涛 等: "基于混合神经网络的实体和事件联合抽取方法", 《中文信息学报》, vol. 33, no. 8, 15 August 2019 (2019-08-15), pages 77 - 83 *
王华斌 等: "遥感影像要素提取的可变结构卷积神经网络方法", 《测绘学报》, vol. 48, no. 5, 15 May 2019 (2019-05-15), pages 583 - 596 *
赵承鼎: "面向新闻舆情的案件要素抽取及案件相关性分析方法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》, no. 4, 15 April 2021 (2021-04-15), pages 138 - 1008 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11669680B2 (en) 2021-02-02 2023-06-06 International Business Machines Corporation Automated graph based information extraction
CN114091450A (zh) * 2021-11-19 2022-02-25 南京通达海科技股份有限公司 一种基于图卷积网络的司法领域关系抽取方法和系统
CN114091450B (zh) * 2021-11-19 2022-11-18 南京通达海科技股份有限公司 一种基于图卷积网络的司法领域关系抽取方法和系统

Also Published As

Publication number Publication date
CN111382333B (zh) 2022-06-21

Similar Documents

Publication Publication Date Title
CN111310438B (zh) 基于多粒度融合模型的中文句子语义智能匹配方法及装置
CN109271505B (zh) 一种基于问题答案对的问答系统实现方法
CN108984724B (zh) 利用高维表示提高特定属性情感分类准确率方法
CN108519890B (zh) 一种基于自注意力机制的鲁棒性代码摘要生成方法
CN111241294B (zh) 基于依赖解析和关键词的图卷积网络的关系抽取方法
CN113641820B (zh) 基于图卷积神经网络的视角级文本情感分类方法及系统
CN108932342A (zh) 一种语义匹配的方法、模型的学习方法及服务器
CN107273913B (zh) 一种基于多特征融合的短文本相似度计算方法
CN112667818B (zh) 融合gcn与多粒度注意力的用户评论情感分析方法及系统
CN111858932A (zh) 基于Transformer的多重特征中英文情感分类方法及系统
CN111522965A (zh) 一种基于迁移学习的实体关系抽取的问答方法及系统
CN113761893B (zh) 一种基于模式预训练的关系抽取方法
CN117076653B (zh) 基于思维链及可视化提升上下文学习知识库问答方法
CN116097250A (zh) 用于多模式文档理解的布局感知多模式预训练
CN110489554B (zh) 基于位置感知互注意力网络模型的属性级情感分类方法
CN113704546A (zh) 基于空间时序特征的视频自然语言文本检索方法
CN112926337B (zh) 一种结合重构句法信息的端到端方面级情感分析方法
CN112232087A (zh) 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法
CN111382333B (zh) 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法
CN114417851A (zh) 一种基于关键词加权信息的情感分析方法
CN114742071A (zh) 基于图神经网络的汉越跨语言观点对象识别分析方法
CN114841353A (zh) 一种融合句法信息的量子语言模型建模系统及其应用
CN114356990A (zh) 基于迁移学习的基地命名实体识别系统及方法
CN110569355A (zh) 一种基于词块的观点目标抽取和目标情感分类联合方法及系统
CN112749566B (zh) 一种面向英文写作辅助的语义匹配方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant