CN111382333A - 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 - Google Patents
基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 Download PDFInfo
- Publication number
- CN111382333A CN111382333A CN202010165910.0A CN202010165910A CN111382333A CN 111382333 A CN111382333 A CN 111382333A CN 202010165910 A CN202010165910 A CN 202010165910A CN 111382333 A CN111382333 A CN 111382333A
- Authority
- CN
- China
- Prior art keywords
- case
- elements
- candidate
- sentence
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims description 22
- 238000000034 method Methods 0.000 claims abstract description 24
- 238000004458 analytical method Methods 0.000 claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims abstract description 8
- 239000008358 core component Substances 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 14
- 230000002457 bidirectional effect Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 239000000306 component Substances 0.000 claims description 3
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 238000003058 natural language processing Methods 0.000 abstract description 4
- 230000002349 favourable effect Effects 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 description 13
- 125000004432 carbon atom Chemical group C* 0.000 description 8
- 230000004913 activation Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000007787 long-term memory Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000009193 crawling Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明涉及基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,属于自然语言处理技术领域。本发明首先以依存句法分析工具分析待抽取句中的核心成分,构成备选要素组,通过图卷积神经网络对候选要素的依存关系进行特征建模,捕捉到其内在的关联性,再通过对待抽取句进行时序逻辑上的特征建模,学习其案件领域的相关性特征,最后综合候选要素的特征及其所在句的特征判断候选要素是否是一组案件要素。本发明能有效学习到待抽取要素的案件领域相关性与其内在的关联性,有利于预测准确率的提升。
Description
技术领域
本发明涉及基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,属于自然语言处理技术领域。
背景技术
法律领域新闻舆情分析是当前自然语言处理研究的热点问题,新闻文本中的案件要素抽取是法律领域新闻舆情分析的重要环节,是后续案件新闻舆情分析的基础、前提和支柱,其准确率直接影响到多个后续新闻舆情分析的准确与否,例如:情感分类、话题分析、摘要生成等。为了解决后续工作的质量和性能,需要构建高准确率的新闻文本中的案件要素抽取方法。案件要素具有两个特性:案件领域的相关性和案件要素之间的关联性,因此,提出了基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法。
发明内容
本发明提供了基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,以用于充分利用案件要素的案件领域相关性与案件要素之间的关联性,提升了新闻文本中案件要素抽取的准确率。
本发明的技术方案是:基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,包括:
Step1、首先从裁判文书网获取法律文书,利用规则从法律文书中抽取出案件描述句,再通过句法解析工具对案件描述句进行解析,根据词性得到一组该法律文书的案件要素,从而构建案件要素知识库;
Step2、利用案件要素知识库进行新闻爬取,根据一组案件要素是否共现进行要素标注,再对其进行案件领域相关性标注,得到具有标注的新闻文本语料库;
Step3、利用依存句法分析提取待抽取句中核心成分,通过词性与词间的依赖关系进行剪枝,得到候选要素;输入新闻的一句文本为D={w1...wn},其中w为句中的词,经预处理后得到其中的{w*1...w*m}为候选要素集合;
进一步地,所述步骤Step3的具体步骤为:
Step3.1、以整个句子依存句法中的每个动词最为基础,根据词性与依存关系抽取出与其具有依存边的时间、地点、主语及谓语词,没有出现的成分以空值代替。
Step4、对候选要素集合根据两两间是否具有依存关系构成关系矩阵A,其中Aij=1则表示w*i与w*j之间存在依存关系;
进一步地,所述步骤Step4的具体步骤为:
Step4.1、根据候选要素两两间是否具有依存关系填写关系矩阵,有关系则对应位置为1,无关系则对应位置为0,矩阵的对角线为全1。
Step5、利用Step3中得到的候选要素集合和Step4中得到的关系矩阵,通过依存关系层对候选要素建模,得到候选要素的关系特征;
进一步地,所述步骤Step5的具体步骤为:
Step5.1利用候选要素集合中的词和Step4中得到的关系矩阵,通过图卷积神经网络对候选要素进行建模,得到依存关系中间层特征;
Step5.2利用Step5.1中得到的依存关系中间层特征,通过多层感知机网络对其进行建模,得到候选要素的关系特征。
具体流程为:为了让词能被计算机表示,首先通过预训练的词向量矩阵,对整个待抽取句中的词与候选要素中的词进行词嵌入,将每个词映射到向量空间中表示;
其中W(k)与b(k)为k层的权重向量与偏置向量,皆为可训练的参数,RELU为激活函数,k=0时h为输入的词向量。在图卷积的最终层通过多层感知机网络将所有节点映射为一个张量El,计算公式为:El=tanh(Wl*G+bl);
Step6、通过上下文建模层对整个待抽取句进行建模,得到整个待抽取句的上下文特征;
进一步地,所述步骤Step6的具体步骤为:
Step6.1通过双向循环神经网络对整个待抽取句进行建模,得到上下文中间特征;
Step6.2利用Step6.1中得到的上下文中间特征进行首位拼接操作,得到整个待抽取句的上下文特征。
具体包括:
使用双向循环神经网络(BiLSTM)分别对嵌入后的新闻文档、新闻中案件要素和案件描述进行编码,得到新闻、新闻中案件要素和案件描述的浅层语义表征。在每个时间步上,LSTM通过计算上一步的隐层表示ht-1、输入词向量w和长期记忆ct-1得到隐层表示ht和长期记忆ct,具体公式为:(ht,ct)=LSTM(ct-1,ht-1,w)。通过拼接前向和后向的隐状态,得到BiLSTM的隐状态,具体公式为:
分别取BiLSTM的正向和反向操作的最终结果拼接作为句子的最终向量表示,即Eg=[H1[:q];Hn[q:]],Eg即为整个待抽取句的上下文特征;
Step7、利用Step6中得到的待抽取句上下文特征进行案件领域相关性预测,得到待抽取句的案件领域预测损失;
具体为:通过将待抽取句的上下文特征Eg传入一个softmax分类器来预测出该句是否与案件领域相关。计算公式为:
通过案件领域相关性的预测结果与标注数据计算交叉熵损失,计算公式为:
Step8、利用Step5中得到的候选要素的关系特征和Step6中得到的待抽取句的上下文特征进行案件要素预测,得到要素预测损失;
具体为:通过拼接待抽取句的上下文特征Eg与候选要素的关系特征El,将其作为预测层的输入特征E,计算公式为:E=[Eg;El];
通过将E传入softmax分类器来预测出该组候选要素是否是案件要素;利用案件领域预测损失和要素预测损失进行联合学习提高要素抽取的准确率。计算公式为:
通过案件要素预测的结果与标注数据计算交叉熵损失,计算公式为:
Step9、利用Step7中得到的案件领域预测损失和Step8中得到的要素预测损失进行联合学习,得到案件要素抽取模型,利用得到的案件要素抽取模型进行案件要素抽取。
本发明的有益效果是:
本发明实现了针对案件要素的领域性和关联性的联合建模,能准确地抽取出新闻句中的案件要素,为后续案件领域的自然语言处理如文本摘要、文本关联分析等工作提供强有力的支撑。实验表明,该方法可以有效地提升新闻文本中案件要素抽取的准确性。
附图说明
图1为本发明中的流程图;
图2为本发明中的基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取模型图。
具体实施方式
实施例1:如图1-2所示,基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,包括:
Step1、首先从裁判文书网获取法律文书17191篇,利用规则从法律文书中抽取出案件描述句,再通过句法解析工具对案件描述句进行解析,根据词性得到法律文书的案件要素4311组,将其构建为案件要素知识库;
Step2、利用案件要素知识库进行新闻爬取,得到新闻文档3449篇,根据一组案件要素是否共现进行要素标注,再对其进行案件领域相关性标注,得到具有标注的新闻文本语料库6532组候选要素,其中案件要素3312组,非案件要素3220组;
Step3、利用依存句法分析提取待抽取句中核心成分,通过词性与词间的依赖关系进行剪枝,得到候选要素;输入新闻的一句文本为D={w1...wn},其中w为句中的词,经预处理后得到其中的{w*1...w*m}为候选要素集合;
进一步地,所述步骤Step3的具体步骤为:
Step3.1、以整个句子依存句法中的每个动词最为基础,根据词性与依存关系抽取出与其具有依存边的时间、地点、主语及谓语词,没有出现的成分以空值代替。
Step4、对候选要素集合根据两两间是否具有依存关系构成关系矩阵A,若w*i与w*j之间存在依存关系,则Aij=1,否则Aij=0,特别的,Aii=1;
Step5、利用Step3中得到的候选要素集合和Step4中得到的关系矩阵,通过依存关系层对候选要素建模,得到候选要素的关系特征;
具体流程为:为了让词能被计算机表示,首先通过预训练的词向量矩阵,对整个待抽取句中的词与候选要素中的词进行词嵌入,将每个词映射到向量空间中表示;
其中,图卷积神经网络的深度为2,节点数为5,W(k)与b(k)为k层的权重向量与偏置向量,皆为可训练的参数,RELU为激活函数,k=0时h为输入的词向量。在图卷积的最终层通过多层感知机网络将所有节点映射为一个张量El,计算公式为:El=tanh(Wl*G+bl);
Step6、通过上下文建模层对整个待抽取句进行建模,得到整个待抽取句的上下文特征;
具体包括:
使用双向循环神经网络(BiLSTM)分别对嵌入后的新闻文档、新闻中案件要素和案件描述进行编码,得到新闻、新闻中案件要素和案件描述的浅层语义表征。在每个时间步上,LSTM通过计算上一步的隐层表示ht-1、输入词向量w和长期记忆ct-1得到隐层表示ht和长期记忆ct,具体公式为:(ht,ct)=LSTM(ct-1,ht-1,w)。通过拼接前向和后向的隐状态,得到BiLSTM的隐状态,具体公式为:
分别取BiLSTM的正向和反向操作的最终结果拼接作为句子的最终向量表示,即Eg=[H1[:q];Hn[q:]],Eg即为整个待抽取句的上下文特征;
Step7、利用Step6中得到的待抽取句上下文特征进行案件领域相关性预测,得到待抽取句的案件领域预测损失;
具体为:通过将待抽取句的上下文特征Eg传入一个softmax分类器来预测出该句是否与案件领域相关。计算公式为:
通过案件领域相关性的预测结果与标注数据计算交叉熵损失,计算公式为:
Step8、利用Step5中得到的候选要素的关系特征和Step6中得到的待抽取句的上下文特征进行案件要素预测,得到要素预测损失;
具体为:通过拼接待抽取句的上下文特征Eg与候选要素的关系特征El,将其作为预测层的输入特征E,计算公式为:E=[Eg;El];
通过将E传入softmax分类器来预测出该组候选要素是否是案件要素;利用案件领域预测损失和要素预测损失进行联合学习提高要素抽取的准确率。计算公式为:
通过案件要素预测的结果与标注数据计算交叉熵损失,计算公式为:
Step9、利用Step7中得到的案件领域预测损失和Step8中得到的要素预测损失进行联合学习,得到案件要素抽取模型,利用得到的案件要素抽取模型进行案件要素抽取。
为了说明本发明的效果,表1为是否使用基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法的效果对比;
表1不同方法的有效性验证结果
从表1可以看出,使用基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法时的准确率为82.99%,比不使用案件相关性联合学习的方法高出8.73%,比不使用图卷积建模依存关系的方法高出6.04%。由此可见,基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法能有效学习到待抽取要素的案件领域相关性与其内在的关联性,有利于预测准确率的提升。
上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (5)
1.基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,其特征在于:包括:
Step1、利用依存句法分析提取待抽取句中核心成分,构成候选要素集合;
Step2、利用Step1中得到的候选要素之间的依存关系,构成要素间的关系矩阵;
Step3、利用Step1中得到的候选要素集合和Step2中得到的关系矩阵,通过依存关系层对候选要素建模,得到候选要素的关系特征;
Step4、通过上下文建模层对整个待抽取句进行建模,得到整个待抽取句的上下文特征;
Step5、利用Step4中得到的待抽取句上下文特征进行案件领域相关性预测,得到待抽取句的案件领域预测损失;
Step6、利用Step3中得到的候选要素的关系特征和Step4中得到的待抽取句的上下文特征进行案件要素预测,得到要素预测损失;
Step7、利用Step5中得到的案件领域预测损失和Step6中得到的要素预测损失进行联合学习,得到案件要素抽取模型,利用得到的案件要素抽取模型进行案件要素抽取。
2.根据权利要求1所述的基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,其特征在于:所述步骤Step1的具体步骤为:
Step1.1、以整个句子依存句法中的每个动词最为基础,根据词性与依存关系抽取出与其具有依存边的时间、地点、主语及谓语词,没有出现的成分以空值代替。
3.根据权利要求1所述的基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,其特征在于:所述步骤Step2的具体步骤为:
Step2.1、根据候选要素两两间是否具有依存关系填写关系矩阵,有关系则对应位置为1,无关系则对应位置为0,矩阵的对角线为全1。
4.根据权利要求1所述的基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,其特征在于:所述步骤Step3的具体步骤为:
Step3.1利用候选要素集合中的词和Step2中得到的关系矩阵,通过图卷积神经网络对候选要素进行建模,得到依存关系中间层特征;
Step3.2利用Step3.1中得到的依存关系中间层特征,通过多层感知机网络对其进行建模,得到候选要素的关系特征。
5.根据权利要求1所述的基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法,其特征在于:所述步骤Step4的具体步骤为:
Step4.1通过双向循环神经网络对整个待抽取句进行建模,得到上下文中间特征;
Step4.2利用Step4.1中得到的上下文中间特征进行首位拼接操作,得到整个待抽取句的上下文特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010165910.0A CN111382333B (zh) | 2020-03-11 | 2020-03-11 | 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010165910.0A CN111382333B (zh) | 2020-03-11 | 2020-03-11 | 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111382333A true CN111382333A (zh) | 2020-07-07 |
CN111382333B CN111382333B (zh) | 2022-06-21 |
Family
ID=71217377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010165910.0A Active CN111382333B (zh) | 2020-03-11 | 2020-03-11 | 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111382333B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114091450A (zh) * | 2021-11-19 | 2022-02-25 | 南京通达海科技股份有限公司 | 一种基于图卷积网络的司法领域关系抽取方法和系统 |
US11669680B2 (en) | 2021-02-02 | 2023-06-06 | International Business Machines Corporation | Automated graph based information extraction |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110270604A1 (en) * | 2010-04-28 | 2011-11-03 | Nec Laboratories America, Inc. | Systems and methods for semi-supervised relationship extraction |
CN108628970A (zh) * | 2018-04-17 | 2018-10-09 | 大连理工大学 | 一种基于新标记模式的生物医学事件联合抽取方法 |
CN109800304A (zh) * | 2018-12-29 | 2019-05-24 | 北京奇安信科技有限公司 | 案件笔录的处理方法、装置、设备及介质 |
CN109933801A (zh) * | 2019-03-25 | 2019-06-25 | 北京理工大学 | 基于预测位置注意力的双向lstm命名实体识别方法 |
CN110009257A (zh) * | 2019-04-17 | 2019-07-12 | 青岛大学 | 基于城市交通拥堵蔓延分析的多尺度可变窗口元胞自动机模型 |
CN110147553A (zh) * | 2019-05-23 | 2019-08-20 | 贵州大学 | 一种基于案件要素的法律文书分析方法 |
CN110210019A (zh) * | 2019-05-21 | 2019-09-06 | 四川大学 | 一种基于递归神经网络的事件要素抽取方法 |
CN110276068A (zh) * | 2019-05-08 | 2019-09-24 | 清华大学 | 法律案情分析方法及装置 |
CN110472003A (zh) * | 2019-08-08 | 2019-11-19 | 东北大学 | 基于图卷积网络的社交网络文本情感细粒度分类方法 |
CN110489541A (zh) * | 2019-07-26 | 2019-11-22 | 昆明理工大学 | 基于案件要素及BiGRU的涉案舆情新闻文本摘要方法 |
CN110717332A (zh) * | 2019-07-26 | 2020-01-21 | 昆明理工大学 | 基于非对称孪生网络的新闻与案件相似度计算方法 |
-
2020
- 2020-03-11 CN CN202010165910.0A patent/CN111382333B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110270604A1 (en) * | 2010-04-28 | 2011-11-03 | Nec Laboratories America, Inc. | Systems and methods for semi-supervised relationship extraction |
CN108628970A (zh) * | 2018-04-17 | 2018-10-09 | 大连理工大学 | 一种基于新标记模式的生物医学事件联合抽取方法 |
CN109800304A (zh) * | 2018-12-29 | 2019-05-24 | 北京奇安信科技有限公司 | 案件笔录的处理方法、装置、设备及介质 |
CN109933801A (zh) * | 2019-03-25 | 2019-06-25 | 北京理工大学 | 基于预测位置注意力的双向lstm命名实体识别方法 |
CN110009257A (zh) * | 2019-04-17 | 2019-07-12 | 青岛大学 | 基于城市交通拥堵蔓延分析的多尺度可变窗口元胞自动机模型 |
CN110276068A (zh) * | 2019-05-08 | 2019-09-24 | 清华大学 | 法律案情分析方法及装置 |
CN110210019A (zh) * | 2019-05-21 | 2019-09-06 | 四川大学 | 一种基于递归神经网络的事件要素抽取方法 |
CN110147553A (zh) * | 2019-05-23 | 2019-08-20 | 贵州大学 | 一种基于案件要素的法律文书分析方法 |
CN110489541A (zh) * | 2019-07-26 | 2019-11-22 | 昆明理工大学 | 基于案件要素及BiGRU的涉案舆情新闻文本摘要方法 |
CN110717332A (zh) * | 2019-07-26 | 2020-01-21 | 昆明理工大学 | 基于非对称孪生网络的新闻与案件相似度计算方法 |
CN110472003A (zh) * | 2019-08-08 | 2019-11-19 | 东北大学 | 基于图卷积网络的社交网络文本情感细粒度分类方法 |
Non-Patent Citations (3)
Title |
---|
吴文涛 等: "基于混合神经网络的实体和事件联合抽取方法", 《中文信息学报》, vol. 33, no. 8, 15 August 2019 (2019-08-15), pages 77 - 83 * |
王华斌 等: "遥感影像要素提取的可变结构卷积神经网络方法", 《测绘学报》, vol. 48, no. 5, 15 May 2019 (2019-05-15), pages 583 - 596 * |
赵承鼎: "面向新闻舆情的案件要素抽取及案件相关性分析方法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》, no. 4, 15 April 2021 (2021-04-15), pages 138 - 1008 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11669680B2 (en) | 2021-02-02 | 2023-06-06 | International Business Machines Corporation | Automated graph based information extraction |
CN114091450A (zh) * | 2021-11-19 | 2022-02-25 | 南京通达海科技股份有限公司 | 一种基于图卷积网络的司法领域关系抽取方法和系统 |
CN114091450B (zh) * | 2021-11-19 | 2022-11-18 | 南京通达海科技股份有限公司 | 一种基于图卷积网络的司法领域关系抽取方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111382333B (zh) | 2022-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310438B (zh) | 基于多粒度融合模型的中文句子语义智能匹配方法及装置 | |
CN109271505B (zh) | 一种基于问题答案对的问答系统实现方法 | |
CN108984724B (zh) | 利用高维表示提高特定属性情感分类准确率方法 | |
CN108519890B (zh) | 一种基于自注意力机制的鲁棒性代码摘要生成方法 | |
CN111241294B (zh) | 基于依赖解析和关键词的图卷积网络的关系抽取方法 | |
CN113641820B (zh) | 基于图卷积神经网络的视角级文本情感分类方法及系统 | |
CN108932342A (zh) | 一种语义匹配的方法、模型的学习方法及服务器 | |
CN107273913B (zh) | 一种基于多特征融合的短文本相似度计算方法 | |
CN112667818B (zh) | 融合gcn与多粒度注意力的用户评论情感分析方法及系统 | |
CN111858932A (zh) | 基于Transformer的多重特征中英文情感分类方法及系统 | |
CN111522965A (zh) | 一种基于迁移学习的实体关系抽取的问答方法及系统 | |
CN113761893B (zh) | 一种基于模式预训练的关系抽取方法 | |
CN117076653B (zh) | 基于思维链及可视化提升上下文学习知识库问答方法 | |
CN116097250A (zh) | 用于多模式文档理解的布局感知多模式预训练 | |
CN110489554B (zh) | 基于位置感知互注意力网络模型的属性级情感分类方法 | |
CN113704546A (zh) | 基于空间时序特征的视频自然语言文本检索方法 | |
CN112926337B (zh) | 一种结合重构句法信息的端到端方面级情感分析方法 | |
CN112232087A (zh) | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 | |
CN111382333B (zh) | 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 | |
CN114417851A (zh) | 一种基于关键词加权信息的情感分析方法 | |
CN114742071A (zh) | 基于图神经网络的汉越跨语言观点对象识别分析方法 | |
CN114841353A (zh) | 一种融合句法信息的量子语言模型建模系统及其应用 | |
CN114356990A (zh) | 基于迁移学习的基地命名实体识别系统及方法 | |
CN110569355A (zh) | 一种基于词块的观点目标抽取和目标情感分类联合方法及系统 | |
CN112749566B (zh) | 一种面向英文写作辅助的语义匹配方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |