CN115048510A - 基于层级式法律知识与双图联合表示学习的罪名预测方法 - Google Patents
基于层级式法律知识与双图联合表示学习的罪名预测方法 Download PDFInfo
- Publication number
- CN115048510A CN115048510A CN202210147755.9A CN202210147755A CN115048510A CN 115048510 A CN115048510 A CN 115048510A CN 202210147755 A CN202210147755 A CN 202210147755A CN 115048510 A CN115048510 A CN 115048510A
- Authority
- CN
- China
- Prior art keywords
- graph
- knowledge
- semantic
- information
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 239000013598 vector Substances 0.000 claims abstract description 121
- 238000010586 diagram Methods 0.000 claims abstract description 104
- 239000000470 constituent Substances 0.000 claims abstract description 15
- 230000009193 crawling Effects 0.000 claims abstract description 12
- 230000014509 gene expression Effects 0.000 claims abstract description 10
- 238000005516 engineering process Methods 0.000 claims abstract description 9
- 230000007246 mechanism Effects 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims description 24
- 239000011159 matrix material Substances 0.000 claims description 23
- 230000003993 interaction Effects 0.000 claims description 21
- 238000004458 analytical method Methods 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 12
- 238000011176 pooling Methods 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000007812 deficiency Effects 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000012546 transfer Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 2
- 230000009977 dual effect Effects 0.000 claims 1
- 239000013604 expression vector Substances 0.000 abstract description 5
- 239000000284 extract Substances 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 230000006872 improvement Effects 0.000 description 6
- 238000011221 initial treatment Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 241001347978 Major minor Species 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 206010001488 Aggression Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000029087 digestion Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- ZBKIUFWVEIBQRT-UHFFFAOYSA-N gold(1+) Chemical compound [Au+] ZBKIUFWVEIBQRT-UHFFFAOYSA-N 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/313—Selection or weighting of terms for indexing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/268—Morphological analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/027—Frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Software Systems (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Primary Health Care (AREA)
- Technology Law (AREA)
- Animal Behavior & Ethology (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于层级式法律知识与双图联合表示学习的罪名预测方法,主要用于依据案件事实描述对被告自动进行罪名预测,尤其是易混淆罪名的预测,辅助法官判案。本发明首先利用爬虫技术从中国裁判文书网上爬取大量法律文书,并对裁判文书进行初步处理,提取出每份文书的事实描述部分以及对应的判决罪名,构建结构图和语义图,并使用联合图交互得到事实描述的语义表示向量。然后利用爬虫技术爬取所有罪名的构成要件,作为专业法律知识用以区分罪名,并使用双图联合表示学习得到每个罪名知识的语义表示向量。然后利用注意力机制,得到知识感知的事实描述语义向量,最后将其与原事实向量相结合,输入到softmax层得到该事实描述对应的罪名预测结果。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于层级式法律知识与双图联合表示学习的罪名预测方法。
背景技术
近年来,随着自然语言处理技术和人工智能的发展,自助法律服务系统也渐渐建立并完善起来。譬如,可以通过查询寻找相关的法律文书;可以为控诉罪名的预测提供合理的法律条文证明;可以根据用户当前查看的文书,推送相似文书。这些工作为法律从业者提供了很大的便利。另外,自动预测罪名也属于法律服务系统的一部分,对法官来说具有重要意义。
自动预测罪名指的是计算机根据法律文书中的事实描述来自动预测控诉罪名,实现辅助判决,目前已有罪名预测任务的相关工作,然而这些工作仅仅利用案件事实描述中的特征来预测罪名,预测罪名的准确率不够高,尤其在区分易混淆的罪名上表现很差。例如,盗窃罪和抢劫罪,因为盗窃罪和抢劫罪都属于非法占有他人财产,在事实描述上相似度比较高,所以这些工作难以区分。而在法官判案中,易混淆的案例占了一定的比例。因此,罪名预测,尤其是易混淆罪名预测任务显得尤为重要。
通过观察易混淆罪名的构成要件,可以发现不同罪名在这些构成要件上有着明显的区别。例如:盗窃罪的客观要件中指出“窃取是一种通过平和方式将他人占有的财物转移第三人占有的过程,如果手段中含有暴力成分,就不能定盗窃”。而抢劫罪的客观要件中指出“抢劫罪在客观方面表现为行为人对公私财物的所有者、保管者或者守护者当场使用暴力、胁迫或者其他对人身实施强制的方法,强行劫取公私财物的行为”。因此,可以通过判断事实描述中是否出现了暴力行为就可以区分盗窃罪和抢劫罪。因此,本文提出一种新型的罪名预测模型,利用罪名的构成要件作为知识补充,来区分不同的罪名,尤其是易混淆罪名,辅助法官判案。
发明内容
本发明正是针对现有技术中存在的问题,提供一种基于层级式法律知识与双图联合表示学习的罪名预测方法,该技术方案对于提高罪名预测的准确率起到了改进作用,提高了法律从业者的工作效率。
一种本发明解决其技术问题所采用的技术方案是:一种基于层级式法律知识与双图联合表示学习的罪名预测方法。该方法首先利用爬虫技术从中国裁判文书网上爬取大量法律文书,并对裁判文书进行初步处理,提取出每份文书的事实描述部分以及对应的判决罪名。并使用图神经网络将文书中的事实描述分别表示成结构图和语义图,然后通过双图交互模块在图更新过程中共享结构信息和语义信息,最后将结构图的向量表示和语义图的向量表示拼接起来,获得语义丰富的事实表示向量。然后利用爬虫技术爬取所有罪名的构成要件,作为专业法律知识用以区分罪名,并使用双图联合表示学习得到每个罪名知识的语义表示向量。然后利用注意力机制,得到知识感知的事实描述语义向量,最后将其与原事实向量相结合,输入到softmax层得到该事实描述对应的罪名预测结果。
为了实现上述目的,本发明的技术方案如下,一种基于层级式法律知识与双图联合表示学习的罪名预测方法,所述方法包括以下步骤:
步骤1)从网络中爬取海量裁判文书以及所有罪名的构成要件;具体如下:
步骤1)利用Scrapy爬虫框架从中国裁判文书网站上爬取海量的裁判文书,再次利用该爬虫框架从找法网上爬取所有罪名的构成要件,包括客观要件、客体要件、主观要件和主体要件;
步骤2)利用正则表达式对裁判文书进行初步处理,抽取出事实描述部分和判决罪名;
具体如下,
步骤2)分析裁判文书的内容后发现,裁判文书具有固定的数据格式,一般由原告诉称、被告辩称、事实描述、法院观点、裁判结果等几部分组成。基于此,设计正则表达式对裁判文书进行初步处理,抽取出事实描述部分和判决罪名;
步骤3)对所述步骤2)最终得到的事实描述部分,将单词视为节点,利用互信息计算节点之间的边的权重,从而构建结构图,建模事实描述的文本结构信息;通过数据预处理手段(分词、去停用词等)获得单词集,然后将单词视为节点,利用互信息计算节点之间的边的权重,若互信息大于零,则在两个节点之间连接一条边,反之不连接,从而构建出结构图,利用图传播规则更新节点的语义表示向量,最终建模出事实描述的文本结构信息;
步骤4)对所述步骤2)最终得到的事实描述部分,首先使用一种共指解析模型,将指代相同实体的代词替换为其原始实体名称,然后利用依存分析技术抽取出事实描述文本的语义关系,具体来说,将文本中的句子分析成一棵依存句法树,描述各个短语之间的依存关系,即指出词语之间在句法上的搭配关系比如主谓宾关系、介宾关系等,然最后将短语作为语义图中的节点,并根据这些语义依存关系在节点之间连接边,从而构建出语义图,建模事实描述的语义信息;
步骤5)通过双图联合交互过程,交换结构图和语义图的特征信息,并更新各自图中的节点信息,最终得到结构图的向量表示和语义图的向量表示,并拼接获得最终事实描述语义向量;
步骤6)对步骤1)中爬取得到的所有罪名构成要件,将其作为专业法律知识用以区分罪名,并使用一种面向层级罪名知识的异构图表示学习方法得到每个罪名知识的语义表示向量;
步骤7)基于事实描述语义向量和罪名知识语义向量,利用注意力机制,通过知识匹配网络得到知识感知的事实描述语义向量。
步骤8)将知识感知的事实向量与原事实向量相结合,输入到softmax层得到该事实描述对应的罪名预测结果。
作为本发明的一种改进,步骤3)对所述步骤2)最终得到的事实描述部分,将单词视为节点,利用互信息计算节点之间的边的权重,从而构建结构图,建模事实描述的文本结构信息,具体过程如下:对于事实描述部分,首先得到事实描述中每个单词的词向量,然后将其构建成一张图,默认每个单词是一个节点,共有N个节点,每个节点都有自己的特征,这里的特征就是每个单词最初的词向量,设这些节点的特征组成一个N×D维的矩阵X,然后各个节点之间的关系也会形成一个N×N维的矩阵A,称为邻接矩阵,并采用点乘互信息(PMI)来计算图中边的权重,从而可以保留全局单词共现信息,将事实描述文本表示成一张图后,可以有效的获取文本整体上复杂的结构关系。
作为本发明的一种改进,步骤4)中具体过程如下:首先设计一种共指解析模型,将指代相同实体的代词替换为其原始实体名称,然后对事实描述中的每个句子使用双仿射注意力模型的AllenNLP实现来获得它的依存解析树,通过删除不必要的组件、合并连续节点形成完整语义单元来进一步修改该依存解析树,最后,由于每个句子都有自己的依存解析树,需要在不同解析树的相似节点之间添加树间边以建立连接的完整语义图。
作为本发明的一种改进,所述步骤5)具体如下:首先需要更新结构图和语义图中节点的信息,对于结构图来说,针对每个节点,利用拉普拉斯平滑作为传播规则,通过融合该节点相邻节点的信息来更新自身信息,对于语义图来说,由于存在多种语义关系,所以边的类型不尽相同,故采用多关系门控图神经网络编码每种边类型的语义信息;
然后对于结构图和语义图,在每个更新时间步,需要分别计算两个门控—更新门和重置门,来决定有多少信息应该被传递和舍弃;
最后,为了推动结构图和语义图之间的信息共享和交互,本发明利用结构图的更新门和重置门来控制语义图的信息传递,同理,利用语义图的更新门和重置门来控制结构图的信息传递,经过多轮信息传递后,本发明将结构图的单词节点信息与语义图中包含该单词的短语节点信息相联结,最终得到语义丰富的单词节点信息,最后将每个单词节点最终的向量表示通过最大池化层,得到最终的事实描述语义表示向量。
作为本发明的一种改进,所述步骤6)中,设计了一个面向层级罪名知识的双图联合表示学习方法,该方法对词、句子标签和实体之间的相互作用进行建模,由单词层级组件图和文本层级罪名知识图组成,其中,单词层级组件图由包含语义信息的单词图、包含句法结构信息的词性标签图和包含额外知识的实体图组成,用来建模单词层级的语义和句法结构信息,以弥补上下文信息的不足,文本层级罪名知识图以单词层级组件图为基础,通过对单词层级组件图做层级池化,实现动态学习和优;
在单词层级组件图中,对于单词图,首先采用分词工具从罪名要件文本中获得单词,然后利用单词节点的互信息获得单词节点的关联关系,从而构建成图,对于词性标签图,利用NLTK的默认词性标签集对罪名要件文本中的每个单词打上词性标签,同理,使用词性标签节点的互信息获得词性标签节点的关联关系,从而构建成图;对于实体图,采用实体链接将罪名要件文本中的实体链接到NELL知识库中,然后利用余弦相似度计算实体对之间的关联关系,从而构建成图;
在文本层级罪名知识图中,为了有效地传播标签信息,本发明基于对单词层级组件图做层级池化,融合文本中单词的语义信息、词性标签信息以及实体信息,获得罪名知识文本的向量表示,从而动态学习文本层级罪名知识图,使得相同类型罪名之间的标签传播更加有效,
最后,经过多轮迭代训练,获得语义信息和句法信息丰富的罪名知识向量表示。
作为本发明的一种改进,所述步骤7)中,具体过程如下:首先基于事实描述向量和知识表示向量计算注意力矩阵,然后将该注意力矩阵与知识表示向量相乘,获得匹配后的知识表示向量,最后将该匹配后的知识表示向量与事实描述向量拼接起来,获得知识感知的事实描述语义向量。
相对于现有技术,本发明具有如下优点:1)该技术方案考虑到了专业的法律知识(即罪名的构成要件)对于区分不同罪名的影响。现有的罪名预测方法仅仅利用了法律文书中案件事实描述部分的特征来预测罪名,缺少了专业法律知识的辅助,这样预测罪名的准确率不够高,尤其在区分易混淆的罪名上表现很差。经过调研后发现,这些易混淆罪名的法律定义有很大差别,比如盗窃罪和抢劫罪之间的区别就在于抢劫罪采用了暴力手段。因此,引入了专业的法律知识后就能根据这些关键信息区分易混淆罪名。2)本发明在学习犯罪事实的向量表示时,分别构建了结构图和语义图,并提出双图交互的方式共享结构信息和语义信息,从而获得语义更加丰富的文本表示向量,有利于提高罪名预测的准确率。3)本发明设计了一种共指解析模型将指代相同实体的代词替换为其原始实体名称。采用SpanBERT预训练模型获得语义信息丰富的区间跨度向量表示,但是由于不在词汇表中的单词会导致SpanBERT对不同的概念产生相同的跨度表示,从而影响共指解析的效果。为了解决这个问题,本发明提出引入领域知识来丰富跨度表示,使得不同的概念更有区分度。4)本发明设计了一种面向层级罪名知识的异构图表示学习方法。该方法对词、词性标签和实体之间的相互作用进行建模,可以方便地提取罪名知识的语义和句法信息,以弥补上下文信息的不足。其次,罪名知识图是动态学习和优化的,由此使得相同类型罪名之间的标签传播更加有效。经过实验分析证明,本方法提出的基于层级式法律知识与双图联合表示学习的罪名预测方法对于提高罪名预测的准确率起到了改进作用,有利于提高法律从业者的工作效率。
附图说明
图1是本发明的基本过程示意图;
图2是本发明的模型框架图。
图3是本发明的共指解析模型图。
图4是本发明的法律知识层次结构图。
图5是本发明的双图联合表示学习模型架构图。
图6是本发明的知识匹配网络图。
具体实施方式:
为了加深对本发明的理解,下面结合附图对本实施例做详细的说明。
实施例1:参见图1-图6,一种基于层级式法律知识与双图联合表示学习的罪名预测方法,所述方法包括以下步骤:
步骤1)从网络中爬取海量裁判文书以及所有罪名的构成要件;具体如下:
步骤1)利用Scrapy爬虫框架从中国裁判文书网站上爬取海量的裁判文书,再次利用该爬虫框架从找法网上爬取所有罪名的构成要件,包括客观要件、客体要件、主观要件和主体要件;
步骤2)利用正则表达式对裁判文书进行初步处理,抽取出事实描述部分和判决罪名;
具体如下,
步骤2)分析裁判文书的内容后发现,裁判文书具有固定的数据格式,一般由原告诉称、被告辩称、事实描述、法院观点、裁判结果等几部分组成。基于此,设计正则表达式对裁判文书进行初步处理,抽取出事实描述部分和判决罪名;
步骤3)对所述步骤2)最终得到的事实描述部分,将单词视为节点,利用互信息计算节点之间的边的权重,从而构建结构图,建模事实描述的文本结构信息;通过数据预处理手段 (分词、去停用词等)获得单词集,然后将单词视为节点,利用互信息计算节点之间的边的权重,若互信息大于零,则在两个节点之间连接一条边,反之不连接,从而构建出结构图,利用图传播规则更新节点的语义表示向量,最终建模出事实描述的文本结构信息;步骤3) 对所述步骤2)最终得到的事实描述部分,将单词视为节点,利用互信息计算节点之间的边的权重,从而构建结构图,建模事实描述的文本结构信息,具体过程如下:对于事实描述部分,首先得到事实描述中每个单词的词向量,然后将其构建成一张图,默认每个单词是一个节点,共有N个节点,每个节点都有自己的特征,这里的特征就是每个单词最初的词向量,设这些节点的特征组成一个N×D维的矩阵X,然后各个节点之间的关系也会形成一个N×N维的矩阵A,称为邻接矩阵,并采用点乘互信息(PMI)来计算图中边的权重,从而可以保留全局单词共现信息,将事实描述文本表示成一张图后,可以有效的获取文本整体上复杂的结构关系。
步骤4)对所述步骤2)最终得到的事实描述部分,首先使用一种共指解析模型,将指代相同实体的代词替换为其原始实体名称,然后利用依存分析技术抽取出事实描述文本的语义关系,具体来说,将文本中的句子分析成一棵依存句法树,描述各个短语之间的依存关系,即指出词语之间在句法上的搭配关系比如主谓宾关系、介宾关系等,然最后将短语作为语义图中的节点,并根据这些语义依存关系在节点之间连接边,从而构建出语义图,建模事实描述的语义信息;步骤4)中具体过程如下:首先设计一种共指解析模型,将指代相同实体的代词替换为其原始实体名称,然后对事实描述中的每个句子使用双仿射注意力模型的AllenNLP实现来获得它的依存解析树,通过删除不必要的组件、合并连续节点形成完整语义单元来进一步修改该依存解析树,最后,由于每个句子都有自己的依存解析树,需要在不同解析树的相似节点之间添加树间边以建立连接的完整语义图。
步骤5)通过双图联合交互过程,交换结构图和语义图的特征信息,并更新各自图中的节点信息,最终得到结构图的向量表示和语义图的向量表示,并拼接获得最终事实描述语义向量;所述步骤5)具体如下:首先需要更新结构图和语义图中节点的信息,对于结构图来说,针对每个节点,利用拉普拉斯平滑作为传播规则,通过融合该节点相邻节点的信息来更新自身信息,对于语义图来说,由于存在多种语义关系,所以边的类型不尽相同,故采用多关系门控图神经网络编码每种边类型的语义信息;
然后对于结构图和语义图,在每个更新时间步,需要分别计算两个门控—更新门和重置门,来决定有多少信息应该被传递和舍弃;
最后,为了推动结构图和语义图之间的信息共享和交互,本发明利用结构图的更新门和重置门来控制语义图的信息传递,同理,利用语义图的更新门和重置门来控制结构图的信息传递,经过多轮信息传递后,本发明将结构图的单词节点信息与语义图中包含该单词的短语节点信息相联结,最终得到语义丰富的单词节点信息,最后将每个单词节点最终的向量表示通过最大池化层,得到最终的事实描述语义表示向量。
步骤6)对步骤1)中爬取得到的所有罪名构成要件,将其作为专业法律知识用以区分罪名,并使用一种面向层级罪名知识的异构图表示学习方法得到每个罪名知识的语义表示向量;所述步骤6)中,设计了一个面向层级罪名知识的双图联合表示学习方法,该方法对词、句子标签和实体之间的相互作用进行建模,由单词层级组件图和文本层级罪名知识图组成,其中,单词层级组件图由包含语义信息的单词图、包含句法结构信息的词性标签图和包含额外知识的实体图组成,用来建模单词层级的语义和句法结构信息,以弥补上下文信息的不足,文本层级罪名知识图以单词层级组件图为基础,通过对单词层级组件图做层级池化,实现动态学习和优;
在单词层级组件图中,对于单词图,首先采用分词工具从罪名要件文本中获得单词,然后利用单词节点的互信息获得单词节点的关联关系,从而构建成图,对于词性标签图,利用NLTK的默认词性标签集对罪名要件文本中的每个单词打上词性标签,同理,使用词性标签节点的互信息获得词性标签节点的关联关系,从而构建成图;对于实体图,采用实体链接将罪名要件文本中的实体链接到NELL知识库中,然后利用余弦相似度计算实体对之间的关联关系,从而构建成图;
在文本层级罪名知识图中,为了有效地传播标签信息,本发明基于对单词层级组件图做层级池化,融合文本中单词的语义信息、词性标签信息以及实体信息,获得罪名知识文本的向量表示,从而动态学习文本层级罪名知识图,使得相同类型罪名之间的标签传播更加有效,
最后,经过多轮迭代训练,获得语义信息和句法信息丰富的罪名知识向量表示。
步骤7)基于事实描述语义向量和罪名知识语义向量,利用注意力机制,通过知识匹配网络得到知识感知的事实描述语义向量。所述步骤7)中,具体过程如下:首先基于事实描述向量和知识表示向量计算注意力矩阵,然后将该注意力矩阵与知识表示向量相乘,获得匹配后的知识表示向量,最后将该匹配后的知识表示向量与事实描述向量拼接起来,获得知识感知的事实描述语义向量
步骤8)将知识感知的事实向量与原事实向量相结合,输入到softmax层得到该事实描述对应的罪名预测结果。
具体实施例:参见图1,本发明的基于层级式法律知识与双图联合表示学习的罪名预测方法,包括以下几个步骤:
步骤1)从网络中爬取海量裁判文书以及所有罪名的构成要件,详细步骤如下;
本方法以中国裁判文书网的法律文书作为裁判文书的数据来源。
本方法以找法网的构成要件(客观要件、客体要件、主观要件、主体要件)作为罪名构成要件的数据来源。
步骤2)利用正则表达式对裁判文书进行初步处理,抽取出事实描述部分和判决罪名。
抽取的事实描述部分例如“北京市顺义区人民检察院指控:2019年6月18日,被告人黄某准备了作案工具,到被害人任某家中将其杀害。抽取出的判决罪名例如“故意杀人罪”。
步骤3)对所述步骤2)最终得到的事实描述部分,将单词视为节点,利用互信息计算节点之间的边的权重,从而构建结构图,建模事实描述的文本结构信息,具体过程如下:
对于事实描述部分,首先得到事实描述中每个单词的词向量。然后将其构建成一张图,默认每个单词是一个节点,共有N个节点,每个节点都有自己的特征,这里的特征就是每个单词最初的词向量,设这些节点的特征组成一个N×D维的矩阵X。然后各个节点之间的关系也会形成一个N×N维的矩阵A,称为邻接矩阵。并采用点乘互信息(PMI)来计算图中边的权重,从而可以保留全局单词共现信息。
将事实描述文本表示成一张图后,可以有效的获取文本整体上复杂的结构关系。
步骤4)对所述步骤2)最终得到的事实描述部分,将短语作为节点,利用依存分析技术抽取事实描述文本的语义关系,从而构建语义图,建模事实描述的语义信息,具体过程如下:
首先本发明设计了一种共指解析模型,具体架构如图3所示,将指代相同实体的代词替换为其原始实体名称。然后对事实描述中的每个句子使用双仿射注意力模型的AllenNLP 实现来获得它的依存解析树。通过删除不必要的组件(例如标点符号)、合并连续节点形成完整语义单元来进一步修改该依存解析树。最后,由于每个句子都有自己的依存解析树,需要在不同解析树的相似节点之间添加树间边以建立连接的完整语义图。
关于共指解析模型,其目的是确定一篇文本中包含的一系列共指簇,每个共指簇中包含指代同一个实体的多个区间跨度。因此,首先需要确定区间跨度是否是mention,然后再确定该mention指代的先行语。因此,实现共指解析的关键在于获得语义信息丰富的区间跨度向量表示,从而选择一组候选mention,并从给定mention的候选中选择一个先行语。
在表示区间跨度向量时,本发明采用了SpanBERT预训练模型,该模型与BERT模型不同,不再对随机的单个token添加掩码,而是对随机对邻接短语添加掩码。通过加入区间跨度边界训练目标,使用区间跨度边界的表示来预测被添加掩码的区间跨度内容。由于区间跨度的边界包含一定的上下文信息,所以区间跨度向量表示hi由该区间跨度的起始单词表示xSTART(i)、终止单词表示xEND(i)、区间跨度中所有单词的注意力向量表示以及长度特征组成,即:
然后将这些区间跨度表示输入到一个端到端的共指解析模型中,利用前馈神经网络对第 i个区间跨度计算mention得分sm(i),表示这个区间跨度是mention的可能性。并根据得分高低获得候选mention集合。计算公式如下:
sm(i,j)=ωm·FFNNm(hi)
将区间跨度表示两两组合,利用公式计算每对区间跨度表示hi,hj的先行语得分,表示hi是hj的先行语的可能性,也就是使用hi消解hj的可能性。计算公式如下,其中表示这两个区间跨度的距离编码得到的特征向量:
那么每对区间跨度表示的共指解析得分是由先行语得分sa(i,j)和每个区间跨度表示的 mention得分sm(i,j)组成。最终通过softmax层计算得到给定区间跨度所有可能的先行语的得分P(y),从而确定其先行词,达到共指解析的目的。其相应的共指解析损失函数CL计算方式如下,GOLD(i)表示包含跨度i的共指簇:
另外,由于不在词汇表中的单词会导致SpanBERT对不同的概念产生相同的跨度表示,从而影响共指解析的效果。为了解决这个问题,本发明提出引入领域知识来丰富跨度表示,使得不同的概念更有区分度。本发明将知识分成若干个概念类别,用于匹配共指解析簇。
通常来说,指代同一先行语的跨度表示的相似度较高,映射到向量空间,它们的距离也十分相近。因此,本发明定义了一个概念知识距离矩阵,利用共指解析信息和概念知识计算得到两个区间跨度表示的距离,计算公式如下:
dl(si,sj)=αcdc(si,sj)+αkdk(si,sj)
αc和αk表示训练权重,l表示si和sj同属的文档,当两个跨度si和sj不相关时,dc(si,sj)=1,反之为0。同理,当连个跨度不属于同一知识概念时,dk(si,sj)=1,反之为0。
在训练过程中,本发明引入了另一种损失函数RL,用来指导跨度对的表示学习以满足基于知识的距离函数dT(si,sj)。
其中,|rl|表示文档l中包含的跨度对个数,d是余弦距离。
另外,本发明还设计了一种辅助损失函数SL,用来将全局知识编码到跨度表示中。针对每个跨度,首先计算其在所有概念上的概率分布:
p(si∈C|hi)=softmaxc(wc·hi)
其中,wc表示与概念C相关的参数向量。辅助损失函数SL公式如下:
最终的训练损失函数由各个损失函数加权求和而成,计算如下:
L=β1CL+β2RL+β3SL。
步骤5)通过双图联合交互过程,交换结构图和语义图的特征信息,并更新各自图中的节点信息,最终得到结构图的向量表示和语义图的向量表示,具体过程如下:
(1)信息传递
基于上述步骤,已经获得结构图和语义图的初始节点表示。需要通过信息传递更新每张图的节点表示向量。
对于结构图,其采用的信息传播规则采用的是拉普拉斯平滑原理。每个节点的新特征是根据其与其邻居节点的特征加权平均值计算的,然后进行线性变换。此外,每个节点都可以收集并整合来自相邻节点的消息以更新其表示,传播公式为:
对于语义图,由于存在多种语义关系,所以边的类型不尽相同,故采用多关系门控图神经网络编码每种边类型的语义信息。由于针对每个节点,相邻节点的重要程度不一样,所以采用注意力机制动态建模相邻节点的权重,从而更新该节点信息。
(2)门控计算
(3)信息交互
为了推动结构图和语义图之间的信息共享和交互,本发明利用结构图的更新门和重置门来控制语义图的信息传递。同理,利用语义图的更新门和重置门来控制结构图的信息传递。具体来说,由于结构图中将每个单词作为一个节点,而语义图中将每个短语作为一个节点,因此对于结构图中的每个单词节点,采用其对应的语义图中短语节点的更新门和重置门来控制该单词节点的信息交互。而对于语义图中的每个短语节点,采用其包含的结构图中若干个单词节点的更新门和重置门的均值来控制该短语节点的信息交互。信息交互后的节点表示计算如下:
经过T轮信息交互后,本发明将结构图的单词节点信息与语义图中包含该单词的短语节点信息相联结,最终得到语义丰富的单词节点信息。最后将每个单词节点最终的向量表示通过最大池化层,得到最终的事实描述语义表示向量计算过程如下:
其中,s是隐状态的维度。
步骤6)对步骤1)中爬取得到的所有罪名构成要件,将其作为专业法律知识用以区分罪名,为了完全利用同一类型的罪名节点之间的相互作用,本发明设计了一种面向层级罪名知识的异构图表示学习方法。该方法对词、词性标签和实体之间的相互作用进行建模,可以方便地提取罪名知识的语义和句法信息,以弥补上下文信息的不足。其次,罪名知识图是动态学习和优化的,由此使得相同类型罪名之间的标签传播更加有效。
本发明抽取出的法律知识层次结构如图4所示。每个罪名的构成要件由四部分组成—客观要件、客体要件、主观要件和主体要件,所以首先使用异构图表示获得每个罪名知识的语义表示向量。然后采用编码器对该罪名所属的类别进行编码,获得类别语义向量。最后将罪名语义向量与类别语义向量相联接,通过全连接层获得语义信息丰富的罪名知识语义向量。
面向层级罪名知识的异构图表示学习如图5所示,由单词层级组件图和文本层级罪名知识图组成。其中,单词层级组件图由包含语义信息的单词图、包含句法结构信息的词性标签图和包含额外知识的实体图组成,用来建模单词层级的语义和句法结构信息,以弥补上下文信息的不足。文本层级罪名知识图以单词层级组件图为基础,通过对单词层级组件图做层级池化,实现动态学习和优化。
在单词层级组件图中,对于单词图,首先采用分词工具从罪名要件文本中获得单词,然后利用单词节点的互信息获得单词节点的关联关系,从而构建成图。对于词性标签图,利用NLTK的默认词性标签集对罪名要件文本中的每个单词打上词性标签,同理,使用词性标签节点的互信息获得词性标签节点的关联关系,从而构建成图。对于实体图,采用实体链接将罪名要件文本中的实体链接到NELL知识库中,然后利用余弦相似度计算实体对之间的关联关系,从而构建成图。
在文本层级罪名知识图中,为了有效地传播标签信息,本发明基于对单词层级组件图做层级池化,融合文本中单词的语义信息、词性标签信息以及实体信息,获得罪名知识文本的向量表示,从而动态学习文本层级罪名知识图,使得相同类型罪名之间的标签传播更加有效。
最后,经过多轮迭代训练,获得语义信息和句法信息丰富的罪名知识向量表示。
步骤7)基于事实描述语义向量和罪名知识语义向量,利用注意力机制,通过知识匹配网络选取与犯罪事实有关的知识,得到知识感知的事实描述语义向量。具体过程如下:
该知识匹配网络架构如图6所示,首先基于事实描述向量和知识表示向量计算注意力矩阵,然后将该注意力矩阵与知识表示向量相乘,获得匹配后的知识表示向量,最后将该匹配后的知识表示向量与事实描述向量拼接起来,获得知识感知的事实描述语义向量。
步骤8)将知识感知的事实向量与原事实向量相结合,输入到softmax层得到该事实描述对应的罪名预测结果。
需要说明的是上述实施例,并非用来限定本发明的保护范围,在上述技术方案的基础上所作出的等同变换或替代均落入本发明权利要求所保护的范围。
Claims (10)
1.一种基于层级式法律知识与双图联合表示学习的罪名预测方法,其特征在于,所述方法包括以下步骤:
步骤1)利用Scrapy爬虫框架从中国裁判文书网站上爬取海量的裁判文书,再次利用该爬虫框架从找法网上爬取所有罪名的构成要件,包括客观要件、客体要件、主观要件和主体要件;
步骤2)分析裁判文书的内容后发现,裁判文书具有固定的数据格式,一般由原告诉称、被告辩称、事实描述、法院观点、裁判结果等几部分组成,基于此,设计正则表达式对裁判文书进行初步处理,抽取出事实描述部分和判决罪名;
步骤3)对所述步骤2)最终得到的事实描述部分,将单词视为节点,利用互信息计算节点之间的边的权重,从而构建结构图,建模事实描述的文本结构信息;
步骤4)对所述步骤2)最终得到的事实描述部分,首先使用一种共指解析模型,将指代相同实体的代词替换为其原始实体名称,然后利用依存分析技术抽取出事实描述文本的语义关系;
步骤5)通过双图联合交互过程,交换结构图和语义图的特征信息,并更新各自图中的节点信息,最终得到结构图的向量表示和语义图的向量表示,并拼接获得最终事实描述语义向量;
步骤6)对步骤1)中爬取得到的所有罪名构成要件,将其作为专业法律知识用以区分罪名,并使用一种面向层级罪名知识的异构图表示学习方法得到每个罪名知识的语义表示向量;
步骤7)基于事实描述语义向量和罪名知识语义向量,利用注意力机制,通过知识匹配网络得到知识感知的事实描述语义向量;
步骤8)将知识感知的事实向量与原事实向量相结合,输入到softmax层得到该事实描述对应的罪名预测结果。
2.根据权利要求1所述的基于层级式法律知识与双图联合表示学习的罪名预测方法,其特征在于,步骤3)对所述步骤2)最终得到的事实描述部分,通过数据预处理手段(分词、去停用词等)获得单词集,然后将单词视为节点,利用互信息计算节点之间的边的权重,若互信息大于零,则在两个节点之间连接一条边,反之不连接,从而构建出结构图,利用图传播规则更新节点的语义表示向量,最终建模出事实描述的文本结构信息。
3.根据权利要求2所述的基于层级式法律知识与双图联合表示学习的罪名预测方法,其特征在于,步骤3)对所述步骤2)最终得到的事实描述部分,将单词视为节点,利用互信息计算节点之间的边的权重,从而构建结构图,建模事实描述的文本结构信息,具体过程如下:对于事实描述部分,首先得到事实描述中每个单词的词向量,然后将其构建成一张图,默认每个单词是一个节点,共有N个节点,每个节点都有自己的特征,这里的特征就是每个单词最初的词向量,设这些节点的特征组成一个N×D维的矩阵X,然后各个节点之间的关系也会形成一个N×N维的矩阵A,称为邻接矩阵,并采用点乘互信息(PMI)来计算图中边的权重,从而可以保留全局单词共现信息,将事实描述文本表示成一张图后,有效的获取文本整体上复杂的结构关系。
4.根据权利要求1所述的基于层级式法律知识与双图联合表示学习的罪名预测方法,其特征在于,步骤4)中,具体来说,将文本中的句子分析成一棵依存句法树,描述各个短语之间的依存关系,即指出词语之间在句法上的搭配关系比如主谓宾关系、介宾关系等,然最后将短语作为语义图中的节点,并根据这些语义依存关系在节点之间连接边,从而构建出语义图,建模事实描述的语义信息。
5.根据权利要求1所述的基于层级式法律知识与双图联合表示学习的罪名预测方法,其特征在于,步骤4)中具体过程如下:首先设计一种共指解析模型,将指代相同实体的代词替换为其原始实体名称,然后对事实描述中的每个句子使用双仿射注意力模型的AllenNLP实现来获得它的依存解析树,通过删除不必要的组件、合并连续节点形成完整语义单元来进一步修改该依存解析树,最后,由于每个句子都有自己的依存解析树,需要在不同解析树的相似节点之间添加树间边以建立连接的完整语义图。
6.根据权利要求1所述的基于层级式法律知识与双图联合表示学习的罪名预测方法,其特征在于,所述步骤5)中,首先需要更新结构图和语义图中节点的信息,对于结构图来说,针对每个节点,利用拉普拉斯平滑作为传播规则,通过融合该节点相邻节点的信息来更新自身信息,对于语义图来说,由于存在多种语义关系,所以边的类型不尽相同,故采用多关系门控图神经网络编码每种边类型的语义信息,由于针对每个节点,相邻节点的重要程度不一样,所以采用注意力机制动态建模相邻节点的权重,从而更新该节点信息,对于结构图和语义图,在每个更新时间步,需要分别计算两个门控—更新门和重置门,来决定有多少信息应该被传递和舍弃。
7.根据权利要求1所述的基于层级式法律知识与双图联合表示学习的罪名预测方法,其特征在于,所述步骤5)中,为了推动结构图和语义图之间的信息共享和交互,利用结构图的更新门和重置门来控制语义图的信息传递,同理,利用语义图的更新门和重置门来控制结构图的信息传递,经过多轮信息传递后,将结构图的单词节点信息与语义图中包含该单词的短语节点信息相联结,最终得到语义丰富的单词节点信息,最后将每个单词节点最终的向量表示通过最大池化层,得到最终的事实描述语义表示向量。
8.根据权利要求2所述的基于层级式法律知识与双图联合表示学习的罪名预测方法,其特征在于,所述步骤6)中,对步骤1)中爬取得到的所有罪名构成要件,将其作为专业法律知识用以区分罪名,在法律知识构建的过程中,现有的方法一般将知识中的每条信息当作个体储存处理,而本发明考虑到了知识之间的类别关系,譬如“抢劫罪”、“盗窃罪”和“绑架罪”分别由四个构成要件组成—客观要件、客体要件、主观要件和主体要件,而它们又同属于“财产侵占罪”这一类别,因此在构建法律知识时,不仅抽取了罪名的构成要件,还抽取了他们的所属类别,从而挖掘出罪名之间的层级关系,构建了法律知识层级图,那么在进行罪名知识表示时,就能利用其所属类别信息,丰富罪名的语义表示。
9.根据权利要求2所述的基于层级式法律知识与双图联合表示学习的罪名预测方法,其特征在于,所述步骤6)中,设计了一个面向层级罪名知识的双图联合表示学习方法,该方法对词、句子标签和实体之间的相互作用进行建模,由单词层级组件图和文本层级罪名知识图组成,其中,单词层级组件图由包含语义信息的单词图、包含句法结构信息的词性标签图和包含额外知识的实体图组成,用来建模单词层级的语义和句法结构信息,以弥补上下文信息的不足,文本层级罪名知识图以单词层级组件图为基础,通过对单词层级组件图做层级池化,实现动态学习和优化;
在单词层级组件图中,对于单词图,首先采用分词工具从罪名要件文本中获得单词,然后利用单词节点的互信息获得单词节点的关联关系,从而构建成图,对于词性标签图,利用NLTK的默认词性标签集对罪名要件文本中的每个单词打上词性标签,同理,使用词性标签节点的互信息获得词性标签节点的关联关系,从而构建成图;对于实体图,采用实体链接将罪名要件文本中的实体链接到NELL知识库中,然后利用余弦相似度计算实体对之间的关联关系,从而构建成图;
在文本层级罪名知识图中,为了有效地传播标签信息,本发明基于对单词层级组件图做层级池化,融合文本中单词的语义信息、词性标签信息以及实体信息,获得罪名知识文本的向量表示,从而动态学习文本层级罪名知识图,使得相同类型罪名之间的标签传播更加有效,
最后,经过多轮迭代训练,获得语义信息和句法信息丰富的罪名知识向量表示。
10.根据权利要求2所述的基于层级式法律知识与双图联合表示学习的罪名预测方法,其特征在于,所述步骤7)中,具体过程如下:首先基于事实描述向量和知识表示向量计算注意力矩阵,然后将该注意力矩阵与知识表示向量相乘,获得匹配后的知识表示向量,最后将该匹配后的知识表示向量与事实描述向量拼接起来,获得知识感知的事实描述语义向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210147755.9A CN115048510A (zh) | 2022-02-17 | 2022-02-17 | 基于层级式法律知识与双图联合表示学习的罪名预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210147755.9A CN115048510A (zh) | 2022-02-17 | 2022-02-17 | 基于层级式法律知识与双图联合表示学习的罪名预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115048510A true CN115048510A (zh) | 2022-09-13 |
Family
ID=83158126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210147755.9A Pending CN115048510A (zh) | 2022-02-17 | 2022-02-17 | 基于层级式法律知识与双图联合表示学习的罪名预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115048510A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116187419A (zh) * | 2023-04-25 | 2023-05-30 | 中国科学技术大学 | 一种基于文本组块的层级体系自动构建方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110162787A (zh) * | 2019-05-05 | 2019-08-23 | 西安交通大学 | 一种基于主题信息的类别预测方法及装置 |
CN110889786A (zh) * | 2019-12-02 | 2020-03-17 | 北明软件有限公司 | 一种基于lstm技术的法律诉讼被告人保全用审判服务方法 |
CN111985680A (zh) * | 2020-07-10 | 2020-11-24 | 昆明理工大学 | 基于胶囊网络与时序的刑事多罪名预测方法 |
WO2021164226A1 (zh) * | 2020-02-20 | 2021-08-26 | 平安科技(深圳)有限公司 | 法律案件知识图谱查询方法、装置、设备及存储介质 |
-
2022
- 2022-02-17 CN CN202210147755.9A patent/CN115048510A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110162787A (zh) * | 2019-05-05 | 2019-08-23 | 西安交通大学 | 一种基于主题信息的类别预测方法及装置 |
CN110889786A (zh) * | 2019-12-02 | 2020-03-17 | 北明软件有限公司 | 一种基于lstm技术的法律诉讼被告人保全用审判服务方法 |
WO2021164226A1 (zh) * | 2020-02-20 | 2021-08-26 | 平安科技(深圳)有限公司 | 法律案件知识图谱查询方法、装置、设备及存储介质 |
CN111985680A (zh) * | 2020-07-10 | 2020-11-24 | 昆明理工大学 | 基于胶囊网络与时序的刑事多罪名预测方法 |
Non-Patent Citations (1)
Title |
---|
刘晨;李兵;吴卫星;: "基于罪名相关成分标注的刑事裁判文书概要信息提取", 山东科技大学学报(自然科学版), no. 04, 25 June 2018 (2018-06-25), pages 97 - 106 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116187419A (zh) * | 2023-04-25 | 2023-05-30 | 中国科学技术大学 | 一种基于文本组块的层级体系自动构建方法 |
CN116187419B (zh) * | 2023-04-25 | 2023-08-29 | 中国科学技术大学 | 一种基于文本组块的层级体系自动构建方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Content attention model for aspect based sentiment analysis | |
Zhang et al. | A deep neural network-based method for deep information extraction using transfer learning strategies to support automated compliance checking | |
Xia et al. | Distantly supervised lifelong learning for large-scale social media sentiment analysis | |
CN110110061B (zh) | 基于双语词向量的低资源语种实体抽取方法 | |
Deng et al. | Sparse self-attention LSTM for sentiment lexicon construction | |
CN112612940A (zh) | 地址信息解析方法、装置、设备及存储介质 | |
CN116204674B (zh) | 一种基于视觉概念词关联结构化建模的图像描述方法 | |
CN113742733B (zh) | 阅读理解漏洞事件触发词抽取和漏洞类型识别方法及装置 | |
CN115796182A (zh) | 一种基于实体级跨模态交互的多模态命名实体识别方法 | |
CN114880427A (zh) | 基于多层级注意力机制的模型、事件论元抽取方法及系统 | |
CN115048510A (zh) | 基于层级式法律知识与双图联合表示学习的罪名预测方法 | |
Pu et al. | Lexical knowledge enhanced text matching via distilled word sense disambiguation | |
CN113158659B (zh) | 一种基于司法文本的涉案财物计算方法 | |
An et al. | Resource mention extraction for MOOC discussion forums | |
CN112069825B (zh) | 面向警情笔录数据的实体关系联合抽取方法 | |
CN111563374B (zh) | 一种基于司法裁判文书的人员社交关系抽取方法 | |
CN116522165B (zh) | 一种基于孪生结构的舆情文本匹配系统及方法 | |
CN110413796A (zh) | 一种煤矿典型动力灾害领域本体构建方法 | |
WO2023137918A1 (zh) | 文本数据的分析方法、模型训练方法、装置及计算机设备 | |
CN115878800A (zh) | 一种融合共现图和依赖关系图的双图神经网络及其构建方法 | |
CN116186241A (zh) | 基于语义学分析与提示学习的事件要素抽取方法、装置、电子设备及存储介质 | |
CN116956869A (zh) | 文本标准化方法、装置、电子设备及存储介质 | |
CN115169285A (zh) | 一种基于图解析的事件抽取方法及系统 | |
CN115098687A (zh) | 面向电力sdh光传输系统调度运行的告警排查方法及装置 | |
CN113961715A (zh) | 实体链接方法、装置、设备、介质及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |