CN117131438B - 诉讼文件分析方法、模型训练方法、装置、设备及介质 - Google Patents
诉讼文件分析方法、模型训练方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN117131438B CN117131438B CN202311406230.3A CN202311406230A CN117131438B CN 117131438 B CN117131438 B CN 117131438B CN 202311406230 A CN202311406230 A CN 202311406230A CN 117131438 B CN117131438 B CN 117131438B
- Authority
- CN
- China
- Prior art keywords
- sample
- vertex
- hypergraph
- vertexes
- litigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000012549 training Methods 0.000 title claims abstract description 48
- 238000004458 analytical method Methods 0.000 title claims abstract description 39
- 239000013598 vector Substances 0.000 claims abstract description 166
- 239000011159 matrix material Substances 0.000 claims description 41
- 238000003860 storage Methods 0.000 claims description 24
- 238000005516 engineering process Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 10
- 238000009826 distribution Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 13
- 238000012545 processing Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000009412 basement excavation Methods 0.000 description 1
- 238000013398 bayesian method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/041—Abduction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services; Handling legal documents
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本申请涉及人工智能技术领域,公开一种诉讼文件分析方法、训练方法、装置、设备及介质。该分析方法包括:使用诉讼文件和目标实体作为顶点和基于顶点之间的关联性构建的超边构建诉讼超图;基于顶点之间以及顶点与超边之间的关联程度,使用超图卷积网络模型提取顶点的法律属性特征,得到顶点特征向量;基于贝叶斯推断,使用最大后验概率对顶点特征向量进行法律属性推断,得到预测标签;根据预测标签的法律属性确定预测标签之间的关联信息,使用预测标签和预测标签之间的关联信息构建关系信息链。本申请实施例可以提升提取诉讼文件中各种法律信息之间的关联和依赖关系的效率和准确率。
Description
技术领域
本申请涉及人工智能技术领域,尤其是一种诉讼文件分析方法、训练方法、装置、设备及介质。
背景技术
司法机构面临各种类型案件的诉讼文件时,由于诉讼文件的内容较为冗长且用词较为晦涩难懂,很难快速从诉讼文件中准确提取诉讼文件中各种法律信息之间的关联和依赖关系。因此,对法律信息的优化处理和管理对于提高司法效率及公正性具有重要的意义。
目前,对于诉讼文件的法律信息的处理和分析方法依赖人工操作,通过摘取主要信息段落或者句子,然后进行实体标注和句法分析。然而,句法分析需要分析整个段落或者句子的语义和结构,分析的效率和准确率低下。
发明内容
本申请的目的是提供一种诉讼文件分析方法、训练方法、装置、设备及介质,旨在提升提取诉讼文件中各种法律信息之间的关联和依赖关系的效率和准确率。
本申请实施例提供一种诉讼文件分析方法,包括:
以诉讼文件和诉讼文件中的目标实体作为顶点,基于顶点之间的关联性构建超边,使用顶点和超边构建诉讼超图;所述目标实体为诉讼文件中与诉讼案件相关的实体;
使用训练好的超图卷积网络模型对诉讼超图进行信息传播和特征学习,得到顶点特征向量;
基于贝叶斯推断,计算顶点特征向量属于预设的法律属性标签的后验概率,使用最大后验概率对顶点特征向量进行法律属性推断,以预测顶点特征向量对应的法律属性标签,得到预测标签;
根据预测标签的法律属性确定预测标签之间的关联信息,使用预测标签和预测标签之间的关联信息构建关系信息链。
在一些实施例中,所述以诉讼文件和诉讼文件中的目标实体作为顶点,基于顶点之间的关联性构建超边,使用顶点和超边构建诉讼超图,包括:
识别诉讼文件中的目标实体,以构建顶点集和超边集;
对诉讼文件的文本内容进行信息提取,将提取得到的关键信息对应分配至顶点和超边,分别作为顶点的特征向量和超边的特征向量;
利用超图嵌入方法将顶点映射至嵌入空间,利用训练好的嵌入向量替代原先顶点的特征向量,得到顶点的嵌入向量;
计算超边的特征向量和对应顶点的嵌入向量的点积,得到超边的权重;
使用顶点的嵌入向量更新顶点集,使用超边的权重更新超边集,使用更新后的顶点集和超边集构建诉讼超图。
在一些实施例中,所述使用训练好的超图卷积网络模型对诉讼超图进行信息传播和特征学习,得到顶点特征向量,包括:
将诉讼超图的邻接矩阵和度矩阵输入预先训练好的超图卷积网络模型,进行逐层图卷积操作,对最后一次图卷积操作的输出结果进行法律属性分类,得到每个顶点的顶点特征向量;
所述超图卷积网络模型由多个超图卷积层以及位于最后一个全连接层堆叠而成;
所述超图卷积层的计算公式为:
,
其中,H(l+1)为第l+1个超图卷积层的输出结果,σ为非线性激活函数,D为度矩阵,A为邻接矩阵,H(l)为第l个超图卷积层的输出结果,W(l)为第l个超图卷积层的权重参数矩阵,l=1,2,3,...,L,L为超图卷积层的数量;
所述顶点特征向量的计算公式为:
,
其中,F为顶点特征向量,H(L)为第L个超图卷积层的输出结果,W(L)为全连接层的权重矩阵。
在一些实施例中,所述基于贝叶斯推断,计算顶点特征向量属于预设的法律属性标签的后验概率,使用最大后验概率对顶点特征向量进行法律属性推断,以预测顶点特征向量对应的法律属性标签,得到预测标签,包括:
根据法律属性标签的历史概率确定顶点特征向量属于对应法律属性标签的先验概率;
设定顶点特征向量关于法律属性标签的条件概率分布;
使用先验概率、条件概率分布和顶点特征向量的边缘概率计算顶点特征向量属于对应法律属性标签的后验概率,以最大后验概率对应的法律属性标签作为顶点特征向量的预测标签。
在一些实施例中,所述根据预测标签的法律属性确定预测标签之间的关系,基于预测标签和预测标签之间的关联构建关系信息链,包括:
使用预测标签构成标签集;
基于预设的法律属性关联规则,根据预测标签的法律属性构建表示预测标签之间的关系的关系集;
基于标签集和关系集构建关系信息链并进行可视化显示。
本申请实施例还提供一种超图卷积网络模型训练方法,包括:
以样本文件和样本文件中的目标实体作为样本顶点,基于样本顶点之间的关联性构建样本超边,使用样本顶点和样本超边构建样本超图;
获取待训练的超图卷积网络模型;
使用待训练的超图卷积网络模型对样本超图进行信息传播和特征学习,得到样本顶点特征向量;
基于贝叶斯推断,计算样本顶点特征向量属于预设的法律属性标签的后验概率,使用最大后验概率对样本顶点特征向量进行法律属性推断,以预测样本顶点特征向量对应的法律属性标签,得到样本预测标签;
确定样本顶点对应的法律属性标签,得到真实标签;
基于样本预测标签与真实标签,确定模型损失信息;所述模型损失信息用于表征样本预测标签与样本顶点之间的法律属性匹配程度;
基于模型损失信息调整待训练的超图卷积网络模型的权重参数,在模型损失信息符合结束条件时,得到训练好的超图卷积网络模型。
本申请实施例还提供一种诉讼文件分析装置,包括:
第一模块,用于以诉讼文件和诉讼文件中的目标实体作为顶点,基于顶点之间的关联性构建超边,使用顶点和超边构建诉讼超图;所述目标实体为诉讼文件中与诉讼案件相关的实体;
第二模块,用于使用训练好的超图卷积网络模型对诉讼超图进行信息传播和特征学习,得到顶点特征向量;
第三模块,用于基于贝叶斯推断,计算顶点特征向量属于预设的法律属性标签的后验概率,使用最大后验概率对顶点特征向量进行法律属性推断,以预测顶点特征向量对应的法律属性标签,得到预测标签;
第四模块,用于根据预测标签的法律属性确定预测标签之间的关联信息,使用预测标签和预测标签之间的关联信息构建关系信息链。
本申请实施例还提供一种超图卷积网络模型训练装置,包括:
第一训练模块,用于以样本文件和样本文件中的目标实体作为样本顶点,基于样本顶点之间的关联性构建样本超边,使用样本顶点和样本超边构建样本超图;
第二训练模块,用于获取待训练的超图卷积网络模型;
第三训练模块,用于使用待训练的超图卷积网络模型对样本超图进行信息传播和特征学习,得到样本顶点特征向量;
第四训练模块,用于基于贝叶斯推断,计算样本顶点特征向量属于预设的法律属性标签的后验概率,使用最大后验概率对样本顶点特征向量进行法律属性推断,以预测样本顶点特征向量对应的法律属性标签,得到样本预测标签;
第五训练模块,用于确定样本顶点对应的法律属性标签,得到真实标签;
第六训练模块,用于基于样本预测标签与真实标签,确定模型损失信息;所述模型损失信息用于表征样本预测标签与样本顶点之间的法律属性匹配程度;
第七训练模块,用于基于模型损失信息调整待训练的超图卷积网络模型的权重参数,在模型损失信息符合结束条件时,得到训练好的超图卷积网络模型。
本申请实施例还提供一种电子设备,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述的诉讼文件分析方法或超图卷积网络模型训练方法。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述的诉讼文件分析方法或超图卷积网络模型训练方法。
本申请的有益效果:以诉讼文件和诉讼文件中的目标实体作为顶点以及基于顶点之间的关联性构建超边构建诉讼超图,基于顶点之间以及顶点与超边之间的关联程度,通过超图卷积网络模型将顶点的法律属性特征表示为顶点特征向量,基于贝叶斯推断计算顶点特征向量属于法律属性标签的后验概率,使用最大后验概率预测顶点所对应的真实法律属性,可以准确预测诉讼案件中各个实体之间的复杂关联关系和高阶依赖关系,根据预测得到的预测标签及其关联信息构建结构化的关系信息链,可以清晰地展示出诉讼案件中的关键信息及其关系,帮助法律热源快速理解诉讼案件的核心内容和争议点,可为对诉讼数据进行进一步分析和挖掘提供便利。
附图说明
图1是本申请实施例提供的诉讼文件分析方法的一个可选的流程图。
图2是本申请实施例提供的步骤S101的具体方法的流程图。
图3是本申请实施例提供的步骤S103的具体方法的流程图。
图4是本申请实施例提供的步骤S104的具体方法的流程图。
图5是本申请实施例提供的超图卷积网络模型训练方法的一个可选的流程图。
图6是本申请实施例提供的诉讼文件分析装置的一个可选的结构示意图。
图7是本申请实施例提供的超图卷积网络模型训练装置的一个可选的结构示意图。
图8是本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(Artificial Intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
超图(Hypergraph),超图是一般图的泛化,超图里的超边(hyperedge)可以连接任意数量的顶点(node)。一般地,超图H可以表示为顶点-超边对 H=(X,E),其中,X是所有顶点的集合,E是所有超边的集合,E是X的非空子集。
超图卷积网络(HyperGCN),基于超图的谱论(sepctral theory)来训练用于超图上半监督学习的GCN的方法。
贝叶斯推断(Bayesian inference),是推论统计的一种方法。这种方法使用贝叶斯定理,在有更多证据及信息时,更新特定假设的概率。贝叶斯推断将后验概率(考虑相关证据或数据后,某一事件的条件机率)推导为二个前件、先验概率(考虑相关证据或数据前,某一事件不确定性的机率)及似然函数(由概率模型推导而得)的结果。
目前,对于诉讼文件的法律信息的处理和分析方法依赖人工操作,通过摘取主要信息段落或者句子,然后进行实体标注和句法分析。然而,这种方法虽然实现了对诉讼文件的法律信息进行一定程度的管理和分析,但是这种方法效率低下且易受人为主观影响,无法快速且准确地提取诉讼文件中各种法律信息之间的关联和依赖关系。
基于此,本申请实施例提供一种诉讼文件分析方法、训练方法、装置、设备及介质,能够提升提取诉讼文件中各种法律信息之间的关联和依赖关系的效率和准确率。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的诉讼文件分析方法,涉及人工智能技术领域。本申请实施例提供的诉讼文件分析方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content DeliveryNetwork,CDN)以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现文本分类方法的应用等,但并不局限于以上形式。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络个人计算机(Personal Computer,PC)、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
请参阅图1,图1是本申请实施例提供的诉讼文件分析方法的一个可选的流程图。在本申请的一些实施例中,图1中的方法具体可以包括但不限于步骤S101至步骤S104,下面结合图1对这四个步骤进行详细介绍。
步骤S101,以诉讼文件和诉讼文件中的目标实体作为顶点,基于顶点之间的关联性构建超边,使用顶点和超边构建诉讼超图。
其中,目标实体为诉讼文件中与诉讼案件相关的实体。
步骤S102,使用训练好的超图卷积网络模型对诉讼超图进行信息传播和特征学习,得到顶点特征向量。
步骤S103,基于贝叶斯推断,计算顶点特征向量属于预设的法律属性标签的后验概率,使用最大后验概率对顶点特征向量进行法律属性推断,以预测顶点特征向量对应的法律属性标签,得到预测标签。
步骤S104,根据预测标签的法律属性确定预测标签之间的关联信息,使用预测标签和预测标签之间的关联信息构建关系信息链。
可以理解的是,诉讼文件是以正确为原则,以鲜明为旨归,凡是在其中提出了诉讼当事人自己的诉讼请求,诉讼理由和诉讼的根据,并引起诉讼程序的发生文书,根据不同的情况分为民事起诉状、民事上诉状、刑事自诉状、刑事上诉状、答辩状五种。目标实体是通过文本识别技术提取诉讼文件中的目标文本内容得到的结果,例如,目标实体可以是涉事主体、请求事项、事由、赔偿事项、处罚事项、证据、法律条款和/或案件类型。
在一些实施例的步骤S101中,首先是通过文本识别技术从诉讼文件中提取目标实体,进而将该诉讼文件和提取得到的目标实体分别以顶点形式进行表示,通过文本识别技术可以初步识别出目标实体的类型以及诉讼文件所对应诉讼案件的类型,基于预设的关系规则以及目标实体和诉讼文件的识别结果,确定各顶点之间的关联性,依据两个或两个以上顶点之间的关联性构建超边,最后可以通过识别得到的顶点和构建得到的超边构建出诉讼超图。例如,当事人、当事人的请求事项和当事人提供的证据存在关联性,当事人、当事人的请求事项和当事人提供的证据之间可以构建出一条超边,被告、被告的请求事项和被告的质证理由存在关联性,被告、被告的请求事项和被告的质证理由之间可以构建出另一条超边。由此,通过诉讼超图初步确定了诉讼文件及诉讼文件中的目标实体的关系,并对诉讼文件、目标实体和关系以一种结构化形式进行表示。
在一些实施例的步骤S102中,由于诉讼超图的超边里面包含很多个顶点,首先将诉讼超图变为简单带权图,然后再基于顶点和顶点之间的关联程度和顶点与超边之间的关联程度计算出诉讼超图的拉普拉斯矩阵,实现对诉讼超图进行图卷积操作的目的,然后使用线性激活函数对卷积操作的输出结果进行分类,得到顶点特征向量。可以理解的是,顶点和顶点之间的关联程度和顶点与超边之间的关联程度表征顶点的法律属性特征,顶点和顶点之间的关联程度和顶点与超边之间的关联程度可以是分别使用矩阵来进行表示,超图卷积网络模型基于该矩阵进行卷积操作以及分类,输出用于表征顶点的法律属性特征的顶点特征向量。
在一些实施例的步骤S103中,基于贝叶斯推断,首先计算顶点特征向量属于法律属性标签的先验概率,然后将顶点特征向量属于法律属性标签的后验概率推导为二个前件、先验概率及似然函数的结果,得到顶点特征向量属于各个法律属性标签的后验概率,选取出最大后验概率对应的法律属性标签,预测该法律属性标签符合当前顶点特征向量的法律属性,最大后验概率对应的法律属性标签即为预测标签。可以理解的是,法律属性标签表征目标实体的法律属性,用于对目标实体进行分类和定性,例如,法律属性标签可以是包括案件类型标签(民事、刑事和行政等)、涉事主体标签(原告和被告等)和证据性质标签(直接证据和间接证据等)等。
在一些实施例的步骤S104中,在对各顶点添加预测标签之后,可以进一步修正各个顶点之间存在的关系,基于预设的关系规则以及预测标签之间的关联信息,修正各顶点之间的关联性,将存在关联性的预测标签整合在一起以构建出若干条关系信息链,关系信息链可以理解为表征修正后各顶点之间存在的关联性和依赖关系,构建完成的关系信息链可以清晰地展示出诉讼案件中的关键信息和信息之间的关联性。
请参阅图2,图2是本申请实施例提供的步骤S101的具体方法的流程图。在本申请的一些实施例中,步骤S101具体可以包括但不限于步骤S201至步骤S205,下面结合图2对这五个步骤进行详细介绍。
步骤S201,识别诉讼文件中的目标实体,以构建顶点集和超边集。
步骤S202,对诉讼文件的文本内容进行信息提取,将提取得到的关键信息对应分配至顶点和超边,分别作为顶点的特征向量和超边的特征向量。
步骤S203,利用超图嵌入方法将顶点映射至嵌入空间,利用训练好的嵌入向量替代原先顶点的特征向量,得到顶点的嵌入向量。
步骤S204,计算超边的特征向量和对应顶点的嵌入向量的点积,得到超边的权重。
步骤S205,使用顶点的嵌入向量更新顶点集,使用超边的权重更新超边集,使用更新后的顶点集和超边集构建诉讼超图。
在一些实施例的步骤S201,定义诉讼超图为G=(V,E),其中,V是顶点集,E是边集,在处理诉讼文件时,每份诉讼文件(如起诉书、答辩状等)会被看作一个单独的顶点,加入到顶点集V中,这些诉讼文件中的目标实体(如当事人、案件、法律条款等)也会被提取出来(通过文本分析工具TF-IDF进行提取),作为顶点加入到顶点集V中,关于目标顶点之间的关系(如原告与案件的关系,案件与法律条款的关系等),基于预设的关系规则,会被表示为超边,加入到超边集E中,从而构建顶点集和超边集。
在一些实施例的步骤S202,对于顶点,使用文本分析工具TF-IDF来提取诉讼文件中各个顶点的关键信息,并将这些关键信息作为顶点的特征向量,对于超边,根据超边所包含的顶点以及提取到顶点的关键信息,并将这些关键信息作为超边的特征向量。
在一些实施例的步骤S203,将顶点和超边构建成一个网络图,从每个顶点开始,采用随机游走算法生成一系列顶点序列,根据生成的顶点序列,构建每个顶点的上下文信息,在遍历顶点序列的优化过程中,每一个顶点除了和邻居顶点做优化外,还会和该顶点自身所有的签到超边做优化,训练出嵌入向量,将训练好的嵌入向量替代原先顶点的特征向量,得到顶点的嵌入向量。
在一些实施例的步骤S204,计算超边的特征向量和对应顶点的嵌入向量的点积,计算得到超边的权重,超边的权重用于表征超边的重要程度,即we=xe Th(v),其中,we为超边e的权重,xe为超边e的特征向量,h(v)为顶点v的嵌入向量。
在一些实施例的步骤S205,使用顶点的嵌入向量更新对应的顶点,以更新顶点集,使用超边的权重更新对应的超边,以更新超边集,从而使用更新后的顶点集和超边集构建诉讼超图。
在本申请的一些实施例中,图1中的步骤S102具体可以包括:
将诉讼超图的邻接矩阵和度矩阵输入预先训练好的超图卷积网络模型,进行逐层图卷积操作,对最后一次图卷积操作的输出结果进行法律属性分类,得到每个顶点的顶点特征向量。
超图卷积网络模型是一种在超图结构上进行信息传播和特征学习的方法,能够处理高阶关系和多模态信息,超图卷积网络模型由多个超图卷积层以及位于最后一个全连接层堆叠而成,超图卷积层的计算公式为:
,
其中,H(l+1)为第l+1个超图卷积层的输出结果,σ为非线性激活函数,D为度矩阵,A为邻接矩阵,H(l)为第l个超图卷积层的输出结果,W(l)为第l个超图卷积层的权重参数矩阵,l=1,2,3,...,L,L为超图卷积层的数量。
邻接矩阵用于描述顶点和顶点之间的关联程度,邻接矩阵可以表示为:
,
其中,Aij为顶点i和顶点j的邻接矩阵,Eij为连接顶点i和顶点j的超边的集合,we为超边e的权重。
度矩阵用于描述顶点和超边之间的关联程度,度矩阵可以表示为:
,
其中,Dij为顶点i和顶点j的度矩阵,N(i)为顶点i的邻接顶点集合。
逐层图卷积操作结束后,卷积操作的输出结果输入至全连接层,使用线性激活函数,得到每个顶点的顶点特征向量,顶点特征向量的计算公式为:
,
其中,F为顶点特征向量,H(L)为第L个超图卷积层的输出结果,W(L)为全连接层的权重矩阵。
请参阅图3,图3是本申请实施例提供的步骤S103的具体方法的流程图。在本申请的一些实施例中,步骤S103具体可以包括但不限于步骤S301至步骤S303,下面结合图3对这三个步骤进行详细介绍。
步骤S301,根据法律属性标签的历史概率确定顶点特征向量属于对应法律属性标签的先验概率。
步骤S302,设定顶点特征向量关于法律属性标签的条件概率分布。
步骤S303,使用先验概率、条件概率分布和顶点特征向量的边缘概率计算顶点特征向量属于对应法律属性标签的后验概率,以最大后验概率对应的法律属性标签作为顶点特征向量的预测标签。
在一些实施例的步骤S301,首先,定义标签集合为Y=y1,y2,...,yn,其中,yi为第i个法律属性标签,i=1,2,...,n,先验概率分布P(yi)根据历史诉讼案例中法律属性标签的分布情况设定,例如,如果在历史案例中,60%的案件为民事案件,那么案件类型的法律属性标签为“民事”的先验概率可以设定为0.6。
在一些实施例的步骤S302,采用多元高斯模型拟合,定义顶点特征向量F给定法律属性标签yi的条件概率分布P(F|yi)。
在一些实施例的步骤S303,根据贝叶斯定理,后验概率的计算公式为:
,
其中,P(yi|F)为后验概率,P(F)为顶点特征向量F的边缘概率。
最后,选取具有最大后验概率的法律属性标签作为预测标签,计算公式如下:
,
基于法律属性标签F,可以为每个顶点生成具有最大后验概率的法律属性标签,即预测标签,这些预测标签有助于提取诉讼的关键信息。
请参阅图4,图4是本申请实施例提供的步骤S104的具体方法的流程图。在本申请的一些实施例中,步骤S104具体可以包括但不限于步骤S401至步骤S403,下面结合图4对这三个步骤进行详细介绍。
步骤S401,使用预测标签构成标签集。
步骤S402,基于预设的法律属性关联规则,根据预测标签的法律属性构建表示预测标签之间的关系的关系集。
步骤S403,基于标签集和关系集构建关系信息链并进行可视化显示。
在一些实施例的步骤S401,首先,定义关系信息链I=(L,R),其中,L表示标签集,R表示标签之间的关系集,根据贝叶斯方法预测得到的预测标签构建标签集,即L=l1,l2,...,ln,其中,li为第i个预测标签,i=1,2,...,n。例如,一条信息链的标签集可能会有以下预测标签{“民事”,“原告”,“直接证据”}。
在一些实施例的步骤S402,基于预设的法律属性关联规则和预测标签的法律属性,构建预测标签之间的关系,使用预测标签之间的关系构建表示预测标签之间的关系的关系集,定义关系为r=(li,lj)来表示预测标签li与预测标签lj之间的关系,其中,li,lj∈L,将所有的关系集合表示为关系集R=r1,r2,...,rm,其中,ri为第i个预测标签,i=1,2,...,m。预设的法律属性关联规则包括:
1. 诉讼标签如“案件类型”可以与当事人角色链接,例如,一个“民事”案件与“原告”和“被告”建立关系;
2. 当事人角色如“原告”可以与证据性质链接。例如,如果有一项“直接证据”与原告有关,那么可以在“原告”和“直接证据”之间建立一个关系;
3. 同时,某些标签可能有内在的关系,例如,“直接证据”可能与某个具体的证据条目关联,而该证据条目可能与“原告”或“被告”有关。
在一些实施例的步骤S403,通过上述步骤构建的标签集和关系集更新关系信息链,通过将预测标签表示为节点,将预测标签之间的关系表示为连接对应预测标签的边,实现关系信息链的可视化显示处理。
请参阅图5,图5是本申请实施例提供的超图卷积网络模型训练方法的一个可选的流程图。在本申请的一些实施例中,图5中的方法具体可以包括但不限于步骤S501至步骤S507,下面结合图5对这七个步骤进行详细介绍。
步骤S501,以样本文件和样本文件中的目标实体作为样本顶点,基于样本顶点之间的关联性构建样本超边,使用样本顶点和样本超边构建样本超图。
步骤S502,获取待训练的超图卷积网络模型。
步骤S503,使用待训练的超图卷积网络模型对样本超图进行信息传播和特征学习,得到样本顶点特征向量。
步骤S504,基于贝叶斯推断,计算样本顶点特征向量属于预设的法律属性标签的后验概率,使用最大后验概率对样本顶点特征向量进行法律属性推断,以预测样本顶点特征向量对应的法律属性标签,得到样本预测标签。
步骤S505,确定样本顶点对应的法律属性标签,得到真实标签。
步骤S506,基于样本预测标签与真实标签,确定模型损失信息。
其中,模型损失信息用于表征样本预测标签与样本顶点之间的法律属性匹配程度。
步骤S507,基于模型损失信息调整待训练的超图卷积网络模型的权重参数,在模型损失信息符合结束条件时,得到训练好的超图卷积网络模型。
可以理解的是,样本文件本质上是诉讼文件,样本文件作为训练超图卷积网络模型的素材,步骤S501、步骤S503和步骤S504的具体过程与上述步骤S101、步骤S102和步骤S103的具体过程实质相同,在此不再赘述。
在一些实施例的步骤S505中,确定样本顶点对应的法律属性标签,可以是人工校对或使用已经训练好的分类模型实现。
在一些实施例的步骤S506中,根据真实标签和真实标签,通过最小化损失函数计算模型损失信息,定义最小化损失函数为交叉熵损失,表示预测标签与真实标签之间的差异,最小化损失函数为:
,
其中,Q为损失值,yi为真实标签,为预测标签。
在一些实施例的步骤S507中,计算模型损失信息关于待训练的超图卷积网络模型的权重参数的梯度,根据预设的学习率和计算得到的梯度,迭代更新待训练的超图卷积网络模型的权重参数,直至模型损失信息符合损失条件(损失值不再显著降低)或迭代次数达到阈值次数时,结束训练,得到训练好的超图卷积网络模型。更新待训练的超图卷积网络模型的权重参数的计算公式为:
,
其中,W(l)为当前迭代更新后的权重参数,为当前迭代更新前的权重参数,α为学习率,/>为模型损失信息关于待训练的超图卷积网络模型的权重参数的梯度。
请参阅图6,本申请实施例还提供一种诉讼文件分析装置,可以实现上述诉讼文件分析方法,该装置包括:
本申请实施例还提供一种诉讼文件分析装置,包括:
第一模块601,用于以诉讼文件和诉讼文件中的目标实体作为顶点,基于顶点之间的关联性构建超边,使用顶点和超边构建诉讼超图;所述目标实体为诉讼文件中与诉讼案件相关的实体;
第二模块602,用于基于诉讼超图中顶点之间以及顶点与超边之间的关联程度,使用训练好的超图卷积网络模型提取顶点的法律属性特征,得到顶点特征向量;
第三模块603,用于基于贝叶斯推断,计算顶点特征向量属于预设的法律属性标签的后验概率,使用最大后验概率对顶点特征向量进行法律属性推断,以预测顶点特征向量对应的法律属性标签,得到预测标签;
第四模块604,用于根据预测标签的法律属性确定预测标签之间的关联信息,使用预测标签和预测标签之间的关联信息构建关系信息链。
该诉讼文件分析装置的具体实施方式与上述诉讼文件分析方法的具体实施例基本相同,在此不再赘述。
请参阅图7,本申请实施例还提供一种超图卷积网络模型训练装置,可以实现上述超图卷积网络模型训练方法,该装置包括:
第一训练模块701,用于以样本文件和样本文件中的目标实体作为样本顶点,基于样本顶点之间的关联性构建样本超边,使用样本顶点和样本超边构建样本超图;
第二训练模块702,用于获取待训练的超图卷积网络模型;
第三训练模块703,用于使用待训练的超图卷积网络模型对样本超图进行信息传播和特征学习,得到样本顶点特征向量;
第四训练模块704,用于基于贝叶斯推断,计算样本顶点特征向量属于预设的法律属性标签的后验概率,使用最大后验概率对样本顶点特征向量进行法律属性推断,以预测样本顶点特征向量对应的法律属性标签,得到样本预测标签;
第五训练模块705,用于确定样本顶点对应的法律属性标签,得到真实标签;
第六训练模块706,用于基于样本预测标签与真实标签,确定模型损失信息;所述模型损失信息用于表征样本预测标签与样本顶点之间的法律属性匹配程度;
第七训练模块707,用于基于模型损失信息调整待训练的超图卷积网络模型的权重参数,在模型损失信息符合结束条件时,得到训练好的超图卷积网络模型。
该超图卷积网络模型训练装置的具体实施方式与上述超图卷积网络模型训练方法的具体实施例基本相同,在此不再赘述。
图8是根据一示例性实施例示出的一种电子设备的框图。
下面参照图8来描述根据本公开的这种实施方式的电子设备800。图8显示的电子设备800仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800以通用计算设备的形式表现。电子设备800的组件可以包括但不限于:至少一个处理单元810、至少一个存储单元820、连接不同系统组件(包括存储单元820和处理单元810)的总线830、显示单元840等。
其中,存储单元存储有程序代码,程序代码可以被处理单元810执行,使得处理单元810执行本说明书上述诉讼文件分析方法或超图卷积网络模型训练方法部分中描述的根据本公开各种示例性实施方式的步骤。例如,处理单元810可以执行如图1、图2、图3和图4中所示的步骤。
存储单元820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)8201和/或高速缓存存储单元8202,还可以进一步包括只读存储单元(ROM)8203。
存储单元820还可以包括具有一组(至少一个)程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备800也可以与一个或多个外部设备800’(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备800交互的设备通信,和/或与使得该电子设备800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口850进行。并且,电子设备800还可以通过网络适配器860与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器860可以通过总线830与电子设备800的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述诉讼文件分析方法或超图卷积网络模型训练方法。
本申请实施例提供的诉讼文件分析方法、模型训练方法、装置、设备及存储介质,以诉讼文件和诉讼文件中的目标实体作为顶点以及基于顶点之间的关联性构建超边构建诉讼超图,基于顶点之间以及顶点与超边之间的关联程度,通过超图卷积网络模型将顶点的法律属性特征表示为顶点特征向量,基于贝叶斯推断计算顶点特征向量属于法律属性标签的后验概率,使用最大后验概率预测顶点所对应的真实法律属性,可以准确预测诉讼案件中各个实体之间的复杂关联关系和高阶依赖关系,根据预测得到的预测标签及其关联信息构建结构化的关系信息链,可以清晰地展示出诉讼案件中的关键信息及其关系,帮助法律热源快速理解诉讼案件的核心内容和争议点,可为对诉讼数据进行进一步分析和挖掘提供便利。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本公开实施方式的上述方法。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本领域技术人员可以理解上述模块可以按照实施例的描述分布于装置中,也可以进行相应变化唯一不同于本实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施例的方法。
以上具体地示出和描述了本公开的示例性实施例。应可理解的是,本公开不限于这里描述的详细结构、设置方式或实现方法;相反,本公开意图涵盖包含在所附权利要求的精神和范围内的各种修改和等效设置。
Claims (8)
1.一种诉讼文件分析方法,其特征在于,包括:
以诉讼文件和诉讼文件中的目标实体作为顶点,基于顶点之间的关联性构建超边,使用顶点和超边构建诉讼超图;所述目标实体为诉讼文件中与诉讼案件相关的实体,是通过文本识别技术提取诉讼文件中的目标文本内容得到的结果;
使用训练好的超图卷积网络模型对诉讼超图进行信息传播和特征学习,得到顶点特征向量;
基于贝叶斯推断,计算顶点特征向量属于预设的法律属性标签的后验概率,使用最大后验概率对顶点特征向量进行法律属性推断,以预测顶点特征向量对应的法律属性标签,得到预测标签;
根据预测标签的法律属性确定预测标签之间的关联信息,使用预测标签和预测标签之间的关联信息构建关系信息链;
所述以诉讼文件和诉讼文件中的目标实体作为顶点,基于顶点之间的关联性构建超边,使用顶点和超边构建诉讼超图,包括:
识别诉讼文件中的目标实体,以构建顶点集和超边集;
对诉讼文件的文本内容进行信息提取,将提取得到的关键信息对应分配至顶点和超边,分别作为顶点的特征向量和超边的特征向量;
利用超图嵌入方法将顶点映射至嵌入空间,利用训练好的嵌入向量替代原先顶点的特征向量,得到顶点的嵌入向量;
计算超边的特征向量和对应顶点的嵌入向量的点积,得到超边的权重;
使用顶点的嵌入向量更新顶点集,使用超边的权重更新超边集,使用更新后的顶点集和超边集构建诉讼超图;
所述使用训练好的超图卷积网络模型对诉讼超图进行信息传播和特征学习,得到顶点特征向量,包括:
将诉讼超图的邻接矩阵和度矩阵输入预先训练好的超图卷积网络模型,进行逐层图卷积操作,对最后一次图卷积操作的输出结果进行法律属性分类,得到每个顶点的顶点特征向量;
所述超图卷积网络模型由多个超图卷积层以及位于最后一个全连接层堆叠而成;
所述超图卷积层的计算公式为:
,
其中,H(l+1)为第l+1个超图卷积层的输出结果,σ为非线性激活函数,D为度矩阵,A为邻接矩阵,H(l)为第l个超图卷积层的输出结果,W(l)为第l个超图卷积层的权重参数矩阵,l=1,2,3,...,L,L为超图卷积层的数量;
所述顶点特征向量的计算公式为:
,
其中,F为顶点特征向量,H(L)为第L个超图卷积层的输出结果,W(L)为全连接层的权重矩阵。
2.根据权利要求1所述的诉讼文件分析方法,其特征在于,所述基于贝叶斯推断,计算顶点特征向量属于预设的法律属性标签的后验概率,使用最大后验概率对顶点特征向量进行法律属性推断,以预测顶点特征向量对应的法律属性标签,得到预测标签,包括:
根据法律属性标签的历史概率确定顶点特征向量属于对应法律属性标签的先验概率;
设定顶点特征向量关于法律属性标签的条件概率分布;
使用先验概率、条件概率分布和顶点特征向量的边缘概率计算顶点特征向量属于对应法律属性标签的后验概率,以最大后验概率对应的法律属性标签作为顶点特征向量的预测标签。
3.根据权利要求1所述的诉讼文件分析方法,其特征在于,所述根据预测标签的法律属性确定预测标签之间的关系,基于预测标签和预测标签之间的关联构建关系信息链,包括:
使用预测标签构成标签集;
基于预设的法律属性关联规则,根据预测标签的法律属性构建表示预测标签之间的关系的关系集;
基于标签集和关系集构建关系信息链并进行可视化显示。
4.一种超图卷积网络模型训练方法,其特征在于,包括:
以样本文件和样本文件中的目标实体作为样本顶点,基于样本顶点之间的关联性构建样本超边,使用样本顶点和样本超边构建样本超图;所述目标实体为样本文件中与诉讼案件相关的实体,是通过文本识别技术提取样本文件中的目标文本内容得到的结果;
获取待训练的超图卷积网络模型;
使用待训练的超图卷积网络模型对样本超图进行信息传播和特征学习,得到样本顶点特征向量;
基于贝叶斯推断,计算样本顶点特征向量属于预设的法律属性标签的后验概率,使用最大后验概率对样本顶点特征向量进行法律属性推断,以预测样本顶点特征向量对应的法律属性标签,得到样本预测标签;
确定样本顶点对应的法律属性标签,得到真实标签;
基于样本预测标签与真实标签,确定模型损失信息;所述模型损失信息用于表征样本预测标签与样本顶点之间的法律属性匹配程度;
基于模型损失信息调整待训练的超图卷积网络模型的权重参数,在模型损失信息符合结束条件时,得到训练好的超图卷积网络模型;
所述以样本文件和样本文件中的目标实体作为样本顶点,基于样本顶点之间的关联性构建样本超边,使用样本顶点和样本超边构建样本超图,包括:
识别样本文件中的目标实体,以构建样本顶点集和样本超边集;
对样本文件的文本内容进行信息提取,将提取得到的关键信息对应分配至样本顶点和样本超边,分别作为样本顶点的特征向量和样本超边的特征向量;
利用超图嵌入方法将样本顶点映射至嵌入空间,利用训练好的嵌入向量替代原先样本顶点的特征向量,得到样本顶点的嵌入向量;
计算样本超边的特征向量和对应样本顶点的嵌入向量的点积,得到样本超边的权重;
使用样本顶点的嵌入向量更新样本顶点集,使用样本超边的权重更新样本超边集,使用更新后的样本顶点集和样本超边集构建样本超图;
所述使用待训练的超图卷积网络模型对样本超图进行信息传播和特征学习,得到样本顶点特征向量,包括:
将样本超图的邻接矩阵和度矩阵输入待训练的超图卷积网络模型,进行逐层图卷积操作,对最后一次图卷积操作的输出结果进行法律属性分类,得到每个样本顶点的顶点特征向量;
所述超图卷积网络模型由多个超图卷积层以及位于最后一个全连接层堆叠而成;
所述超图卷积层的计算公式为:
,
其中,H(l+1)为第l+1个超图卷积层的输出结果,σ为非线性激活函数,D为度矩阵,A为邻接矩阵,H(l)为第l个超图卷积层的输出结果,W(l)为第l个超图卷积层的权重参数矩阵,l=1,2,3,...,L,L为超图卷积层的数量;
所述顶点特征向量的计算公式为:
,
其中,F为顶点特征向量,H(L)为第L个超图卷积层的输出结果,W(L)为全连接层的权重矩阵。
5.一种诉讼文件分析装置,其特征在于,包括:
第一模块,用于以诉讼文件和诉讼文件中的目标实体作为顶点,基于顶点之间的关联性构建超边,使用顶点和超边构建诉讼超图;所述目标实体为诉讼文件中与诉讼案件相关的实体,是通过文本识别技术提取诉讼文件中的目标文本内容得到的结果;
第二模块,用于使用训练好的超图卷积网络模型对诉讼超图进行信息传播和特征学习,得到顶点特征向量;
第三模块,用于基于贝叶斯推断,计算顶点特征向量属于预设的法律属性标签的后验概率,使用最大后验概率对顶点特征向量进行法律属性推断,以预测顶点特征向量对应的法律属性标签,得到预测标签;
第四模块,用于根据预测标签的法律属性确定预测标签之间的关联信息,使用预测标签和预测标签之间的关联信息构建关系信息链;
所述以诉讼文件和诉讼文件中的目标实体作为顶点,基于顶点之间的关联性构建超边,使用顶点和超边构建诉讼超图,包括:
识别诉讼文件中的目标实体,以构建顶点集和超边集;
对诉讼文件的文本内容进行信息提取,将提取得到的关键信息对应分配至顶点和超边,分别作为顶点的特征向量和超边的特征向量;
利用超图嵌入方法将顶点映射至嵌入空间,利用训练好的嵌入向量替代原先顶点的特征向量,得到顶点的嵌入向量;
计算超边的特征向量和对应顶点的嵌入向量的点积,得到超边的权重;
使用顶点的嵌入向量更新顶点集,使用超边的权重更新超边集,使用更新后的顶点集和超边集构建诉讼超图;
所述使用训练好的超图卷积网络模型对诉讼超图进行信息传播和特征学习,得到顶点特征向量,包括:
将诉讼超图的邻接矩阵和度矩阵输入预先训练好的超图卷积网络模型,进行逐层图卷积操作,对最后一次图卷积操作的输出结果进行法律属性分类,得到每个顶点的顶点特征向量;
所述超图卷积网络模型由多个超图卷积层以及位于最后一个全连接层堆叠而成;
所述超图卷积层的计算公式为:
,
其中,H(l+1)为第l+1个超图卷积层的输出结果,σ为非线性激活函数,D为度矩阵,A为邻接矩阵,H(l)为第l个超图卷积层的输出结果,W(l)为第l个超图卷积层的权重参数矩阵,l=1,2,3,...,L,L为超图卷积层的数量;
所述顶点特征向量的计算公式为:
,
其中,F为顶点特征向量,H(L)为第L个超图卷积层的输出结果,W(L)为全连接层的权重矩阵。
6.一种超图卷积网络模型训练装置,其特征在于,包括:
第一训练模块,用于以样本文件和样本文件中的目标实体作为样本顶点,基于样本顶点之间的关联性构建样本超边,使用样本顶点和样本超边构建样本超图;所述目标实体为样本文件中与诉讼案件相关的实体,是通过文本识别技术提取样本文件中的目标文本内容得到的结果;
第二训练模块,用于获取待训练的超图卷积网络模型;
第三训练模块,用于使用待训练的超图卷积网络模型对样本超图进行信息传播和特征学习,得到样本顶点特征向量;
第四训练模块,用于基于贝叶斯推断,计算样本顶点特征向量属于预设的法律属性标签的后验概率,使用最大后验概率对样本顶点特征向量进行法律属性推断,以预测样本顶点特征向量对应的法律属性标签,得到样本预测标签;
第五训练模块,用于确定样本顶点对应的法律属性标签,得到真实标签;
第六训练模块,用于基于样本预测标签与真实标签,确定模型损失信息;所述模型损失信息用于表征样本预测标签与样本顶点之间的法律属性匹配程度;
第七训练模块,用于基于模型损失信息调整待训练的超图卷积网络模型的权重参数,在模型损失信息符合结束条件时,得到训练好的超图卷积网络模型;
所述以样本文件和样本文件中的目标实体作为样本顶点,基于样本顶点之间的关联性构建样本超边,使用样本顶点和样本超边构建样本超图,包括:
识别样本文件中的目标实体,以构建样本顶点集和样本超边集;
对样本文件的文本内容进行信息提取,将提取得到的关键信息对应分配至样本顶点和样本超边,分别作为样本顶点的特征向量和样本超边的特征向量;
利用超图嵌入方法将样本顶点映射至嵌入空间,利用训练好的嵌入向量替代原先样本顶点的特征向量,得到样本顶点的嵌入向量;
计算样本超边的特征向量和对应样本顶点的嵌入向量的点积,得到样本超边的权重;
使用样本顶点的嵌入向量更新样本顶点集,使用样本超边的权重更新样本超边集,使用更新后的样本顶点集和样本超边集构建样本超图;
所述使用待训练的超图卷积网络模型对样本超图进行信息传播和特征学习,得到样本顶点特征向量,包括:
将样本超图的邻接矩阵和度矩阵输入待训练的超图卷积网络模型,进行逐层图卷积操作,对最后一次图卷积操作的输出结果进行法律属性分类,得到每个样本顶点的顶点特征向量;
所述超图卷积网络模型由多个超图卷积层以及位于最后一个全连接层堆叠而成;
所述超图卷积层的计算公式为:
,
其中,H(l+1)为第l+1个超图卷积层的输出结果,σ为非线性激活函数,D为度矩阵,A为邻接矩阵,H(l)为第l个超图卷积层的输出结果,W(l)为第l个超图卷积层的权重参数矩阵,l=1,2,3,...,L,L为超图卷积层的数量;
所述顶点特征向量的计算公式为:
,
其中,F为顶点特征向量,H(L)为第L个超图卷积层的输出结果,W(L)为全连接层的权重矩阵。
7.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现权利要求1至4任一项所述的方法。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311406230.3A CN117131438B (zh) | 2023-10-27 | 2023-10-27 | 诉讼文件分析方法、模型训练方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311406230.3A CN117131438B (zh) | 2023-10-27 | 2023-10-27 | 诉讼文件分析方法、模型训练方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117131438A CN117131438A (zh) | 2023-11-28 |
CN117131438B true CN117131438B (zh) | 2024-02-13 |
Family
ID=88854992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311406230.3A Active CN117131438B (zh) | 2023-10-27 | 2023-10-27 | 诉讼文件分析方法、模型训练方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117131438B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109450834A (zh) * | 2018-10-30 | 2019-03-08 | 北京航空航天大学 | 基于多特征关联和贝叶斯网络的通信信号分类识别方法 |
CN113919441A (zh) * | 2021-11-03 | 2022-01-11 | 北京工业大学 | 一种基于超图变换网络的分类方法 |
CN115062727A (zh) * | 2022-07-12 | 2022-09-16 | 广东技术师范大学 | 一种基于多阶超图卷积网络的图节点分类方法及系统 |
CN116186385A (zh) * | 2022-12-19 | 2023-05-30 | 杭州电子科技大学 | 一种基于解耦表征学习与图神经网络的服务推荐方法 |
CN116304308A (zh) * | 2023-02-16 | 2023-06-23 | 西南交通大学 | 一种基于技术创新知识情境超网络的研发伙伴推荐方法 |
CN116883746A (zh) * | 2023-07-13 | 2023-10-13 | 北京理工大学 | 一种基于分区池化超图神经网络的图节点分类方法 |
-
2023
- 2023-10-27 CN CN202311406230.3A patent/CN117131438B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109450834A (zh) * | 2018-10-30 | 2019-03-08 | 北京航空航天大学 | 基于多特征关联和贝叶斯网络的通信信号分类识别方法 |
CN113919441A (zh) * | 2021-11-03 | 2022-01-11 | 北京工业大学 | 一种基于超图变换网络的分类方法 |
CN115062727A (zh) * | 2022-07-12 | 2022-09-16 | 广东技术师范大学 | 一种基于多阶超图卷积网络的图节点分类方法及系统 |
CN116186385A (zh) * | 2022-12-19 | 2023-05-30 | 杭州电子科技大学 | 一种基于解耦表征学习与图神经网络的服务推荐方法 |
CN116304308A (zh) * | 2023-02-16 | 2023-06-23 | 西南交通大学 | 一种基于技术创新知识情境超网络的研发伙伴推荐方法 |
CN116883746A (zh) * | 2023-07-13 | 2023-10-13 | 北京理工大学 | 一种基于分区池化超图神经网络的图节点分类方法 |
Non-Patent Citations (2)
Title |
---|
Super-Graph Classification Based on Composite Subgraph Features and Extreme Learning Machine;Pang Jun et al.;《 Cognitive Computation》;20181231;第1-10页 * |
基于超图表示学习的节点分类算法研究;黄家豪;《中国优秀硕士学位论文全文数据库》;20230115;第1-65页 * |
Also Published As
Publication number | Publication date |
---|---|
CN117131438A (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10963794B2 (en) | Concept analysis operations utilizing accelerators | |
CN107943847B (zh) | 企业关系提取方法、装置及存储介质 | |
CN110737758B (zh) | 用于生成模型的方法和装置 | |
CN107679039B (zh) | 用于确定语句意图的方法和装置 | |
CN111444340B (zh) | 文本分类方法、装置、设备及存储介质 | |
CN113505244B (zh) | 基于深度学习的知识图谱构建方法、系统、设备及介质 | |
CN111324696B (zh) | 实体抽取方法、实体抽取模型的训练方法、装置及设备 | |
CN111709240A (zh) | 实体关系抽取方法、装置、设备及其存储介质 | |
CN112508691B (zh) | 基于关系网标签化和图神经网络的风险预测方法及装置 | |
JP7417679B2 (ja) | 情報抽出方法、装置、電子機器及び記憶媒体 | |
CN113157931B (zh) | 一种融合图谱构建方法及装置 | |
CN114647741A (zh) | 工艺自动决策和推理方法、装置、计算机设备及存储介质 | |
CN113505601A (zh) | 一种正负样本对构造方法、装置、计算机设备及存储介质 | |
CN108268629B (zh) | 基于关键词的图像描述方法和装置、设备、介质 | |
CN113779225A (zh) | 实体链接模型的训练方法、实体链接方法及装置 | |
CN112100398A (zh) | 一种专利空白预测方法及系统 | |
CN112528654A (zh) | 自然语言处理方法、装置及电子设备 | |
CN113268560A (zh) | 用于文本匹配的方法和装置 | |
CN111241273A (zh) | 文本数据分类方法、装置、电子设备及计算机可读介质 | |
CN116402166B (zh) | 一种预测模型的训练方法、装置、电子设备及存储介质 | |
JP2023517518A (ja) | ヌル値又は同等の値を有するリレーショナル・テーブルのためのベクトル埋込モデル | |
CN117131438B (zh) | 诉讼文件分析方法、模型训练方法、装置、设备及介质 | |
CN116701574A (zh) | 文本语义相似度计算方法、装置、设备及存储介质 | |
CN108733702B (zh) | 用户查询上下位关系提取的方法、装置、电子设备和介质 | |
CN114817476A (zh) | 语言模型的训练方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |