CN114444517B - 一种量刑标准知识增强的数值感知的智能法律判决方法 - Google Patents

一种量刑标准知识增强的数值感知的智能法律判决方法 Download PDF

Info

Publication number
CN114444517B
CN114444517B CN202210371281.6A CN202210371281A CN114444517B CN 114444517 B CN114444517 B CN 114444517B CN 202210371281 A CN202210371281 A CN 202210371281A CN 114444517 B CN114444517 B CN 114444517B
Authority
CN
China
Prior art keywords
numerical
standard knowledge
criminal
knowledge
crime
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210371281.6A
Other languages
English (en)
Other versions
CN114444517A (zh
Inventor
毕胜
周之遥
漆桂林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202210371281.6A priority Critical patent/CN114444517B/zh
Publication of CN114444517A publication Critical patent/CN114444517A/zh
Application granted granted Critical
Publication of CN114444517B publication Critical patent/CN114444517B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/18Legal services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Technology Law (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种量刑标准知识增强的数值感知的智能法律判决方法,用于解决一般方法缺乏数值感知能力进而在数值法律判决任务上表现较差的问题,提出的该方法包括以下步骤:首先使用PTLM对事实描述编码,获得句子级和词语级的表征;然后;接着使用基于预训练语言模型(PTLM,Pre‑Trained Language Model)的遮蔽数字预测(MNP)来帮助模型获得法律上的数值意义;再从数值表征和选择的法律知识中构建图网络,进行数值推理;最后使用经过以上步骤得到的表征预测类别。本发明在设计时利用了PTLM的优势,同时融入了司法先验,并构建图网络进行数值推理,能够显著提升法律判决准确率。

Description

一种量刑标准知识增强的数值感知的智能法律判决方法
技术领域
本发明属于人工智能领域,尤其涉及一种量刑标准知识增强的数值感知的智能法律判决方法。
背景技术
近年来,法律人工智能引起了学术界和工业界的广泛关注。早期的工作通常利用数学和统计算法来分析现有的法律案件。受到深度学习的巨大成功的启发,一些研究者使用外部法律条款或法律原理图知识作为特征来区分混淆的案件。一些研究者注意到了法律判决预测(LJP, Legal Judgment Prediction)的子任务之间的依赖关系,并提出了基于多任务学习的框架,在LJP 的两个子任务上取得了出色的表现,即对罪名和法律条款的预测。然而,很少有方法关注数值 LJP,即罚金和刑期的预测。一些研究者提出了一种基于罪名的刑期预测模型,该模型采用深度门控网络为特定罪名选择细粒度特征。
调查表明,数值 LJP 的最佳f1 分别为 39.76 和 40.43,远低于罪名和法律条款预测的性能(90.89 和 88.75)。主要原因是它们忽略了事实描述中的数字,其模型不具有数值推理能力。
数值推理涉及到广泛的任务,如信息提取、检索、数学单词问题和表征学习。在机器阅读理解由研究人员上提出了一种数字感知模型,对数字进行多重运算,如计数、加法和减法。还有研究者提出了一个数值推理网络,构建了一个具有比较感知能力的GNN 来推理数字之间的相对信息。由于之前的方法不能识别不同的数字类型,有研究人员引入了一个异构有向图来整合类型和实体信息,以进行数值推理。
尽管数值推理已经有一定研究,但尚未被用于解决法律判决尤其是数值法律判决任务。因此非常有必要设计合适的模型和方法将其用于数值法律判决领域。
发明内容
本发明目的在于提供一种量刑标准知识增强的数值感知的智能法律判决方法,以解决对文本数值缺乏感知能力带来的罚金和刑期预测不准确的技术问题。
为解决上述技术问题,本发明的具体技术方案如下:
一种量刑标准知识增强的数值感知的智能法律判决方法,包括以下步骤:
步骤1、使用预训练语言模型(PTLM, Pre-TrainedLanguageModel)在海量法律文本上进行二阶段预训练,以获得领域内和任务内的语义知识,随后在任务数据集文本上进一步预训练,使用得到的模型对事实描述编码,得到文本编码
Figure 477246DEST_PATH_IMAGE001
Figure 332069DEST_PATH_IMAGE002
RoBERTa(一种预训练模型)为例,在大量法律文本上进行掩码语言建模(MLM,Masked Language Model),随后在任务数据集文本上进一步预训练,使用得到的模型对事实描述编码,得到文本编码
Figure 846227DEST_PATH_IMAGE001
Figure 162808DEST_PATH_IMAGE002
;步骤2、使用基于对比学习的量刑标准知识选择,根据上面的文本编码选择正确量刑标准知识。
量刑标准知识示例如下:
“犯盗窃罪的,涉案金额1000元以上不满2500元的,处管制、拘役、有期徒刑六个月或单处罚金;2500元以上不满4000元的,处有期徒刑六个月至一年;4000元以上不满7000元的,处有期徒刑一年至二年;7000元以上不满10000元的,处有期徒刑二年至三年。”
根据得到的犯罪事实描述编码,选择正确的量刑标准知识,作为一个损失,同时引入对比学习损失。”
步骤3、使用与步骤1中同样经过两阶段预训练的另一个PTLM对量刑标准知识编码,同时利用掩码数值预测(MNP,Masked Numeral Prediction)学习数值意义,得到量刑标准知识编码
Figure 914863DEST_PATH_IMAGE003
MNP示例如下:
输入:[CLS]诈骗公共和私人财产达到人民币[MASK]元以上的,处6个月监禁。
输出:10000
步骤4、对文本数值和量刑标准知识数值构建异构有向数值图,进行数值推理。构建一个异构图
Figure 953970DEST_PATH_IMAGE004
,其中节点
Figure 955424DEST_PATH_IMAGE005
代表事实描述和量刑标准知识中的数值,边
Figure 826428DEST_PATH_IMAGE006
代表数值之间的大小关系。
在图网络中,遵循图神经网络推理的一般范式,做迭代地消息传播,最终得到具有数值理解的表征。
步骤5、联合量刑标准知识和犯罪事实中数值推理的结果,同时预测刑期和罚金。
步骤6、通过小批量梯度下降(mini-batch)随机梯度下降的方式来更新模型的参数,进行模型的训练以及优化。具体来讲,采用批量梯度下降就是在每个训练回合中计算所有样本产生的损失,进而计算梯度进行反向传播和参数更新。这样每次都需要所有样本来计算损失,在样本数量非常大的时候会受到计算资源的限制,效率非常低。小批量梯度下降将所有的训练样本划分到B个mini-batch中,每个mini-batch包含𝑏𝑎𝑡𝑐ℎ_𝑠𝑖𝑧𝑒个训练样本。每个迭代训练过程中计算一个mini-batch中的样本损失,进而进梯度下降和参数更新,这样兼顾了批量梯度下降的准确度和随机梯度下降的更新效率。
进一步的,所述步骤1中,使用PTLM在海量法律文本上进行二阶段预训练,以获得领域内和任务内的语义知识。使用预训练模型作为犯罪事实的编码器可以从海量未标注的法律文本上学习法律语言本身的知识,可以为使下游任务更好地获取特定领域的知识。以RoBERTa(一种预训练模型)为例,在大量法律文本上进行掩码语言建模(MLM, MaskedLanguage Model),随后在任务数据集文本上进一步预训练,使用得到的模型对事实描述编码,得到文本编码uX
Figure 144463DEST_PATH_IMAGE002
Figure 633213DEST_PATH_IMAGE007
其中uX为句子级的表征,
Figure 785288DEST_PATH_IMAGE002
为所有词语的表征矩阵,
Figure 949553DEST_PATH_IMAGE008
为标识符。
进一步的,所述步骤2中,根据文本表征选择合适的量刑标准知识,同时引入对比学习的损失,来区分不同的量刑标准知识,得到量刑标准知识选择任务的损失函数
Figure 112550DEST_PATH_IMAGE009
和对比学习的损失函数
Figure 856515DEST_PATH_IMAGE010
,具体如下:
Figure 234407DEST_PATH_IMAGE011
Figure 989480DEST_PATH_IMAGE012
其中,λ是调整权重的超参,τ是softmax函数的温度超参,
Figure 419827DEST_PATH_IMAGE015
是一个训练批次大小,
Figure 100002_1
Figure 299369DEST_PATH_IMAGE017
分别指第i个样本第m个量刑标准知识类别正确的标签和预测的概率,
Figure 916296DEST_PATH_IMAGE018
指量刑标准知识的数量。
Figure 940883DEST_PATH_IMAGE019
Figure 867120DEST_PATH_IMAGE020
Figure 100002_3
表示一个训练批次中第
Figure 866617DEST_PATH_IMAGE022
个样本的表征。
进一步的,所述步骤3中,对所选择的量刑标准知识文本进行编码,同时使用MNP任务使模型理解量刑标准知识以及其中数值,具体公式如下:
Figure 821410DEST_PATH_IMAGE023
其中,uA表示量刑标准知识的句子级表征,
Figure 266615DEST_PATH_IMAGE025
表示量刑标准知识的所有词语的表征矩阵,得到掩码数字预测MNP任务的损失函数
Figure 209032DEST_PATH_IMAGE026
定义为:
Figure 942633DEST_PATH_IMAGE027
其中
Figure 961404DEST_PATH_IMAGE028
表示第i个量刑标准知识中的数值数量,nV表示数值词典的大小,
Figure 209611DEST_PATH_IMAGE031
分别表示第i个量刑标准知识第j个数值预测中某一个类别的正确标签和预测概率。
进一步的,所述步骤4中,对文本数值和量刑标准知识数值构建异构有向数值图,进行数值推理。构建一个异构图
Figure 989851DEST_PATH_IMAGE033
,其中节点
Figure 711426DEST_PATH_IMAGE034
代表事实描述和量刑标准知识中的数值,边
Figure 806421DEST_PATH_IMAGE035
代表数值之间的大小关系。预训练模型尽管效果显著,但是被证明无法学习数值常识,不具有数值推理能力。这里通过图网络可以使模型理解数值规模。
在图网络中,遵循图神经网络推理的一般范式,做迭代地消息传播,最终得到具有数值理解的表征。整个过程可以概括如下:
Figure 662382DEST_PATH_IMAGE036
其中
Figure 953555DEST_PATH_IMAGE037
代表图网络的推理,
Figure 578571DEST_PATH_IMAGE038
是一个可学习的参数矩阵,
Figure 798462DEST_PATH_IMAGE039
Figure 876140DEST_PATH_IMAGE040
拼接,得到具有数值感知的表征矩阵
Figure 987315DEST_PATH_IMAGE041
,其计算方式如下:
Figure 716106DEST_PATH_IMAGE042
其中
Figure 100002_4
表示矩阵拼接,
Figure 186718DEST_PATH_IMAGE044
表示事实描述和量刑标准知识中数值的位置,
Figure 114967DEST_PATH_IMAGE045
是一个可学习的参数矩阵。该步骤可以帮助模型有效地学习到文本中的数值和量刑标准知识中的数值对比关系。此外,由于文本中的数值间接学习到了犯罪事实的语义信息,可以帮助模型更好地学习到量刑标准知识和犯罪事实之间的联合表征。
进一步的,所述步骤5中,联合量刑标准知识和犯罪事实中数值推理的结果,同时预测刑期和罚金:
Figure 714575DEST_PATH_IMAGE046
其中,
Figure 525536DEST_PATH_IMAGE047
是罚金预测的损失函数,
Figure 92653DEST_PATH_IMAGE048
是一个批次中样本的数量,
Figure 14472DEST_PATH_IMAGE049
是罚金等级的数量,
Figure 100002_5
分别是第i批次中第
Figure 6327DEST_PATH_IMAGE051
个样本的真实罚金标签和预测标签,
Figure 794155DEST_PATH_IMAGE052
是刑期预测的损失函数,
Figure 555306DEST_PATH_IMAGE053
分别是第i批次中第
Figure 531670DEST_PATH_IMAGE051
个样本的真实刑期标签和预测标签,
Figure 6
分别是第
Figure 237381DEST_PATH_IMAGE054
批次中第
Figure 810314DEST_PATH_IMAGE051
个样本的真实刑期长度和预测长度,当
Figure 590051DEST_PATH_IMAGE056
时,表示当前刑期为死刑或无期,该损失函数的特征在于,首先很好地区分了死刑和无期这两种特殊情况;其次相比传统基于交叉熵损失的方法,可以让模型即使在预测的结果和真实结果有差异时也可以使得结果更接近于正确结果。这里为了符合使得对刑期的预测更符合时间的特性,添加了一个损失,其中对数差可以使得模型更加看重刑期较小时的预测误差。
最终,完整的训练损失
Figure 657364DEST_PATH_IMAGE057
为:
Figure 691310DEST_PATH_IMAGE058
Figure 248194DEST_PATH_IMAGE059
即:量刑标准知识选择损失
Figure 452910DEST_PATH_IMAGE009
,对比学习损失
Figure 573182DEST_PATH_IMAGE010
,掩码数字预测损失
Figure 445323DEST_PATH_IMAGE026
c为不同损失的权重。
由该训练损失通过mini-batch 梯度下降的方式,以最小化函数的方式,更新所有的参数。将量刑标注知识选择、掩码数字预测和量刑预测三个任务联合训练,具有如下优势:(1)多个模型共用一套编码器,有效降低显存占用;(2)多个模型的的计算同时进行前向传播,可以提高模型的计算效率;(3)多个任务间相辅相成,通过信息共享可以提升彼此的性能表现。
本发明的一种量刑标准知识增强的数值感知的智能法律判决方法,相较现有技术,具有以下优点:
1)使用预训练模型作为犯罪事实的编码器可以从海量未标注的法律文本上学习法律语言本身的知识,可以为使下游任务更好地获取特定领域的知识。同时,作为多任务之间的公共编码器,让不同任务之间不相关的部分相互作用,有助于让模型脱离局部极小值的限制;
2)采用基于对比学习的量刑知识选择能够有效缓解易混淆罪名的挑战。对比学习具有强大的表示能力,在监督学习场景中,它能够有效区分不同类别的样本。在判决预测的实际应用中,能够有根据地选择正确的量刑标准知识是至关重要的一步。在本方案中,模型能够学习到易混淆样本之间的微小差异;
3)将图网络用于分类问题的数值推理,使得模型具有数值感知能力,相较于传统的将所有数值视作统一词汇或不同词汇的方法,考虑了数值的实际大小及其对比关系,可以有效提高量刑预测的精度;
4)引入量刑标准知识作为先验,将量刑标准知识数值作为锚点加入图网络,让模型能够更容易找到判决的参照点,从而保证训练的有效性和鲁棒性,同时量刑标准知识作为模型预测的基础,进一步提高了预测的准确率。同时将量刑标准知识中的数值作为锚点加入图网络,在图网络中进行数值推理,可以为模型的预测提供有效的解释,增强了量刑预测的可解释性;
5)采用掩码数值预测模块能够让模型学习到量刑标准中的法律常识,即提供不同罪名之间数字关系的常识性理解;
6)我们的目标是研究PTLMs是否能够捕获数字常识性知识,即提供对实体之间数字关系的理解的常识性知识,最有可能预测的数值排名可以呈现出该模块捕捉数值常识的能力。
附图说明
图1为本发明的模型概念图;
图2为本发明的流程图。
具体实施方式
为了更好地了解本发明的目的、结构及功能,下面结合附图,对本发明一种量刑标准知识增强的数值感知的智能法律判决方法做进一步详细的描述。
实施例:本发明所涉及的技术术语解释如下
PTLM(Pre-Trained Language Model):预训练语言模型
MNP(Masked Numeral Prediction):掩码数值预测
JKS(Judicial Knowledge Selection):司法判决知识选择
如图1所示,本发明由四个主要模块组成:即JKS模块、基于MNP任务的法律数字意义获取模块、图网络推理模块和判断预测模块。
首先通过基于对比学习的分类器选择给定犯罪事实对应的量刑标准知识。该模块是整个模型的基石,它模仿了法官的量刑实践。只有运用正确的量刑标准知识,才能作出准确的判断。然后,该模型通过掩码数值预测(MNP)任务,从上一步中选择的量刑标准知识中获得法律数值意义。量刑标准知识包含了犯罪行为的定量标准,在本文中称为数值锚点。这些锚点可以作为模型进行数值推理的参考点。在判断预测模块中,我们整合数字表示、事实描述和量刑标准知识,共同预测判断结果。
本发明的一种量刑标准知识增强的数值感知的智能法律判决方法,包括以下步骤:
步骤1、使用预训练语言模型(PTLM)对事实描述编码,得到文本编码
Figure 636360DEST_PATH_IMAGE001
Figure 842213DEST_PATH_IMAGE002
使用PTLM获得文本表征,以RoBERTa为例:
Figure 100019DEST_PATH_IMAGE007
其中
Figure 247973DEST_PATH_IMAGE001
为句子级的表征,
Figure 896123DEST_PATH_IMAGE002
为所有词语的表征矩阵,
Figure 171247DEST_PATH_IMAGE008
为标识符。
步骤2)使用基于对比学习的量刑标准知识选择,根据上面的文本编码选择正确量刑标准知识。
根据文本表征选择合适的量刑标准知识,同时引入对比学习的损失,来区分不同的量刑标准知识,得到量刑标准知识选择任务的损失函数
Figure 237554DEST_PATH_IMAGE009
和对比学习的损失函数
Figure 510403DEST_PATH_IMAGE010
,具体如下:
Figure 223013DEST_PATH_IMAGE011
Figure 973932DEST_PATH_IMAGE061
其中,λ是调整权重的超参,τ是softmax函数的温度超参,
Figure 817363DEST_PATH_IMAGE015
是一个训练批次大小,
Figure 434289DEST_PATH_IMAGE016
Figure 708145DEST_PATH_IMAGE017
分别指第i个样本第m个量刑标准知识类别正确的标签和预测的概率,
Figure 385114DEST_PATH_IMAGE018
指量刑标准知识的数量。
Figure 291890DEST_PATH_IMAGE062
Figure 135343DEST_PATH_IMAGE063
Figure 7
分别表示一个训练批次中第
Figure 111575DEST_PATH_IMAGE022
个样本的表征。
步骤3)使用PTLM对量刑标准知识编码,同时利用MNP学习数值意义。
对所选择的量刑标准知识文本进行编码,同时使用MNP任务使模型理解量刑标准知识以及其中数值,具体地:
Figure 771227DEST_PATH_IMAGE023
其中,uA表示量刑标准知识的句子级表征,
Figure 211359DEST_PATH_IMAGE025
表示量刑标准知识的所有词语的表征矩阵,
得到掩码数字预测MNP任务的损失函数
Figure 230131DEST_PATH_IMAGE026
定义为:
Figure 314761DEST_PATH_IMAGE065
其中
Figure 795290DEST_PATH_IMAGE028
表示第i个量刑标准知识中的数值数量,nV表示数值词典的大小,
Figure 958046DEST_PATH_IMAGE031
分别表示第i个量刑标准知识第j个数值预测中某一个类别的正确标签和预测概率。
步骤4)对文本数值和量刑标准知识数值构建异构有向数值图,进行数值推理,获得具有数值理解能力的表征。
进一步的,所述步骤4中,对文本数值和量刑标准知识数值构建异构有向数值图,进行数值推理。构建一个异构图
Figure 779875DEST_PATH_IMAGE066
,其中节点
Figure 635835DEST_PATH_IMAGE005
代表事实描述和量刑标准知识中的数值,边
Figure 474478DEST_PATH_IMAGE006
代表数值之间的大小关系。
在图网络中,遵循图神经网络推理的一般范式,做迭代地消息传播,最终得到具有数值理解的表征。整个过程可以概括如下:
Figure 316139DEST_PATH_IMAGE036
其中
Figure 785298DEST_PATH_IMAGE037
代表图网络的推理,
Figure 112243DEST_PATH_IMAGE038
是一个可学习的参数矩阵,
Figure 20156DEST_PATH_IMAGE039
Figure 702941DEST_PATH_IMAGE040
拼接,得到具有数值感知的表征:
Figure 890471DEST_PATH_IMAGE042
其中
Figure 8
表示矩阵拼接,
Figure 839153DEST_PATH_IMAGE044
表示事实描述和量刑标准知识中数值的位置,
Figure 953608DEST_PATH_IMAGE045
是一个可学习的参数矩阵。该步骤可以帮助模型有效地学习到文本中的数值和量刑标准知识中的数值对比关系。此外,由于文本中的数值间接学习到了犯罪事实的语义信息,可以帮助模型更好地学习到量刑标准知识和犯罪事实之间的联合表征。
进一步的,所述步骤5中,联合量刑标准知识和犯罪事实中数值推理的结果,同时预测刑期和罚金:
Figure 561307DEST_PATH_IMAGE067
其中,
Figure 816839DEST_PATH_IMAGE047
是罚金预测的损失函数,
Figure 548778DEST_PATH_IMAGE048
是一个批次中样本的数量,
Figure 2893DEST_PATH_IMAGE049
是罚金等级的数量,
Figure 984756DEST_PATH_IMAGE050
分别是第i批次中第
Figure 561416DEST_PATH_IMAGE051
个样本的真实罚金标签和预测标签,
Figure 73300DEST_PATH_IMAGE052
是刑期预测的损失函数,
Figure 39113DEST_PATH_IMAGE053
分别是第i批次中第
Figure 595177DEST_PATH_IMAGE051
个样本的真实刑期标签和预测标签,
Figure 7572DEST_PATH_IMAGE055
分别是第i批次中第
Figure 110975DEST_PATH_IMAGE051
个样本的真实刑期长度和预测长度,当
Figure 722828DEST_PATH_IMAGE056
时,表示当前刑期为死刑或无期,该损失函数的特征在于,首先很好地区分了死刑和无期这两种特殊情况;其次相比传统基于交叉熵损失的方法,可以让模型即使在预测的结果和真实结果有差异时也可以使得结果更接近于正确结果。这里为了符合使得对刑期的预测更符合时间的特性,添加了一个损失,其中对数差可以使得模型更加看重刑期较小时的预测误差。
最终,完整的训练损失为:
Figure 943725DEST_PATH_IMAGE069
由该训练损失通过mini-batch 梯度下降的方式,以最小化函数的方式,更新所有的参数。将量刑标注知识选择、掩码数字预测和量刑预测三个任务联合训练,具有如下优势:(1)多个模型共用一套编码器,有效降低显存占用;(2)多个模型的的计算同时进行前向传播,可以提高模型的计算效率;(3)多个任务间相辅相成,通过信息共享可以提升彼此的性能表现。
步骤6)模型的训练以及优化。通过小批量梯度下降(mini-batch)随机梯度下降的方式来更新模型的参数,进行模型的训练以及优化。具体来讲,采用批量梯度下降就是在每个训练回合中计算所有样本产生的损失,进而计算梯度进行反向传播和参数更新。这样每次都需要所有样本来计算损失,在样本数量非常大的时候会受到计算资源的限制,效率非常低。小批量梯度下降将所有的训练样本划分到B个mini-batch中,每个mini-batch包含𝑏𝑎𝑡𝑐ℎ_𝑠𝑖𝑧𝑒个训练样本。每个迭代训练过程中计算一个mini-batch中的样本损失,进而进梯度下降和参数更新,这样兼顾了批量梯度下降的准确度和随机梯度下降的更新效率。
传统的梯度下降,每次梯度下降都是对所有的训练数据进行计算平均梯度,这种梯度下降法叫做full-batch梯度下降法。考虑一种情况,当训练数据量在千万级别时,一次迭代需要等待多长时间,会极大的降低训练速度。如果选择介于合适的bath size数据量进行训练,称为mini-batch 梯度下降。
随机梯度下降的劣势在于每次训练的不能保证使用的是同一份数据,所以每一个batch不能保证都下降,整体训练loss变化会有很多噪声,但是整体趋势是下降的,随后会在最优值附近波动,不会收敛。
在训练过程中,需要一个指标来标示训练是否收敛。这里需要一个数据集,称为验证集,用来在每轮训练结束后观察,当前训练的模型是否已经收敛。由于验证集上的数据没有在训练中出现,所以模型在验证集上的效果可以衡量模型是否收敛。这样可以有效的进行合适的训练,避免训练时间过长导致的模型过拟合。
在训练的过程中,可以选择不同的超参数,比如词向量的维度。本实施采用如下的参数设计:词向量维度{50,100,200,300},学习速率{0.001,0.01,0.02,0.1}。batch的大小B={32,64,128},同样我们采用dropout=0.5的设置来避免过拟合。
本实施例使用了如下指标进行评估:
F1: 通过使用macro precision 和macro recall 以及macro f1 来测试分类器的性能。precision 是指分类器判断为正例的数据中真正属于正例的数据的比例,反应了分类器在判断正例时是否准确。recall 是指真实的全部正例数据中分类器判断为正例数据的比例,反应了分类器能够将全部正例数据检索到的能力。f1 得分同时兼顾了precision 和 recall,其计算公式是
Figure 500608DEST_PATH_IMAGE070
。macro指在多分类情况下各类的均值。
为了验证本发明的效果,在若干个司法判决数据集上进行了实验,结果如下:
Figure 751330DEST_PATH_IMAGE072
Figure 356755DEST_PATH_IMAGE074
本发明在若干个法律判决数据集的刑期和罚金预测上都取得了当前最佳的精度。相较于其他方法,有较大的性能提升。
可以理解,本发明是通过一些实施例进行描述的,本领域技术人员知悉的,在不脱离本发明的精神和范围的情况下,可以对这些特征和实施例进行各种改变或等效替换。另外,在本发明的教导下,可以对这些特征和实施例进行修改以适应具体的情况及材料而不会脱离本发明的精神和范围。因此,本发明不受此处所公开的具体实施例的限制,所有落入本申请的权利要求范围内的实施例都属于本发明所保护的范围内。

Claims (7)

1.一种量刑标准知识增强的数值感知的智能法律判决方法,其特征在于,包括以下步骤:
步骤1、使用预训练语言模型PTLM在海量法律文本上进行二阶段预训练,以获得领域内和任务内的语义知识,
步骤2、使用基于对比学习的量刑标准知识选择,根据上面的文本编码器选择正确量刑标准知识,根据得到的犯罪事实描述编码,选择正确的量刑标准知识,作为一个损失,同时引入对比学习损失,
步骤3、使用与步骤1中同样经过两阶段预训练的另一个PTLM对量刑标准知识编码,同时利用掩码数值预测MNP,Masked Numeral Prediction学习数值意义,得到量刑标准知识编码
Figure DEST_PATH_IMAGE001
Figure DEST_PATH_IMAGE002
步骤4、对文本数值和量刑标准知识数值构建异构有向数值图,进行数值推理,
步骤5、联合量刑标准知识和犯罪事实中数值推理的结果,同时预测刑期和罚金,
步骤6、通过小批量梯度下降mini-batch随机梯度下降的方式来更新模型的参数,进行模型的训练以及优化;
所述步骤1中,使用PTLM在海量法律文本上进行二阶段预训练,以获得领域内和任务内的语义知识,本方法中使用RoBERTa作为犯罪事实文本描述和司法知识文本的编码器;RoBERTa即为被广泛使用的一种PTLM,在大量法律文本上进行掩码语言建模MLM, MaskedLanguage Model,随后在任务数据集文本上进一步预训练,使用得到的模型对事实描述编码,得到文本编码uX
Figure DEST_PATH_IMAGE004
,具体如下:
Figure DEST_PATH_IMAGE005
其中uX为句子级的表征,
Figure 494694DEST_PATH_IMAGE004
为所有词语的表征矩阵,
Figure DEST_PATH_IMAGE006
为标识符;
所述步骤2中,根据文本表征选择合适的量刑标准知识,得到量刑标准知识选择任务的损失函数
Figure DEST_PATH_IMAGE007
公式如下:
Figure DEST_PATH_IMAGE008
,
Figure 2
Figure DEST_PATH_IMAGE010
分别指第i个样本第m个量刑标准知识类别正确的标签和预测的概率,
Figure DEST_PATH_IMAGE011
指量刑标准知识的数量;
所述步骤2中,同时引入基于对比学习的损失,来区分易混淆的量刑标准知识,对比学习的损失函数
Figure DEST_PATH_IMAGE012
定义如下:
Figure DEST_PATH_IMAGE013
,
其中,λ是调整权重的超参,τ是softmax函数的温度超参,
Figure DEST_PATH_IMAGE016
是一个训练批次大小,
Figure DEST_PATH_IMAGE017
Figure DEST_PATH_IMAGE018
Figure 1
表示一个训练批次中第
Figure DEST_PATH_IMAGE020
个样本的表征。
2.根据权利要求1所述的量刑标准知识增强的数值感知的智能法律判决方法,其特征在于,所述步骤3中,对所选择的量刑标准知识文本进行编码,同时使用MNP任务使模型理解量刑标准知识以及其中数值,具体公式如下:
Figure DEST_PATH_IMAGE021
其中,uA表示量刑标准知识的句子级表征,
Figure 879724DEST_PATH_IMAGE002
表示量刑标准知识的所有词语的表征矩阵, 得到掩码数字预测MNP任务的损失函数
Figure DEST_PATH_IMAGE022
定义为:
Figure DEST_PATH_IMAGE023
,
其中,
Figure DEST_PATH_IMAGE024
表示第i个量刑标准知识中的数值数量,
Figure DEST_PATH_IMAGE026
表示数值词典的大小,
Figure DEST_PATH_IMAGE027
分别表示第i个量刑标准知识第j个数值预测中某一个类别的正确标签和预测概率。
3.根据权利要求2所述的量刑标准知识增强的数值感知的智能法律判决方法,其特征在于,所述步骤4中,对文本数值和量刑标准知识数值构建异构有向数值图,进行数值推理,构建一个异构图
Figure DEST_PATH_IMAGE029
,其中节点
Figure DEST_PATH_IMAGE030
代表事实描述和量刑标准知识中的数值,边
Figure DEST_PATH_IMAGE031
代表数值之间的大小关系。
4.根据权利要求3所述的量刑标准知识增强的数值感知的智能法律判决方法,其特征在于,所述步骤4中,在图网络中,遵循图神经网络推理的一般范式,做迭代地消息传播,最终得到具有数值理解的表征,整个过程概括如下:
Figure DEST_PATH_IMAGE032
,
其中
Figure DEST_PATH_IMAGE033
代表图网络的推理,
Figure DEST_PATH_IMAGE034
是一个可学习的参数矩阵,
Figure DEST_PATH_IMAGE035
Figure DEST_PATH_IMAGE036
拼接,得到具有数值感知的表征矩阵
Figure DEST_PATH_IMAGE037
,其计算方式如下:
Figure DEST_PATH_IMAGE038
,
其中
Figure 3
表示矩阵拼接,
Figure DEST_PATH_IMAGE040
表示事实描述和量刑标准知识中数值的位置,
Figure DEST_PATH_IMAGE041
是一个可学习的参数矩阵。
5.根据权利要求1所述的量刑标准知识增强的数值感知的智能法律判决方法,所述步骤5中,分别计算出刑期和罚金预测的损失函数:
Figure DEST_PATH_IMAGE042
Figure DEST_PATH_IMAGE043
Figure DEST_PATH_IMAGE044
,
其中,
Figure DEST_PATH_IMAGE045
是罚金预测的损失函数,
Figure DEST_PATH_IMAGE046
是一个批次中样本的数量,
Figure DEST_PATH_IMAGE047
是罚金等级的数量,
Figure DEST_PATH_IMAGE048
分别是第i批次中第
Figure DEST_PATH_IMAGE049
个样本的真实罚金标签和预测标签,
Figure DEST_PATH_IMAGE050
是刑期预测的损失函数,
Figure 4
分别是第i批次中第
Figure 902017DEST_PATH_IMAGE049
个样本的真实刑期标签和预测标签,
Figure 5
分别是第
Figure DEST_PATH_IMAGE054
批次中第
Figure 607804DEST_PATH_IMAGE049
个样本的真实刑期长度和预测长度,当j=1或 j=2 时表示当前刑期为死刑或无期,
Figure DEST_PATH_IMAGE056
时表示当前刑期为死刑,
Figure DEST_PATH_IMAGE057
时表示当前刑期为无期。
6.根据权利要求5所述的量刑标准知识增强的数值感知的智能法律判决方法,其特征在于,步骤5通过同时优化量刑标注知识选择、罚金预测和刑期预测,
最终,完整的训练损失
Figure DEST_PATH_IMAGE058
为:
Figure DEST_PATH_IMAGE059
Figure DEST_PATH_IMAGE060
即:量刑标准知识选择损失
Figure 818337DEST_PATH_IMAGE007
,对比学习损失
Figure 812838DEST_PATH_IMAGE012
,掩码数字预测损失
Figure 468816DEST_PATH_IMAGE022
c为不同损失的权重。
7.根据权利要求1所述的量刑标准知识增强的数值感知的智能法律判决方法,其特征在于,步骤6中,训练损失通过mini-batch 梯度下降的方式,以最小化函数的方式,更新所有的参数,每个回合通过一个批次样本来计算损失。
CN202210371281.6A 2022-04-11 2022-04-11 一种量刑标准知识增强的数值感知的智能法律判决方法 Active CN114444517B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210371281.6A CN114444517B (zh) 2022-04-11 2022-04-11 一种量刑标准知识增强的数值感知的智能法律判决方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210371281.6A CN114444517B (zh) 2022-04-11 2022-04-11 一种量刑标准知识增强的数值感知的智能法律判决方法

Publications (2)

Publication Number Publication Date
CN114444517A CN114444517A (zh) 2022-05-06
CN114444517B true CN114444517B (zh) 2022-07-08

Family

ID=81359046

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210371281.6A Active CN114444517B (zh) 2022-04-11 2022-04-11 一种量刑标准知识增强的数值感知的智能法律判决方法

Country Status (1)

Country Link
CN (1) CN114444517B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116011428B (zh) * 2023-03-22 2023-06-23 中国科学院大学 民事案件信息抽取与判决预测的方法、装置、介质和设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376227B (zh) * 2018-10-29 2019-08-13 山东大学 一种基于多任务人工神经网络的刑期预测方法
CN111815485A (zh) * 2020-06-12 2020-10-23 中国司法大数据研究院有限公司 一种基于深度学习bert模型的量刑预测方法和装置

Also Published As

Publication number Publication date
CN114444517A (zh) 2022-05-06

Similar Documents

Publication Publication Date Title
Gu et al. Stack-captioning: Coarse-to-fine learning for image captioning
CN112507699B (zh) 一种基于图卷积网络的远程监督关系抽取方法
CN113420163B (zh) 基于矩阵融合的异构信息网知识图谱补全方法和装置
CN111259738A (zh) 人脸识别模型构建方法、人脸识别方法及相关装置
CN113268612B (zh) 基于均值融合的异构信息网知识图谱补全方法和装置
CN106997474A (zh) 一种基于深度学习的图节点多标签分类方法
CN108985617B (zh) 一种基于智能制造的产品生产流程调度方法及系统
CN116594748B (zh) 针对任务的模型定制处理方法、装置、设备和介质
CN113139651A (zh) 基于自监督学习的标签比例学习模型的训练方法和设备
Tirumala Evolving deep neural networks using coevolutionary algorithms with multi-population strategy
CN114444517B (zh) 一种量刑标准知识增强的数值感知的智能法律判决方法
CN115114409A (zh) 一种基于软参数共享的民航不安全事件联合抽取方法
CN114692605A (zh) 一种融合句法结构信息的关键词生成方法及装置
CN116804997A (zh) 基于图神经网络的中文相似案例推荐方法、装置和设备
CN115310355A (zh) 考虑多能耦合的综合能源系统多元负荷预测方法及系统
Sood et al. Neunets: An automated synthesis engine for neural network design
CN111783688B (zh) 一种基于卷积神经网络的遥感图像场景分类方法
Çiftçioğlu RAGN-L: a stacked ensemble learning technique for classification of fire-resistant columns
CN115906846A (zh) 一种基于双图的层次特征融合的文档级命名实体识别方法
CN115495579A (zh) 5g通信助理文本分类的方法、装置、电子设备及存储介质
CN114064912A (zh) 数据处理方法、装置、计算机设备和存储介质
CN113139624A (zh) 基于机器学习的网络用户分类方法
CN112650861A (zh) 一种基于任务分层的人格预测方法、系统及装置
CN113297385A (zh) 基于改进GraphRNN的多标签文本分类模型及分类方法
CN113282821A (zh) 基于高维会话数据融合的智能应用预测方法、装置及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant