CN111325387B - 可解释法律自动判决预测方法及装置 - Google Patents
可解释法律自动判决预测方法及装置 Download PDFInfo
- Publication number
- CN111325387B CN111325387B CN202010091848.5A CN202010091848A CN111325387B CN 111325387 B CN111325387 B CN 111325387B CN 202010091848 A CN202010091848 A CN 202010091848A CN 111325387 B CN111325387 B CN 111325387B
- Authority
- CN
- China
- Prior art keywords
- question
- answer
- model
- result
- fact
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000010801 machine learning Methods 0.000 claims abstract description 35
- 238000003062 neural network model Methods 0.000 claims abstract description 32
- 238000012549 training Methods 0.000 claims description 21
- 239000013598 vector Substances 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 12
- 230000002787 reinforcement Effects 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- General Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Marketing (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Development Economics (AREA)
- Data Mining & Analysis (AREA)
- Game Theory and Decision Science (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Entrepreneurship & Innovation (AREA)
- Biomedical Technology (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Technology Law (AREA)
- Primary Health Care (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明实施例提供一种可解释法律自动判决预测方法及装置,所述方法包括:编码步骤:获取事实编码结果;问题生成步骤:将事实编码结果和预设的问题答案集合,输入至全连接神经网络模型,输出问题编号;答案生成步骤:将分字结果和问题编号,输入至BERT‑QA模型,输出问题答案;循环步骤:重复问题生成步骤和答案生成步骤,直到达到预设的重复次数,确定所有问题的答案;判决步骤:将所有问题的答案,输入至统计机器学习模型,输出判决结果。本发明实施例提供的可解释法律自动判决预测方法及装置,仿照实际审讯过程,利用人工智能进行若干轮提问和回答,并最终根据问答结果进行自动判决,实现了为自动判决的结果提供可解释性。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种可解释法律自动判决预测方法及装置。
背景技术
自动判决的任务目标是根据法律文书中的事实部分来对判决的结果进行预测。这项技术对于法律判决来说是极其重要的一项技术。一方面,自动判决能够为没有法律基础的人提供一个低消耗但是高质量的判决结果,另一方面,它也能够为专业的法律人士提供一个足够的法律参考。
为了解决自动判决,近些年来,越来越多的学者开始在自动判决上进行研究。最开始大部分的学者都将自动判决的问题当做一个简单的文本分类问题,用一些传统的手段如关键字匹配来处理自动判决的问题。同时,随着深度学习的发展,更多的学者开始利用深度学习的框架来抽取文本当中的信息,从而用来对自动判决进行辅助。
目前,现有的许多方法已经能够在罪名预测的问题上取得非常优异的效果(准确率和Macro-F1均可达到95%以上)。然而,这些方法的一大问题在于缺乏可解释性,它们将案件描述作为输入,直接得到判决结果预测,并无任何中间步骤提供预测结果的解释。换而言之,不论自动判决的结果正确与否,都无法知道模型为什么作出了这样的判决;且一旦自动判决与法律专业人士的人工判决结果相冲突,人们也无法知道是什么问题引发了错误。这一问题也导致了现有的自动判决方法并不被人们,尤其是法律专业人士所认可。
发明内容
本发明实施例提供一种可解释法律自动判决预测方法及装置,用于解决现有技术中的上述技术问题。
为了解决上述技术问题,一方面,本发明实施例提供一种可解释法律自动判决预测方法,包括:
编码步骤:获取待处理的法律文书中的事实编码结果;
问题生成步骤:将所述事实编码结果和预设的问题答案集合,输入至全连接神经网络模型,输出问题编号;
答案生成步骤:将所述法律文书中的事实部分的分字结果和所述问题编号,输入至BERT-QA模型,输出问题答案;
循环步骤:重复问题生成步骤和答案生成步骤,直到达到预设的重复次数,确定所有问题的答案;
判决步骤:将所有问题的答案,输入至统计机器学习模型,输出判决结果;
其中,所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型,都是基于法律文书样本和预先标记好的法律文书样本的判决结果进行训练后得到的。
进一步地,所述编码步骤,具体包括:
对所述待处理的法律文书中的事实部分进行分字处理,得到分字结果;
利用BERT模型和字向量对所述分字结果进行编码,得到所述事实编码结果。
进一步地,所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型通过如下步骤进行训练得到:
获取法律文书样本,构建法律文书样本数据集;
提取法律文书样本中的事实信息和判决结果标签;
基于法律文书样本中的事实信息和判决结果标签,借助强化学习算法Deep Q-Learning进行训练,得到所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型。
进一步地,在确定所有问题的答案的过程中,所述问题答案集合中未被选中的问题的答案自动值为否。
进一步地,所述统计机器学习模型为LightGBM模型。
另一方面,本发明实施例提供一种可解释法律自动判决预测装置,包括:
编码模块,用于执行编码步骤:获取待处理的法律文书中的事实编码结果;
问题生成模块,用于执行问题生成步骤:将所述事实编码结果和预设的问题答案集合,输入至全连接神经网络模型,输出问题编号;
答案生成模块,用于执行答案生成步骤:将所述法律文书中的事实部分的分字结果和所述问题编号,输入至BERT-QA模型,输出问题答案;
循环模块,用于执行循环步骤:重复问题生成步骤和答案生成步骤,直到达到预设的重复次数,确定所有问题的答案;
判决模块,用于执行判决步骤:将所有问题的答案,输入至统计机器学习模型,输出判决结果;
其中,所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型,都是基于法律文书样本和预先标记好的法律文书样本的判决结果进行训练后得到的。
进一步地,所述编码模块包括分字单元和编码单元,其中:
所述分字单元用于对所述待处理的法律文书中的事实部分进行分字处理,得到分字结果;
所述编码单元用于利用BERT模型和字向量对所述分字结果进行编码,得到所述事实编码结果。
进一步地,还包括训练模块,所述训练模块用于基于法律文书样本和预先标记好的法律文书样本的判决结果,借助强化学习算法Deep Q-Learning进行训练,得到所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型。
再一方面,本发明实施例提供一种电子设备,包括:存储器、处理器,以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现上述方法的步骤。
又一方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,当所述计算机程序被处理器执行时,实现上述方法的步骤。
本发明实施例提供的可解释法律自动判决预测方法及装置,仿照实际审讯过程,利用人工智能进行若干轮提问和回答,并最终根据问答结果进行自动判决,由于问答过程是可见、且便于展示、易于理解的,且最终判决结果只与问答相关,实现了为自动判决的结果提供可解释性。
附图说明
图1为本发明实施例提供的可解释法律自动判决预测方法示意图;
图2为本发明实施例提供的可解释法律自动判决预测原理示意图;
图3为本发明实施例提供的可解释法律自动判决预测装置示意图;
图4为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为了使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的可解释法律自动判决预测方法示意图,如图1所示,本发明实施例提供一种可解释法律自动判决预测方法,其执行主体为可解释法律自动判决预测装置。该方法包括:
步骤S101、编码步骤:获取待处理的法律文书中的事实编码结果。
具体来说,在获取待处理的法律文书之后,首先,对待处理的法律文书中的事实信息进行编码,获取事实编码结果。
例如,首先,对提取到的法律文书中的事实部分进行分字。
对于提取的事实部分,将其逐字分开。对于任意一篇事实,其第i个字表示为wi。
然后,利用BERT和字向量进行编码。
分字过后的事实信息可以表示为一个字的序列[w1,w2,…,wl],则利用BERT,可以将其转化为编码向量d,该向量的长度n可以根据实际情况来设置,例如,n=768。
步骤S102、问题生成步骤:将所述事实编码结果和预设的问题答案集合,输入至全连接神经网络模型,输出问题编号。
具体来说,在获取事实编码结果之后,进行提问,将事实编码结果和预设的问题答案集合,输入至全连接神经网络模型,输出问题编号。
例如,将现有问题的答案集合表示成向量s=(s1,s2,…,sM),长度为M,其中si表示第i个预设问题的状态:若在之前的步骤中已问过,且答案为“是”,则si=1;若已问过且答案为“否”,则si=-1;若在之前的步骤中未问过,则si=0。向量s将与事实描述的编码向量d共同组成提问网络的输入。
使用全连接神经网络作为提问网络。用一个矩阵WQ来表示这一网络,其大小为M×(M+n)。将WQ与向量s,d拼接后的结果相乘,得到各问题的分值:这将在问题选择中被用到。
为了避免重复问相同的问题,利用masked softmax函数来计算选择各个问题的概率,对于第i个问题,如果其尚未被问过,则:
最后,选πi最大的问题作为本轮问题,即,若当前为第t轮提问,则选取问题qt=argmaxiπi。
步骤S103、答案生成步骤:将所述法律文书中的事实部分的分字结果和所述问题编号,输入至BERT-QA模型,输出问题答案。
具体来说,在确定问题之后,将法律文书中的事实部分的分字结果和问题编号,输入至BERT-QA模型,输出问题答案。
例如,选用BERT-QA作为回答网络。在这步中,将文本分字结果[w1,w2,…,wl]和问题编号qt输入回答网络,并得到问题答案at作为输出。
步骤S104、循环步骤:重复问题生成步骤和答案生成步骤,直到达到预设的重复次数,确定所有问题的答案。
具体来说,重复问题生成步骤和答案生成步骤,直到达到预设的重复次数,确定所有问题的答案。
例如,预设的重复次数为K,判断已经进行提问-回答的循环次数是否达到既定的K次,若已达到,则转到判决步骤,否则,继续进行新一轮的提问-回答。
步骤S105、判决步骤:将所有问题的答案,输入至统计机器学习模型,输出判决结果,其中,所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型,都是基于法律文书样本和预先标记好的法律文书样本的判决结果进行训练后得到的。
具体来说,在确定所有问题的答案之后,通过预测网络得到自动判决结果。
将所有问题的答案,输入至统计机器学习模型,输出判决结果。
例如,根于疑罪从无的原则,将未问过的问题的答案自动置为“否”,并得到预测网络的输入,一个M维向量p,其中,若第i个问题的答案为“是”,则pi=1,否则pi=-1。
通过提供输入向量p,统计机器学习模型将计算得到输出预测结果。
本发明实施例提供的可解释法律自动判决预测方法,仿照实际审讯过程,利用人工智能进行若干轮提问和回答,并最终根据问答结果进行自动判决,由于问答过程是可见、且便于展示、易于理解的,且最终判决结果只与问答相关,实现了为自动判决的结果提供可解释性。
基于上述任一实施例,进一步地,所述编码步骤,具体包括:
对所述待处理的法律文书中的事实部分进行分字处理,得到分字结果;
利用BERT模型和字向量对所述分字结果进行编码,得到所述事实编码结果。
具体来说,对待处理的法律文书中的事实信息进行编码,获取事实编码结果的具体步骤如下:
首先,对提取到的法律文书中的事实部分进行分字。
对于提取的事实部分,将其逐字分开。对于任意一篇事实,其第i个字表示为wi。
然后,利用BERT和字向量进行编码。
分字过后的事实信息可以表示为一个字的序列[w1,w2,…,wl],则利用BERT,可以将其转化为编码向量d,该向量的长度n可以根据实际情况来设置,例如,n=768。
本发明实施例提供的可解释法律自动判决预测方法,仿照实际审讯过程,利用人工智能进行若干轮提问和回答,并最终根据问答结果进行自动判决,由于问答过程是可见、且便于展示、易于理解的,且最终判决结果只与问答相关,实现了为自动判决的结果提供可解释性。
基于上述任一实施例,进一步地,所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型通过如下步骤进行训练得到:
获取法律文书样本,构建法律文书样本数据集;
提取法律文书样本中的事实信息和判决结果标签;
基于法律文书样本中的事实信息和判决结果标签,借助强化学习算法Deep Q-Learning进行训练,得到所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型。
具体来说,图2为本发明实施例提供的可解释法律自动判决预测原理示意图,如图2所示,在对法律文书进行自动判决预测之前,需要对相关的模型进行训练。
全连接神经网络模型、BERT-QA模型和统计机器学习模型通过如下步骤进行训练得到:
首先,获取法律文书样本,构建法律文书样本数据集。
构建法律文书数据集,可以根据不同类型的案件来构建法律文书样本数据集。例如,收集文书数据并从中找出所有的刑事案件的文书作为数据集。
然后,提取法律文书样本中的事实信息和判决结果标签。
利用正则表达式,从文书数据中提取出事实部分的描述和自动判决所需要的各种标签信息。
最后,基于法律文书样本中的事实信息和判决结果标签,借助强化学习算法DeepQ-Learning进行训练,得到全连接神经网络模型、BERT-QA模型和统计机器学习模型。
本发明实施例提供的可解释法律自动判决预测方法,仿照实际审讯过程,利用人工智能进行若干轮提问和回答,并最终根据问答结果进行自动判决,由于问答过程是可见、且便于展示、易于理解的,且最终判决结果只与问答相关,实现了为自动判决的结果提供可解释性。
基于上述任一实施例,进一步地,在确定所有问题的答案的过程中,所述问题答案集合中未被选中的问题的答案自动值为否。
具体来说,根于疑罪从无的原则,将未问过的问题的答案自动置为“否”,并得到预测网络的输入,一个M维向量p,其中,若第i个问题的答案为“是”,则pi=1,否则pi=-1。
本发明实施例提供的可解释法律自动判决预测方法,仿照实际审讯过程,利用人工智能进行若干轮提问和回答,并最终根据问答结果进行自动判决,由于问答过程是可见、且便于展示、易于理解的,且最终判决结果只与问答相关,实现了为自动判决的结果提供可解释性。
基于上述任一实施例,进一步地,所述统计机器学习模型为LightGBM模型。
具体来说,在本发明实施例中,统计机器学习模型为LightGBM模型。
本发明实施例提供的可解释法律自动判决预测方法,仿照实际审讯过程,利用人工智能进行若干轮提问和回答,并最终根据问答结果进行自动判决,由于问答过程是可见、且便于展示、易于理解的,且最终判决结果只与问答相关,实现了为自动判决的结果提供可解释性。
基于上述任一实施例,图3为本发明实施例提供的可解释法律自动判决预测装置示意图,如图3所示,本发明实施例提供一种可解释法律自动判决预测装置,包括编码模块301、问题生成模块302、答案生成模块303、循环模块304和判决模块305,其中:
编码模块301用于执行编码步骤:获取待处理的法律文书中的事实编码结果;问题生成模块302用于执行问题生成步骤:将所述事实编码结果和预设的问题答案集合,输入至全连接神经网络模型,输出问题编号;答案生成模块303用于执行答案生成步骤:将所述法律文书中的事实部分的分字结果和所述问题编号,输入至BERT-QA模型,输出问题答案;循环模块304用于执行循环步骤:重复问题生成步骤和答案生成步骤,直到达到预设的重复次数,确定所有问题的答案;判决模块305用于执行判决步骤:将所有问题的答案,输入至统计机器学习模型,输出判决结果;其中,所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型,都是基于法律文书样本和预先标记好的法律文书样本的判决结果进行训练后得到的。
本发明实施例提供一种可解释法律自动判决预测装置,用于执行上述任一实施例中所述的方法,通过本实施例提供的装置执行上述某一实施例中所述的方法的具体步骤与上述相应实施例相同,此处不再赘述。
本发明实施例提供的可解释法律自动判决预测装置,仿照实际审讯过程,利用人工智能进行若干轮提问和回答,并最终根据问答结果进行自动判决,由于问答过程是可见、且便于展示、易于理解的,且最终判决结果只与问答相关,实现了为自动判决的结果提供可解释性。
图4为本发明实施例提供的电子设备的结构示意图,如图4所示,该电子设备包括:处理器(processor)401、通信接口(Communications Interface)402、存储器(memory)403和通信总线404,其中,处理器401,通信接口402,存储器403通过通信总线404完成相互间的通信。处理器401和存储器402通过总线403完成相互间的通信。处理器401可以调用存储器403中的逻辑指令,以执行如下方法:
编码步骤:获取待处理的法律文书中的事实编码结果;
问题生成步骤:将所述事实编码结果和预设的问题答案集合,输入至全连接神经网络模型,输出问题编号;
答案生成步骤:将所述法律文书中的事实部分的分字结果和所述问题编号,输入至BERT-QA模型,输出问题答案;
循环步骤:重复问题生成步骤和答案生成步骤,直到达到预设的重复次数,确定所有问题的答案;
判决步骤:将所有问题的答案,输入至统计机器学习模型,输出判决结果;
其中,所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型,都是基于法律文书样本和预先标记好的法律文书样本的判决结果进行训练后得到的。
此外,上述的存储器中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
进一步地,本发明实施例提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例中的步骤,例如包括:
编码步骤:获取待处理的法律文书中的事实编码结果;
问题生成步骤:将所述事实编码结果和预设的问题答案集合,输入至全连接神经网络模型,输出问题编号;
答案生成步骤:将所述法律文书中的事实部分的分字结果和所述问题编号,输入至BERT-QA模型,输出问题答案;
循环步骤:重复问题生成步骤和答案生成步骤,直到达到预设的重复次数,确定所有问题的答案;
判决步骤:将所有问题的答案,输入至统计机器学习模型,输出判决结果;
其中,所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型,都是基于法律文书样本和预先标记好的法律文书样本的判决结果进行训练后得到的。
进一步地,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,当所述计算机程序被处理器执行时,实现上述各方法实施例中的步骤,例如包括:
编码步骤:获取待处理的法律文书中的事实编码结果;
问题生成步骤:将所述事实编码结果和预设的问题答案集合,输入至全连接神经网络模型,输出问题编号;
答案生成步骤:将所述法律文书中的事实部分的分字结果和所述问题编号,输入至BERT-QA模型,输出问题答案;
循环步骤:重复问题生成步骤和答案生成步骤,直到达到预设的重复次数,确定所有问题的答案;
判决步骤:将所有问题的答案,输入至统计机器学习模型,输出判决结果;
其中,所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型,都是基于法律文书样本和预先标记好的法律文书样本的判决结果进行训练后得到的。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (8)
1.一种可解释法律自动判决预测方法,其特征在于,包括:
编码步骤:获取待处理的法律文书中的事实编码结果;
问题生成步骤:将所述事实编码结果和预设的问题答案集合,输入至全连接神经网络模型,输出问题编号;将所述问题答案集合表示成向量s=(s1,s2,…,sM),长度为M,其中si表示第i个预设问题的状态:若在之前的步骤中已问过,且答案为是,则si=1;若已问过且答案为否,则si=-1;若在之前的步骤中未问过,则si=0;向量s与所述事实编码结果共同组成所述全连接神经网络模型的输入;为了避免重复问相同的问题,利用masked softmax函数来计算选择各个问题的概率,对于第i个问题,如果其尚未被问过,则:选用πi概率最大的问题作为本轮问题;其中,/>表示问题的分值,i表示预设问题的问题编号;
答案生成步骤:将所述法律文书中的事实部分的分字结果和所述问题编号,输入至BERT-QA模型,输出问题答案;
循环步骤:重复问题生成步骤和答案生成步骤,直到达到预设的重复次数,确定所有问题的答案;
判决步骤:将所有问题的答案,输入至统计机器学习模型,输出判决结果;
其中,所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型,都是基于法律文书样本和预先标记好的法律文书样本的判决结果进行训练后得到的;
所述编码步骤,具体包括:
对所述待处理的法律文书中的事实部分进行分字处理,得到分字结果;
利用BERT模型和字向量对所述分字结果进行编码,得到所述事实编码结果。
2.根据权利要求1所述的可解释法律自动判决预测方法,其特征在于,所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型通过如下步骤进行训练得到:
获取法律文书样本,构建法律文书样本数据集;
提取法律文书样本中的事实信息和判决结果标签;
基于法律文书样本中的事实信息和判决结果标签,借助强化学习算法Deep Q-Learning进行训练,得到所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型。
3.根据权利要求1所述的可解释法律自动判决预测方法,其特征在于,在确定所有问题的答案的过程中,所述问题答案集合中未被选中的问题的答案自动值为否。
4.根据权利要求1所述的可解释法律自动判决预测方法,其特征在于,所述统计机器学习模型为LightGBM模型。
5.一种可解释法律自动判决预测装置,其特征在于,包括:
编码模块,用于执行编码步骤:获取待处理的法律文书中的事实编码结果;
问题生成模块,用于执行问题生成步骤:将所述事实编码结果和预设的问题答案集合,输入至全连接神经网络模型,输出问题编号;将所述问题答案集合表示成向量s=(s1,s2,…,sM),长度为M,其中si表示第i个预设问题的状态:若在之前的步骤中已问过,且答案为是,则si=1;若已问过且答案为否,则si=-1;若在之前的步骤中未问过,则si=0;向量s与所述事实编码结果共同组成所述全连接神经网络模型的输入;为了避免重复问相同的问题,利用masked softmax函数来计算选择各个问题的概率,对于第i个问题,如果其尚未被问过,则:选用πi概率最大的问题作为本轮问题;其中,/>表示问题的分值,i表示预设问题的问题编号;
答案生成模块,用于执行答案生成步骤:将所述法律文书中的事实部分的分字结果和所述问题编号,输入至BERT-QA模型,输出问题答案;
循环模块,用于执行循环步骤:重复问题生成步骤和答案生成步骤,直到达到预设的重复次数,确定所有问题的答案;
判决模块,用于执行判决步骤:将所有问题的答案,输入至统计机器学习模型,输出判决结果;
其中,所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型,都是基于法律文书样本和预先标记好的法律文书样本的判决结果进行训练后得到的;
所述编码模块包括分字单元和编码单元,其中:
所述分字单元用于对所述待处理的法律文书中的事实部分进行分字处理,得到分字结果;
所述编码单元用于利用BERT模型和字向量对所述分字结果进行编码,得到所述事实编码结果。
6.根据权利要求5所述的可解释法律自动判决预测装置,其特征在于,还包括训练模块,所述训练模块用于基于法律文书样本和预先标记好的法律文书样本的判决结果,借助强化学习算法Deep Q-Learning进行训练,得到所述全连接神经网络模型、所述BERT-QA模型和所述统计机器学习模型。
7.一种电子设备,包括存储器、处理器,以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现如权利要求1至4任一项所述可解释法律自动判决预测方法的步骤。
8.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,当所述计算机程序被处理器执行时,实现如权利要求1至4任一所述可解释法律自动判决预测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010091848.5A CN111325387B (zh) | 2020-02-13 | 2020-02-13 | 可解释法律自动判决预测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010091848.5A CN111325387B (zh) | 2020-02-13 | 2020-02-13 | 可解释法律自动判决预测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111325387A CN111325387A (zh) | 2020-06-23 |
CN111325387B true CN111325387B (zh) | 2023-08-18 |
Family
ID=71172799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010091848.5A Active CN111325387B (zh) | 2020-02-13 | 2020-02-13 | 可解释法律自动判决预测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111325387B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111680504B (zh) * | 2020-08-11 | 2020-11-27 | 四川大学 | 法律信息抽取模型及方法及系统及装置及辅助系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008327A (zh) * | 2019-04-01 | 2019-07-12 | 河北省讯飞人工智能研究院 | 法律回答生成方法及装置 |
CN110276068A (zh) * | 2019-05-08 | 2019-09-24 | 清华大学 | 法律案情分析方法及装置 |
KR102061893B1 (ko) * | 2019-08-18 | 2020-01-06 | 주식회사 알앤디아시아 | 질의 응답을 이용한 소셜 러닝 시스템 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11715045B2 (en) * | 2017-06-13 | 2023-08-01 | Honda Motor Co, Ltd. | Legal information processing system, method, and non-transitory computer-readable storage medium storing program |
CN109241528B (zh) * | 2018-08-24 | 2023-09-01 | 讯飞智元信息科技有限公司 | 一种量刑结果预测方法、装置、设备及存储介质 |
CN109213864A (zh) * | 2018-08-30 | 2019-01-15 | 广州慧睿思通信息科技有限公司 | 基于深度学习的刑事案件预判系统及其构建和预判方法 |
-
2020
- 2020-02-13 CN CN202010091848.5A patent/CN111325387B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008327A (zh) * | 2019-04-01 | 2019-07-12 | 河北省讯飞人工智能研究院 | 法律回答生成方法及装置 |
CN110276068A (zh) * | 2019-05-08 | 2019-09-24 | 清华大学 | 法律案情分析方法及装置 |
KR102061893B1 (ko) * | 2019-08-18 | 2020-01-06 | 주식회사 알앤디아시아 | 질의 응답을 이용한 소셜 러닝 시스템 |
Also Published As
Publication number | Publication date |
---|---|
CN111325387A (zh) | 2020-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113656570B (zh) | 基于深度学习模型的视觉问答方法及装置、介质、设备 | |
CN111858931B (zh) | 一种基于深度学习的文本生成方法 | |
CN109657041A (zh) | 基于深度学习的问题自动生成方法 | |
CN110990543A (zh) | 智能对话的生成方法、装置、计算机设备及计算机存储介质 | |
CN112487139B (zh) | 基于文本的自动出题方法、装置及计算机设备 | |
CN111985239A (zh) | 实体识别方法、装置、电子设备及存储介质 | |
CN108549658A (zh) | 一种基于语法分析树上注意力机制的深度学习视频问答方法及系统 | |
CN111046178B (zh) | 一种文本序列生成方法及其系统 | |
CN111813954B (zh) | 文本语句中两实体的关系确定方法、装置和电子设备 | |
CN111027292A (zh) | 一种限定采样文本序列生成方法及其系统 | |
CN114528835A (zh) | 基于区间判别的半监督专业术语抽取方法、介质及设备 | |
CN114254127A (zh) | 学生能力画像方法、学习资源推荐方法及装置 | |
CN113988079A (zh) | 一种面向低数据的动态增强多跳文本阅读识别处理方法 | |
CN113254582A (zh) | 一种基于预训练模型的知识驱动对话方法 | |
CN117438047A (zh) | 心理咨询模型训练和心理咨询处理方法、装置及电子设备 | |
CN111325387B (zh) | 可解释法律自动判决预测方法及装置 | |
CN110852071A (zh) | 知识点检测方法、装置、设备及可读存储介质 | |
CN116150319A (zh) | 辅助答题方法、装置、电子设备和存储介质 | |
CN116450783A (zh) | 面向篇章级的事件抽取方法、系统、存储介质和电子设备 | |
CN109190703A (zh) | 基于dnn的多态蠕虫特征码自动提取方法 | |
CN114358579A (zh) | 评阅方法、评阅装置、电子设备以及计算机可读存储介质 | |
CN115617959A (zh) | 问题解答方法及装置 | |
CN116089593B (zh) | 基于时序特征筛选编码模块的多回合人机对话方法和装置 | |
CN117236900B (zh) | 基于流程自动化的个税数据处理方法及系统 | |
CN116595147A (zh) | 一种法律问题应答模型生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |