CN113065347B - 基于多任务学习的刑事案件判决预测方法、系统及介质 - Google Patents
基于多任务学习的刑事案件判决预测方法、系统及介质 Download PDFInfo
- Publication number
- CN113065347B CN113065347B CN202110454069.1A CN202110454069A CN113065347B CN 113065347 B CN113065347 B CN 113065347B CN 202110454069 A CN202110454069 A CN 202110454069A CN 113065347 B CN113065347 B CN 113065347B
- Authority
- CN
- China
- Prior art keywords
- prediction
- case
- word
- criminal
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 239000013598 vector Substances 0.000 claims abstract description 115
- 230000011218 segmentation Effects 0.000 claims abstract description 14
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims abstract description 7
- 238000013135 deep learning Methods 0.000 claims description 48
- 239000011159 matrix material Substances 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 15
- 238000011176 pooling Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/14—Tree-structured documents
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Technology Law (AREA)
- Machine Translation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种基于多任务学习的刑事案件判决预测方法及系统,包括:获取案情文本原始数据,并对案情文本原始数据进行预处理,得到预处理后的案情文本;将预处理后的案情文本进行分词,得到预处理后的分词案情文本;预处理后的分词案情文本进行one‑hot编码,得到词编码,然后再进行word2vec的编码,得到全文的词向量;基于预处理后的分词案情文本构建语法树,并将语法树中预设要求词对关系的词对抽取出来,对抽取出的词对进行one‑hot编码及word2vec的编码,得到词对的词向量;构建案件预测模型并对案件预测模型进行训练,得到训练后的案件预测模型;将全文的词向量和词对的词向量输入训练后的案件预测模型,得到相关法条、罪行以及刑期的预测结果。
Description
技术领域
本发明涉及法律服务技术领域,具体地,涉及基于多任务学习的刑事案件判决预测方法、系统及介质,更为具体地,涉及基于多任务学习的刑事案件判决预测方法、系统、介质和设备。
背景技术
本发明研究的刑事案件判决预测技术,旨在通过分析司法领域案件的案情描述文本,依照历史法院裁定、判决的案例对司法领域案件进行预测。对于刑事案件的判决预测和监督,多为法律专业人士逐案判断,效率较低。
专利文献CN110222866A(申请号:201910348700.2)公开了一种结合口语化描述与问答的智能民事案件预测方法,包括以下步骤:S1.接收用户输入的口语化案情描述;S2.根据所述口语化案情描述确定用户的咨询意图;S3.根据所述咨询意图检测特征内容是否完整,若是,则执行步骤S4,否则提示用户补充相应的特征内容;S4.调用预测模型以根据完整的特征内容向用户输出相应的咨询结果。这种预测方法,虽然可以针对案件的部特征对案件进行预测,但是整个过程中含有人工参与,无法做到完全的公正客观,而且根据的特征数量有限;根据神经网络对案件特征提取并进行预测准确度更高,效果更好。
专利文献CN110969276A(申请号:201811161167.0)公开了一种判决预测方法、判决预测模型获得方法及装置,可以获得待预测案件的案情描述文本;对所述案情描述文本进行分词,获得词汇序列;获得所述词汇序列中各词汇的词汇向量构成的矩阵;将所述矩阵输入预设的判决预测模型中,获得所述预设的判决预测模型输出的判决预测信息,从而实现了判决的准确和智能预测,有助于提升刑事案件法官的效率,同时可以提升案件审判的公正和公平性,也有助于在群众中普及法律知识。这种方法虽然可以对法律判决进行预测,但是没有抓住多个子任务之间的相关性,并且使用的网络结构也比较简单,准确率也有待提高。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于多任务学习的刑事案件判决预测方法及系统。
根据本发明提供的一种基于多任务学习的刑事案件判决预测方法,包括:
步骤S1:获取案情文本原始数据,并对案情文本原始数据进行预处理,得到预处理后的案情文本;
步骤S2:将预处理后的案情文本进行分词,得到预处理后的分词案情文本;
步骤S3:预处理后的分词案情文本进行one-hot编码,得到词编码,然后再进行word2vec的编码,得到全文的词向量;
步骤S4:基于预处理后的分词案情文本构建语法树,并将语法树中预设要求词对关系的词对抽取出来,对抽取出的词对进行one-hot编码及word2vec的编码,得到词对的词向量;
步骤S5:构建案件预测模型并对案件预测模型进行训练,得到训练后的案件预测模型;
步骤S6:将全文的词向量和词对的词向量输入训练后的案件预测模型,得到相关法条、罪行以及刑期的预测结果。
优选地,所述步骤S1包括:对案情文本原始数据进行去噪处理,得到去噪后的案情文本。
优选地,所述步骤S5中案件预测模型包括:深度学习网络模型,包括:TextCNN网络单元、法律条款预测单元、罪名预测单元、LSTM刑期预测单元和反向预测单元;
所述TextCNN网络单元将全文词向量按照先后顺序排列成矩阵,通过TextCNN网络抽取出全文的语义信息的特征向量;
所述法律条款预测单元通过深度学习网络模型的线性层对TextCNN网络单元提取的特征向量进行法律条款的预测;
所述罪名预测单元通过深度学习网络模型的线性层对TextCNN网络单元提取的特征向量进行罪名的预测;
所述LSTM刑期预测单元将词对关系的词向量按照先后顺序排列成矩阵,然后将矩阵输入深度学习的自注意力层,得出结果再输入到深度学习网络的LSTM网络得到特征向量;将得到的特征向量、法律条款的预测、罪名的预测输入深度学习网络模型的线性层,进行刑期的预测;
所述反向预测单元是将所有的预测结果与真实标签进行比较,将交叉熵作为损失函数,利用损失函数的结果对深度学习网络模型的参数进行修正。
优选地,所述TextCNN网络单元包括:将全文词向量按照先后顺序排列成矩阵,通过深度学习网络模型的卷积网络层、池化层、全连接层和softmax层取出全文的语义信息的特征向量。
优选地,所述步骤S6包括:
步骤S6.1:将案情描述的词向量输入案件预测模型的TextCNN网络单元,TextCNN网络单元对词向量利用多个滤波器进行特征提取;
步骤S6.2:将提取特征输入案件预测模型的法律条款预测单元得到法律条款预测结果;
步骤S6.3:将提取特征和法律条款预测结果输入案件预测模型的罪名预测单元得到罪名预测结果;
步骤S6.4:将词对向量、法律条款预测结果、罪名预测结果输入案件预测模型的LSTM刑期预测单元得到最终刑期长短预测结果;
步骤S6.5:将法律条款预测结果、罪名预测结果、最终刑期长短预测结果输入案件预测模型的反向预测单元进行预测结果的校验、融合及参数优化,得到最终法律条款预测结果和最终罪名预测结果。
根据本发明提供的一种基于多任务学习的刑事案件判决预测系统,包括:
模块M1:获取案情文本原始数据,并对案情文本原始数据进行预处理,得到预处理后的案情文本;
模块M2:将预处理后的案情文本进行分词,得到预处理后的分词案情文本;
模块M3:预处理后的分词案情文本进行one-hot编码,得到词编码,然后再进行word2vec的编码,得到全文的词向量;
模块M4:基于预处理后的分词案情文本构建语法树,并将语法树中预设要求词对关系的词对抽取出来,对抽取出的词对进行one-hot编码及word2vec的编码,得到词对的词向量;
模块M5:构建案件预测模型并对案件预测模型进行训练,得到训练后的案件预测模型;
模块M6:将全文的词向量和词对的词向量输入训练后的案件预测模型,得到相关法条、罪行以及刑期的预测结果。
优选地,所述模块M1包括:对案情文本原始数据进行去噪处理,得到去噪后的案情文本。
优选地,所述模块M5中案件预测模型包括:深度学习网络模型,包括:TextCNN网络单元、法律条款预测单元、罪名预测单元、LSTM刑期预测单元和反向预测单元;
所述TextCNN网络单元将全文词向量按照先后顺序排列成矩阵,通过TextCNN网络抽取出全文的语义信息的特征向量;
所述法律条款预测单元通过深度学习网络模型的线性层对TextCNN网络单元提取的特征向量进行法律条款的预测;
所述罪名预测单元通过深度学习网络模型的线性层对TextCNN网络单元提取的特征向量进行罪名的预测;
所述LSTM刑期预测单元将词对关系的词向量按照先后顺序排列成矩阵,然后将矩阵输入深度学习的自注意力层,得出结果再输入到深度学习网络的LSTM网络得到特征向量;将得到的特征向量、法律条款的预测、罪名的预测输入深度学习网络模型的线性层,进行刑期的预测;
所述反向预测单元是将所有的预测结果与真实标签进行比较,将交叉熵作为损失函数,利用损失函数的结果对深度学习网络模型的参数进行修正。
优选地,所述TextCNN网络单元包括:将全文词向量按照先后顺序排列成矩阵,通过深度学习网络模型的卷积网络层、池化层、全连接层和softmax层取出全文的语义信息的特征向量。
优选地,所述模块M6包括:
模块M6.1:将案情描述的词向量输入案件预测模型的TextCNN网络单元,TextCNN网络单元对词向量利用多个滤波器进行特征提取;
模块M6.2:将提取特征输入案件预测模型的法律条款预测单元得到法律条款预测结果;
模块M6.3:将提取特征和法律条款预测结果输入案件预测模型的罪名预测单元得到罪名预测结果;
模块M6.4:将词对向量、法律条款预测结果、罪名预测结果输入案件预测模型的LSTM刑期预测单元得到最终刑期长短预测结果;
模块M6.5:将法律条款预测结果、罪名预测结果、最终刑期长短预测结果输入案件预测模型的反向预测单元进行预测结果的校验、融合及参数优化,得到最终法律条款预测结果和最终罪名预测结果。
与现有技术相比,本发明具有如下的有益效果:
1、本发明基于TextCNN、注意力机制改进的词注意机制算法对法律文本的案情描述进行判决的多个子任务预测,旨在通过分析司法领域案件的案情描述文本,依照历史法院裁定、判决的案例对司法领域案件进行预测;
2、本发明加入目前自然语言处理领域最热门的注意力机制,着重关注影响判决的关键词,解决了网络模型刑期预测准确率不高的问题,大大提升了各项子任务预测的准确率;
3、通过将注意力机制改进的词注意机制算法加入多任务模型,实现了预测准确率显著提升;
4、本发明词注意机制算法首先结合LSTM网络对刑期进行预测,预测结果更新法条、罪名预测,从而提升多任务预测的准确率;
改进的是注意力机制,本来注意力机制主要是根据全文信息获取信息。这里针对法律预测任务进行改进,把获取全文信息改成获取的词对信息,本发明通过从全文中抽取的词对关系获取信息,称为词注意机制。这样可以获得更好的效果。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为刑事案件判决预测流程图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
本发明基于TextCNN、注意力机制改进的词注意机制算法对法律文本的案情描述进行判决的多个子任务预测。具体的,TextCNN对判决的法条、罪行进行一般预测;注意力机制改进的词注意机制算法加入对由案情描述抽取的相关词对关系结合LSTM网络进行刑期预测,并且结合之前的法条、罪行的一般预测联合预测获得最终的法条、罪行、刑期预测结果。
实施例1
根据本发明提供的一种基于多任务学习的刑事案件判决预测方法,如图1所示,包括:
步骤S1:利用案件卷宗一般划分获取案件的案情描述信息,获取案情文本原始数据,并对案情文本原始数据进行预处理,得到预处理后的案情文本;
步骤S2:将预处理后的案情文本进行分词,得到预处理后的分词案情文本;
步骤S3:预处理后的分词案情文本进行one-hot编码,得到词编码,然后再进行word2vec的编码,得到全文的词向量;
步骤S4:基于预处理后的分词案情文本构建语法树,并将语法树中预设要求词对关系的词对抽取出来,对抽取出的词对进行one-hot编码及word2vec的编码,得到词对的词向量;
步骤S5:构建案件预测模型并对案件预测模型进行训练,得到训练后的案件预测模型;
步骤S6:将全文的词向量和词对的词向量输入训练后的案件预测模型,得到相关法条、罪行以及刑期的预测结果。
具体地,所述word2vec的编码词包括:进行One-Hot编码后维度过大且无法体现词之间的关系,需要进行word2vec的编码,就是词向量矩阵映射变换,得到维度更小而且可以体现词间关系的词向量。
具体地,所述步骤S1包括:对案情文本原始数据进行去噪处理,得到去噪后的案情文本。
具体地,所述步骤S5中案件预测模型包括:深度学习网络模型,包括:TextCNN网络单元、法律条款预测单元、罪名预测单元、LSTM刑期预测单元和反向预测单元;
所述TextCNN网络单元将步骤S3得到的全文词向量按照先后顺序排列成矩阵,然后通过深度学习的卷积网络层、池化层、全连接层和softmax层(综合称之为TextCNN网络,TextCNN网络可以得到抽取出全文的语义信息的特征向量)后,得到特征向量,该向量包含全文的主要信息。
所述法律条款预测单元通过深度学习网络模型的线性层对TextCNN网络单元提取的特征进行法律条款的预测(将TextCNN网络单元得到的特征向量输入到线性层,得到新的特征向量,该特征向量的最大值所在位置即为法律条款的预测值)。
所述罪名预测单元通过深度学习网络模型的线性层对TextCNN网络单元提取的特征进行罪名的预测。(将TextCNN网络单元得到的特征向量输入到线性层,得到新的特征向量,该特征向量的最大值所在位置即为罪名的预测值)
所述LSTM刑期预测单元将步骤S4得到的词对关系的词向量按照先后顺序排列成矩阵,然后将矩阵输入到深度学习的自注意力层(词对关系输入到自注意力层即词注意力机制),得出结果再输入到深度学习网络的LSTM网络得到特征向量,并且与法律条款预测单元的预测结果和罪名预测单元的预测结果一起放入到深度学习网络模型的线性层,进行刑期的预测。
所述反向预测单元将所有的预测结果与真实标签进行比较,把交叉熵作为损失函数,对进行模型损失函数的计算,用所述模型的损失函数计算结果,对所述模型各个网络结构的参数进行修正,更新所述模型对应的参数。
具体地,所述TextCNN网络单元包括:将全文词向量按照先后顺序排列成矩阵,通过深度学习网络模型的卷积网络层、池化层、全连接层和softmax层取出全文的语义信息的特征向量。
具体地,所述步骤S6包括:
步骤S6.1:将案情描述的词向量输入案件预测模型的TextCNN网络单元,TextCNN网络单元对词向量利用多个滤波器进行特征提取;
步骤S6.2:将提取特征输入案件预测模型的法律条款预测单元得到法律条款预测结果;
步骤S6.3:将提取特征和法律条款预测结果输入案件预测模型的罪名预测单元得到罪名预测结果;
步骤S6.4:将词对向量、法律条款预测结果、罪名预测结果输入案件预测模型的LSTM刑期预测单元得到最终刑期长短预测结果;
步骤S6.5:将法律条款预测结果、罪名预测结果、最终刑期长短预测结果输入案件预测模型的反向预测单元进行预测结果的校验、融合及参数优化,得到最终法律条款预测结果和最终罪名预测结果。
根据本发明提供的一种基于多任务学习的刑事案件判决预测系统,包括:
模块M1:利用案件卷宗一般划分获取案件的案情描述信息,获取案情文本原始数据,并对案情文本原始数据进行预处理,得到预处理后的案情文本;
模块M2:将预处理后的案情文本进行分词,得到预处理后的分词案情文本;
模块M3:预处理后的分词案情文本进行one-hot编码,得到词编码,然后再进行word2vec的编码,得到全文的词向量;
模块M4:基于预处理后的分词案情文本构建语法树,并将语法树中预设要求词对关系的词对抽取出来,对抽取出的词对进行one-hot编码及word2vec的编码,得到词对的词向量;
模块M5:构建案件预测模型并对案件预测模型进行训练,得到训练后的案件预测模型;
模块M6:将全文的词向量和词对的词向量输入训练后的案件预测模型,得到相关法条、罪行以及刑期的预测结果。
具体地,所述word2vec的编码词包括:进行One-Hot编码后维度过大且无法体现词之间的关系,需要进行word2vec的编码,就是词向量矩阵映射变换,得到维度更小而且可以体现词间关系的词向量。
具体地,所述模块M1包括:对案情文本原始数据进行去噪处理,得到去噪后的案情文本。
具体地,所述模块M5中案件预测模型包括:深度学习网络模型,包括:TextCNN网络单元、法律条款预测单元、罪名预测单元、LSTM刑期预测单元和反向预测单元;
所述TextCNN网络单元将模块M3得到的全文词向量按照先后顺序排列成矩阵,然后通过深度学习的卷积网络层、池化层、全连接层和softmax层(综合称之为TextCNN网络,TextCNN网络可以得到抽取出全文的语义信息的特征向量)后,得到特征向量,该向量包含全文的主要信息。
所述法律条款预测单元通过深度学习网络模型的线性层对TextCNN网络单元提取的特征进行法律条款的预测(将TextCNN网络单元得到的特征向量输入到线性层,得到新的特征向量,该特征向量的最大值所在位置即为法律条款的预测值)。
所述罪名预测单元通过深度学习网络模型的线性层对TextCNN网络单元提取的特征进行罪名的预测。(将TextCNN网络单元得到的特征向量输入到线性层,得到新的特征向量,该特征向量的最大值所在位置即为罪名的预测值)
所述LSTM刑期预测单元将模块M4得到的词对关系的词向量按照先后顺序排列成矩阵,然后将矩阵输入到深度学习的自注意力层(词对关系输入到自注意力层即词注意力机制),得出结果再输入到深度学习网络的LSTM网络得到特征向量,并且与法律条款预测单元的预测结果和罪名预测单元的预测结果一起放入到深度学习网络模型的线性层,进行刑期的预测。
所述反向预测单元将所有的预测结果与真实标签进行比较,把交叉熵作为损失函数,对进行模型损失函数的计算,用所述模型的损失函数计算结果,对所述模型各个网络结构的参数进行修正,更新所述模型对应的参数。
具体地,所述TextCNN网络单元包括:将全文词向量按照先后顺序排列成矩阵,通过深度学习网络模型的卷积网络层、池化层、全连接层和softmax层取出全文的语义信息的特征向量。
具体地,所述模块M6包括:
模块M6.1:将案情描述的词向量输入案件预测模型的TextCNN网络单元,TextCNN网络单元对词向量利用多个滤波器进行特征提取;
模块M6.2:将提取特征输入案件预测模型的法律条款预测单元得到法律条款预测结果;
模块M6.3:将提取特征和法律条款预测结果输入案件预测模型的罪名预测单元得到罪名预测结果;
模块M6.4:将词对向量、法律条款预测结果、罪名预测结果输入案件预测模型的LSTM刑期预测单元得到最终刑期长短预测结果;
模块M6.5:将法律条款预测结果、罪名预测结果、最终刑期长短预测结果输入案件预测模型的反向预测单元进行预测结果的校验、融合及参数优化,得到最终法律条款预测结果和最终罪名预测结果。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统、装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的系统、装置及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
Claims (8)
1.一种基于多任务学习的刑事案件判决预测方法,其特征在于,包括:
步骤S1:获取案情文本原始数据,并对案情文本原始数据进行预处理,得到预处理后的案情文本;
步骤S2:将预处理后的案情文本进行分词,得到预处理后的分词案情文本;
步骤S3:预处理后的分词案情文本进行one-hot编码,得到词编码,然后再进行word2vec的编码,得到全文的词向量;
步骤S4:基于预处理后的分词案情文本构建语法树,并将语法树中预设要求词对关系的词对抽取出来,对抽取出的词对进行one-hot编码及word2vec的编码,得到词对的词向量;
步骤S5:构建案件预测模型并对案件预测模型进行训练,得到训练后的案件预测模型;
步骤S6:将全文的词向量和词对的词向量输入训练后的案件预测模型,得到相关法条、罪行以及刑期的预测结果;
所述步骤S5中案件预测模型包括:深度学习网络模型,包括:TextCNN网络单元、法律条款预测单元、罪名预测单元、LSTM刑期预测单元和反向预测单元;
所述TextCNN网络单元将全文词向量按照先后顺序排列成矩阵,通过TextCNN网络抽取出全文的语义信息的特征向量;
所述法律条款预测单元通过深度学习网络模型的线性层对TextCNN网络单元提取的特征向量进行法律条款的预测;
所述罪名预测单元通过深度学习网络模型的线性层对TextCNN网络单元提取的特征向量进行罪名的预测;
所述LSTM刑期预测单元将词对关系的词向量按照先后顺序排列成矩阵,然后将矩阵输入深度学习的自注意力层,得出结果再输入到深度学习网络的LSTM网络得到特征向量;将得到的特征向量、法律条款的预测、罪名的预测输入深度学习网络模型的线性层,进行刑期的预测;
所述反向预测单元是将所有的预测结果与真实标签进行比较,将交叉熵作为损失函数,利用损失函数的结果对深度学习网络模型的参数进行修正。
2.根据权利要求1所述的基于多任务学习的刑事案件判决预测方法,其特征在于,所述步骤S1包括:对案情文本原始数据进行去噪处理,得到去噪后的案情文本。
3.根据权利要求1所述的基于多任务学习的刑事案件判决预测方法,其特征在于,所述TextCNN网络单元包括:将全文词向量按照先后顺序排列成矩阵,通过深度学习网络模型的卷积网络层、池化层、全连接层和softmax层取出全文的语义信息的特征向量。
4.根据权利要求1所述的基于多任务学习的刑事案件判决预测方法,其特征在于,所述步骤S6包括:
步骤S6.1:将案情描述的词向量输入案件预测模型的TextCNN网络单元,TextCNN网络单元对词向量利用多个滤波器进行特征提取;
步骤S6.2:将提取特征输入案件预测模型的法律条款预测单元得到法律条款预测结果;
步骤S6.3:将提取特征和法律条款预测结果输入案件预测模型的罪名预测单元得到罪名预测结果;
步骤S6.4:将词对的词向量、法律条款预测结果、罪名预测结果输入案件预测模型的LSTM刑期预测单元得到最终刑期长短预测结果;
步骤S6.5:将法律条款预测结果、罪名预测结果、最终刑期长短预测结果输入案件预测模型的反向预测单元进行预测结果的校验、融合及参数优化,得到最终法律条款预测结果和最终罪名预测结果。
5.一种基于多任务学习的刑事案件判决预测系统,其特征在于,包括:
模块M1:获取案情文本原始数据,并对案情文本原始数据进行预处理,得到预处理后的案情文本;
模块M2:将预处理后的案情文本进行分词,得到预处理后的分词案情文本;
模块M3:预处理后的分词案情文本进行one-hot编码,得到词编码,然后再进行word2vec的编码,得到全文的词向量;
模块M4:基于预处理后的分词案情文本构建语法树,并将语法树中预设要求词对关系的词对抽取出来,对抽取出的词对进行one-hot编码及word2vec的编码,得到词对的词向量;
模块M5:构建案件预测模型并对案件预测模型进行训练,得到训练后的案件预测模型;
模块M6:将全文的词向量和词对的词向量输入训练后的案件预测模型,得到相关法条、罪行以及刑期的预测结果;
所述模块M5中案件预测模型包括:深度学习网络模型,包括:TextCNN网络单元、法律条款预测单元、罪名预测单元、LSTM刑期预测单元和反向预测单元;
所述TextCNN网络单元将全文词向量按照先后顺序排列成矩阵,通过TextCNN网络抽取出全文的语义信息的特征向量;
所述法律条款预测单元通过深度学习网络模型的线性层对TextCNN网络单元提取的特征向量进行法律条款的预测;
所述罪名预测单元通过深度学习网络模型的线性层对TextCNN网络单元提取的特征向量进行罪名的预测;
所述LSTM刑期预测单元将词对关系的词向量按照先后顺序排列成矩阵,然后将矩阵输入深度学习的自注意力层,得出结果再输入到深度学习网络的LSTM网络得到特征向量;将得到的特征向量、法律条款的预测、罪名的预测输入深度学习网络模型的线性层,进行刑期的预测;
所述反向预测单元是将所有的预测结果与真实标签进行比较,将交叉熵作为损失函数,利用损失函数的结果对深度学习网络模型的参数进行修正。
6.根据权利要求5所述的基于多任务学习的刑事案件判决预测系统,其特征在于,所述模块M1包括:对案情文本原始数据进行去噪处理,得到去噪后的案情文本。
7.根据权利要求5所述的基于多任务学习的刑事案件判决预测系统,其特征在于,所述TextCNN网络单元包括:将全文词向量按照先后顺序排列成矩阵,通过深度学习网络模型的卷积网络层、池化层、全连接层和softmax层取出全文的语义信息的特征向量。
8.根据权利要求5所述的基于多任务学习的刑事案件判决预测系统,其特征在于,所述模块M6包括:
模块M6.1:将案情描述的词向量输入案件预测模型的TextCNN网络单元,TextCNN网络单元对词向量利用多个滤波器进行特征提取;
模块M6.2:将提取特征输入案件预测模型的法律条款预测单元得到法律条款预测结果;
模块M6.3:将提取特征和法律条款预测结果输入案件预测模型的罪名预测单元得到罪名预测结果;
模块M6.4:将词对的词向量、法律条款预测结果、罪名预测结果输入案件预测模型的LSTM刑期预测单元得到最终刑期长短预测结果;
模块M6.5:将法律条款预测结果、罪名预测结果、最终刑期长短预测结果输入案件预测模型的反向预测单元进行预测结果的校验、融合及参数优化,得到最终法律条款预测结果和最终罪名预测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110454069.1A CN113065347B (zh) | 2021-04-26 | 2021-04-26 | 基于多任务学习的刑事案件判决预测方法、系统及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110454069.1A CN113065347B (zh) | 2021-04-26 | 2021-04-26 | 基于多任务学习的刑事案件判决预测方法、系统及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113065347A CN113065347A (zh) | 2021-07-02 |
CN113065347B true CN113065347B (zh) | 2022-06-28 |
Family
ID=76567529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110454069.1A Active CN113065347B (zh) | 2021-04-26 | 2021-04-26 | 基于多任务学习的刑事案件判决预测方法、系统及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113065347B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114091462B (zh) * | 2022-01-14 | 2022-04-22 | 深圳航天科创实业有限公司 | 基于案件事实混合编码面向刑事案件风险互学习评估方法 |
CN114781389B (zh) * | 2022-03-04 | 2024-04-05 | 重庆大学 | 一种基于标签增强表示的罪名预测方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109213864A (zh) * | 2018-08-30 | 2019-01-15 | 广州慧睿思通信息科技有限公司 | 基于深度学习的刑事案件预判系统及其构建和预判方法 |
CN111008293A (zh) * | 2018-10-06 | 2020-04-14 | 上海交通大学 | 基于结构化语义表示的视觉问答方法 |
CN111444340A (zh) * | 2020-03-10 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 文本分类和推荐方法、装置、设备及存储介质 |
WO2021000391A1 (zh) * | 2019-07-03 | 2021-01-07 | 平安科技(深圳)有限公司 | 文本智能化清洗方法、装置及计算机可读存储介质 |
CN112308743A (zh) * | 2020-10-21 | 2021-02-02 | 上海交通大学 | 一种基于三元组相似任务的审判风险预警方法 |
-
2021
- 2021-04-26 CN CN202110454069.1A patent/CN113065347B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109213864A (zh) * | 2018-08-30 | 2019-01-15 | 广州慧睿思通信息科技有限公司 | 基于深度学习的刑事案件预判系统及其构建和预判方法 |
CN111008293A (zh) * | 2018-10-06 | 2020-04-14 | 上海交通大学 | 基于结构化语义表示的视觉问答方法 |
WO2021000391A1 (zh) * | 2019-07-03 | 2021-01-07 | 平安科技(深圳)有限公司 | 文本智能化清洗方法、装置及计算机可读存储介质 |
CN111444340A (zh) * | 2020-03-10 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 文本分类和推荐方法、装置、设备及存储介质 |
CN112308743A (zh) * | 2020-10-21 | 2021-02-02 | 上海交通大学 | 一种基于三元组相似任务的审判风险预警方法 |
Non-Patent Citations (1)
Title |
---|
Yueguo Zhang et al..Legal judgment prediction based on computer topology learning and fact elements.《ACM》.2021, * |
Also Published As
Publication number | Publication date |
---|---|
CN113065347A (zh) | 2021-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108536679B (zh) | 命名实体识别方法、装置、设备及计算机可读存储介质 | |
CN113065347B (zh) | 基于多任务学习的刑事案件判决预测方法、系统及介质 | |
CN109947912A (zh) | 一种基于段落内部推理和联合问题答案匹配的模型方法 | |
CN110083700A (zh) | 一种基于卷积神经网络的企业舆情情感分类方法及系统 | |
CN112085012A (zh) | 项目名称和类别识别方法及装置 | |
CN112861524A (zh) | 一种基于深度学习的多层次中文细粒度情感分析方法 | |
CN114219682A (zh) | 基于bert隐藏层信息的案件判决预测方法、系统及介质 | |
CN111563161B (zh) | 一种语句识别方法、语句识别装置及智能设备 | |
CN115331285A (zh) | 一种基于多尺度特征知识蒸馏的动态表情识别方法及系统 | |
CN113505583A (zh) | 基于语义决策图神经网络的情感原因子句对提取方法 | |
CN109993109A (zh) | 图像文字识别方法 | |
CN114359582A (zh) | 一种基于神经网络的小样本特征提取方法及相关设备 | |
CN109147868A (zh) | 蛋白质功能预测方法、装置、设备及存储介质 | |
CN112036483A (zh) | 基于AutoML的对象预测分类方法、装置、计算机设备及存储介质 | |
CN116627490A (zh) | 一种智能合约字节码相似性检测方法 | |
CN114817478A (zh) | 基于文本的问答方法、装置、计算机设备及存储介质 | |
CN111241843B (zh) | 基于复合神经网络的语义关系推断系统和方法 | |
CN113223502A (zh) | 语音识别系统优化方法、装置、设备及可读存储介质 | |
CN111599382A (zh) | 语音分析方法、装置、计算机设备和存储介质 | |
CN116450943A (zh) | 基于人工智能的话术推荐方法、装置、设备及存储介质 | |
CN116028823A (zh) | 基于多模态语义交互的损失计算方法及装置 | |
CN115017015A (zh) | 一种边缘计算环境下程序异常行为检测方法及系统 | |
CN114648005A (zh) | 一种多任务联合学习的多片段机器阅读理解方法及装置 | |
CN111666371A (zh) | 基于主题的匹配度确定方法、装置、电子设备及存储介质 | |
CN111090723A (zh) | 一种基于知识图谱的电网安全生产内容推荐方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |