CN109308355B - 法律判决结果预测方法及装置 - Google Patents

法律判决结果预测方法及装置 Download PDF

Info

Publication number
CN109308355B
CN109308355B CN201811083989.1A CN201811083989A CN109308355B CN 109308355 B CN109308355 B CN 109308355B CN 201811083989 A CN201811083989 A CN 201811083989A CN 109308355 B CN109308355 B CN 109308355B
Authority
CN
China
Prior art keywords
long
result
judgment
decision
task
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811083989.1A
Other languages
English (en)
Other versions
CN109308355A (zh
Inventor
孙茂松
刘知远
钟皓曦
郭志芃
肖朝军
涂存超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201811083989.1A priority Critical patent/CN109308355B/zh
Publication of CN109308355A publication Critical patent/CN109308355A/zh
Application granted granted Critical
Publication of CN109308355B publication Critical patent/CN109308355B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/18Legal services; Handling legal documents

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Technology Law (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Primary Health Care (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明实施例提供一种法律判决结果预测方法及装置,所述方法包括:将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;对所述第一词向量矩阵进行编码获取第一编码结果,对各所述第二词向量矩阵分别进行编码获取第二编码结果;根据所述第一编码结果、各所述第二编码结果和预先获取的各所述法律文书样本的判决结果,基于长短时记忆神经网络对所述待预测法律文书的各判决任务的判决结果进行预测;其中,所述长短时记忆神经网络根据各所述判决任务之间的依赖关系进行构建。本发明实施例提高了判决结果的准确性,具有良好的可拓展性。

Description

法律判决结果预测方法及装置
技术领域
本发明实施例属于机器学习技术领域,更具体地,涉及一种法律判决结果预测方法及装置。
背景技术
自动判决的任务是根据法律文书中的事实部分对判决结果进行预测。一方面,为没有法律基础的人提供较高质量的判决结果;另一方面,为专业的法律人士提供法律参考。
近些年来,关于自动判决的研究很多。最开始是将自动判决的问题当作一个简单的文本分类问题,用一些传统的手段,如关键字匹配来处理自动判决的问题。随着深度学习的发展,更多的学者开始利用深度学习的框架来抽取文本中的信息,以对自动判决进行辅助。但是,这种方法普遍存在的问题是考虑的重点为如何抽取文本信息,而不是考虑自动判决的所有任务。大部分的工作是将自动判决当作一个单任务,即将自动判决中的各任务分开,分别对各任务进行处理。但是,在自动判决问题中,比如相关法条的预测结果会直接影响到相关罪名的预测。换句话说,在这些自动判决的任务之间存在某种关系。所以将各个任务分开单独考虑会影响判决结果的准确性。此外,各个任务之间也存在着逻辑上的关系。比如在预测相关罪名以及刑期时,需要根据预测的法条结果来参考法条内容,才能确定罪名和刑期。
综上所述,现有技术基于深度学习对法律判决中的各任务单独进行判决结果的预测,而实际上各任务之间是相互关联的,各任务的预测结果是相互影响的,因此对各任务单独预测的判决结果不准确。
发明内容
为克服上述现有的法律判决结果预测方法的预测结果不准确的问题或者至少部分地解决上述问题,本发明实施例提供一种法律判决结果预测方法及装置。
根据本发明实施例的第一方面,提供一种法律判决结果预测方法,包括:
将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;
对所述第一词向量矩阵进行编码获取第一编码结果,对各所述第二词向量矩阵分别进行编码获取第二编码结果;
根据所述第一编码结果、各所述第二编码结果和预先获取的各所述法律文书样本的判决结果,基于长短时记忆神经网络对所述待预测法律文书的各判决任务的判决结果进行预测;其中,所述长短时记忆神经网络根据各所述判决任务之间的依赖关系进行构建。
根据本发明实施例第二方面提供一种法律判决结果预测装置,包括:
转化模块,用于将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;
编码模块,用于对所述第一词向量矩阵进行编码获取第一编码结果,对各所述第二词向量矩阵分别进行编码获取第二编码结果;
预测模块,用于根据所述第一编码结果和各所述第二编码结果,基于长短时记忆神经网络对各所述判决任务的判决结果进行预测;其中,所述长短时记忆神经网络根据所述待预测法律文书的各判决任务之间的依赖关系进行构建。
根据本发明实施例的第三个方面,还提供一种电子设备,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中:
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行第一方面的各种可能的实现方式中任一种可能的实现方式所提供的法律判决结果预测方法。
根据本发明实施例的第四个方面,还提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行第一方面的各种可能的实现方式中任一种可能的实现方式所提供的法律判决结果预测方法。
本发明实施例提供一种法律判决结果预测方法及装置,该方法通过提取将待预测法律文书和各法律文书样本转化为词向量矩阵,对各词向量矩阵进行编码,根据编码结果和各法律文书样本的判决结果基于长短时记忆神经网络对各判决任务的判决结果进行预测,其中长短时记忆神经网络根据待预测法律文书的各判决任务之间的依赖关系进行创建,本实施例基于使用各判决任务之间的依赖关系创建的长短时记忆神经网络对判决结果进行自动预测,从而将各判决任务结合在一起,提高了判决结果的准确性,具有良好的可拓展性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的法律判决结果预测方法整体流程示意图;
图2为本发明实施例提供的法律判决结果预测方法中基于长短时记忆神经网络进行判决结果预测的流程示意图。
图3为本发明实施例提供的法律判决结果预测装置整体结构示意图;
图4为本发明实施例提供的电子设备整体结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明实施例的一个实施例中提供一种法律判决结果预测方法,
图1为本发明实施例提供的法律判决结果预测方法整体流程示意图,该方法包括:S101,将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;
其中,待预测法律文书为需要进行法律判决结果预测的法律文书,第一事实信息为待预测法律文书中的事实信息,事实信息为事实部分的描述,即案情。第一词向量矩阵为将第一事实信息进行转化获取的词向量矩阵。将第一事实信息进行分词,根据第一事实信息中每个词的词向量将第一事实信息转化为一个词向量矩阵。
法律文书样本是指已知判决结果的法律文书,根据收集的法律文书样本构建法律文书数据集。第二事实信息为每个法律文书样本中的事实信息。使用正则表达式从待预测法律文书提取第一事实信息,从各法律文书样本中提取第二事实信息和各法律文书样本的判决结果,将各法律文书样本的判决结果作为各法律文书样本的标签。其中,判决结果包括案件所涉及的法条、罪名和刑期。第二词向量矩阵为将各第二事实信息进行转化获取的词向量矩阵。其中,第一事实信息和各第二事实信息转化为词向量矩阵的方法相同。将各第二事实信息进行分词,根据各第二事实信息中每个词的词向量将各第二事实信息转化为一个词向量矩阵。
S102,对第一词向量矩阵进行编码获取第一编码结果,对各第二词向量矩阵分别进行编码获取第二编码结果;
其中,第一编码结果为对第一词向量矩阵进行编码所得到的结果。第二编码结果为对各第二词向量矩阵进行编码所得到的结果。对第一词向量矩阵和各第二词向量矩阵进行编码是以对第一词向量矩阵和各第二词向量矩阵进行特征提取的方式进行的。本实施例中对第一词向量矩阵进行编码的方法与对各第二词向量矩阵进行编码的方法相同。
S103,根据第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于长短时记忆神经网络对待预测法律文书的各判决任务的判决结果进行预测;其中,长短时记忆神经网络根据各判决任务之间的依赖关系进行构建。
其中,判决任务与判决结果一一对应,如判决任务为刑期,刑期判决结果为2年。待预测法律文书的各判决任务之间的依赖关系是指若判决任务A的判决结果需要参考判决任务B的判决结果,则称为判决任务A依赖于判决任务B。例如,在预测罪名和刑期时,需要根据预测的法条结果参考法条内容,才能确定具体的罪名和刑期。预先根据待预测法律文书的各判决任务之间的依赖关系构建长短时记忆神经网络,从而将各判决任务结合在一起。本实施例不限于根据各判决任务之间的依赖关系构建长短时记忆神经网络的方法。将各法律文书样本的判决结果作为各法律文书样本的标签,根据第一编码结果、各第二编码结果和预先获取的各法律文书样本的标签,基于长短时记忆神经网络获取待预测法律文书的各判决任务的判决结果属于各预设判决结果的概率。如待预测法律文书中案件涉及的法条属于各预设法条的概率。根据待预测法律文书的各判决任务的判决结果属于各预设判决结果的概率,确定待预测法律文书的各判决任务的判决结果。
本实施例通过提取将待预测法律文书和各法律文书样本转化为词向量矩阵,对各词向量矩阵进行编码,根据编码结果和各法律文书样本的判决结果基于长短时记忆神经网络对各判决任务的判决结果进行预测,其中长短时记忆神经网络根据待预测法律文书的各判决任务之间的依赖关系进行创建,本实施例基于使用各判决任务之间的依赖关系创建的长短时记忆神经网络对判决结果进行自动预测,从而将各判决任务结合在一起,提高了判决结果的准确性,具有良好的可拓展性。
在上述实施例的基础上,本实施例中将待预测法律文书中的第一事实信息转化为第一词向量矩阵的步骤具体包括:对待预测法律文书中的第一事实信息进行分词,获取第一事实信息中每个词的词向量;将第一事实信息中所有词的词向量进行组合,获取第一词向量矩阵。
具体地,使用分词工具对第一事实信息进行分词,其中第一事实信息中的第i个词表示为wi。使用第一事实信息的分词结果,结合词向量技术,训练第一事实信息的词向量表F(w),表示词w所对应的向量,其大小为1×d。将分词后的第一事实信息表示为一个词序列[w1,w2,…,wn],使用词向量表将第一事实信息转化为第一词向量矩阵M=[F(w1),F(w2),…,F(wn)],M的大小为n×d。使用本实施例的方法将各第二事实信息转化为第二词向量矩阵。
在上述实施例的基础上,本实施例中对第一词向量矩阵进行编码获取第一编码结果的步骤具体包括:使用多组卷积核对第一词向量矩阵进行卷积运算;其中,各组中卷积核的宽度等于第一词向量矩阵的宽度,同一组中卷积核的大小相同,不同组的卷积核的大小不同;对各组的卷积运算结果进行池化,将各组的池化结果进行组合获取第一编码结果。
具体地,设置多组卷积核,使用多组卷积核对第一词向量矩阵进行卷积运算。所有组中卷积核的宽度等于第一词向量矩阵的宽度d,即卷积运算是对第一词向量的整行进行卷积。卷积核的高度h为第一词向量的行数。同一组中卷积核的大小相同,不同组的卷积核的大小不同。例如,设置四组卷积核,第一组卷积核的高度h为2,第一组卷积核的高度h为3,第三组卷积核的高度h为4,第四组卷积核的高度h为5。假设第一词向量矩阵为x,则使用任一卷积核对第一词向量矩阵进行卷积的公式为ci=W·xi:i+h-1+b。其中,ci为第i次的卷积运算结果,W为该卷积核的权重,xi:i+h-1表示第一词向量矩阵中从第i行到i+h-1行的数据,b为该卷积核的偏置。使用该卷积核进行卷积运算获取的卷积运算结果为c=[c1,c2,…,cn-h+1]。其中,n为第一词向量矩阵的总行数。各组中每个卷积核对应有一个卷积运算结果。对各组的卷积运算结果进行池化,将各组的池化结果进行组合获取第一编码结果。使用本实施例的方法对各第二词向量矩阵进行编码获取第二编码结果。
在上述实施例的基础上,本实施例中对各组的卷积运算结果进行池化的步骤具体包括:将各组中任一卷积核所有卷积运算结果的最大值进行保留,将各组中任一卷积核所有卷积运算结果中除最大值以外的卷积运算结果删除。
具体地,对于第t组中的任一卷积核对应有一个卷积运算结果
Figure BDA0001802629250000071
其中,m为卷积核的总组数,ci,t为第t组中任一卷积核第i次的卷积运算结果。将第t组中任一卷积核所有卷积运算结果中的最大值进行保留,将第t组中任一卷积核所有卷积运算结果中除最大值以外的卷积运算结果进行删除,即dt=max(c1,t,c2,t,…,cn-h+1,t)。将各组的池化结果进行组合获取第一编码结果,即d=[d1,d2,…,dm]。例如,当h=[2,3,4,5]时,d=[d1,d2,d3,d4]。
在上述任一实施例的基础上,本实施例中根据第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于长短时记忆神经网络对待预测法律文书的各判决任务的判决结果进行预测的步骤之前还包括:为各判决任务创建一个长短时记忆神经细胞;根据待预测法律文书的各判决任务之间的依赖关系,对各长短时记忆神经细胞的隐状态和细胞状态进行初始化;根据各长短时记忆神经细胞初始化的隐状态和各长短时记忆神经细胞初始化的细胞状态,获取各长短时记忆神经细胞的当前隐状态和各长短时记忆神经细胞的当前细胞状态;将各长短时记忆神经细胞的当前隐状态和各长短时记忆神经细胞的当前细胞状态作为各长短时记忆神经细胞对应的判决任务的特定任务表示。
具体地,在使用长短时记忆神经网络对待预测法律文书的各判决任务的判决结果进行预测之前还需要根据待预测法律文书的各判决任务之间的依赖关系构建长短时记忆神经网络。具体为对于待预测法律文书的第i个判决任务,为其创建一个长短时记忆网络细胞,其包含两个参数
Figure BDA0001802629250000072
Figure BDA0001802629250000073
Figure BDA0001802629250000074
为该长短时记忆神经细胞的初始隐状态,
Figure BDA0001802629250000075
为该长短时记忆神经细胞的初始细胞状态。根据待预测法律文书的各判决任务之间的依赖关系对
Figure BDA0001802629250000076
Figure BDA0001802629250000077
进行初始化。将初始化的
Figure BDA0001802629250000078
Figure BDA0001802629250000079
代入长短时记忆神经网络公式,获取该长短时记忆神经细胞的当前隐状态hi和当前细胞状态ci。将hi和ci作为待预测法律文书的第i个判决任务的特定任务表示。
在上述实施例的基础上,本实施例中通过以下公式根据待预测法律文书的各判决任务之间的依赖关系,对各长短时记忆神经细胞的隐状态和细胞状态进行初始化:
Figure BDA0001802629250000081
其中,i,j为待预测法律文书的判决任务的序号,
Figure BDA0001802629250000082
为第i个判决任务对应的长短时记忆神经细胞初始化的隐状态,
Figure BDA0001802629250000083
为第i个判决任务对应的长短时记忆神经细胞初始化的细胞状态,Di为第i个判决任务所依赖的判决任务的集合,tj为Di中的任一判决任务,Wi,j表示第i个判决任务与第j个判决任务之间的权重,hj表示第j个判决任务对应的长短时记忆神经细胞的当前隐状态,cj表示第j个判决任务对应的长短时记忆神经细胞的当前细胞状态,bi为第i个判决任务对应的偏置。
在上述实施例的基础上,本实施例中根据第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于长短时记忆神经网络对待预测法律文书的各判决任务的判决结果进行预测的步骤具体包括:对各判决任务的特定任务表示进行线性转换;根据线性转换结果、第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于softmax分类器获取各判决任务的判决结果。
具体地,在获取到待预测法律文书的第i个判决任务的特定任务表示后使用线性转换层对第i个判决任务的特定任务表示进行线性转换,即
Figure BDA0001802629250000084
其中,Wi p表示权重,
Figure BDA0001802629250000085
表示偏置。然后根据线性转换结果、第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于softmax分类器获取待预测法律文书的第i个判决任务的判决结果yi,即
Figure BDA0001802629250000086
图2为本发明实施例提供的法律判决结果预测方法中基于长短时记忆神经网络进行判决结果预测的流程示意图。编码部分首先将第一事实信息的第一词向量矩阵F1使用编码器进行编码,获取第一编码结果f1。将个第二事实信息的第二词向量矩阵F2使用编码器进行编码,获取第二编码结果f2。预测部分假设有5个判决任务,为每个判决任务创建一个长短时记忆神经细胞,即LSTM(Long Short Term Memory Network,长短时记忆神经网络)细胞。预测部分中圆角矩形框之间的连线表示各判决任务之间的依赖关系,如判决任务2依赖于判决任务1和判决任务3。LSTM细胞接收f1和f2的输入,将输出结果发送到线性转换层进行线性转换,线性转换层的输出结果发送到softmax层,softmax层输出各判决任务的判决结果,即y1、y2、y3、y4和y5
在本发明实施例的另一个实施例中提供一种法律判决结果预测装置,该装置用于实现前述各实施例中的方法。因此,在前述法律判决结果预测方法的各实施例中的描述和定义,可以用于本发明实施例中各个执行模块的理解。图3为本发明实施例提供的法律判决结果预测装置整体结构示意图,该装置包括转化模块301,编码模块302和预测模块303;其中:
转化模块301用于将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;
其中,待预测法律文书为需要进行法律判决结果预测的法律文书,第一事实信息为待预测法律文书中的事实信息,事实信息为事实部分的描述,即案情。第一词向量矩阵为将第一事实信息进行转化获取的词向量矩阵。转化模块301将第一事实信息进行分词,根据第一事实信息中每个词的词向量将第一事实信息转化为一个词向量矩阵。
法律文书样本是指已知判决结果的法律文书,根据收集的法律文书样本构建法律文书数据集。第二事实信息为每个法律文书样本中的事实信息。使用正则表达式从待预测法律文书提取第一事实信息,从各法律文书样本中提取第二事实信息和各法律文书样本的判决结果,将各法律文书样本的判决结果作为各法律文书样本的标签。其中,判决结果包括案件所涉及的法条、罪名和刑期。第二词向量矩阵为将各第二事实信息进行转化获取的词向量矩阵。其中,第一事实信息和各第二事实信息转化为词向量矩阵的方法相同。转化模块301将各第二事实信息进行分词,根据各第二事实信息中每个词的词向量将各第二事实信息转化为一个词向量矩阵。
编码模块302用于对第一词向量矩阵进行编码获取第一编码结果,对各第二词向量矩阵分别进行编码获取第二编码结果;
其中,第一编码结果为对第一词向量矩阵进行编码所得到的结果。第二编码结果为对各第二词向量矩阵进行编码所得到的结果。编码模块302对第一词向量矩阵和各第二词向量矩阵进行编码是以对第一词向量矩阵和各第二词向量矩阵进行特征提取的方式进行的。本实施例中对第一词向量矩阵进行编码的方法与对各第二词向量矩阵进行编码的方法相同。
预测模块303用于根据第一编码结果和各第二编码结果,基于长短时记忆神经网络对各判决任务的判决结果进行预测;其中,长短时记忆神经网络根据待预测法律文书的各判决任务之间的依赖关系进行构建。
其中,判决任务与判决结果一一对应,待预测法律文书的各判决任务之间的依赖关系是指若判决任务A的判决结果需要参考判决任务B的判决结果,则称为判决任务A依赖于判决任务B。预先根据待预测法律文书的各判决任务之间的依赖关系构建长短时记忆神经网络,从而将各判决任务结合在一起。本实施例不限于根据各判决任务之间的依赖关系构建长短时记忆神经网络的方法。预测模块303将各法律文书样本的判决结果作为各法律文书样本的标签,根据第一编码结果、各第二编码结果和预先获取的各法律文书样本的标签,基于长短时记忆神经网络获取待预测法律文书的各判决任务的判决结果属于各预设判决结果的概率。根据待预测法律文书的各判决任务的判决结果属于各预设判决结果的概率,确定待预测法律文书的各判决任务的判决结果。
本实施例通过提取将待预测法律文书和各法律文书样本转化为词向量矩阵,对各词向量矩阵进行编码,根据编码结果和各法律文书样本的判决结果基于长短时记忆神经网络对各判决任务的判决结果进行预测,其中长短时记忆神经网络根据待预测法律文书的各判决任务之间的依赖关系进行创建,本实施例基于使用各判决任务之间的依赖关系创建的长短时记忆神经网络对判决结果进行自动预测,从而将各判决任务结合在一起,提高了判决结果的准确性,具有良好的可拓展性。
在上述实施例的基础上,本实施例中转化模块具体用于:对待预测法律文书中的第一事实信息进行分词,获取第一事实信息中每个词的词向量;将第一事实信息中所有词的词向量进行组合,获取第一词向量矩阵。
在上述实施例的基础上,本实施例中编码模块具体用于:使用多组卷积核对第一词向量矩阵进行卷积运算;其中,各组中卷积核的宽度等于第一词向量矩阵的宽度,同一组中卷积核的大小相同,不同组的卷积核的大小不同;对各组的卷积运算结果进行池化,将各组的池化结果进行组合获取第一编码结果。
在上述实施例的基础上,本实施例中编码模块进一步具体用于:将各组中任一卷积核所有卷积运算结果的最大值进行保留,将各组中任一卷积核所有卷积运算结果中除最大值以外的卷积运算结果删除。
在上述各实施例的基础上,本实施例中还包括构建模块,用于为各判决任务创建一个长短时记忆神经细胞;根据待预测法律文书的各判决任务之间的依赖关系,对各长短时记忆神经细胞的隐状态和细胞状态进行初始化;根据各长短时记忆神经细胞初始化的隐状态和各长短时记忆神经细胞初始化的细胞状态,获取各长短时记忆神经细胞的当前隐状态和各长短时记忆神经细胞的当前细胞状态;将各长短时记忆神经细胞的当前隐状态和各长短时记忆神经细胞的当前细胞状态作为各长短时记忆神经细胞对应的判决任务的特定任务表示。
在上述实施例的基础上,本实施例中构建模块具体通过以下公式根据待预测法律文书的各判决任务之间的依赖关系,对各长短时记忆神经细胞的隐状态和细胞状态进行初始化:
Figure BDA0001802629250000121
其中,i,j为待预测法律文书的判决任务的序号,
Figure BDA0001802629250000122
为第i个判决任务对应的长短时记忆神经细胞初始化的隐状态,
Figure BDA0001802629250000123
为第i个判决任务对应的长短时记忆神经细胞初始化的细胞状态,Di为第i个判决任务所依赖的判决任务的集合,tj为Di中的任一判决任务,Wi,j表示第i个判决任务与第j个判决任务之间的权重,hj表示第j个判决任务对应的长短时记忆神经细胞的当前隐状态,cj表示第j个判决任务对应的长短时记忆神经细胞的当前细胞状态,bi为第i个判决任务对应的偏置。
在上述实施例的基础上,本实施例中预测模块具体用于:对各判决任务的特定任务表示进行线性转换;根据线性转换结果、第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于softmax分类器获取各判决任务的判决结果。
本实施例提供一种电子设备,图4为本发明实施例提供的电子设备整体结构示意图,该设备包括:至少一个处理器401、至少一个存储器402和总线403;其中,
处理器401和存储器402通过总线403完成相互间的通信;
存储器402存储有可被处理器401执行的程序指令,处理器调用程序指令能够执行上述各方法实施例所提供的方法,例如包括:将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;对第一词向量矩阵进行编码获取第一编码结果,对各第二词向量矩阵分别进行编码获取第二编码结果;根据第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于长短时记忆神经网络对待预测法律文书的各判决任务的判决结果进行预测;其中,长短时记忆神经网络根据各判决任务之间的依赖关系进行构建。
本实施例提供一种非暂态计算机可读存储介质,非暂态计算机可读存储介质存储计算机指令,计算机指令使计算机执行上述各方法实施例所提供的方法,例如包括:将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;对第一词向量矩阵进行编码获取第一编码结果,对各第二词向量矩阵分别进行编码获取第二编码结果;根据第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于长短时记忆神经网络对待预测法律文书的各判决任务的判决结果进行预测;其中,长短时记忆神经网络根据各判决任务之间的依赖关系进行构建。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (9)

1.一种法律判决结果预测方法,其特征在于,包括:
将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;
对所述第一词向量矩阵进行编码获取第一编码结果,对各所述第二词向量矩阵分别进行编码获取第二编码结果;
根据所述第一编码结果、各所述第二编码结果和预先获取的各所述法律文书样本的判决结果,基于长短时记忆神经网络对所述待预测法律文书的各判决任务的判决结果进行预测;其中,所述长短时记忆神经网络根据各所述判决任务之间的依赖关系进行构建;
其中,根据所述第一编码结果、各所述第二编码结果和预先获取的各所述法律文书样本的判决结果,基于长短时记忆神经网络对所述待预测法律文书的各判决任务的判决结果进行预测的步骤之前还包括:
为各所述判决任务创建一个长短时记忆神经细胞;
根据所述待预测法律文书的各判决任务之间的依赖关系,对各所述长短时记忆神经细胞的隐状态和细胞状态进行初始化;
根据各所述长短时记忆神经细胞初始化的隐状态和各所述长短时记忆神经细胞初始化的细胞状态,获取各所述长短时记忆神经细胞的当前隐状态和各所述长短时记忆神经细胞的当前细胞状态;
将各所述长短时记忆神经细胞的当前隐状态和各所述长短时记忆神经细胞的当前细胞状态作为各所述长短时记忆神经细胞对应的判决任务的特定任务表示。
2.根据权利要求1所述的方法,其特征在于,将待预测法律文书中的第一事实信息转化为第一词向量矩阵的步骤具体包括:
对待预测法律文书中的第一事实信息进行分词,获取所述第一事实信息中每个词的词向量;
将所述第一事实信息中所有词的词向量进行组合,获取第一词向量矩阵。
3.根据权利要求1所述的方法,其特征在于,对所述第一词向量矩阵进行编码获取第一编码结果的步骤具体包括:
使用多组卷积核对所述第一词向量矩阵进行卷积运算;其中,各组中卷积核的宽度等于所述第一词向量矩阵的宽度,同一组中卷积核的大小相同,不同组的卷积核的大小不同;
对各组的卷积运算结果进行池化,将各组的池化结果进行组合获取第一编码结果。
4.根据权利要求3所述的方法,其特征在于,对各组的卷积运算结果进行池化的步骤具体包括:
将各组中任一所述卷积核所有次的卷积运算结果的最大值进行保留,将各组中任一所述卷积核所有次的卷积运算结果中除所述最大值以外的卷积运算结果删除。
5.根据权利要求1所述的方法,其特征在于,通过以下公式根据所述待预测法律文书的各判决任务之间的依赖关系,对各所述长短时记忆神经细胞的隐状态和细胞状态进行初始化:
Figure FDA0002354455670000021
其中,
Figure FDA0002354455670000022
为第i个判决任务对应的长短时记忆神经细胞初始化的隐状态,
Figure FDA0002354455670000023
为第i个判决任务对应的长短时记忆神经细胞初始化的细胞状态,Di为第i个判决任务所依赖的判决任务的集合,tj为Di中第j个判决任务,Wi,j表示第i个判决任务与Di中第j个判决任务之间的权重,hj表示Di中第j个判决任务对应的长短时记忆神经细胞的当前隐状态,cj表示Di中第j个判决任务对应的长短时记忆神经细胞的当前细胞状态,bi为第i个判决任务对应的偏置。
6.根据权利要求1所述的方法,其特征在于,根据所述第一编码结果、各所述第二编码结果和预先获取的各所述法律文书样本的判决结果,基于长短时记忆神经网络对所述待预测法律文书的各判决任务的判决结果进行预测的步骤具体包括:
对各所述判决任务的特定任务表示进行线性转换;
根据线性转换结果、所述第一编码结果、各所述第二编码结果和预先获取的各所述法律文书样本的判决结果,基于softmax分类器获取各所述判决任务的判决结果。
7.一种法律判决结果预测装置,其特征在于,包括:
转化模块,用于将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;
编码模块,用于对所述第一词向量矩阵进行编码获取第一编码结果,对各所述第二词向量矩阵分别进行编码获取第二编码结果;
预测模块,用于根据所述第一编码结果和各所述第二编码结果,基于长短时记忆神经网络对各所述判决任务的判决结果进行预测;其中,所述长短时记忆神经网络根据所述待预测法律文书的各判决任务之间的依赖关系进行构建;
其中,还包括构建模块,用于:
为各判决任务创建一个长短时记忆神经细胞;根据待预测法律文书的各判决任务之间的依赖关系,对各长短时记忆神经细胞的隐状态和细胞状态进行初始化;
根据各长短时记忆神经细胞初始化的隐状态和各长短时记忆神经细胞初始化的细胞状态,获取各长短时记忆神经细胞的当前隐状态和各长短时记忆神经细胞的当前细胞状态;
将各长短时记忆神经细胞的当前隐状态和各长短时记忆神经细胞的当前细胞状态作为各长短时记忆神经细胞对应的判决任务的特定任务表示。
8.一种电子设备,其特征在于,包括:
至少一个处理器、至少一个存储器和总线;其中,
所述处理器和存储器通过所述总线完成相互间的通信;
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至6任一所述的方法。
9.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行如权利要求1至6任一所述的方法。
CN201811083989.1A 2018-09-17 2018-09-17 法律判决结果预测方法及装置 Active CN109308355B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811083989.1A CN109308355B (zh) 2018-09-17 2018-09-17 法律判决结果预测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811083989.1A CN109308355B (zh) 2018-09-17 2018-09-17 法律判决结果预测方法及装置

Publications (2)

Publication Number Publication Date
CN109308355A CN109308355A (zh) 2019-02-05
CN109308355B true CN109308355B (zh) 2020-03-13

Family

ID=65224005

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811083989.1A Active CN109308355B (zh) 2018-09-17 2018-09-17 法律判决结果预测方法及装置

Country Status (1)

Country Link
CN (1) CN109308355B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109829055B (zh) * 2019-02-22 2021-03-12 苏州大学 基于过滤门机制的用户法条预测方法
CN110276068B (zh) * 2019-05-08 2020-08-28 清华大学 法律案情分析方法及装置
CN112396201A (zh) * 2019-07-30 2021-02-23 北京国双科技有限公司 一种罪名预测方法及系统
CN112613294A (zh) * 2019-09-19 2021-04-06 北京国双科技有限公司 法律文书裁判结果的检验方法及装置
CN112559754A (zh) * 2019-09-25 2021-03-26 北京国双科技有限公司 一种判决结果处理方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106296495A (zh) * 2016-08-09 2017-01-04 点击律(上海)网络科技有限公司 一种诉讼结果的预测方法及系统
CN106777011A (zh) * 2016-12-07 2017-05-31 中山大学 一种基于深度多任务学习的文本分类方法
CN106815201A (zh) * 2015-12-01 2017-06-09 北京国双科技有限公司 一种自动判定裁判文书判决结果的方法及装置
CN106960252A (zh) * 2017-03-08 2017-07-18 深圳市景程信息科技有限公司 基于长短时记忆神经网络的电力负荷预测方法
CN107169035A (zh) * 2017-04-19 2017-09-15 华南理工大学 一种混合长短期记忆网络和卷积神经网络的文本分类方法
CN108133436A (zh) * 2017-11-23 2018-06-08 科大讯飞股份有限公司 自动判案方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130297540A1 (en) * 2012-05-01 2013-11-07 Robert Hickok Systems, methods and computer-readable media for generating judicial prediction information
US10255269B2 (en) * 2016-12-30 2019-04-09 Microsoft Technology Licensing, Llc Graph long short term memory for syntactic relationship discovery

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106815201A (zh) * 2015-12-01 2017-06-09 北京国双科技有限公司 一种自动判定裁判文书判决结果的方法及装置
CN106296495A (zh) * 2016-08-09 2017-01-04 点击律(上海)网络科技有限公司 一种诉讼结果的预测方法及系统
CN106777011A (zh) * 2016-12-07 2017-05-31 中山大学 一种基于深度多任务学习的文本分类方法
CN106960252A (zh) * 2017-03-08 2017-07-18 深圳市景程信息科技有限公司 基于长短时记忆神经网络的电力负荷预测方法
CN107169035A (zh) * 2017-04-19 2017-09-15 华南理工大学 一种混合长短期记忆网络和卷积神经网络的文本分类方法
CN108133436A (zh) * 2017-11-23 2018-06-08 科大讯飞股份有限公司 自动判案方法及系统

Also Published As

Publication number Publication date
CN109308355A (zh) 2019-02-05

Similar Documents

Publication Publication Date Title
CN109308355B (zh) 法律判决结果预测方法及装置
CN109871532B (zh) 文本主题提取方法、装置及存储介质
JP6955580B2 (ja) 文書要約自動抽出方法、装置、コンピュータ機器及び記憶媒体
CN110738090A (zh) 使用神经网络进行端到端手写文本识别的系统和方法
CN111222305A (zh) 一种信息结构化方法和装置
EP4131076A1 (en) Serialized data processing method and device, and text processing method and device
CN107291840B (zh) 一种用户属性预测模型构建方法和装置
CN110458638B (zh) 一种商品推荐方法及装置
CN111475622A (zh) 一种文本分类方法、装置、终端及存储介质
CN109948160B (zh) 短文本分类方法及装置
CN110826298B (zh) 一种智能辅助定密系统中使用的语句编码方法
CN111597341B (zh) 一种文档级关系抽取方法、装置、设备及存储介质
CN112417855A (zh) 文本意图识别方法、装置以及相关设备
CN111767697B (zh) 文本处理方法、装置、计算机设备以及存储介质
CN111008266A (zh) 文本分析模型的训练方法及装置、文本分析方法及装置
CN109979461B (zh) 一种语音翻译方法及装置
WO2022052468A1 (en) Methods and systems for product quantization-based compression of matrix
CN113571052A (zh) 一种噪声提取及指令识别方法和电子设备
CN110705279A (zh) 一种词汇表的选择方法、装置及计算机可读存储介质
CN111161266B (zh) 一种基于矢量量化的变分自编码机的多风格字体生成方法
CN111241843B (zh) 基于复合神经网络的语义关系推断系统和方法
CN113312445B (zh) 数据处理方法、模型构建方法、分类方法及计算设备
CN111814496B (zh) 文本处理方法、装置、设备及存储介质
CN112200255B (zh) 一种针对样本集的信息去冗余方法
CN114970666A (zh) 一种口语处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant