CN109829055B - 基于过滤门机制的用户法条预测方法 - Google Patents
基于过滤门机制的用户法条预测方法 Download PDFInfo
- Publication number
- CN109829055B CN109829055B CN201910133356.5A CN201910133356A CN109829055B CN 109829055 B CN109829055 B CN 109829055B CN 201910133356 A CN201910133356 A CN 201910133356A CN 109829055 B CN109829055 B CN 109829055B
- Authority
- CN
- China
- Prior art keywords
- vector
- gate
- name
- prediction
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000007246 mechanism Effects 0.000 title claims abstract description 36
- 239000013598 vector Substances 0.000 claims abstract description 43
- 238000011176 pooling Methods 0.000 claims abstract description 14
- 238000013145 classification model Methods 0.000 claims abstract description 8
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 239000013604 expression vector Substances 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 230000015654 memory Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 239000004576 sand Substances 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 238000007477 logistic regression Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000007637 random forest analysis Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000002650 habitual effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于过滤门机制的用户法条预测方法。本发明基于过滤门机制的用户法条预测方法,包括:采用双向LSTM网络对案情描述进行编码,将编码后的向量经过一个过滤门结构得到案情描述的高层次表示;利用注意力机制为每一个罪名选择合适的文本特征,将经过最大池化层后的向量与每一个罪名的注意力表示拼接,得到最终用于预测的向量;利用二分类模型,判断每个罪名是否始于该案情描述。本发明的有益效果:在用户法条预测系统中传统的做法通常是人工特征配合经典的文本分类器,这样导致最终法条预测的准确度高度依赖人工特征的好坏,也不具备跨业务预测的通用性,同时传统的做法不能很好的预测相似案情的法条。
Description
技术领域
本发明涉及计算机领域,具体涉及一种基于过滤门机制的用户法条预测方法。
背景技术
人工智能AI技术对建设服务性司法、现代化司法具有重要意义,也是满足人民群众法律需求的重要手段。AI技术在多个领域已经开展了不少实际应用,例如自动驾驶技术、人工智能金融、AI在线翻译等。法律虽然属于社会科学而不是自然科学范畴,但与哲学、社会学等学科不同,具有较强的形式化特征,法律推理的逻辑也比较鲜明,法律的信息也浩瀚繁多,且更新极快,AI迅速处理海量数据的优势使他能够在司法行业中一展优势。人们希望通过机器阅读大量的案件事实,自动给出该案件的适用条款,以提高审判效率。有效地利用这些数据能够减轻业务人员的负担,提高办案效率。同时,也可以对案件审判的质量进行评价,发现法官的习惯性偏差,有利于提高审判质量,保证公正执法。因此,我们可以利用自然语言处理技术,结合深度学习的方法,对于新的法律案件自动产生相应的法条。
法条预测对智能司法系统至关重要,用户可以根据自己的案情寻找是否有相似的案情,或者根据自己的案情找到相应的法律法规,进而来获取关于自己案情的判决依据。这对于帮助那些不了解法律的普通人是很有帮助的。
目前针对法条预测的常规做法就是将其看作一个文本分类的任务,利用数据挖掘和机器学习技术,预测每个法条对应的概率,最后设定一个阈值,大于0.5的则与该案情描述相关。常用的机器学习模型有LR(Logistic Regression,逻辑回归)、RF(RandomForests,随机森林)、GBDT(Gradient Boosting Decision Tree,梯度提升树)、SVM(Support Vector Machine,支持向量机)、DNN(Deep Neural Networks,深度神经网络)以及一些集成学习的方法Bagging和Boosting等。
传统技术存在以下技术问题:
在司法实践中,如果看似相同的案件,裁判结果或标准并不一致,会影响司法的公信力。当然,导致结果不一致的原因很多,有的是案情表面上大体相似,但其中的法律关系本质上不一致,结果适用法律也不一致,同时有些法条之间的差别也不是很明显。例如:从案情描述中区分故意杀人还是故意伤害需要判断嫌疑人是想故意致受害者于死地还是仅仅想伤害她意外造成的死亡。现有的方法无法区分相似案情所对应的法条。
LR(Logistic Regression,逻辑回归)是文本分类常用的机器学习算法,具有理解起来简单,易于并行化和工程化等优点。虽然逻辑回归简单,复杂度相对低,能够处理大量的样本,但它有很明显的缺陷,其属于线性模型,表征能力比较差,特征工程的质量对模型的效果影响巨大,无法学习特征间的非线性关系。该模型常常需要配合交叉特征使用。
RF(Random Forests,随机森林)是另外一个文本分类常用的算法,有多棵决策树构成,具有模型效果好、易于并行化、可解释性强以及应对高维数据的处理能力。但其属于传统机器学习模型,依然得依靠特征工程来获得最好的模型效果。此外,随机森林的模型容量较小,在面对大数据量的情况下无法很好的拟合数据,会出现欠拟合的情况。
随着深度学习技术的快速发展,DNN(Deep Neural Networks,深度神经网络)在工业界被使用地越来越多,其优点就是拟合能力强,在样本量足够的情况下会取得较好的效果。但其结构相对于其他深度学习模型来说过于简单,无法有效自动学习高阶复杂特征。
总的来说,法条预测这项任务中,上述的这些算法都算主流。目前法条预测系统主要的做法是通过对大量裁判文书数据进行分析,人工提取高质量的业务特征,然后选择合适的分类器算法进行预测,获得最终的预测模型。这样主要存在两个问题:首先,人工提取特征需要耗费大量的人力,同时不具备通用性,换个业务场景可能提取特征的方法或者特征的效果就失效了;其次,目前法条预测中使用的主流模型无法处理两个相似案情对应不同法条的情况,建模过程中会丢失数据中隐藏的上下文关键信息,而上下文信息往往可以很好区分案情之间的区别与联系。所以现有的法条预测方法存在过度依赖特征工程以及无法充分挖掘以及理解文本上下文信息。
发明内容
本发明要解决的技术问题是提供一种基于过滤门机制的用户法条预测方法,通过对案情描述数据的简单处理得到基础文本特征,在基础特征基础上训练过滤门模型得到更加抽象的上下文关键信息,同时利用注意力机制从文本中抽取与每一个法条相关的特征。利用上述的最终特征,设计一种基于LSTM(Long Short-term Memory,长短时记忆)的混合模型来处理法条预测问题。这样同时可以保留文本的上下文信息,同时可以得到可以区分相似案情的关键特征。由于基础特征只需要通过简单数据处理操作就可以得到,这样便可以极大减少特征工程量同时具备通用性,同时注意力特征可以起到很好的特征补足作用。此外,设计的混合模型可以充分挖掘基础特征隐藏的上下文信息来提升最终的法条预测效果。
为了解决上述技术问题,本发明提供了一种基于过滤门机制的用户法条预测方法,包括:
采用双向LSTM网络对案情描述进行编码,将编码后的向量经过一个过滤门结构得到案情描述的高层次表示;
利用注意力机制为每一个罪名选择合适的文本特征,将经过最大池化层后的向量与每一个罪名的注意力表示拼接,得到最终用于预测的向量;
利用二分类模型,判断每个罪名是否适于该案情描述。
在其中一个实施例中,具体包括:
LSTM基本单元由细胞状态、输入门、遗忘门以及输出门组成,其中细胞状态是LSTM基本单元关键组成部分,可以保证信息的有效流通;
其中,xt是当前时刻的输入,ht-1是上一时刻隐藏状态的输出,Ct-1是上一时刻细胞状态的输出,ht是当前时刻隐藏状态的输出,Ct是当前时刻细胞状态的输出,ft是遗忘门,控制哪些信息被丢弃,it是输入门,控制哪些信息对细胞状态的更新,ot是输出门,σ是sigmoid激活函数,各部分的更新公式如下:
ft=σ(Wfx·xt+Wfh·ht-1+bf)
it=σ(Wix·xt+Wih·ht-1+bi)
ot=σ(Wox·xt+Woh·ht-1+bo)
ht=ot·tanh(Ct)
其中,Wfx、Wix、Wcx、Wox分别是遗忘门、输入门、细胞状态、输出门对输入x的权重,Wfh、Wih、Wch、Woh分别是遗忘门、输入门、细胞状态、输出门对隐藏层h的权重,b*表示各部分的偏置项;
过滤门是一个简单的全连接神经网络,通过将编码器得到的基础特征向量进一步选择过滤,去除一些冗余信息;过滤门包括两个关键的结构:全连接层和概率计算层;将编码器特征与概率层的概率相计算,最后得到相应的抽象特征;
sGatei=σ(WShi+USS+b)
h′i=hi⊙sGatei
其中S为编码器得到的文本表示,WS和US是权值矩阵,b是网络的偏置向量,σ表示sigmoid激活函数,⊙代表向量元素乘法,h′i是经过过滤门过滤之后的隐向量;
注意力机制的目的是在训练过程中,让模型知道输入数据哪一部分信息是重要的,从而使模型高度关注这些信息;采用注意力机制从案情文本中选择相关信息,从而得到不同罪名对应的文本表示;
将经过过滤门后的隐向量h′=(h′1,h′2,...,h′n)作为注意力机制的输入;对于所有的罪名,利用注意力机制计算得到注意力权重α=(a1,a2,...,ak),其中k是罪名的数量,ai,j定义为:
其中,ui表示第i个罪名对应的上下文向量,用来计算每一个隐向量包含多少信息与第i个罪名相关,Wa是所有罪名共享的权值矩阵;通过加权计算得到每一个罪名对应的文本表示g=(g1,g2,...,gk),其中gi=(∑tai,th′t);
将罪名预测任务看作多个二分类任务,判断每个罪名是否属于相应的案情文档;根据变换后的文本表示预测相应的罪名p=(p1,p2,...,pk),其中pi∈{0,1};
其次,将最大池化后的文本向量e与每一个罪名的注意力表示向量g拼接,得到最终输出层的表示向量z=(z1,z2,...,zk):
最后,将softmax层作为输出层来获得罪名的预测结果p=(p1,p2,...,pk):
pi=argmax(si)
这里,si表示预测结果为{0,1}的概率分布,Wi p和bi p分别表示第i个罪名的权值矩阵和偏置量。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现任一项所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一项所述方法的步骤。
一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行任一项所述的方法。
本发明的有益效果:
在用户法条预测系统中传统的做法通常是人工特征配合经典的文本分类器,这样导致最终法条预测的准确度高度依赖人工特征的好坏,也不具备跨业务预测的通用性,同时传统的做法不能很好的预测相似案情的法条。所以,本发明提出的利用过滤门机制和注意力机制的模型,可以有效得到区分相似案情的关键特征,这样一方面可以从特征层面提升预测效果,另一方面这种方法可以免去人工提取特征的麻烦,可以应用到其他业务场景中。同时,本发明提出基于LSTM混合模型,可以充分挖掘文本数据特征中的隐藏序列信息以及将文本信息中关键信息有效提取出来,从模型层面提高预测效果。
附图说明
图1是本发明基于过滤门机制的用户法条预测方法中的LSTM基本单元结构示意图。
图2是本发明基于过滤门机制的用户法条预测方法的流程图。
图3是本发明基于过滤门机制的用户法条预测方法中的混合模型结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
本发明首先采用双向LSTM网络对案情描述进行编码,将编码后的向量经过一个过滤门结构得到案情描述的高层次表示,其次利用注意力机制为每一个罪名选择合适的文本特征,将经过最大池化层后的向量与每一个罪名的注意力表示拼接,得到最终用于预测的向量。最后,利用二分类模型,判断每个罪名是否适于该案情描述。
LSTM是循环神经网络的一种,较好的缓解了循环神经网络存在的梯度弥散或者梯度爆炸导致模型无法正常更新的问题,在语音识别、自然语言处理、时间序列预测等领域应用很广。LSTM基本单元由细胞状态、输入门、遗忘门以及输出门组成,其中细胞状态是LSTM基本单元关键组成部分,可以保证信息的有效流通。具体结构如图1所示。
其中,xt是当前时刻的输入,ht-1是上一时刻隐藏状态的输出,Ct-1是上一时刻细胞状态的输出,ht是当前时刻隐藏状态的输出,Ct是当前时刻细胞状态的输出,ft是遗忘门,控制哪些信息被丢弃,it是输入门,控制哪些信息对细胞状态的更新,ot是输出门,σ是sigmoid激活函数,各部分的更新公式如下:
ft=σ(Wfx·xt+Wfh·ht-1+bf)
it=σ(Wix·xt+Wih·ht-1+bi)
ot=σ(Wox·xt+Woh·ht-1+bo)
ht=ot·tanh(Ct)
其中,Wfx、Wix、Wcx、Wox分别是遗忘门、输入门、细胞状态、输出门对输入x的权重,Wfh、Wih、Wch、Woh分别是遗忘门、输入门、细胞状态、输出门对隐藏层h的权重,b*表示各部分的偏置项。
过滤门是一个简单的全连接神经网络,通过将编码器得到的基础特征向量进一步选择过滤,去除一些冗余信息。过滤门包括两个关键的结构:全连接层和概率计算层。将编码器特征与概率层的概率相计算,最后得到相应的抽象特征。
sGatei=σ(WShi+USS+b)
hi ′=hi⊙sGatei
其中S为编码器得到的文本表示,WS和US是权值矩阵,b是网络的偏置向量,σ表示sigmoid激活函数,⊙代表向量元素乘法,h′i是经过过滤门过滤之后的隐向量。
注意力机制的目的是在训练过程中,让模型知道输入数据哪一部分信息是重要的,从而使模型高度关注这些信息。采用注意力机制从案情文本中选择相关信息,从而得到不同罪名对应的文本表示。
将经过过滤门后的隐向量h′=(h′1,h′2,...,h′n)作为注意力机制的输入。对于所有的罪名,利用注意力机制计算得到注意力权重α=(a1,a2,...,ak),其中k是罪名的数量,ai,j定义为:
其中,ui表示第i个罪名对应的上下文向量,用来计算每一个隐向量包含多少信息与第i个罪名相关,Wa是所有罪名共享的权值矩阵。通过加权计算得到每一个罪名对应的文本表示g=(g1,g2,...,gk),其中gi=(∑tai,th′t)。
将罪名预测任务看作多个二分类任务,判断每个罪名是否属于相应的案情文档。根据变换后的文本表示预测相应的罪名p=(p1,p2,...,pk),其中pi∈{0,1}。
首先,将过滤门计算之后的隐层向量h′=(h′1,h′2,...,h′n)输入到一个最大池化层(max-pooling)中,得到没有经过注意力机制计算的文本表示向量e=[e1,e2,...,es]。其中,
其次,将最大池化后的文本向量e与每一个罪名的注意力表示向量g拼接,得到最终输出层的表示向量z=(z1,z2,...,zk):
最后,将softmax层作为输出层来获得罪名的预测结果p=(p1,p2,...,pk):
si=softmax(Wi pzi+bi p)
pi=argmax(si)
这里,si表示预测结果为{0,1}的概率分布,Wi p和bi p分别表示第i个罪名的权值矩阵和偏置量。
本发明的总体流程图2所示:
图2中的案情描述是由用户输入的数据构成,一般来说,案情描述数据由不同词组成一篇文档,基础特征生成主要是利用LSTM网络自动计算得到上下文时序特征。通过过滤门结构和注意力机制可以得到关于法条的不同特征以及去除不相关的冗余特征,利用深度网络自动提取特征这一特点,可以适用于不同应用场景。
一篇案情描述的文本可以看成是由一系列短语组成的序列x=(x1,x2,...,xn),其中n代表文档中短语的数量(xi∈T,T为一个固定的词表)。给定一个案情描述,预测对应的集合为Y=(yi,yj,...,yl)其中i、j、l是离散的(yk∈Y,Y为对应的法条集合,k为集合中的索引)。具体模型图如下:
在图2中,法条预测模型的输入由一个个词语组成的文本数据。将基础时序特征按照不同时间输入到模型中。经过LSTM计算后得到不同时间的上下文向量,经过过滤门之后,过滤掉一些冗余的上下文特征,同时利用注意力机制,将与相关法条有关的特征提取出来,最后将过滤门结构的特征最大池化得到最终文本相关特征,与相关法条的关键特征拼接,预测最终案情描述对应的法条结果。
在图2中,最终整个用户法条预测系统会根据混合模型输出的概率结果进行排序,输出每一个法条的概率,表示这些法条有多大的概率和案情相关,最终取大于0.5的法条作为最终与案情相关的法条。
在用户法条预测系统中传统的做法通常是人工特征配合经典的文本分类器,这样导致最终法条预测的准确度高度依赖人工特征的好坏,也不具备跨业务预测的通用性,同时传统的做法不能很好的预测相似案情的法条。所以,本发明提出的利用过滤门机制和注意力机制的模型,可以有效得到区分相似案情的关键特征,这样一方面可以从特征层面提升预测效果,另一方面这种方法可以免去人工提取特征的麻烦,可以应用到其他业务场景中。同时,本发明提出基于LSTM混合模型,可以充分挖掘文本数据特征中的隐藏序列信息以及将文本信息中关键信息有效提取出来,从模型层面提高预测效果。
通过对相关裁判文书中提取出的案情描述进行模型训练,同时与传统文本分类方法进行对比,采用宏平均精确率(Macro-Precision)、宏平均召回率(Macro-Recall)、宏平均F1值(Macro-F1)、微平均精确率(Micro-Precision)、微平均召回率(Micro-Recall)以及微平均F1值(Micro-F1)作为实验性能的评价指标,
为了充分对比本文提出的模型与其他文本分类模型的优越性,采用了一些典型的文本分类模型作为基准模型:
TFIDF+SVM:本文使用Salton等人提出的文档频率和逆文档频率(TFIDF)的方法提取大小为2,000的文本特征作为输入,并且使用Suykens等人提出的SVM模型作为分类器。
CNN:2014年,Kim第一次提出使用CNN作为文本分类模型,本文采用多卷积窗口(1,2,3)的CNN作为文本分类模型。同时,为了保证实验的公平,在CNN最后一层加一个全连接网络(CNN-200),将得到的特征进行降维后再预测相应的罪名。
LSTM:该方法于1997年由Hochreiter等人提出,能很好地处理时序或者文本数据。本文构建了一个两层的LSTM网络以及使用了最大池化方法来得到文本的编码向量。
Fact-Law Attention Model:Luo等人在2017年提出的一种基于多注意力机制的混合模型,结合了句子以及文档编码器,同时加入了相关法条文本辅助预测。
在各项指标上,本发明都有明显改善,具体结果如下:
以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。
Claims (4)
1.一种基于过滤门机制的用户法条预测方法,其特征在于,包括:
采用双向LSTM网络对案情描述进行编码,将编码后的向量经过一个过滤门结构得到案情描述的高层次表示;
利用注意力机制为每一个罪名选择合适的文本特征,将经过最大池化层后的向量与每一个罪名的注意力表示拼接,得到最终用于预测的向量;
利用二分类模型,判断每个罪名是否适于该案情描述;
具体包括:
LSTM基本单元由细胞状态、输入门、遗忘门以及输出门组成,其中细胞状态是LSTM基本单元关键组成部分,可以保证信息的有效流通;
其中,xt是当前时刻的输入,ht-1是上一时刻隐藏状态的输出,Ct-1是上一时刻细胞状态的输出,ht是当前时刻隐藏状态的输出,Ct是当前时刻细胞状态的输出,ft是遗忘门,控制哪些信息被丢弃,it是输入门,控制哪些信息对细胞状态的更新,ot是输出门,σ是sigmoid激活函数,各部分的更新公式如下:
ft=σ(Wfx·xt+Wfh·ht-1+bf)
it=σ(Wix·xt+Wih·ht-1+bi)
ot=σ(Wox·xt+Woh·ht-1+bo)
ht=ot·tanh(Ct)
其中,Wfx、Wix、Wcx、Wox分别是遗忘门、输入门、细胞状态、输出门对输入x的权重,Wfh、Wih、Wch、Woh分别是遗忘门、输入门、细胞状态、输出门对隐藏层h的权重,b*表示各部分的偏置项;
过滤门是一个简单的全连接神经网络,通过将编码器得到的基础特征向量进一步选择过滤,去除一些冗余信息;过滤门包括两个关键的结构:全连接层和概率计算层;将编码器特征与概率层的概率相计算,最后得到相应的抽象特征;
sGatei=σ(WShi+USS+b)
h′i=hi⊙sGatei
其中S为编码器得到的文本表示,WS和US是权值矩阵,b是网络的偏置向量,σ表示sigmoid激活函数,⊙代表向量元素乘法,h′i是经过过滤门过滤之后的隐向量;
注意力机制的目的是在训练过程中,让模型知道输入数据哪一部分信息是重要的,从而使模型高度关注这些信息;采用注意力机制从案情文本中选择相关信息,从而得到不同罪名对应的文本表示;
将经过过滤门后的隐向量h′=(h′1,h′2,...,h′n)作为注意力机制的输入;对于所有的罪名,利用注意力机制计算得到注意力权重α=(a1,a2,...,ak),其中k是罪名的数量,ai,j定义为:
其中,ui表示第i个罪名对应的上下文向量,用来计算每一个隐向量包含多少信息与第i个罪名相关,Wa是所有罪名共享的权值矩阵;通过加权计算得到每一个罪名对应的文本表示g=(g1,g2,...,gk),其中gi=(∑tai,th′t);
将罪名预测任务看作多个二分类任务,判断每个罪名是否属于相应的案情文档;根据变换后的文本表示预测相应的罪名p=(p1,p2,...,pk),其中pi∈{0,1};
首先,将过滤门计算之后的隐层向量h′=(h′1,h′2,...,h′n)输入到一个最大池化层中,得到没有经过注意力机制计算的文本表示向量e=[e1,e2,...,es];其中,
其次,将最大池化后的文本向量e与每一个罪名的注意力表示向量g拼接,得到最终输出层的表示向量z=(z1,z2,...,zk):
最后,将softmax层作为输出层来获得罪名的预测结果p=(p1,p2,...,pk):
pi=argmax(si)
2.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1所述方法的步骤。
3.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1所述方法的步骤。
4.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910133356.5A CN109829055B (zh) | 2019-02-22 | 2019-02-22 | 基于过滤门机制的用户法条预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910133356.5A CN109829055B (zh) | 2019-02-22 | 2019-02-22 | 基于过滤门机制的用户法条预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109829055A CN109829055A (zh) | 2019-05-31 |
CN109829055B true CN109829055B (zh) | 2021-03-12 |
Family
ID=66864138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910133356.5A Active CN109829055B (zh) | 2019-02-22 | 2019-02-22 | 基于过滤门机制的用户法条预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109829055B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110928987B (zh) * | 2019-10-18 | 2023-07-25 | 平安科技(深圳)有限公司 | 基于神经网络混合模型的法律条文检索方法及相关设备 |
CN110717843A (zh) * | 2019-10-21 | 2020-01-21 | 南京大学 | 一种可复用的法条推荐框架 |
CN111027327B (zh) * | 2019-10-29 | 2022-09-06 | 平安科技(深圳)有限公司 | 机器阅读理解方法、设备、存储介质及装置 |
CN112818671A (zh) * | 2019-11-15 | 2021-05-18 | 阿里巴巴集团控股有限公司 | 文本信息的处理方法、装置、存储介质和处理器 |
CN111026869B (zh) * | 2019-12-10 | 2020-08-18 | 山东大学 | 一种利用基于多层注意力的序列生成网络进行多罪名预测的方法 |
CN111259673B (zh) * | 2020-01-13 | 2023-05-09 | 山东财经大学 | 一种基于反馈序列多任务学习的法律判决预测方法及系统 |
CN112329891B (zh) * | 2020-11-27 | 2022-05-31 | 浙江大学 | 双向注意力和判案逻辑结合的辅助判案方法、装置、介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108021616A (zh) * | 2017-11-06 | 2018-05-11 | 大连理工大学 | 一种基于循环神经网络的社区问答专家推荐方法 |
CN108388900A (zh) * | 2018-02-05 | 2018-08-10 | 华南理工大学 | 基于多特征融合和时空注意力机制相结合的视频描述方法 |
CN109308355A (zh) * | 2018-09-17 | 2019-02-05 | 清华大学 | 法律判决结果预测方法及装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7873589B2 (en) * | 2001-04-02 | 2011-01-18 | Invivodata, Inc. | Operation and method for prediction and management of the validity of subject reported data |
US9129219B1 (en) * | 2014-06-30 | 2015-09-08 | Palantir Technologies, Inc. | Crime risk forecasting |
CN107818138B (zh) * | 2017-09-28 | 2020-05-19 | 银江股份有限公司 | 一种案件法律条例推荐方法及系统 |
CN108563624A (zh) * | 2018-01-03 | 2018-09-21 | 清华大学深圳研究生院 | 一种基于深度学习的自然语言生成方法 |
CN108875074B (zh) * | 2018-07-09 | 2021-08-10 | 北京慧闻科技发展有限公司 | 基于交叉注意力神经网络的答案选择方法、装置和电子设备 |
CN109213864A (zh) * | 2018-08-30 | 2019-01-15 | 广州慧睿思通信息科技有限公司 | 基于深度学习的刑事案件预判系统及其构建和预判方法 |
-
2019
- 2019-02-22 CN CN201910133356.5A patent/CN109829055B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108021616A (zh) * | 2017-11-06 | 2018-05-11 | 大连理工大学 | 一种基于循环神经网络的社区问答专家推荐方法 |
CN108388900A (zh) * | 2018-02-05 | 2018-08-10 | 华南理工大学 | 基于多特征融合和时空注意力机制相结合的视频描述方法 |
CN109308355A (zh) * | 2018-09-17 | 2019-02-05 | 清华大学 | 法律判决结果预测方法及装置 |
Non-Patent Citations (1)
Title |
---|
面向中文法律文本的命名实体识别研究;谢云;《中国优秀硕士学位论文全文数据库 信息科技辑》;20190115;I138-4600 * |
Also Published As
Publication number | Publication date |
---|---|
CN109829055A (zh) | 2019-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109829055B (zh) | 基于过滤门机制的用户法条预测方法 | |
CN108874782B (zh) | 一种层次注意力lstm和知识图谱的多轮对话管理方法 | |
CN112163426B (zh) | 一种基于注意力机制与图长短时记忆神经网络结合的关系抽取方法 | |
Chen et al. | Ensemble application of convolutional and recurrent neural networks for multi-label text categorization | |
CN107992597B (zh) | 一种面向电网故障案例的文本结构化方法 | |
Tang et al. | Effective LSTMs for target-dependent sentiment classification | |
CN112347268A (zh) | 一种文本增强的知识图谱联合表示学习方法及装置 | |
CN111027595B (zh) | 双阶段语义词向量生成方法 | |
CN109522548A (zh) | 一种基于双向交互神经网络的文本情感分析方法 | |
CN113987187A (zh) | 基于多标签嵌入的舆情文本分类方法、系统、终端及介质 | |
CN111274790A (zh) | 基于句法依存图的篇章级事件嵌入方法及装置 | |
CN111753058A (zh) | 一种文本观点挖掘方法及系统 | |
CN110633473B (zh) | 基于条件随机场的隐式篇章关系识别方法与系统 | |
Chen et al. | A deep learning method for judicial decision support | |
CN116521882A (zh) | 基于知识图谱的领域长文本分类方法及系统 | |
Sun et al. | Multi-channel CNN based inner-attention for compound sentence relation classification | |
CN116245107A (zh) | 电力审计文本实体识别方法、装置、设备及存储介质 | |
CN111985207A (zh) | 一种访问控制策略的获取方法、装置及电子设备 | |
CN113051904A (zh) | 一种面向小规模知识图谱的链接预测方法 | |
Nalisnick et al. | A brief tour of deep learning from a statistical perspective | |
CN116204644A (zh) | 一种基于VAE和Attention的主题增强文本情感分类方法 | |
CN114707483B (zh) | 基于对比学习和数据增强的零样本事件抽取系统及方法 | |
CN111191455A (zh) | 一种交通事故损害赔偿中法律条文预测方法 | |
CN113191155B (zh) | 基于门控深度记忆网络的电厂运行日志情感分析处理方法 | |
CN114692623A (zh) | 一种环境类网络舆情的情感分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |