CN111274786A - 一种自动量刑的方法和系统 - Google Patents
一种自动量刑的方法和系统 Download PDFInfo
- Publication number
- CN111274786A CN111274786A CN202010074590.8A CN202010074590A CN111274786A CN 111274786 A CN111274786 A CN 111274786A CN 202010074590 A CN202010074590 A CN 202010074590A CN 111274786 A CN111274786 A CN 111274786A
- Authority
- CN
- China
- Prior art keywords
- criminal
- case description
- level
- episode
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 239000013598 vector Substances 0.000 claims abstract description 114
- 238000013528 artificial neural network Methods 0.000 claims abstract description 14
- 238000011840 criminal investigation Methods 0.000 claims description 12
- 230000007246 mechanism Effects 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 5
- 206010063385 Intellectualisation Diseases 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Economics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Tourism & Hospitality (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Development Economics (AREA)
- Primary Health Care (AREA)
- Technology Law (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种自动量刑的方法和系统,包括以下步骤:S1.选定数据库,提取数据库中案情描述、量刑情节和人工量刑特征;S2.获得案情描述、量刑情节和人工量刑特征的层次化向量;S3.将案情描述、量刑情节和人工量刑特征的层次化向量作为输入基于神经网络的多层感知器,采用所述多层感知器的输出预测刑期。其引入量刑情节权重信息,融合量刑情节层次化向量表示和案情描述向量表示及人工构建的量刑特征构建深度神经网络,从而提升量刑的准确率。
Description
技术领域
本发明是关于一种自动量刑的方法和系统,属于智能量刑技术领域。
背景技术
近年来,机器学习和深度学习等人工智能技术在信息检索、文本、图像和语音处理等领域的取得显著成果,法律判决等任务的智能化引起了学界的关注。法律任务智能化不仅可以提升司法人员办案的效率也可以一定程度使司法过程更加透明、公正。
法律判决智能化的两项重要任务是定罪和量刑。其中自动量刑通过给定案情描述和罪名自动预测犯罪人刑期的一项任务。量刑主要对犯罪人的主刑进行裁量,一些案件还包括附加刑的裁量。我国刑法中主刑的刑罚包括管制、拘役、有期徒刑、无期徒刑和死刑。附加刑的刑罚主要包括罚金和剥夺政治权利等。
目前,智能量刑系统主要三种方法精心自动量刑,其一是采用统计和概率的方法,但此种方法会损失案情描述信息和量刑情节信息。其二是基于人工构建量刑特征的机器学习量刑研究方法,此种方法虽然提升了量刑准确率,但是存在损失案情描述语义信息等问题。第三种是基于案情描述向量表示的深度学习方法定罪预测,其虽具有语义信息、案情描述信息和量刑情节,但量刑情节中明显有一些内容对于量刑是非常重要的,而另一些则是一般性描述,对于量刑结果没有什么影响。故该方法将量刑情节无差别的进行深度学习,不仅数据处理量大,而且会弱化重要情节的重要性,导致最终输出结果偏离正确结果,导致量刑错误。
本实施例将引入量刑情节权重信息,融合量刑情节层次化向量表示和案情描述向量表示及人工构建的量刑特征构建深度神经网络,从而提升量刑的准确率。
发明内容
针对上述现有技术的不足,本发明的目的是提供了一种自动量刑的方法和系统,其引入量刑情节权重信息,融合量刑情节层次化向量表示和案情描述向量表示及人工构建的量刑特征构建深度神经网络,从而提升量刑的准确率。
为实现上述目的,本发明提供了一种自动量刑的方法,包括以下步骤:S1.选定数据库,提取数据库中案情描述、量刑情节和人工量刑特征;S2.获得案情描述、量刑情节和人工量刑特征的层次化向量;S3.将案情描述、量刑情节和人工量刑特征的层次化向量作为输入基于神经网络的多层感知器,采用多层感知器的输出预测刑期。
进一步,步骤S1中,还包括从选定的数据库中提取案件的实际刑期,即由法官确定的刑期,计算实际刑期与预测刑期的差值,并对差值进行打分,差值越小,分值越高。
进一步,S1中提取数据库中案情描述、量刑情节和人工量刑特征包括:将数据库中提取到的文本进行分词,形成词向量,去除曾用词和停用词,并采用Skip-gram算法训练对案情进行描述的词向量。
进一步,S1中提取数据库中案情描述、量刑情节和人工量刑特征包括:将数据库中提取到的数据将其转换为量刑时对应的数据区间,并采用量刑时对应的数据区间对数据库中的数据。
进一步,步骤S2中采用带注意力机制的Bi-LSTM模型生成句子级案情描述向量,根据句子级案情描述向量,通过Bi-LSTM模型和注意力机制得到段落级量刑情节向量。
进一步,段落级案情描述向量的计算公式为:
vt=Wht+b
其中,S是句子级案情描述向量,ht是第t个位置的隐含层向量,αt是第t个位置句子级案情描述向量的权重,vt是段落级案情描述向量,uw,W,b是随机初始化参数矩阵。
进一步,S2中将量刑情节的文字内容拆分成句子,对于每个句子,采用注意力机制生成句子级量刑情节向量,并基于多个句子级量刑情节向量,采用双向长短时记忆神经网络得到段落级量刑情节向量。
进一步,将每个句子级量刑情节向量拆分成若干量刑情节,对于每个量刑情节,采用注意力机制生成量刑情节向量,并基于多个量刑情节向量,得到句子级量刑情节向量。
进一步,句子级的量刑情节相量的公式为:
score(qt,S)=qtWS
其中S是句子级案情描述向量,qt是第t个量刑情节的量刑情节向量,W是训练时随机初始化的参数矩阵,αt是量刑情节权重,T是量刑情节的个数,Qi是句子级案情描述向量的量刑情节,pt是第t个量刑情节对刑期影响程度的离散化表示。
本发明还公开了一种自动量刑的系统,包括:特征提取模块,用于提取数据库中案情描述、量刑情节和人工量刑特征;向量获得模块,用于获得案情描述、量刑情节和人工量刑特征的层次化向量;刑期预测模块,用于将案情描述、量刑情节和人工量刑特征的层次化向量作为输入基于神经网络的多层感知器,采用多层感知器的输出预测刑期。
本发明由于采取以上技术方案,其具有以下优点:(1)提出量刑情节的层次化向量表示,引入量刑情节权重信息;(2)提出一种融合案情描述与量刑情节量化信息及人工特征的神经网络模型;(3)选取量刑实践中具备代表性的盗窃罪和危险驾驶罪两种罪行,研究并抽取其量刑特征,在真实数据集上进行大量实验,并与经典机器学习模型、深度学习模型做对比,实际证明了本实施例中系统和方法对量刑任务的准确率有较大提升,能有效弥补人工抽取罪行情节特征的机器学习模型所损失的语义信息和基于案情描述的深度神经模型可能损失的量刑情节信息。
附图说明
图1为本发明一实施例中自动量刑的方法的逻辑关系图;
图2为本发明一实施例中量刑情节层次化向量的逻辑关系图。
具体实施方式
为了使本领域技术人员更好的理解本发明的技术方向,通过具体实施例对本发明进行详细的描绘。然而应当理解,具体实施方式的提供仅为了更好地理解本发明,它们不应该理解成对本发明的限制。在本发明的描述中,需要理解的是,所用到的术语仅仅是用于描述的目的,而不能理解为指示或暗示相对重要性。
实施例一
本实施例公开了一种自动量刑的方法,如图1所示,包括以下步骤:S1.选定数据库,提取数据库中案情描述、量刑情节和人工量刑特征;S2.获得案情描述、量刑情节和人工量刑特征的层次化向量;S3.将案情描述、量刑情节和人工量刑特征的层次化向量作为输入基于神经网络的多层感知器(MLP),采用多层感知器的输出预测刑期。本方法引入量刑情节权重信息,融合量刑情节层次化向量表示和案情描述向量表示及人工构建的量刑特征构建深度神经网络,从而提升量刑的准确率。
步骤S1具体操作过程如下:
S1.1选择数据库
本实施例使用的数据库是“中国法研杯”司法人工智能挑战赛所公开的数据集,该数据集来自中国裁判文书网。如表1所示,本实施例选取盗窃罪和危险驾驶罪的数据作为量刑研究的数据集。
表1盗窃罪和危险驾驶量刑研究的数据集情况
罪行 | 训练集 | 测试集 | 验证集 |
盗窃罪 | 363,153 | 43,161 | 43,161 |
危险驾驶罪 | 336,122 | 40,297 | 40,297 |
S1.2分词和词向量表示
本实施例中对裁判文书中的案情描述使用jieba分词模块进行分词、去停用词处理。选取Word2vec中Skip-gram算法训练案情描述的词向量。在训练词向量模型时,本实施例共收集了1927872篇法律裁判文书用于训练,特征向量的维度设置为100,当前词与预测词在一个句子中的最大距离设置为3。
S1.3数值离散化
将数据库中提取到的数据将其转换为量刑时对应的数据区间,并采用量刑时对应的数据区间对数据库中的数据。例如盗窃罪中的盗窃金额巨大一般是以3000-5000元为起点,若案情描述中涉案金额是4235元,则离散化表示为3000-5000元。
步骤S2具体操作过程如下:
在以往的量刑研究中,有许多将案情描述向量表示作为量刑模型的输入,也有将人工量刑特征作为量刑模型的输入。如在上文相关工作中提到的,只有人工量刑特征会损失案情信息,只有案情描述的向量表示会损失量刑情节相关的信息。如图1模型中,模型输入由三种向量拼接组成:案情描述向量Icd、量刑情节向量Isc和人工量刑特征向量If。其中,S1,S2,…SL是句子级案情描述向量;Icd是段落级案情描述向量。
是各个句子级案情描述向量的权重;是各个句子级案情描述向量的隐含层;是句子级量刑情节向量;是句子级量刑情节向量的权重;是句子级量刑情节向量的隐含层;sc是段落级量刑情节向量;α1,α2,...,αT是某个句子级案情描述向量中量刑情节向量的权重;p1,p2,...,pT是量刑情节对刑期影响程度的离散化表示;q1,q2,...,qT是量刑情节向量。
由于自动量刑任务中的案情描述通常是多个段落组成的长文本,以往工作中的案情描述表示多是基于句子级的向量表示,可能会由于文本长度损失案情信息。本实施例的案情描述的向量表示采用句子级和段落级的层次化向量表示。步骤S2中采用带注意力机制的Bi-LSTM模型生成句子级案情描述向量,根据句子级案情描述向量,通过Bi-LSTM模型和注意力机制得到段落级量刑情节向量。段落级案情描述向量的计算公式为:
vt=Wht+b
其中,S是句子级案情描述向量,ht是第t个位置的隐含层向量,αt是第t个位置句子级案情描述向量的权重,vt是段落级案情描述向量,uw,W,b是随机初始化参数矩阵。
在量刑任务中,确定刑期受多个量刑情节的影响,且不同的量刑情节有不同的影响程度。本实施例引入量刑情节的影响程度,并对其进行向量化表示。本实施例中规定量刑情节的加刑和减刑比例都在0%到100%,并将量刑情节的加刑和减刑比例量化在-100%到100%之间,设置10%为一个步长,刑期调整比例可以表示为长度为20的向量。例如某量刑情节的刑期调整比例为减刑20%到50%,其向量表示为[0,1,1,1,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]。
案情描述中每个句子都可能与量刑情节有关,因此模型为每个案情描述句子引入一个量刑情节向量。由于量刑情节有多种,每个案情描述的一个的句子一般只少数几个量刑情节,即该句子对于不同量刑情节的权重是不同的。本实施例将量刑情节的文字内容拆分成句子,对于每个句子,采用注意力机制生成句子级量刑情节向量,并基于多个句子级量刑情节向量,采用双向长短时记忆神经网络得到段落级量刑情节向量。将每个句子级量刑情节向量拆分成若干量刑情节,对于每个量刑情节,采用注意力机制生成量刑情节向量,并基于多个量刑情节向量,得到句子级量刑情节向量。句子级的量刑情节相量的公式为:
score(qt,)=qtWS
其中S是句子级案情描述向量,qt是第t个量刑情节的量刑情节向量,W是训练时随机初始化的参数矩阵,αt是量刑情节权重,T是量刑情节的个数,Qi是句子级案情描述向量的量刑情节,pt是第t个量刑情节对刑期影响程度的离散化表示。
量刑任务面临不同的罪行有不同的量刑情节,如何提取不同罪行相关的特定量刑特征是量刑任务面临的挑战。针对盗窃罪和危险驾驶罪,本实施例将具有大量实际案例的中国裁判文书网作为提取量刑特征的数据来源,通过对案情描述和判决依据的分析,总结出盗窃罪的17个量刑特征和危险驾驶罪的15个量刑特征,为每个量刑特征构建正则表达式从案情描述中抽取其值,并将其拼接起来构成If。量刑特征见表2、3,其详细说明如下:
(1)盗窃罪的量刑特征:
盗窃金额:[0,500),[500,4000),[4000,10000),[10000,50000),[50000,100000),[100000,200000),[200000,500000),[500000,1000000),[1000000,5000000),[5000000,~);
退赃比例:[0,0],(0,0.3],(0.3,0.6],(0.6,0.9],(0.9,1];
盗窃次数:1,2,3,4;
犯罪情形:既遂,未遂,犯罪预备,犯罪中止,犯罪既遂未遂均有;
其余量刑特征的维度均为一维,“0”表示否,“1”表示是。
表2盗窃罪量刑特征
表3危险驾驶罪量刑特征
特征 | 维度 |
血液酒精浓度 | 4 |
追逐驾驶 | 1 |
饮酒驾驶 | 1 |
超速 | 1 |
超载 | 1 |
超载人数 | 1 |
超载比例 | 1 |
拒绝检查行为 | 1 |
载有危险化学品 | 1 |
无证驾驶 | 1 |
赔偿 | 1 |
自首 | 1 |
立功 | 1 |
认罪态度 | 1 |
谅解和解 | 1 |
(2)危险驾驶罪的量刑特征:
血液酒精浓度:0-20,20-80,80-200,200以上;
超载人数:超载数值作为特征值;
超载比例:比例区间作为特征值;
其余量刑特征的维度均为一维,“0”表示否,“1”表示是。
本实施例中量刑任务是学习一个映射函数F:Rl+n+m→R1,从而得到一个一维的刑期值。本实施例将模型输入通过一个多层感知机,多层感知机对模型输入信息到输出之间的中间向量进行不同程度的组合从而实现回归预测。多层感知机的输出表示如下:
yc_pred=W[Icd;Isc;If]+b
其中yc_pred是量刑任务中刑期的回归预测结果,W和b是模型要学习的参数。
本实施例中模型训练的损失函数是Huber Loss,Huber Loss是一个经常用于回归问题的损失函数。它的主要优点是它是一种平滑近似函数,减小离群样本点的影响,提升模型的鲁棒性。
本实施例从数据库中提取实际刑期yc,即法院实际判定的刑期,模型预测值是yc_pred,预测刑期值与刑期标签值之间的差值为:
ei=|log(yc+1)-log(yc_pred+1)|
设置得分函数s(x)便于计算样本真实值与预测值的偏离程度。刑期标签值和预测值的差值越小,得分越高。
在所有样本数据上的总得分定义为:
其中,N表示样本的总数,s(ei)表示第i个样本的得分,S表示在所有样本上的总得分。
实施例二
本实施例还公开了一种自动量刑的系统,包括:特征提取模块,用于提取数据库中案情描述、量刑情节和人工量刑特征;向量获得模块,用于获得案情描述、量刑情节和人工量刑特征的层次化向量;刑期预测模块,用于将案情描述、量刑情节和人工量刑特征的层次化向量作为输入基于神经网络的多层感知器,采用多层感知器的输出预测刑期。
上述内容仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种自动量刑的方法,其特征在于,包括以下步骤:
S1.选定数据库,提取数据库中案情描述、量刑情节和人工量刑特征;
S2.获得所述案情描述、量刑情节和人工量刑特征的层次化向量;
S3.将所述案情描述、量刑情节和人工量刑特征的层次化向量作为输入基于神经网络的多层感知器,采用所述多层感知器的输出预测刑期。
2.如权利要求1所述的自动量刑的方法,其特征在于,所述步骤S1中,还包括从选定的数据库中提取案件的实际刑期,即由法官确定的刑期,计算所述实际刑期与所述预测刑期的差值,并对所述差值进行打分,所述差值越小,分值越高。
3.如权利要求1所述的自动量刑的方法,其特征在于,所述S1中提取数据库中案情描述、量刑情节和人工量刑特征包括:将数据库中提取到的文本进行分词,形成词向量,去除曾用词和停用词,并采用Skip-gram算法训练对案情进行描述的所述词向量。
4.如权利要求1-3任一项所述的自动量刑的方法,其特征在于,所述S1中提取数据库中案情描述、量刑情节和人工量刑特征包括:将数据库中提取到的数据将其转换为量刑时对应的数据区间,并采用所述量刑时对应的数据区间对所述数据库中的数据。
5.如权利要求1-3任一项所述的自动量刑的方法,其特征在于,所述步骤S2中采用带注意力机制的Bi-LSTM模型生成句子级案情描述向量,根据句子级案情描述向量,通过Bi-LSTM模型和注意力机制得到段落级量刑情节向量。
7.如权利要求1-3任一项所述的自动量刑的方法,其特征在于,所述S2中将量刑情节的文字内容拆分成句子,对于每个句子,采用注意力机制生成句子级量刑情节向量,并基于多个所述句子级量刑情节向量,采用双向长短时记忆神经网络得到段落级量刑情节向量。
8.如权利要求7所述的自动量刑的方法,其特征在于,将每个所述句子级量刑情节向量拆分成若干量刑情节,对于每个量刑情节,采用注意力机制生成量刑情节向量,并基于多个所述量刑情节向量,得到句子级量刑情节向量。
10.一种自动量刑的系统,其特征在于,包括:
特征提取模块,用于提取数据库中案情描述、量刑情节和人工量刑特征;
向量获得模块,用于获得所述案情描述、量刑情节和人工量刑特征的层次化向量;
刑期预测模块,用于将所述案情描述、量刑情节和人工量刑特征的层次化向量作为输入基于神经网络的多层感知器,采用所述多层感知器的输出预测刑期。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010074590.8A CN111274786A (zh) | 2020-01-22 | 2020-01-22 | 一种自动量刑的方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010074590.8A CN111274786A (zh) | 2020-01-22 | 2020-01-22 | 一种自动量刑的方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111274786A true CN111274786A (zh) | 2020-06-12 |
Family
ID=71001964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010074590.8A Pending CN111274786A (zh) | 2020-01-22 | 2020-01-22 | 一种自动量刑的方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111274786A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112232576A (zh) * | 2020-10-22 | 2021-01-15 | 北京明略昭辉科技有限公司 | 判决预测方法、装置、电子设备及可读存储介质 |
CN112347780A (zh) * | 2020-11-27 | 2021-02-09 | 浙江大学 | 基于深度神经网络的司法事实查明生成方法、装置、介质 |
CN112559855A (zh) * | 2020-12-03 | 2021-03-26 | 北京博雅英杰科技股份有限公司 | 信息查询方法、装置、设备及介质 |
CN112732865A (zh) * | 2020-12-29 | 2021-04-30 | 长春市把手科技有限公司 | 一种刑事案件情节对刑期影响比例的测算方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170024645A1 (en) * | 2015-06-01 | 2017-01-26 | Salesforce.Com, Inc. | Dynamic Memory Network |
US20180121785A1 (en) * | 2016-11-03 | 2018-05-03 | Nec Laboratories America, Inc. | Context-aware attention-based neural network for interactive question answering |
US20190122655A1 (en) * | 2017-10-24 | 2019-04-25 | Nec Laboratories America, Inc. | Word embedding system |
CN109740728A (zh) * | 2018-12-10 | 2019-05-10 | 杭州世平信息科技有限公司 | 一种基于多种神经网络组合的量刑计算方法 |
CN110119857A (zh) * | 2019-07-01 | 2019-08-13 | 南京擎盾信息科技有限公司 | 一种符合加减刑专家常识规则的刑期自动预测方法 |
CN110162636A (zh) * | 2019-05-30 | 2019-08-23 | 中森云链(成都)科技有限责任公司 | 基于d-lstm的文本情绪原因识别方法 |
CN110263160A (zh) * | 2019-05-29 | 2019-09-20 | 中国电子科技集团公司第二十八研究所 | 一种计算机问答系统中的问句分类方法 |
-
2020
- 2020-01-22 CN CN202010074590.8A patent/CN111274786A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170024645A1 (en) * | 2015-06-01 | 2017-01-26 | Salesforce.Com, Inc. | Dynamic Memory Network |
US20180121785A1 (en) * | 2016-11-03 | 2018-05-03 | Nec Laboratories America, Inc. | Context-aware attention-based neural network for interactive question answering |
US20190122655A1 (en) * | 2017-10-24 | 2019-04-25 | Nec Laboratories America, Inc. | Word embedding system |
CN109740728A (zh) * | 2018-12-10 | 2019-05-10 | 杭州世平信息科技有限公司 | 一种基于多种神经网络组合的量刑计算方法 |
CN110263160A (zh) * | 2019-05-29 | 2019-09-20 | 中国电子科技集团公司第二十八研究所 | 一种计算机问答系统中的问句分类方法 |
CN110162636A (zh) * | 2019-05-30 | 2019-08-23 | 中森云链(成都)科技有限责任公司 | 基于d-lstm的文本情绪原因识别方法 |
CN110119857A (zh) * | 2019-07-01 | 2019-08-13 | 南京擎盾信息科技有限公司 | 一种符合加减刑专家常识规则的刑期自动预测方法 |
Non-Patent Citations (1)
Title |
---|
BINGFENG LUO 等: "Learning to Predict Charges for Criminal Cases with Legal Basis" * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112232576A (zh) * | 2020-10-22 | 2021-01-15 | 北京明略昭辉科技有限公司 | 判决预测方法、装置、电子设备及可读存储介质 |
CN112347780A (zh) * | 2020-11-27 | 2021-02-09 | 浙江大学 | 基于深度神经网络的司法事实查明生成方法、装置、介质 |
CN112347780B (zh) * | 2020-11-27 | 2023-09-12 | 浙江大学 | 基于深度神经网络的司法事实查明生成方法、装置、介质 |
CN112559855A (zh) * | 2020-12-03 | 2021-03-26 | 北京博雅英杰科技股份有限公司 | 信息查询方法、装置、设备及介质 |
CN112732865A (zh) * | 2020-12-29 | 2021-04-30 | 长春市把手科技有限公司 | 一种刑事案件情节对刑期影响比例的测算方法及装置 |
CN112732865B (zh) * | 2020-12-29 | 2022-11-29 | 长春市把手科技有限公司 | 一种刑事案件情节对刑期影响比例的测算方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dahouda et al. | A deep-learned embedding technique for categorical features encoding | |
CN111274786A (zh) | 一种自动量刑的方法和系统 | |
CN112131350B (zh) | 文本标签确定方法、装置、终端及可读存储介质 | |
CN108536801A (zh) | 一种基于深度学习的民航微博安保舆情情感分析方法 | |
CN110321563A (zh) | 基于混合监督模型的文本情感分析方法 | |
CN103984943A (zh) | 一种基于贝叶斯概率框架的场景文本识别方法 | |
CN108052504A (zh) | 数学主观题解答结果的结构分析方法及系统 | |
KR20200010672A (ko) | 딥러닝을 이용한 스마트 상품 검색 방법 및 시스템 | |
Gangadharan et al. | Paraphrase detection using deep neural network based word embedding techniques | |
CN116994069A (zh) | 一种基于多模态信息的图像解析方法及系统 | |
CN111914553B (zh) | 一种基于机器学习的金融信息负面主体判定的方法 | |
CN117351336A (zh) | 图像审核方法和相关设备 | |
CN107392129A (zh) | 基于Softmax的人脸检索方法和系统 | |
CN110297986A (zh) | 一种微博热点话题的情感倾向分析方法 | |
CN115658905A (zh) | 一种跨篇章的事件多维画像生成方法 | |
CN109033321A (zh) | 一种图像与自然语言特征提取及基于关键词的语言指示图像分割方法 | |
CN112989830B (zh) | 一种基于多元特征和机器学习的命名实体识别方法 | |
CN117764084A (zh) | 基于多头注意力机制与多模型融合的短文本情感分析方法 | |
Lauren et al. | A low-dimensional vector representation for words using an extreme learning machine | |
CN117909918A (zh) | 一种基于融合特征的监护仪故障预测方法和系统 | |
Azizah et al. | Performance Analysis of Transformer Based Models (BERT, ALBERT, and RoBERTa) in Fake News Detection | |
Mars et al. | Combination of DE-GAN with CNN-LSTM for Arabic OCR on Images with Colorful Backgrounds | |
CN116523300A (zh) | 复杂电力作业场景安全风险解译方法 | |
CN115391523A (zh) | 风电场多源异构数据处理方法及装置 | |
CN113987536A (zh) | 数据表中字段安全等级确定方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200612 |
|
RJ01 | Rejection of invention patent application after publication |