CN114610891B - 面向不平衡司法裁判文书数据的法条推荐方法及系统 - Google Patents
面向不平衡司法裁判文书数据的法条推荐方法及系统 Download PDFInfo
- Publication number
- CN114610891B CN114610891B CN202210511295.3A CN202210511295A CN114610891B CN 114610891 B CN114610891 B CN 114610891B CN 202210511295 A CN202210511295 A CN 202210511295A CN 114610891 B CN114610891 B CN 114610891B
- Authority
- CN
- China
- Prior art keywords
- word
- neural network
- collocation
- data
- judicial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 239000013598 vector Substances 0.000 claims abstract description 69
- 238000013528 artificial neural network Methods 0.000 claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 39
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 18
- 238000004364 calculation method Methods 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 30
- 239000011159 matrix material Substances 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 12
- 230000007246 mechanism Effects 0.000 claims description 11
- 239000000126 substance Substances 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 230000015654 memory Effects 0.000 claims description 7
- 230000006403 short-term memory Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 230000002457 bidirectional effect Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 230000007787 long-term memory Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 description 9
- 238000012937 correction Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Resources & Organizations (AREA)
- Tourism & Hospitality (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Entrepreneurship & Innovation (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Databases & Information Systems (AREA)
- Technology Law (AREA)
- Primary Health Care (AREA)
- Machine Translation (AREA)
Abstract
本发明提供了一种面向不平衡司法裁判文书数据的法条推荐方法及系统,将获取的司法裁判文书数据输入模型并预处理,进行序列化得到模型的训练集;将训练集通过基于预训练模型的嵌入层,得到文本的向量表示;将文本向量通过CNN(卷积神经网络)获取文本特征;将训练集通过基于语法依赖信息的词语搭配算法,得到文本的词语搭配特征;将文本特征和词语搭配特征通过神经网络进行融合,得到混合语义向量;将混合语义向量输入到深层神经网络中,输出法条预测结果;基于法条预测结果和真实司法裁判文书的法条标签进行模型训练,并将训练完成的模型用于司法案件的辅助判决,能有效在极度不平衡数据下推荐适用的法条辅助法官进行司法裁判。
Description
技术领域
本发明涉及司法庭审辅助技术领域,特别涉及一种面向不平衡司法裁判文书数据的法条推荐方法及系统。
背景技术
随着法治进程的加快,公民的诉权和可诉范围随之扩大,各级法院每年都在审理越来越多的司法案件,法院中“案多人少”的问题变得更加严重。同时,由于法官判案过程中存在一定的主观倾向性因素,出现“同案不同判”的问题,长时间以来影响着司法公正性。基于人工智能技术的法律条文(简称:法条)推荐方法能够通过从司法裁判文书中提取关键信息并进行分析,提供预测出的法律条文作为法官判案的参考,以提升法官判案的效率和效果。目前,基于深层神经网络的司法法条推荐命中率在测试数据中已取得较好效果。此类方法通常由两阶段操作实现:首先,从裁判文书中提取事实向量文本特征;其次,将提取的特征输入到训练好的深层神经网络中,输出预测的司法法条。然而,由于实际司法判决存在法条类别数量繁多(超过1000以上法条类别)、实际案件类型及所依据的法条极度不平衡(不平衡比超过1:2500,常见研究主要关注不平衡比例在1:100以内的学习问题)等挑战,上述方法实际应用效果往往难以达到司法判决的要求,这将严重影响模型在辅助法官判案过程中的可用性。
现有的不平衡学习方法一般只能有效解决不平衡比在1:100以内的不平衡数据集,在实际使用过程中,超过1:100的不平衡数据会对个别样本产生归纳偏差;并且当少数类数量足够少时,会难以观察其样本结构,导致少数类识别性能急速下降。同时,现实法律中存在相似案件的情况,将导致模型的性能进一步降低。
应该注意,上面对技术背景的介绍只是为了方便对本申请的技术方案进行清楚、完整的说明,并方便本领域技术人员的理解而阐述的。不能仅仅因为这些方案在本申请的背景技术部分进行了阐述而认为上述技术方案为本领域技术人员所公知。
发明内容
本发明的目的是:针对上述背景技术中存在的不足,提供一种能适应极度不平衡司法裁判文书数据集的法条推荐方法,以进一步提升深层神经网络法条预测的准确性,尤其是对于不常见案件、相似案件预测的准确性,而有效地在极度不平衡数据下推荐适用的法条辅助法官进行司法裁判。
为了达到上述目的,本发明提供了一种面向不平衡司法裁判文书数据的法条推荐方法,包括如下步骤:
S1,将获取的司法裁判文书数据输入模型,对原始的裁判文书进行数据预处理,并且将预处理后的文本数据进行序列化得到模型的训练集;
S2,将训练集通过基于预训练模型的嵌入层,得到文本的向量表示;
S3,将文本向量通过CNN(卷积神经网络)获取文本特征;
S4,将训练集通过基于语法依赖信息的词语搭配算法,得到文本的词语搭配特征;
S5,将文本特征和词语搭配特征通过神经网络进行融合,得到混合语义向量;
S6,将混合语义向量输入到深层神经网络中,输出法条预测结果;
S7,基于法条预测结果和真实司法裁判文书的法条标签,计算损失函数,应用反向传播算法学习模型中的参数,完成模型训练并用于司法案件的辅助判决。
进一步地,S4中通过句中词语语法依赖信息获取词语的搭配信息,并通过结合注意力机制的双向LSTM(长短期记忆神经网络)将搭配的单词向量合并,得到词语搭配特征。
进一步地,S4具体包括如下子步骤:
本发明还提供了一种面向不平衡司法裁判文书数据的法条推荐系统,包括数据处理模块、文本特征提取及关键特征增强模块、深层神经网络预测模块;
所述数据处理模块用于对原始的裁判文书进行数据预处理,并且将预处理后的文本数据进行序列化得到模型的训练集;
所述文本特征提取和关键特征增强模块用于对训练集文本特征的提取和词语搭配特征的提取;
所述深层神经网络预测模块计算融合文本特征和词语搭配特征的混合语义向量,输出法条推荐的结果,辅助法官进行判案。
本发明的上述方案有如下的有益效果:
本发明提供的面向不平衡司法裁判文书数据的法条推荐方法及系统,通过CNN(卷积神经网络)和词语搭配算法对司法裁判文本进行特征挖掘,并且通过设计少数类纠正损失函数在不平衡学习过程中增大类间距离,从而提升对极度不平衡少数法条类别、及相似类别的预测效果,能有效在极度不平衡数据下推荐适用的法条辅助法官进行司法裁判;
本发明中,通过结合注意力机制的双向LSTM(长短期记忆神经网络)语法依赖词语搭配算法捕获裁判文书数据的语法依赖信息,将其融合至CNN(卷积神经网络)获取的文本特征中得到混合语义向量,降低关键司法语义特征被忽略的可能性,在此基础上针对性设计了极度不平衡少数类纠正训练损失函数,计算少数类与正样本、负样本之间的距离,并设置最小类间距离,从而发现少数类的稀疏采样边界来最小化多数类的主导效应;
本发明的其它有益效果将在随后的具体实施方式部分予以详细说明。
附图说明
图1为本发明的系统示意图;
图2为本发明的双向LSTM(长短期记忆神经网络)示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
实施例1:
本发明的实施例1提供了一种面向不平衡司法裁判文书数据的法条推荐方法,针对基于深度神经网络的司法裁判方法的相关缺陷,旨在通过CNN(卷积神经网络)和词语搭配算法对司法裁判文本进行特征挖掘,并且通过设计少数类纠正损失函数在不平衡学习过程中增大类间距离,从而提升对极度不平衡少数法条类别、及相似类别的预测效果。该方法通过结合注意力机制的双向LSTM(长短期记忆神经网络)语法依赖词语搭配算法捕获裁判文书数据的语法依赖信息,将其融合至CNN(卷积神经网络)获取的文本特征中得到混合语义向量,降低关键司法语义特征被忽略的可能性;在此基础上,针对性设计了极度不平衡少数类纠正训练损失函数,计算少数类与正样本、负样本之间的距离,并设置最小类间距离,从而发现少数类的稀疏采样边界来最小化多数类的主导效应。
该方法具体包括如下步骤:
S1,将获取的司法裁判文书数据输入到整个模型中,通过分词、过滤无意义词、提取关键信息等方式对原始的裁判文书进行数据预处理,并且将预处理后的文本数据进行序列化得到模型的训练集;
S2,将训练集通过基于预训练模型的嵌入层,得到文本的向量表示;
S3,将文本向量通过CNN(卷积神经网络)获取文本特征;
S4,将训练集通过基于语法依赖信息的词语搭配算法,得到文本的词语搭配特征;
其中,词语搭配特征提取主要通过句中词语语法依赖信息获取词语的搭配信息,并通过结合注意力机制的双向LSTM(长短期记忆神经网络)将搭配的单词向量合并,得到词语搭配特征。其具体过程如下:
S5,将文本特征和词语搭配特征通过神经网络进行融合,得到混合语义向量;
S6,将混合语义向量输入到深层神经网络中,输出法条预测结果;
S7,基于法条预测结果和真实司法裁判文书的法条标签,计算损失函数,应用反向传播算法学习所提出模型中的参数,训练完的模型可应用于司法案件的辅助判决。
具体地,使用损失函数来进行反向传播以训练神经网络的参数。在训练过程中,由于数据不平衡导致的模型产生归纳偏差,从而不平衡数据中的少数类样本学习效果差。因此通过将少数类纠正损失函数和标准交叉熵损失函数(Cross-Entropy)结合,使模型能够更加关注少数类,总体损失函数其计算公式如下:
在训练过程中,交叉熵损失函数用来度量标签向量和预测向量分布之间的差异性,确保大部分样本能分到正确类。类纠偏损失函数通过深入挖掘少数类样本,逐步加强少数类决策边界,使少数类能够最大化与多数类之间的差别;同时,在损失函数引入不平衡数据自适应权重,为更不平衡类别分配更多权重,为更少不平衡类别分配更少的权重,确保了对于少数类样本的正确分类。
采用本实施例提供的方法训练模型,取最优模型后,将得到的裁判文书进行数据处理:提取其事实信息、事实信息分词、词语序列化等,将处理后的数据通过文本特征提取和关键特征增强模块,提取其文本特征向量和词语搭配特征向量,并通过神经网络将其融合成混合语义特征向量,将获取的语义特征向量输入到两层神经网络中,输出法条推荐的结果,辅助法官进行判案。
以下将用具体实施例进行详细说明。
本实施例利用法研杯上CAIL-SMALL的数据集进行测试。该数据集中包含了154,592个法律案例,其中15%作为测试集,85%作为训练集。数据集中的每个案例包括了事实描述和法条标签。同时,该数据集是一个不平衡数据集,不平衡比至少达到了(10:5000),数据的具体统计结果如表1所示。
表1:CAIL-SMALL法律案例数据集统计细信息
为了评估和验证该模型的性能,我们使用目前流行的CNN(卷积神经网络)、BERT(预训练的语言表征模型)、FLA(基于事实描述和适用法条的神经网络)、HARNN(基于注意力的循环神经网络)作为基准测试模型(对比),并采用Acc(准确率)、MP(精确率)、MR(召回率)、F1(精确率与准确率的加权调和平均)作为模型的主要评价指标。模型的结果如表2所示,根据结果可以得出,本实施例提供的方法显著地提升了MP指标,且在其他评价指标中都取得了较高的性能表现,并超过基准测试模型。
表2:CAIL-Small测试集中模型性能表现
实施例2:
如图1所示,本发明的实施例2提供了一种面向极度不平衡司法裁判文书数据的法律条文推荐系统,包括数据处理模块、文本特征提取及关键特征增强模块、深层神经网络预测模块(结果预测模块)。其中,数据处理模块用于对原始的裁判文书进行数据预处理,并且将预处理后的文本数据进行序列化得到模型的训练集。文本特征提取和关键特征增强模块用于对训练集文本特征的提取和词语搭配特征的提取。深层神经网络预测模块将融合文本特征和词语搭配特征的混合语义向量计算,输出法条推荐的结果,辅助法官进行判案。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (4)
1.一种面向不平衡司法裁判文书数据的法条推荐方法,其特征在于,包括如下步骤:
S1,将获取的司法裁判文书数据输入模型,对原始的裁判文书进行数据预处理,并且将预处理后的文本数据进行序列化得到模型的训练集;
S2,将训练集通过基于预训练模型的嵌入层,得到文本的向量表示;
S3,将文本向量通过卷积神经网络获取文本特征;
S4,将训练集通过基于语法依赖信息的词语搭配算法,得到文本的词语搭配特征;通过句中词语语法依赖信息获取词语的搭配信息,并通过结合注意力机制的双向长短期记忆神经网络将搭配的单词向量合并,得到词语搭配特征;
具体包括如下子步骤:
S7,基于法条预测结果和真实司法裁判文书的法条标签,计算损失函数,应用反向传播算法学习模型中的参数,完成模型训练并用于司法案件的辅助判决;使用损失函数来进行反向传播以训练神经网络的参数,总体损失函数其计算公式如下:
4.一种面向不平衡司法裁判文书数据的法条推荐系统,采用如权利要求1-3任意一项所述的方法,其特征在于,包括数据处理模块、文本特征提取及关键特征增强模块、深层神经网络预测模块;
所述数据处理模块用于对原始的裁判文书进行数据预处理,并且将预处理后的文本数据进行序列化得到模型的训练集;
所述文本特征提取和关键特征增强模块用于对训练集文本特征的提取和词语搭配特征的提取;
所述深层神经网络预测模块计算融合文本特征和词语搭配特征的混合语义向量,输出法条推荐的结果,辅助法官进行判案。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210511295.3A CN114610891B (zh) | 2022-05-12 | 2022-05-12 | 面向不平衡司法裁判文书数据的法条推荐方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210511295.3A CN114610891B (zh) | 2022-05-12 | 2022-05-12 | 面向不平衡司法裁判文书数据的法条推荐方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114610891A CN114610891A (zh) | 2022-06-10 |
CN114610891B true CN114610891B (zh) | 2022-07-22 |
Family
ID=81870569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210511295.3A Active CN114610891B (zh) | 2022-05-12 | 2022-05-12 | 面向不平衡司法裁判文书数据的法条推荐方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114610891B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116108171B (zh) * | 2022-12-19 | 2023-10-31 | 中国邮政速递物流股份有限公司广东省分公司 | 基于ai循环神经网络深度学习技术的司法材料处理系统 |
CN116070624A (zh) * | 2023-04-06 | 2023-05-05 | 中南大学 | 一种基于环保案件要素的类案推送方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110717843A (zh) * | 2019-10-21 | 2020-01-21 | 南京大学 | 一种可复用的法条推荐框架 |
CN110750635A (zh) * | 2019-10-21 | 2020-02-04 | 南京大学 | 一种基于联合深度学习模型的法条推荐方法 |
WO2020253052A1 (zh) * | 2019-06-18 | 2020-12-24 | 平安普惠企业管理有限公司 | 一种基于自然语义理解的行为识别方法及相关设备 |
CN112183094A (zh) * | 2020-11-03 | 2021-01-05 | 北京信息科技大学 | 一种基于多元文本特征的中文语法查错方法及系统 |
CN113536780A (zh) * | 2021-06-29 | 2021-10-22 | 华东师范大学 | 一种基于自然语言处理的企业破产案件智能辅助判案方法 |
-
2022
- 2022-05-12 CN CN202210511295.3A patent/CN114610891B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020253052A1 (zh) * | 2019-06-18 | 2020-12-24 | 平安普惠企业管理有限公司 | 一种基于自然语义理解的行为识别方法及相关设备 |
CN110717843A (zh) * | 2019-10-21 | 2020-01-21 | 南京大学 | 一种可复用的法条推荐框架 |
CN110750635A (zh) * | 2019-10-21 | 2020-02-04 | 南京大学 | 一种基于联合深度学习模型的法条推荐方法 |
CN112183094A (zh) * | 2020-11-03 | 2021-01-05 | 北京信息科技大学 | 一种基于多元文本特征的中文语法查错方法及系统 |
CN113536780A (zh) * | 2021-06-29 | 2021-10-22 | 华东师范大学 | 一种基于自然语言处理的企业破产案件智能辅助判案方法 |
Non-Patent Citations (5)
Title |
---|
Deep contextualized word representations;Matthew E.Peters等;《Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics》;20180630;第2227-2237页 * |
一种结合LSTM和集成算法的文本校对模型;陶永才等;《小型微型计算机系统》;20200515(第05期);第73-77页 * |
基于法律裁判文书的法条推荐研究与应用;王旭;《万方数据库》;20211229;正文第1-57页 * |
文本摘要生成技术研究与应用;肖莉才;《万方数据库》;20211201;正文第11-12页 * |
面向法律裁判文书的法条推荐方法;张虎等;《计算机科学》;20190915;第46卷(第9期);第211-215页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114610891A (zh) | 2022-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114610891B (zh) | 面向不平衡司法裁判文书数据的法条推荐方法及系统 | |
CN108363753B (zh) | 评论文本情感分类模型训练与情感分类方法、装置及设备 | |
CN107193959B (zh) | 一种面向纯文本的企业实体分类方法 | |
CN109165284B (zh) | 一种基于大数据的金融领域人机对话意图识别方法 | |
CN107391486B (zh) | 一种基于统计信息和序列标注的领域新词识别方法 | |
CN111125349A (zh) | 基于词频和语义的图模型文本摘要生成方法 | |
CN108763484A (zh) | 一种基于lda主题模型的法条推荐方法 | |
CN111145052A (zh) | 司法文书的结构化分析方法及系统 | |
CN107608999A (zh) | 一种适用于自动问答系统的问句分类方法 | |
CN112231472B (zh) | 融入领域术语词典的司法舆情敏感信息识别方法 | |
CN110688836A (zh) | 基于监督学习的领域词典自动化构建方法 | |
CN108763402A (zh) | 基于依存关系、词性和语义词典的类中心向量文本分类法 | |
CN110717843A (zh) | 一种可复用的法条推荐框架 | |
CN116992005B (zh) | 基于大模型及本地知识库的智能对话方法、系统及设备 | |
CN110765266B (zh) | 一种裁判文书相似争议焦点合并方法及系统 | |
CN113886562A (zh) | 一种ai简历筛选方法、系统、设备和存储介质 | |
CN112632982A (zh) | 一种能用于供应商评价的对话文本情感分析方法 | |
CN116756303A (zh) | 一种多主题文本摘要自动生成方法及系统 | |
Zhi et al. | Financial fake news detection with multi fact CNN-LSTM model | |
CN115309872A (zh) | 一种基于Kmeans召回的多模型熵加权检索方法及系统 | |
CN105740225B (zh) | 一种融合句子局部上下文与文档领域信息的词义消歧方法 | |
CN112989830B (zh) | 一种基于多元特征和机器学习的命名实体识别方法 | |
CN111047092A (zh) | 纠纷案件胜率预测方法、装置、计算机设备及存储介质 | |
CN115600602B (zh) | 一种长文本的关键要素抽取方法、系统及终端设备 | |
CN115344695A (zh) | 一种基于领域bert模型的服务文本分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |