CN110991161A - 相似文本确定方法、神经网络模型获得方法及相关装置 - Google Patents
相似文本确定方法、神经网络模型获得方法及相关装置 Download PDFInfo
- Publication number
- CN110991161A CN110991161A CN201811161121.9A CN201811161121A CN110991161A CN 110991161 A CN110991161 A CN 110991161A CN 201811161121 A CN201811161121 A CN 201811161121A CN 110991161 A CN110991161 A CN 110991161A
- Authority
- CN
- China
- Prior art keywords
- judicial
- neural network
- vocabulary
- network model
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/194—Calculation of difference between files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种相似文本确定方法、神经网络模型获得方法及相关装置,可以获得待处理的司法文本;对待处理的司法文本进行分词,获得词汇序列;获得词汇序列中各词汇的词汇向量构成的矩阵;将矩阵输入预设的神经网络模型中,获得预设的神经网络模型的部分或全部网络层输出的特征向量;将获得的各特征向量拼接为一个与待处理的司法文本对应的特征向量;根据待处理的司法文本对应的特征向量分别与预设司法文本库中各司法文本对应的特征向量的相似度,从预设司法文本库中确定与待处理的司法文本相似的司法文本。本发明可以自动确定相似的司法文本,无需用户手动查找,方便快捷。
Description
技术领域
本发明涉及司法文本处理技术领域,尤其涉及相似文本确定方法、神经网络模型获得方法及相关装置。
背景技术
在司法领域,用户常需要查询与某个司法案件相似的其他司法案件的裁判文书。例如:法官想查看自己对某个司法案件的判决是否合适,就需要通过关键词从海量的裁判文书中进行查找,然后逐个查看裁判文书的具体内容来确定是否相似。
从上述过程中可以看出,用户自行查询的方式十分繁琐,效率较低,因此急需一种可以快速确定相似裁判文书的方案。当然,除裁判文书外,其他司法文本,如起诉书、律师函等,用户也可能需要查找相似司法文本。
发明内容
鉴于上述问题,本发明提供一种克服上述问题或者至少部分地解决上述问题的相似文本确定方法、神经网络模型获得方法及相关装置,方案如下:
一种相似文本确定方法,包括:
获得待处理的司法文本;
对所述待处理的司法文本进行分词,获得词汇序列;
获得所述词汇序列中各词汇的词汇向量构成的矩阵;
将所述矩阵输入预设的神经网络模型中,获得所述预设的神经网络模型的部分或全部网络层输出的特征向量;
将获得的各特征向量拼接为一个与所述待处理的司法文本对应的特征向量;
根据所述待处理的司法文本对应的特征向量分别与预设司法文本库中各司法文本对应的特征向量的相似度,从所述预设司法文本库中确定与所述待处理的司法文本相似的司法文本。
可选的,所述获得所述词汇序列中各词汇的词汇向量构成的矩阵,包括:
对所述词汇序列中的每个词汇:获得该词汇的词向量及词性向量,将该词汇的词向量及词性向量拼接为该词汇的词汇向量;
按照所述词汇序列中各词汇的排列顺序对所述词汇序列中各词汇的词汇向量进行排列,获得所述词汇序列中各词汇的词汇向量构成的矩阵。
可选的,所述预设的神经网络模型为卷积神经网络模型,所述卷积神经网络模型的输入为:词汇向量构成的矩阵,所述卷积神经网络模型的输出为:司法信息。
可选的,所述司法信息包括:罪名、刑期、引用的法条中的至少一种,和/或,所述司法文本为:案情描述文本。
可选的,所述获得所述预设的神经网络模型的部分或全部网络层输出的特征向量,包括:
至少获得所述预设的神经网络模型的第一预设网络层输出的特征向量和第二预设网络层输出的特征向量,其中,所述第一预设网络层与所述预设的神经网络模型的输出层之间的层数小于第一预设层数,所述第二预设网络层与所述预设的神经网络模型的输入层之间的层数小于第二预设层数,所述第一预设网络层和所述第二预设网络层之间的层数大于第三预设层数。
一种神经网络模型获得方法,包括:
获得标注有司法信息的训练文本,所述训练文本为司法文本;
对所述训练文本进行分词,获得词汇序列;
获得所述词汇序列中各词汇的词汇向量构成的矩阵;
对所述矩阵及标注的司法信息进行机器学习,获得神经网络模型,所述神经网络模型的输入为:词汇向量构成的矩阵,所述神经网络模型的输出为:司法信息,其中,所述神经网络模型的各网络层可根据输入的词汇向量构成的矩阵输出特征向量。
一种相似文本确定装置,包括:文本获得单元、序列获得单元、矩阵获得单元、第一向量获得单元、第二向量获得单元和相似确定单元,
所述文本获得单元,用于获得待处理的司法文本;
所述序列获得单元,用于对所述待处理的司法文本进行分词,获得词汇序列;
所述矩阵获得单元,用于获得所述词汇序列中各词汇的词汇向量构成的矩阵;
所述第一向量获得单元,用于将所述矩阵输入预设的神经网络模型中,获得所述预设的神经网络模型的部分或全部网络层输出的特征向量;
所述第二向量获得单元,用于将获得的各特征向量拼接为一个与所述待处理的司法文本对应的特征向量;
所述相似确定单元,用于根据所述待处理的司法文本对应的特征向量分别与预设司法文本库中各司法文本对应的特征向量的相似度,从所述预设司法文本库中确定与所述待处理的司法文本相似的司法文本。
一种神经网络模型获得装置,包括:文本获得模块、分词模块、矩阵获得模块和机器学习模块,
所述文本获得模块,用于获得标注有司法信息的训练文本,所述训练文本为司法文本;
所述分词模块,用于对所述训练文本进行分词,获得词汇序列;
所述矩阵获得模块,用于获得所述词汇序列中各词汇的词汇向量构成的矩阵;
所述机器学习模块,用于对所述矩阵及标注的司法信息进行机器学习,获得神经网络模型,所述神经网络模型的输入为:词汇向量构成的矩阵,所述神经网络模型的输出为:司法信息,其中,所述神经网络模型的各网络层可根据输入的词汇向量构成的矩阵输出特征向量。
一种存储介质,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在的设备执行上述的任一种相似文本确定方法,和/或,在所述程序运行时控制所述存储介质所在的设备执行上述的神经网络模型获得方法。
一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行上述的任一种相似文本确定方法,和/或,所述程序运行时执行上述的神经网络模型获得方法。
借由上述技术方案,本发明提供的一种相似文本确定方法、神经网络模型获得方法及相关装置,可以获得待处理的司法文本;对所述待处理的司法文本进行分词,获得词汇序列;获得所述词汇序列中各词汇的词汇向量构成的矩阵;将所述矩阵输入预设的神经网络模型中,获得所述预设的神经网络模型的部分或全部网络层输出的特征向量;将获得的各特征向量拼接为一个与所述待处理的司法文本对应的特征向量;根据所述待处理的司法文本对应的特征向量分别与预设司法文本库中各司法文本对应的特征向量的相似度,从所述预设司法文本库中确定与所述待处理的司法文本相似的司法文本。本发明可以将司法文本的词汇向量矩阵输入神经网络模型中获得司法文本的特征向量,然后根据特征向量的相似度确定相似的司法文本。本发明可以自动确定相似的司法文本,无需用户手动查找,方便快捷。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的一种相似文本确定方法的流程图;
图2示出了本发明实施例提供的一种神经网络模型获得方法的流程图;
图3示出了本发明实施例提供的一种相似文本确定装置的结构示意图;
图4示出了本发明实施例提供的一种神经网络模型获得装置的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
如图1所示,本发明实施例提供的一种相似文本确定方法,可以包括:
S100、获得待处理的司法文本;
其中,司法文本可以为:裁判文书、起诉书、律师函等,也可以为裁判文书中的部分内容,如:案情描述文本。
S200、对所述待处理的司法文本进行分词,获得词汇序列;
可选的,本发明可以使用多种分词工具进行分词获得词汇序列,如哈工大LTP、jieba等。除获得词汇序列外,本发明还可以对各词汇的词性进行识别,从而获得词性序列。
例如采用哈工大LTP处理“小明酒后开车,把小红的车撞了。”,LTP返回的分词结果可以为[小明,酒后,开车,把,小华,的,车,撞,了],词性序列为[nh,nt,v,wp,p,nh,u,n,v,u,wp]。
S300、获得所述词汇序列中各词汇的词汇向量构成的矩阵;
其中,步骤S300可以具体包括:
对所述词汇序列中的每个词汇:获得该词汇的词向量及词性向量,将该词汇的词向量及词性向量拼接为该词汇的词汇向量;
按照所述词汇序列中各词汇的排列顺序对所述词汇序列中各词汇的词汇向量进行排列,获得所述词汇序列中各词汇的词汇向量构成的矩阵。
具体的,本发明可以通过wordvector技术获得词向量。如果词汇不在wordvector的词汇表中,则使用指定的预设词向量进行表达。
本发明可以使用一定维度的随机向量来表达词性,使词性特征化。例如对于共计30种词性[A1,A2,…,A30],可以用向量a1表示A1,向量a2表示A2等。其中a1、a2等的维度为一个指定的固定值,例如20维,每一个维度都是一个随机生成的接近于0的小数。
在获得词向量与词性向量后,将二者拼接即可形成词汇的向量化表达,即:词汇向量。词汇向量的维度为词向量的维度+词性向量的维度。对于待处理的司法文本中的每个词汇,都获得其词汇向量,再将待处理的司法文本中的每个词汇的词汇向量拼接起来,就形成一个矩阵。例如:当拼接后的词汇向量维度为120且待处理的司法文本中排列的词汇数量为200时,本发明可以生成一个维度为200*120的矩阵。为了后续卷积操作的方便,本发明可以将这个矩阵在词汇数量方向扩充至一个特定长度(例如600,形成600*120的矩阵),扩充的部分通过补0进行处理。
可以理解的是,上述矩阵包含了待处理的司法文本的特征信息。
S400、将所述矩阵输入预设的神经网络模型中,获得所述预设的神经网络模型的部分或全部网络层输出的特征向量;
其中,步骤S400可以具体包括:
将所述矩阵输入预设的神经网络模型中,至少获得所述预设的神经网络模型的第一预设网络层输出的特征向量和第二预设网络层输出的特征向量,其中,所述第一预设网络层与所述预设的神经网络模型的输出层之间的层数小于第一预设层数,所述第二预设网络层与所述预设的神经网络模型的输入层之间的层数小于第二预设层数,所述第一预设网络层和所述第二预设网络层之间的层数大于第三预设层数。
其中,所述预设的神经网络模型为卷积神经网络模型,所述卷积神经网络模型的输入为:词汇向量构成的矩阵,所述卷积神经网络模型的输出为:司法信息。
可选的,所述司法信息包括:罪名、刑期、引用的法条中的至少一种。
具体的,本发明实施例中的预设的神经网络模型可以通过图2所示方法训练得到。
如图2所示,本发明实施例还提供了一种神经网络模型获得方法,可以包括:
S001、获得标注有司法信息的训练文本,所述训练文本为司法文本;
S002、对所述训练文本进行分词,获得词汇序列;
S003、获得所述词汇序列中各词汇的词汇向量构成的矩阵;
步骤S002、S003分别与图1中步骤S200、S300相似,不再赘述。
S004、对所述矩阵及标注的司法信息进行机器学习,获得神经网络模型,所述神经网络模型的输入为:词汇向量构成的矩阵,所述神经网络模型的输出为:司法信息,其中,所述神经网络模型的各网络层可根据输入的词汇向量构成的矩阵输出特征向量。
其中,本发明可以使用迁移学习技术进行机器学习,迁移学习技术是一种机器学习方法,可以把为任务A开发的模型作为初始点,重新使用在为任务B开发模型的过程中。因此本发明可以将为司法信息预测开发的模型作为初始点,重新使用在为根据输入的词汇向量构成的矩阵输出特征向量的任务开发模型的过程中。
在实际应用中,本发明可以基于tensorflow、mxnet、pytorch等深度学习框架训练神经网络模型。本发明可以采用多层卷积神经网络模型,其层数可以为1-10层。浅层(1-2层)的卷积神经网络模型生成的特征向量更有利于提取出文本中局部的关键信息,从而进行罪名和引用的法条的判决预测;而深层(3-10层)的卷积神经网络模型更有利于提取出文本全局的关键信息,从而进行刑期的判决预测。
由于罪名和引用的法条和司法文本中的局部信息更加相关,因此本发明可以利用浅层卷积神经网络模型进行练罪名和引用的法条的预测。同时利用深层神经网络模型进行刑期的预测。
在实际应用中,本发明可以首先进行用于预测判决的多层卷积神经网络模型的训练,本发明可以通过标注有罪名和引用的法条的司法文本对浅层卷积神经网络模型进行训练,从而得到可以根据司法文本输出罪名和引用的法条的浅层卷积神经网络模型。相应的,本发明可以通过标注有刑期的司法文本对深层卷积神经网络模型进行训练,从而得到可以根据司法文本输出刑期的深层卷积神经网络模型。在实际应用中,本发明可以对浅层卷积神经网络模型和深层卷积神经网络模型进行联合训练,从而获得一个可以输出罪名、刑期和引用的法条的多层卷积神经网络模型。
在训练过程中,词汇向量、词性向量以及各层卷积核参数都可以随模型更新。本发明训练好的判决预测模型中不仅包含大量的词向量信息,也包含语义结构信息,兼顾了浅层卷积神经网络提取出的局部信息和深层卷积神经网络提取出的全局信息,达到更精确的模型效果。
S500、将获得的各特征向量拼接为一个与所述待处理的司法文本对应的特征向量;
S600、根据所述待处理的司法文本对应的特征向量分别与预设司法文本库中各司法文本对应的特征向量的相似度,从所述预设司法文本库中确定与所述待处理的司法文本相似的司法文本。
具体的,本发明实施例可以将特征向量的余弦相似度确定为特征向量的相似度,当两个司法文本的特征向量相似度高时,则这两个司法文本相似度也高。因此,本发明可以通过特征向量的相似度确定相似的司法文本。
本发明实施例提供的一种相似文本确定方法,可以获得待处理的司法文本;对所述待处理的司法文本进行分词,获得词汇序列;获得所述词汇序列中各词汇的词汇向量构成的矩阵;将所述矩阵输入预设的神经网络模型中,获得所述预设的神经网络模型的部分或全部网络层输出的特征向量;将获得的各特征向量拼接为一个与所述待处理的司法文本对应的特征向量;根据所述待处理的司法文本对应的特征向量分别与预设司法文本库中各司法文本对应的特征向量的相似度,从所述预设司法文本库中确定与所述待处理的司法文本相似的司法文本。本发明可以将司法文本的词汇向量矩阵输入神经网络模型中获得司法文本的特征向量,然后根据特征向量的相似度确定相似的司法文本。本发明可以自动确定相似的司法文本,无需用户手动查找,方便快捷。
与图1所示方法相对应,如图3所示,本发明实施例还提供了一种相似文本确定装置,可以包括:文本获得单元100、序列获得单元200、矩阵获得单元300、第一向量获得单元400、第二向量获得单元500和相似确定单元600。
所述文本获得单元100,用于获得待处理的司法文本;
其中,司法文本可以为:裁判文书、起诉书、律师函等,也可以为裁判文书中的部分内容,如:案情描述文本。
所述序列获得单元200,用于对所述待处理的司法文本进行分词,获得词汇序列;
可选的,本发明可以使用多种分词工具进行分词获得词汇序列,如哈工大LTP、jieba等。除获得词汇序列外,本发明还可以对各词汇的词性进行识别,从而获得词性序列。
例如采用哈工大LTP处理“小明酒后开车,把小红的车撞了。”,LTP返回的分词结果可以为[小明,酒后,开车,把,小华,的,车,撞,了],词性序列为[nh,nt,v,wp,p,nh,u,n,v,u,wp]。
所述矩阵获得单元300,用于获得所述词汇序列中各词汇的词汇向量构成的矩阵;
其中,所述矩阵获得单元300,可以具体用于:
对所述词汇序列中的每个词汇:获得该词汇的词向量及词性向量,将该词汇的词向量及词性向量拼接为该词汇的词汇向量;按照所述词汇序列中各词汇的排列顺序对所述词汇序列中各词汇的词汇向量进行排列,获得所述词汇序列中各词汇的词汇向量构成的矩阵。
具体的,本发明可以通过wordvector技术获得词向量。如果词汇不在wordvector的词汇表中,则使用指定的预设词向量进行表达。
本发明可以使用一定维度的随机向量来表达词性,使词性特征化。例如对于共计30种词性[A1,A2,…,A30],可以用向量a1表示A1,向量a2表示A2等。其中a1、a2等的维度为一个指定的固定值,例如20维,每一个维度都是一个随机生成的接近于0的小数。
在获得词向量与词性向量后,将二者拼接即可形成词汇的向量化表达,即:词汇向量。词汇向量的维度为词向量的维度+词性向量的维度。对于待处理的司法文本中的每个词汇,都获得其词汇向量,再将待处理的司法文本中的每个词汇的词汇向量拼接起来,就形成一个矩阵。例如:当拼接后的词汇向量维度为120且待处理的司法文本中排列的词汇数量为200时,本发明可以生成一个维度为200*120的矩阵。为了后续卷积操作的方便,本发明可以将这个矩阵在词汇数量方向扩充至一个特定长度(例如600,形成600*120的矩阵),扩充的部分通过补0进行处理。
可以理解的是,上述矩阵包含了待处理的司法文本的特征信息。
所述第一向量获得单元400,用于将所述矩阵输入预设的神经网络模型中,获得所述预设的神经网络模型的部分或全部网络层输出的特征向量;
其中,所述预设的神经网络模型可以为卷积神经网络模型,所述卷积神经网络模型的输入为:词汇向量构成的矩阵,所述卷积神经网络模型的输出为:司法信息。
其中,所述司法信息可以包括:罪名、刑期、引用的法条中的至少一种,和/或,所述司法文本为:案情描述文本。
其中,第一向量获得单元400可以具体用于:
至少获得所述预设的神经网络模型的第一预设网络层输出的特征向量和第二预设网络层输出的特征向量,其中,所述第一预设网络层与所述预设的神经网络模型的输出层之间的层数小于第一预设层数,所述第二预设网络层与所述预设的神经网络模型的输入层之间的层数小于第二预设层数,所述第一预设网络层和所述第二预设网络层之间的层数大于第三预设层数。
具体的,本发明实施例中的预设的神经网络模型可以通过图4所示装置训练得到。
所述第二向量获得单元500,用于将获得的各特征向量拼接为一个与所述待处理的司法文本对应的特征向量;
所述相似确定单元600,用于根据所述待处理的司法文本对应的特征向量分别与预设司法文本库中各司法文本对应的特征向量的相似度,从所述预设司法文本库中确定与所述待处理的司法文本相似的司法文本。
具体的,本发明实施例可以将特征向量的余弦相似度确定为特征向量的相似度,当两个司法文本的特征向量相似度高时,则这两个司法文本相似度也高。因此,本发明可以通过特征向量的相似度确定相似的司法文本。
本发明实施例提供的一种相似文本确定装置,可以获得待处理的司法文本;对所述待处理的司法文本进行分词,获得词汇序列;获得所述词汇序列中各词汇的词汇向量构成的矩阵;将所述矩阵输入预设的神经网络模型中,获得所述预设的神经网络模型的部分或全部网络层输出的特征向量;将获得的各特征向量拼接为一个与所述待处理的司法文本对应的特征向量;根据所述待处理的司法文本对应的特征向量分别与预设司法文本库中各司法文本对应的特征向量的相似度,从所述预设司法文本库中确定与所述待处理的司法文本相似的司法文本。本发明可以将司法文本的词汇向量矩阵输入神经网络模型中获得司法文本的特征向量,然后根据特征向量的相似度确定相似的司法文本。本发明可以自动确定相似的司法文本,无需用户手动查找,方便快捷。
与图2所示方法相对应,如图4所示,本发明实施例还提供了一种神经网络模型获得装置,可以包括:文本获得模块001、分词模块002、矩阵获得模块003和机器学习模块004。
所述文本获得模块001,用于获得标注有司法信息的训练文本,所述训练文本为司法文本;
所述分词模块002,用于对所述训练文本进行分词,获得词汇序列;
所述矩阵获得模块003,用于获得所述词汇序列中各词汇的词汇向量构成的矩阵;
其中,分词模块002、矩阵获得模块003分别与图3所示序列获得单元200、矩阵获得单元300相似,不再赘述。
所述机器学习模块004,用于对所述矩阵及标注的司法信息进行机器学习,获得神经网络模型,所述神经网络模型的输入为:词汇向量构成的矩阵,所述神经网络模型的输出为:司法信息,其中,所述神经网络模型的各网络层可根据输入的词汇向量构成的矩阵输出特征向量。
其中,本发明可以使用迁移学习技术进行机器学习,迁移学习技术是一种机器学习方法,可以把为任务A开发的模型作为初始点,重新使用在为任务B开发模型的过程中。因此本发明可以将为司法信息预测开发的模型作为初始点,重新使用在为根据输入的词汇向量构成的矩阵输出特征向量的任务开发模型的过程中。
在实际应用中,本发明可以基于tensorflow、mxnet、pytorch等深度学习框架训练神经网络模型。本发明可以采用多层卷积神经网络模型,其层数可以为1-10层。浅层(1-2层)的卷积神经网络模型生成的特征向量更有利于提取出文本中局部的关键信息,从而进行罪名和引用的法条的判决预测;而深层(3-10层)的卷积神经网络模型更有利于提取出文本全局的关键信息,从而进行刑期的判决预测。
由于罪名和引用的法条和司法文本中的局部信息更加相关,因此本发明可以利用浅层卷积神经网络模型进行练罪名和引用的法条的预测。同时利用深层神经网络模型进行刑期的预测。
在实际应用中,本发明可以首先进行用于预测判决的多层卷积神经网络模型的训练,本发明可以通过标注有罪名和引用的法条的司法文本对浅层卷积神经网络模型进行训练,从而得到可以根据司法文本输出罪名和引用的法条的浅层卷积神经网络模型。相应的,本发明可以通过标注有刑期的司法文本对深层卷积神经网络模型进行训练,从而得到可以根据司法文本输出刑期的深层卷积神经网络模型。在实际应用中,本发明可以对浅层卷积神经网络模型和深层卷积神经网络模型进行联合训练,从而获得一个可以输出罪名、刑期和引用的法条的多层卷积神经网络模型。
在训练过程中,词汇向量、词性向量以及各层卷积核参数都可以随模型更新。本发明训练好的判决预测模型中不仅包含大量的词向量信息,也包含语义结构信息,兼顾了浅层卷积神经网络提取出的局部信息和深层卷积神经网络提取出的全局信息,达到更精确的模型效果。
所述相似文本确定装置包括处理器和存储器,上述文本获得单元、序列获得单元、矩阵获得单元、第一向量获得单元、第二向量获得单元和相似确定单元等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
所述神经网络模型获得装置包括处理器和存储器,上述文本获得模块、分词模块、矩阵获得模块和机器学习模块等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
处理器中包含内核,由内核去存储器中调取相应的程序单元。内核可以设置一个或以上,通过调整内核参数来确定相似的司法文本和/或获得神经网络模型。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM),存储器包括至少一个存储芯片。
本发明实施例提供了一种存储介质,其上存储有程序,该程序被处理器执行时实现所述相似文本确定方法和/或所述神经网络模型获得方法。
本发明实施例提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行所述相似文本确定方法和/或所述神经网络模型获得方法。
本发明实施例提供了一种设备,设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序,处理器执行程序时实现以下步骤:
一种相似文本确定方法,包括:
获得待处理的司法文本;
对所述待处理的司法文本进行分词,获得词汇序列;
获得所述词汇序列中各词汇的词汇向量构成的矩阵;
将所述矩阵输入预设的神经网络模型中,获得所述预设的神经网络模型的部分或全部网络层输出的特征向量;
将获得的各特征向量拼接为一个与所述待处理的司法文本对应的特征向量;
根据所述待处理的司法文本对应的特征向量分别与预设司法文本库中各司法文本对应的特征向量的相似度,从所述预设司法文本库中确定与所述待处理的司法文本相似的司法文本。
可选的,所述获得所述词汇序列中各词汇的词汇向量构成的矩阵,包括:
对所述词汇序列中的每个词汇:获得该词汇的词向量及词性向量,将该词汇的词向量及词性向量拼接为该词汇的词汇向量;
按照所述词汇序列中各词汇的排列顺序对所述词汇序列中各词汇的词汇向量进行排列,获得所述词汇序列中各词汇的词汇向量构成的矩阵。
可选的,所述预设的神经网络模型为卷积神经网络模型,所述卷积神经网络模型的输入为:词汇向量构成的矩阵,所述卷积神经网络模型的输出为:司法信息。
可选的,所述司法信息包括:罪名、刑期、引用的法条中的至少一种,和/或,所述司法文本为:案情描述文本。
可选的,所述获得所述预设的神经网络模型的部分或全部网络层输出的特征向量,包括:
至少获得所述预设的神经网络模型的第一预设网络层输出的特征向量和第二预设网络层输出的特征向量,其中,所述第一预设网络层与所述预设的神经网络模型的输出层之间的层数小于第一预设层数,所述第二预设网络层与所述预设的神经网络模型的输入层之间的层数小于第二预设层数,所述第一预设网络层和所述第二预设网络层之间的层数大于第三预设层数。
一种神经网络模型获得方法,包括:
获得标注有司法信息的训练文本,所述训练文本为司法文本;
对所述训练文本进行分词,获得词汇序列;
获得所述词汇序列中各词汇的词汇向量构成的矩阵;
对所述矩阵及标注的司法信息进行机器学习,获得神经网络模型,所述神经网络模型的输入为:词汇向量构成的矩阵,所述神经网络模型的输出为:司法信息,其中,所述神经网络模型的各网络层可根据输入的词汇向量构成的矩阵输出特征向量。
本文中的设备可以是服务器、PC、PAD、手机等。
本申请还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:
一种相似文本确定方法,包括:
获得待处理的司法文本;
对所述待处理的司法文本进行分词,获得词汇序列;
获得所述词汇序列中各词汇的词汇向量构成的矩阵;
将所述矩阵输入预设的神经网络模型中,获得所述预设的神经网络模型的部分或全部网络层输出的特征向量;
将获得的各特征向量拼接为一个与所述待处理的司法文本对应的特征向量;
根据所述待处理的司法文本对应的特征向量分别与预设司法文本库中各司法文本对应的特征向量的相似度,从所述预设司法文本库中确定与所述待处理的司法文本相似的司法文本。
可选的,所述获得所述词汇序列中各词汇的词汇向量构成的矩阵,包括:
对所述词汇序列中的每个词汇:获得该词汇的词向量及词性向量,将该词汇的词向量及词性向量拼接为该词汇的词汇向量;
按照所述词汇序列中各词汇的排列顺序对所述词汇序列中各词汇的词汇向量进行排列,获得所述词汇序列中各词汇的词汇向量构成的矩阵。
可选的,所述预设的神经网络模型为卷积神经网络模型,所述卷积神经网络模型的输入为:词汇向量构成的矩阵,所述卷积神经网络模型的输出为:司法信息。
可选的,所述司法信息包括:罪名、刑期、引用的法条中的至少一种,和/或,所述司法文本为:案情描述文本。
可选的,所述获得所述预设的神经网络模型的部分或全部网络层输出的特征向量,包括:
至少获得所述预设的神经网络模型的第一预设网络层输出的特征向量和第二预设网络层输出的特征向量,其中,所述第一预设网络层与所述预设的神经网络模型的输出层之间的层数小于第一预设层数,所述第二预设网络层与所述预设的神经网络模型的输入层之间的层数小于第二预设层数,所述第一预设网络层和所述第二预设网络层之间的层数大于第三预设层数。
一种神经网络模型获得方法,包括:
获得标注有司法信息的训练文本,所述训练文本为司法文本;
对所述训练文本进行分词,获得词汇序列;
获得所述词汇序列中各词汇的词汇向量构成的矩阵;
对所述矩阵及标注的司法信息进行机器学习,获得神经网络模型,所述神经网络模型的输入为:词汇向量构成的矩阵,所述神经网络模型的输出为:司法信息,其中,所述神经网络模型的各网络层可根据输入的词汇向量构成的矩阵输出特征向量。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (10)
1.一种相似文本确定方法,其特征在于,包括:
获得待处理的司法文本;
对所述待处理的司法文本进行分词,获得词汇序列;
获得所述词汇序列中各词汇的词汇向量构成的矩阵;
将所述矩阵输入预设的神经网络模型中,获得所述预设的神经网络模型的部分或全部网络层输出的特征向量;
将获得的各特征向量拼接为一个与所述待处理的司法文本对应的特征向量;
根据所述待处理的司法文本对应的特征向量分别与预设司法文本库中各司法文本对应的特征向量的相似度,从所述预设司法文本库中确定与所述待处理的司法文本相似的司法文本。
2.根据权利要求1所述的方法,其特征在于,所述获得所述词汇序列中各词汇的词汇向量构成的矩阵,包括:
对所述词汇序列中的每个词汇:获得该词汇的词向量及词性向量,将该词汇的词向量及词性向量拼接为该词汇的词汇向量;
按照所述词汇序列中各词汇的排列顺序对所述词汇序列中各词汇的词汇向量进行排列,获得所述词汇序列中各词汇的词汇向量构成的矩阵。
3.根据权利要求1所述的方法,其特征在于,所述预设的神经网络模型为卷积神经网络模型,所述卷积神经网络模型的输入为:词汇向量构成的矩阵,所述卷积神经网络模型的输出为:司法信息。
4.根据权利要求3所述的方法,其特征在于,所述司法信息包括:罪名、刑期、引用的法条中的至少一种,和/或,所述司法文本为:案情描述文本。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述获得所述预设的神经网络模型的部分或全部网络层输出的特征向量,包括:
至少获得所述预设的神经网络模型的第一预设网络层输出的特征向量和第二预设网络层输出的特征向量,其中,所述第一预设网络层与所述预设的神经网络模型的输出层之间的层数小于第一预设层数,所述第二预设网络层与所述预设的神经网络模型的输入层之间的层数小于第二预设层数,所述第一预设网络层和所述第二预设网络层之间的层数大于第三预设层数。
6.一种神经网络模型获得方法,其特征在于,包括:
获得标注有司法信息的训练文本,所述训练文本为司法文本;
对所述训练文本进行分词,获得词汇序列;
获得所述词汇序列中各词汇的词汇向量构成的矩阵;
对所述矩阵及标注的司法信息进行机器学习,获得神经网络模型,所述神经网络模型的输入为:词汇向量构成的矩阵,所述神经网络模型的输出为:司法信息,其中,所述神经网络模型的各网络层可根据输入的词汇向量构成的矩阵输出特征向量。
7.一种相似文本确定装置,其特征在于,包括:文本获得单元、序列获得单元、矩阵获得单元、第一向量获得单元、第二向量获得单元和相似确定单元,
所述文本获得单元,用于获得待处理的司法文本;
所述序列获得单元,用于对所述待处理的司法文本进行分词,获得词汇序列;
所述矩阵获得单元,用于获得所述词汇序列中各词汇的词汇向量构成的矩阵;
所述第一向量获得单元,用于将所述矩阵输入预设的神经网络模型中,获得所述预设的神经网络模型的部分或全部网络层输出的特征向量;
所述第二向量获得单元,用于将获得的各特征向量拼接为一个与所述待处理的司法文本对应的特征向量;
所述相似确定单元,用于根据所述待处理的司法文本对应的特征向量分别与预设司法文本库中各司法文本对应的特征向量的相似度,从所述预设司法文本库中确定与所述待处理的司法文本相似的司法文本。
8.一种神经网络模型获得装置,其特征在于,包括:文本获得模块、分词模块、矩阵获得模块和机器学习模块,
所述文本获得模块,用于获得标注有司法信息的训练文本,所述训练文本为司法文本;
所述分词模块,用于对所述训练文本进行分词,获得词汇序列;
所述矩阵获得模块,用于获得所述词汇序列中各词汇的词汇向量构成的矩阵;
所述机器学习模块,用于对所述矩阵及标注的司法信息进行机器学习,获得神经网络模型,所述神经网络模型的输入为:词汇向量构成的矩阵,所述神经网络模型的输出为:司法信息,其中,所述神经网络模型的各网络层可根据输入的词汇向量构成的矩阵输出特征向量。
9.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在的设备执行如权利要求1至5中任一项所述的相似文本确定方法,和/或,在所述程序运行时控制所述存储介质所在的设备执行如权利要求6所述的神经网络模型获得方法。
10.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行如权利要求1至5中任一项所述的相似文本确定方法,和/或,所述程序运行时执行如权利要求6所述的神经网络模型获得方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811161121.9A CN110991161B (zh) | 2018-09-30 | 2018-09-30 | 相似文本确定方法、神经网络模型获得方法及相关装置 |
PCT/CN2019/107213 WO2020063512A1 (zh) | 2018-09-30 | 2019-09-23 | 相似文本确定方法、神经网络模型获得方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811161121.9A CN110991161B (zh) | 2018-09-30 | 2018-09-30 | 相似文本确定方法、神经网络模型获得方法及相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110991161A true CN110991161A (zh) | 2020-04-10 |
CN110991161B CN110991161B (zh) | 2023-04-18 |
Family
ID=69949277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811161121.9A Active CN110991161B (zh) | 2018-09-30 | 2018-09-30 | 相似文本确定方法、神经网络模型获得方法及相关装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110991161B (zh) |
WO (1) | WO2020063512A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111949766A (zh) * | 2020-08-20 | 2020-11-17 | 深圳市卡牛科技有限公司 | 一种文本相似度的识别方法、系统、设备和存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112668608B (zh) * | 2020-12-04 | 2024-03-15 | 北京达佳互联信息技术有限公司 | 一种图像识别方法、装置、电子设备及存储介质 |
CN116108171B (zh) * | 2022-12-19 | 2023-10-31 | 中国邮政速递物流股份有限公司广东省分公司 | 基于ai循环神经网络深度学习技术的司法材料处理系统 |
CN117149999B (zh) * | 2023-11-01 | 2024-01-23 | 人民法院信息技术服务中心 | 基于法律要素层次网络和文本特征的类案推荐方法及装置 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020728A (zh) * | 2012-11-05 | 2013-04-03 | 青海电力科学试验研究院 | 一种电力系统中变电站短期电能质量预测方法 |
CN104462378A (zh) * | 2014-12-09 | 2015-03-25 | 北京国双科技有限公司 | 用于文本识别的数据处理方法及装置 |
CN106469192A (zh) * | 2016-08-30 | 2017-03-01 | 北京奇艺世纪科技有限公司 | 一种文本相关性的确定方法及装置 |
CN106599883A (zh) * | 2017-03-08 | 2017-04-26 | 王华锋 | 一种基于cnn的多层次图像语义的人脸识别方法 |
CN106776545A (zh) * | 2016-11-29 | 2017-05-31 | 西安交通大学 | 一种通过深度卷积神经网络进行短文本间相似度计算的方法 |
CN106920147A (zh) * | 2017-02-28 | 2017-07-04 | 华中科技大学 | 一种基于词向量数据驱动的商品智能推荐方法 |
CN107016175A (zh) * | 2017-03-23 | 2017-08-04 | 中国科学院计算技术研究所 | 适用神经网络处理器的自动化设计方法、装置及优化方法 |
CN107133202A (zh) * | 2017-06-01 | 2017-09-05 | 北京百度网讯科技有限公司 | 基于人工智能的文本校验方法和装置 |
CN107506351A (zh) * | 2017-08-18 | 2017-12-22 | 武汉红茶数据技术有限公司 | 一种基于字符卷积网络的推特语义相似性分析方法 |
CN107515856A (zh) * | 2017-08-30 | 2017-12-26 | 哈尔滨工业大学 | 一种基于局部信息表示的细粒度情感元素抽取方法 |
CN107967318A (zh) * | 2017-11-23 | 2018-04-27 | 北京师范大学 | 一种采用lstm神经网络的中文短文本主观题自动评分方法和系统 |
CN108038091A (zh) * | 2017-10-30 | 2018-05-15 | 上海思贤信息技术股份有限公司 | 一种基于图的裁判文书案件相似计算与检索方法及系统 |
WO2018120964A1 (zh) * | 2016-12-30 | 2018-07-05 | 山东大学 | 一种基于深度信息和骨骼信息的姿势矫正方法 |
CN108536678A (zh) * | 2018-04-12 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 文本关键信息提取方法、装置、计算机设备和存储介质 |
CN108595602A (zh) * | 2018-04-20 | 2018-09-28 | 昆明理工大学 | 基于浅层模型与深度模型结合的问句文本分类方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7895148B2 (en) * | 2007-04-30 | 2011-02-22 | Microsoft Corporation | Classifying functions of web blocks based on linguistic features |
CN101414300B (zh) * | 2008-11-28 | 2010-06-16 | 电子科技大学 | 一种互联网舆情信息的分类处理方法 |
CN107180023B (zh) * | 2016-03-11 | 2022-01-04 | 科大讯飞股份有限公司 | 一种文本分类方法及系统 |
CN107229684B (zh) * | 2017-05-11 | 2021-05-18 | 合肥美的智能科技有限公司 | 语句分类方法、系统、电子设备、冰箱及存储介质 |
CN108509539B (zh) * | 2018-03-16 | 2021-08-17 | 联想(北京)有限公司 | 信息处理方法电子设备 |
-
2018
- 2018-09-30 CN CN201811161121.9A patent/CN110991161B/zh active Active
-
2019
- 2019-09-23 WO PCT/CN2019/107213 patent/WO2020063512A1/zh active Application Filing
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020728A (zh) * | 2012-11-05 | 2013-04-03 | 青海电力科学试验研究院 | 一种电力系统中变电站短期电能质量预测方法 |
CN104462378A (zh) * | 2014-12-09 | 2015-03-25 | 北京国双科技有限公司 | 用于文本识别的数据处理方法及装置 |
CN106469192A (zh) * | 2016-08-30 | 2017-03-01 | 北京奇艺世纪科技有限公司 | 一种文本相关性的确定方法及装置 |
CN106776545A (zh) * | 2016-11-29 | 2017-05-31 | 西安交通大学 | 一种通过深度卷积神经网络进行短文本间相似度计算的方法 |
WO2018120964A1 (zh) * | 2016-12-30 | 2018-07-05 | 山东大学 | 一种基于深度信息和骨骼信息的姿势矫正方法 |
CN106920147A (zh) * | 2017-02-28 | 2017-07-04 | 华中科技大学 | 一种基于词向量数据驱动的商品智能推荐方法 |
CN106599883A (zh) * | 2017-03-08 | 2017-04-26 | 王华锋 | 一种基于cnn的多层次图像语义的人脸识别方法 |
CN107016175A (zh) * | 2017-03-23 | 2017-08-04 | 中国科学院计算技术研究所 | 适用神经网络处理器的自动化设计方法、装置及优化方法 |
CN107133202A (zh) * | 2017-06-01 | 2017-09-05 | 北京百度网讯科技有限公司 | 基于人工智能的文本校验方法和装置 |
CN107506351A (zh) * | 2017-08-18 | 2017-12-22 | 武汉红茶数据技术有限公司 | 一种基于字符卷积网络的推特语义相似性分析方法 |
CN107515856A (zh) * | 2017-08-30 | 2017-12-26 | 哈尔滨工业大学 | 一种基于局部信息表示的细粒度情感元素抽取方法 |
CN108038091A (zh) * | 2017-10-30 | 2018-05-15 | 上海思贤信息技术股份有限公司 | 一种基于图的裁判文书案件相似计算与检索方法及系统 |
CN107967318A (zh) * | 2017-11-23 | 2018-04-27 | 北京师范大学 | 一种采用lstm神经网络的中文短文本主观题自动评分方法和系统 |
CN108536678A (zh) * | 2018-04-12 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 文本关键信息提取方法、装置、计算机设备和存储介质 |
CN108595602A (zh) * | 2018-04-20 | 2018-09-28 | 昆明理工大学 | 基于浅层模型与深度模型结合的问句文本分类方法 |
Non-Patent Citations (1)
Title |
---|
李晓等: "基于word2vec的句子语义相似度计算研究", 《计算机科学》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111949766A (zh) * | 2020-08-20 | 2020-11-17 | 深圳市卡牛科技有限公司 | 一种文本相似度的识别方法、系统、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2020063512A1 (zh) | 2020-04-02 |
CN110991161B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110991161B (zh) | 相似文本确定方法、神经网络模型获得方法及相关装置 | |
CN109145153B (zh) | 意图类别的识别方法和装置 | |
CN108920654B (zh) | 一种问答文本语义匹配的方法和装置 | |
CN109635116B (zh) | 文本词向量模型的训练方法、电子设备及计算机存储介质 | |
CN111291570B (zh) | 一种实现司法文书中要素识别的方法及装置 | |
CN109165380B (zh) | 一种神经网络模型训练方法及装置、文本标签确定方法及装置 | |
CN109344406B (zh) | 词性标注方法、装置和电子设备 | |
CN109582948B (zh) | 评价观点抽取的方法及装置 | |
CN110969018A (zh) | 案情描述要素提取方法、机器学习模型获得方法及装置 | |
CN110597966A (zh) | 自动问答方法及装置 | |
CN110969276B (zh) | 判决预测方法、判决预测模型获得方法及装置 | |
CN111291177A (zh) | 一种信息处理方法、装置和计算机存储介质 | |
CN108846138A (zh) | 一种融合答案信息的问题分类模型构建方法、装置和介质 | |
CN112395412A (zh) | 文本分类的方法、装置以及计算机可读介质 | |
CN113222022A (zh) | 一种网页分类识别方法及装置 | |
CN109597982B (zh) | 摘要文本识别方法及装置 | |
CN116484808A (zh) | 一种公文用可控文本生成方法及装置 | |
CN108733694B (zh) | 检索推荐方法和装置 | |
CN112908315B (zh) | 一种基于声音特征和语音识别的问答意图判断方法 | |
CN114186059A (zh) | 一种文章的分类方法和装置 | |
CN116680368A (zh) | 一种基于贝叶斯分类器的水利知识问答方法、设备及介质 | |
CN110019295B (zh) | 数据库检索方法、装置、系统以及存储介质 | |
CN114969253A (zh) | 市场主体与政策的匹配方法、装置、计算设备及介质 | |
CN111126066B (zh) | 基于神经网络的中文修辞手法的确定方法和装置 | |
CN115759048A (zh) | 一种剧本文本处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |