CN109918627A - 文本生成方法、装置、电子设备及存储介质 - Google Patents
文本生成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN109918627A CN109918627A CN201910016740.7A CN201910016740A CN109918627A CN 109918627 A CN109918627 A CN 109918627A CN 201910016740 A CN201910016740 A CN 201910016740A CN 109918627 A CN109918627 A CN 109918627A
- Authority
- CN
- China
- Prior art keywords
- text
- processed
- term vector
- diversity
- diversity score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000003860 storage Methods 0.000 title claims abstract description 16
- 239000013598 vector Substances 0.000 claims description 103
- 230000015654 memory Effects 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 13
- 230000000694 effects Effects 0.000 abstract description 11
- 230000002708 enhancing effect Effects 0.000 abstract description 8
- 230000006870 function Effects 0.000 description 11
- 238000003058 natural language processing Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000000354 decomposition reaction Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
一种文本生成方法,所述方法包括:获取待处理文本;从所述待处理文本中提取关键词,并对所述关键词进行多样性填充,获得多个第一文本;计算每个所述第一文本相对于所述待处理文本的多样性得分;根据所述多样性得分,从多个所述第一文本中确定第二文本;将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型;生成与所述待处理文本的含义相同的第三文本。本发明还提供一种文本生成装置、电子设备及存储介质。本发明不仅实现了数据增强,同时,也提高了文本生成的精确性,提高了文本的生成效果。
Description
技术领域
本发明涉及相同语意文本生成技术领域,尤其涉及一种文本生成方法、装置、电子设备及存储介质。
背景技术
数据增强是指对(有限)训练数据通过某种变换操作,从而生成新数据的过程。数据增强对最后的识别性能和泛化能力都有着非常重要的影响。传统的数据增强方法包括加噪音、裁剪、翻转和镜像等,这些传统方法是有局限性的。比如,对于手写字体“6”翻转之后就成了“9”,标签不一样了,就不能用这种方法生成新的样本。此外,有一些增强方式也存在问题,如Crop(裁剪),这种变化得到的区域有时并不包括真实的目标区域,这样就会使得训练样本中出现错误标签。
可见,使用传统的数据增强方法生成的文本具有局限性,有时候会出现误差,使得文本生成效果较差。
发明内容
鉴于以上内容,有必要提供一种文本生成方法、装置、电子设备及存储介质,不仅能够实现数据增强,同时,也提高了文本生成的精确性,提高了文本的生成效果。
本发明的第一方面提供一种文本生成方法,所述方法包括:
获取待处理文本;
从所述待处理文本中提取关键词,并对所述关键词进行多样性填充,获得多个第一文本;
计算每个所述第一文本相对于所述待处理文本的多样性得分;
根据所述多样性得分,从多个所述第一文本中确定第二文本;
将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型;
生成与所述待处理文本的含义相同的第三文本。
在一种可能的实现方式中,所述根据所述多样性得分,从多个所述第一文本中确定第二文本包括:
针对每个所述第一文本,判断所述第一文本相对于所述待处理文本的多样性得分是否超过预设分数阈值;
若所述第一文本相对于所述待处理文本的多样性得分超过预设分数阈值,则将所述第一文本确定为第二文本。
在一种可能的实现方式中,所述根据所述多样性得分,从多个所述第一文本中确定第二文本包括:
按照从高到低的顺序,将计算得到的多个所述多样性得分进行排序;
将排序靠前的预设数量的所述多样性得分对应的第一文本确定为第二文本。
在一种可能的实现方式中,所述方法还包括:
获取预设的文本数量;
所述生成与所述待处理文本的含义相同的第三文本包括:
生成与所述待处理文本的含义相同的所述文本数量的第三文本。
在一种可能的实现方式中,所述方法还包括:
输出所述第三文本;
将所述待处理文本、所述第二文本以及所述第三文本分类至同一个目录下。
在一种可能的实现方式中,在所述根据所述多样性得分,从多个所述第一文本中确定第二文本之后,所述方法还包括:
将所述待处理文本转换成第一词向量,以及将所述第二文本转换成第二词向量;
所述将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型包括:
将所述第一词向量以及所述第二词向量输入预先训练好的文本生成模型;
所述生成与所述待处理文本的含义相同的第三文本包括:
生成与所述待处理文本的含义相同的第三文本对应的第三词向量。
在一种可能的实现方式中,所述方法还包括:
使用第一标识对所述第一词向量进行标记,以及使用第二标识对所述第二词向量进行标记;其中,携带有所述第一标识的第三词向量是由所述第一词向量生成的,携带有所述第二标识的第三词向量是由所述第二词向量生成的。
本发明的第二方面提供一种文本生成装置,所述装置包括:
获取模块,用于获取待处理文本;
提取填充模块,用于从所述待处理文本中提取关键词,并对所述关键词进行多样性填充,获得多个第一文本;
计算模块,用于计算每个所述第一文本相对于所述待处理文本的多样性得分;
确定模块,用于根据所述多样性得分,从多个所述第一文本中确定第二文本;
输入模块,用于将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型;
生成模块,用于生成与所述待处理文本的含义相同的第三文本。
本发明的第三方面提供一种电子设备,所述电子设备包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现所述的文本生成方法。
本发明的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述的文本生成方法。
由以上技术方案,本发明中,可以先获取待处理文本,进一步地,从所述待处理文本中提取关键词,并对所述关键词进行多样性填充,获得多个第一文本,计算每个所述第一文本相对于所述待处理文本的多样性得分,根据所述多样性得分,从多个所述第一文本中确定第二文本,更进一步地,可以将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型,生成与所述待处理文本的含义相同的第三文本。可见,本发明中,采用多样性的方式来对待处理文本进行数据填充,再根据多样性得分来确定第二文本,之后将待处理文件以及第二文本同时输入文本生成模型,可以获得更多的与所述待处理文本的含义相同的第三文本,从而不仅实现了数据增强,同时,也提高了文本生成的精确性,提高了文本的生成效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本发明公开的一种文本生成方法的较佳实施例的流程图。
图2是本发明公开的一种文本生成装置的较佳实施例的功能模块图。
图3是本发明实现文本生成方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明实施例的文本生成方法应用在电子设备中,也可以应用在电子设备和通过网络与所述电子设备进行连接的服务器所构成的硬件环境中,由服务器和电子设备共同执行。网络包括但不限于:广域网、城域网或局域网。
所述电子设备包括一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的电子设备,其硬件包括但不限于微处理器、专用集成电路(ASIC)、可编程门阵列(FPGA)、数字处理器(DSP)、嵌入式设备等。所述电子设备还可包括网络设备和/或用户设备。其中,所述网络设备包括但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(Cloud Computing)的由大量主机或网络服务器构成的云,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。所述用户设备包括但不限于任何一种可与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理PDA、游戏机、交互式网络电视IPTV、智能式穿戴式设备等。其中,所述用户设备及网络设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络VPN等。
请参见图1,图1是本发明公开的一种文本生成方法的较佳实施例的流程图。其中,根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
S11、电子设备获取待处理文本。
NLP(Natural Language Processing,自然语言处理)是人工智能(AI)的一个子领域,NLP中的相同语意文本生成领域相较于模型的优化来说,更重要的是数据集的扩充。数据集的扩充会带来更好的语音分类效果与学习能力。其中,NLP常用的数据集包括:文本分类(Text Classification)、语言建模(Language Modeling)、图像标题(ImageCaptioning)、机器翻译(Machine Translation)、问答回答(Question Answering)、语音识别(Speech Recognition)、文件摘要(Document Summarization)等。
本发明实施例中,所述待处理文本为需要进行数据扩充的文本。所述待处理文本比如语句“请问医院距离这儿有多远”“请问医院在哪儿”。
S12、电子设备从所述待处理文本中提取关键词,并对所述关键词进行多样性填充,获得多个第一文本。
其中,可以使用TF-IDF(term frequency–inverse document frequency,词频-逆文本频率指数)算法提取关键词。
其中,数据的多样性,也即数据的不同表现形式,例如:同样是一句话,可以不同的句子表达相同的意思。
多样性填充可以有以下方法:对所述可替换的词语进行同义词替换;对所述可替换的词语进行词向量替换;对所述可替换的词语进行词语平移处理;对所述可替换的词语进行引入噪声词语;识别所述句子文本中的关键短语;对所述关键短语进行替换处理等等方法。
例如“请问医院在哪儿”,提取关键词就是“在哪儿”,多样性填充后变成“公司在哪儿”。
S13、电子设备计算每个所述第一文本相对于所述待处理文本的多样性得分。
其中,可以使用多样性计算公式来获得每个所述第一文本相对于所述待处理文本的多样性得分。
多样性计算公式比如:score=editdistance(u,v)+LDP(u,v)。
其中,editdistance(u,v)为把文本u变成文本v的最短改变次数,LDP(u,v)为长度惩罚度,LDP(u,v)=W*|len(u)-len(v)|,W为权重,len(u)为文本u的单词个数,len(v)为文本v的单词个数。
其中,多样性得分用于衡量所述第一文本与所述待处理文本之间的语义相似度,多样性得分越高,表明所述第一文本与所述待处理文本之间的语义相似度越高,反之,多样性得分越低,表明所述第一文本与所述待处理文本之间的语义相似度越低。
S14、电子设备根据所述多样性得分,从多个所述第一文本中确定第二文本。
具体的,所述根据所述多样性得分,从多个所述第一文本中确定第二文本包括:
针对每个所述第一文本,判断所述第一文本相对于所述待处理文本的多样性得分是否超过预设分数阈值;
若所述第一文本相对于所述待处理文本的多样性得分超过预设分数阈值,则将所述第一文本确定为第二文本。
在该可选的实施方式中,可以预先设定一个预设分数阈值,该预设分数阈值为用于衡量所述第一文本与所述待处理文本的语意相似度的最低多样性分数值,即如果所述第一文本相对于所述待处理文本的多样性得分超过预设分数阈值,则可以表明所述第一文本与所述待处理文本的语意相似度已经达到预设的标准,由所述第一文本生成的其他文本与所述待处理文本之间的误差较小,可以将所述第一文本确定为第二文本,并送入文本生成模型进行训练。
具体的,所述根据所述多样性得分,从多个所述第一文本中确定第二文本包括:
按照从高到低的顺序,将计算得到的多个所述多样性得分进行排序;
将排序靠前的预设数量的所述多样性得分对应的第一文本确定为第二文本。
在该可选的实施方式中,可以预先设定一个预设数量,比如3。在获得每个所述第一文本相对于所述待处理文本的多样性得分之后,可以按照从高到低的顺序,将计算得到的多个所述多样性得分进行排序,这样就可以得到一个按照多样性得分从高到低的所述第一文本的排序结果,按照这个排序结果,可以获取排序靠前的预设数量的所述多样性得分对应的第一文本,比如获取排名前3的所述多样性得分对应的第一文本,该获取的第一文本为多样性得分较高的文本,该获取的第一文本与所述待处理文本的语意相似度较高,由获取的所述第一文本生成的其他文本与所述待处理文本之间的误差较小,可以将获取的所述第一文本确定为第二文本,并送入文本生成模型进行训练。
S15、电子设备将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型。
其中,所述文本生成模型可以通过深度神经网络LSTM(Long Short-Term Memory,长短记忆网络),或者RNN(Recurrent Neural Network,循环神经网络)将一种语言序列翻译成另一种语言序列。
S16、电子设备生成与所述待处理文本的含义相同的第三文本。
比如:所述待处理文本为“请问医院距离这儿有多远”,生成的第三文本可以为“请问这里离医院多远”“请问这里与医院的距离是多少”。
其中,之前扩充的第一文本的数量是有限的,再根据所述多样性得分,从多个所述第一文本中确定第二文本的数量也是有限的,将待处理文本域第二文本同时输入预先训练好的文本生成模型,可以得到更多的与所述待处理文本的含义相同的第三文本。
其中,所述第三文本中既有由所述待处理文本生成的,也有由所述第二文本生成的。
其中,在对待处理文本进行多样性填充之后,再送入文本生成模型,可以使得该文本生成模型在增强后的数据下表现出更好地数据生成效果,也即可以获得更多的数据。
作为一种可选的实施方式,所述方法还包括:
获取预设的文本数量;
所述生成与所述待处理文本的含义相同的第三文本包括:
生成与所述待处理文本的含义相同的所述文本数量的第三文本。
其中,所述第三文本中既有由所述待处理文本生成的,也有由所述第二文本生成的。
在获取到文本数量后,可以对该文本数量进行平均,也即由所述待处理文本生成的第三文本的数量与由所述第二文本生成的第三文本的数量相同;或者,也可以随机分配文本数量的,也即由所述待处理文本生成的第三文本的数量与由所述第二文本生成的第三文本的数量是不同的。
举例来说,比如输入待处理文本A和第二文本B、C,则可以生成A1,A2,A3,B1,B2,B3,C1,C2,C3,也可以生成A1,A2,A3,A4,B1,B2,C1,C2,C3。
作为一种可选的实施方式,所述方法还包括:
输出所述第三文本;
将所述待处理文本、所述第二文本以及所述第三文本分类至同一个目录下。
在该可选的实施方式中,在生成与所述待处理文本的含义相同的第三文本之后,即可输出所述第三文本,以便于更直观的查看由所述待处理文本以及所述第二文本生成的文本。
此外,由于所述第二文本是由所述待处理文本进行多样性填充得到的,第三文本又是由所述待处理文本和所述第二文本经文本生成模型训练得到的,故所述待处理文本、所述第二文本以及所述第三文本从本质上来说为具有相同语意的不同句子,故所述待处理文本、所述第二文本以及所述第三文本属于同一类,因此,需要将所述待处理文本、所述第二文本以及所述第三文本分类至同一个目录下,这有利于后续的分类查找。
作为一种可选的实施方式,步骤S14之后,所述方法还包括:
将所述待处理文本转换成第一词向量,以及将所述第二文本转换成第二词向量;
所述将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型包括:
将所述第一词向量以及所述第二词向量输入预先训练好的文本生成模型;
所述生成与所述待处理文本的含义相同的第三文本包括:
生成与所述待处理文本的含义相同的第三文本对应的第三词向量。
其中,可以基于多种方法来进行词向量的转换,比如,可以基于统计生成对应词频矩阵,然后再可以利用SVD(Singular Value Decomposition,奇异值分解)生成词向量;或者也可以用word2vec直接生成词向量。
在该可选的实施方式中,由于文本生成模型只能对词向量进行训练,故在根据所述多样性得分,从多个所述第一文本中确定第二文本之后,需要先把所述待处理文本转换成第一词向量,以及将所述第二文本转换成第二词向量,之后,在将所述第一词向量以及所述第二词向量输入预先训练好的文本生成模型,经文本生成模型训练后,生成的也是词向量,即第三词向量。
作为一种可选的实施方式,所述方法还包括:
使用第一标识对所述第一词向量进行标记,以及使用第二标识对所述第二词向量进行标记;其中,携带有所述第一标识的第三词向量是由所述第一词向量生成的,携带有所述第二标识的第三词向量是由所述第二词向量生成的。
在该可选的实施方式中,在将所述第一词向量以及所述第二词向量输入预先训练好的文本生成模型之前,还可以使用第一标识对所述第一词向量进行标记,以及使用第二标识对所述第二词向量进行标记,之后,在将携带有第一标识的第一词向量以及携带有第二标识的第二词向量输入预先训练好的文本生成模型,经文本生成模型训练后,生成的第三词向量也是携带有标识的,其中,由所述第一词向量生成的第三词向量携带有所述第一标识,而由所述第二词向量生成的第三词向量携带有所述第二标识。将词向量进行标记在送入文本生成模型进行训练,这有利于后续根据标识来确定输出的词向量是由哪个输入的词向量生成的。
在图1所描述的方法流程中,先获取待处理文本,进一步地,从所述待处理文本中提取关键词,并对所述关键词进行多样性填充,获得多个第一文本,计算每个所述第一文本相对于所述待处理文本的多样性得分,根据所述多样性得分,从多个所述第一文本中确定第二文本,更进一步地,可以将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型,生成与所述待处理文本的含义相同的第三文本。可见,本发明中,采用多样性的方式来对待处理文本进行数据填充,再根据多样性得分来确定第二文本,之后将待处理文件以及第二文本同时输入文本生成模型,可以获得更多的与所述待处理文本的含义相同的第三文本,从而不仅实现了数据增强,同时,也提高了文本生成的精确性,提高了文本的生成效果。
以上所述,仅是本发明的具体实施方式,但本发明的保护范围并不局限于此,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出改进,但这些均属于本发明的保护范围。
请参见图2,图2是本发明公开的一种文本生成装置的较佳实施例的功能模块图。
在一些实施例中,所述文本生成装置运行于电子设备中。所述文本生成装置可以包括多个由程序代码段所组成的功能模块。所述文本生成装置中的各个程序段的程序代码可以存储于存储器中,并由至少一个处理器所执行,以执行图1所描述的文本生成方法中的部分或全部步骤。
本实施例中,所述文本生成装置根据其所执行的功能,可以被划分为多个功能模块。所述功能模块可以包括:获取模块201、提取填充模块202、计算模块203、确定模块204、输入模块205及生成模块206。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在一些实施例中,关于各模块的功能将在后续的实施例中详述。
获取模块201,用于获取待处理文本;
NLP(Natural Language Processing,自然语言处理)是人工智能(AI)的一个子领域,NLP中的相同语意文本生成领域相较于模型的优化来说,更重要的是数据集的扩充。数据集的扩充会带来更好的语音分类效果与学习能力。其中,NLP常用的数据集包括:文本分类(Text Classification)、语言建模(Language Modeling)、图像标题(ImageCaptioning)、机器翻译(Machine Translation)、问答回答(Question Answering)、语音识别(Speech Recognition)、文件摘要(Document Summarization)等。
本发明实施例中,所述待处理文本为需要进行数据扩充的文本。所述待处理文本比如语句“请问医院距离这儿有多远”“请问医院在哪儿”。
提取填充模块202,用于从所述待处理文本中提取关键词,并对所述关键词进行多样性填充,获得多个第一文本;
其中,可以使用TF-IDF(term frequency–inverse document frequency,词频-逆文本频率指数)算法提取关键词。
其中,数据的多样性,也即数据的不同表现形式,例如:同样是一句话,可以不同的句子表达相同的意思。
多样性填充可以有以下方法:对所述可替换的词语进行同义词替换;对所述可替换的词语进行词向量替换;对所述可替换的词语进行词语平移处理;对所述可替换的词语进行引入噪声词语;识别所述句子文本中的关键短语;对所述关键短语进行替换处理等等方法。
例如“请问医院在哪儿”,提取关键词就是“在哪儿”,多样性填充后变成“公司在哪儿”。
计算模块203,用于计算每个所述第一文本相对于所述待处理文本的多样性得分;
其中,可以使用多样性计算公式来获得每个所述第一文本相对于所述待处理文本的多样性得分。
多样性计算公式比如:score=editdistance(u,v)+LDP(u,v)。
其中,editdistance(u,v)为把文本u变成文本v的最短改变次数,LDP(u,v)为长度惩罚度,LDP(u,v)=W*|len(u)-len(v)|,W为权重,len(u)为文本u的单词个数,len(v)为文本v的单词个数。
其中,多样性得分用于衡量所述第一文本与所述待处理文本之间的语义相似度,多样性得分越高,表明所述第一文本与所述待处理文本之间的语义相似度越高,反之,多样性得分越低,表明所述第一文本与所述待处理文本之间的语义相似度越低。
确定模块204,用于根据所述多样性得分,从多个所述第一文本中确定第二文本;
输入模块205,用于将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型;
其中,所述文本生成模型可以通过深度神经网络LSTM(Long Short-Term Memory,长短记忆网络),或者RNN(Recurrent Neural Network,循环神经网络)将一种语言序列翻译成另一种语言序列。
生成模块206,用于生成与所述待处理文本的含义相同的第三文本。
比如:所述待处理文本为“请问医院距离这儿有多远”,生成的第三文本可以为“请问这里离医院多远”“请问这里与医院的距离是多少”。
其中,之前扩充的第一文本的数量是有限的,再根据所述多样性得分,从多个所述第一文本中确定第二文本的数量也是有限的,将待处理文本域第二文本同时输入预先训练好的文本生成模型,可以得到更多的与所述待处理文本的含义相同的第三文本。
其中,所述第三文本中既有由所述待处理文本生成的,也有由所述第二文本生成的。
其中,在对待处理文本进行多样性填充之后,再送入文本生成模型,可以使得该文本生成模型在增强后的数据下表现出更好地数据生成效果,也即可以获得更多的数据。
作为一种可选的实施方式,所述确定模块204根据所述多样性得分,从多个所述第一文本中确定第二文本包括:
判断子模块,用于针对每个所述第一文本,判断所述第一文本相对于所述待处理文本的多样性得分是否超过预设分数阈值;
第一确定子模块,用于若所述第一文本相对于所述待处理文本的多样性得分超过预设分数阈值,则将所述第一文本确定为第二文本。
在该可选的实施方式中,可以预先设定一个预设分数阈值,该预设分数阈值为用于衡量所述第一文本与所述待处理文本的语意相似度的最低多样性分数值,即如果所述第一文本相对于所述待处理文本的多样性得分超过预设分数阈值,则可以表明所述第一文本与所述待处理文本的语意相似度已经达到预设的标准,由所述第一文本生成的其他文本与所述待处理文本之间的误差较小,可以将所述第一文本确定为第二文本,并送入文本生成模型进行训练。
作为一种可选的实施方式,所述确定模块204根据所述多样性得分,从多个所述第一文本中确定第二文本包括:
排序子模块,用于按照从高到低的顺序,将计算得到的多个所述多样性得分进行排序;
第二确定子模块,用于将排序靠前的预设数量的所述多样性得分对应的第一文本确定为第二文本。
在该可选的实施方式中,可以预先设定一个预设数量,比如3。在获得每个所述第一文本相对于所述待处理文本的多样性得分之后,可以按照从高到低的顺序,将计算得到的多个所述多样性得分进行排序,这样就可以得到一个按照多样性得分从高到低的所述第一文本的排序结果,按照这个排序结果,可以获取排序靠前的预设数量的所述多样性得分对应的第一文本,比如获取排名前3的所述多样性得分对应的第一文本,该获取的第一文本为多样性得分较高的文本,该获取的第一文本与所述待处理文本的语意相似度较高,由获取的所述第一文本生成的其他文本与所述待处理文本之间的误差较小,可以将获取的所述第一文本确定为第二文本,并送入文本生成模型进行训练。
作为一种可选的实施方式,所述获取模块201,还用于获取预设的文本数量;
所述生成模块206生成与所述待处理文本的含义相同的第三文本包括:
生成与所述待处理文本的含义相同的所述文本数量的第三文本。
其中,所述第三文本中既有由所述待处理文本生成的,也有由所述第二文本生成的。
在获取到文本数量后,可以对该文本数量进行平均,也即由所述待处理文本生成的第三文本的数量与由所述第二文本生成的第三文本的数量相同;或者,也可以随机分配文本数量的,也即由所述待处理文本生成的第三文本的数量与由所述第二文本生成的第三文本的数量是不同的。
举例来说,比如输入待处理文本A和第二文本B、C,则可以生成A1,A2,A3,B1,B2,B3,C1,C2,C3,也可以生成A1,A2,A3,A4,B1,B2,C1,C2,C3。
作为一种可选的实施方式,所述文本生成装置还包括:
输出模块,用于输出所述第三文本;
分类模块,用于将所述待处理文本、所述第二文本以及所述第三文本分类至同一个目录下。
作为一种可选的实施方式,所述文本生成装置还包括:
转换模块,用于将所述待处理文本转换成第一词向量,以及将所述第二文本转换成第二词向量;
所述输入模块205将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型包括:
将所述第一词向量以及所述第二词向量输入预先训练好的文本生成模型;
所述生成模块206生成与所述待处理文本的含义相同的第三文本包括:
生成与所述待处理文本的含义相同的第三文本对应的第三词向量。
其中,可以基于多种方法来进行词向量的转换,比如,可以基于统计生成对应词频矩阵,然后再可以利用SVD(Singular Value Decomposition,奇异值分解)生成词向量;或者也可以用word2vec直接生成词向量。
在该可选的实施方式中,由于文本生成模型只能对词向量进行训练,故在根据所述多样性得分,从多个所述第一文本中确定第二文本之后,需要先把所述待处理文本转换成第一词向量,以及将所述第二文本转换成第二词向量,之后,在将所述第一词向量以及所述第二词向量输入预先训练好的文本生成模型,经文本生成模型训练后,生成的也是词向量,即第三词向量。
作为一种可选的实施方式,所述文本生成装置还包括:
标记模块,用于使用第一标识对所述第一词向量进行标记,以及使用第二标识对所述第二词向量进行标记;其中,携带有所述第一标识的第三词向量是由所述第一词向量生成的,携带有所述第二标识的第三词向量是由所述第二词向量生成的。
在该可选的实施方式中,在将所述第一词向量以及所述第二词向量输入预先训练好的文本生成模型之前,还可以使用第一标识对所述第一词向量进行标记,以及使用第二标识对所述第二词向量进行标记,之后,在将携带有第一标识的第一词向量以及携带有第二标识的第二词向量输入预先训练好的文本生成模型,经文本生成模型训练后,生成的第三词向量也是携带有标识的,其中,由所述第一词向量生成的第三词向量携带有所述第一标识,而由所述第二词向量生成的第三词向量携带有所述第二标识。将词向量进行标记在送入文本生成模型进行训练,这有利于后续根据标识来确定输出的词向量是由哪个输入的词向量生成的。
在图2所描述的文本生成装置中,先获取待处理文本,进一步地,从所述待处理文本中提取关键词,并对所述关键词进行多样性填充,获得多个第一文本,计算每个所述第一文本相对于所述待处理文本的多样性得分,根据所述多样性得分,从多个所述第一文本中确定第二文本,更进一步地,可以将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型,生成与所述待处理文本的含义相同的第三文本。可见,本发明中,采用多样性的方式来对待处理文本进行数据填充,再根据多样性得分来确定第二文本,之后将待处理文件以及第二文本同时输入文本生成模型,可以获得更多的与所述待处理文本的含义相同的第三文本,从而不仅实现了数据增强,同时,也提高了文本生成的精确性,提高了文本的生成效果。
如图3所示,图3是本发明实现文本生成方法的较佳实施例的电子设备的结构示意图。所述电子设备3包括存储器31、至少一个处理器32、存储在所述存储器31中并可在所述至少一个处理器32上运行的计算机程序33及至少一条通讯总线34。
本领域技术人员可以理解,图3所示的示意图仅仅是所述电子设备3的示例,并不构成对电子设备3的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备3还可以包括输入输出设备、网络接入设备等。
所述电子设备3还包括但不限于任何一种可与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(PersonalDigital Assistant,PDA)、游戏机、交互式网络电视(InternetProtocol Television,IPTV)、智能式穿戴式设备等。所述电子设备3所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
所述至少一个处理器32可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。该处理器32可以是微处理器或者该处理器32也可以是任何常规的处理器等,所述处理器32是所述电子设备3的控制中心,利用各种接口和线路连接整个电子设备3的各个部分。
所述存储器31可用于存储所述计算机程序33和/或模块/单元,所述处理器32通过运行或执行存储在所述存储器31内的计算机程序和/或模块/单元,以及调用存储在存储器31内的数据,实现所述电子设备3的各种功能。所述存储器31可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备3的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器31可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
结合图1,所述电子设备3中的所述存储器31存储多个指令以实现一种文本生成方法,所述处理器32可执行所述多个指令从而实现:
获取待处理文本;
从所述待处理文本中提取关键词,并对所述关键词进行多样性填充,获得多个第一文本;
计算每个所述第一文本相对于所述待处理文本的多样性得分;
根据所述多样性得分,从多个所述第一文本中确定第二文本;
将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型;
生成与所述待处理文本的含义相同的第三文本。
在一种可选的实施方式中,所述根据所述多样性得分,从多个所述第一文本中确定第二文本包括:
针对每个所述第一文本,判断所述第一文本相对于所述待处理文本的多样性得分是否超过预设分数阈值;
若所述第一文本相对于所述待处理文本的多样性得分超过预设分数阈值,则将所述第一文本确定为第二文本。
在一种可选的实施方式中,所述根据所述多样性得分,从多个所述第一文本中确定第二文本包括:
按照从高到低的顺序,将计算得到的多个所述多样性得分进行排序;
将排序靠前的预设数量的所述多样性得分对应的第一文本确定为第二文本。
在一种可选的实施方式中,所述处理器32可执行所述多个指令从而实现:
获取预设的文本数量;
所述生成与所述待处理文本的含义相同的第三文本包括:
生成与所述待处理文本的含义相同的所述文本数量的第三文本。
在一种可选的实施方式中,所述处理器32可执行所述多个指令从而实现:
输出所述第三文本;
将所述待处理文本、所述第二文本以及所述第三文本分类至同一个目录下。
在一种可选的实施方式中,在所述根据所述多样性得分,从多个所述第一文本中确定第二文本之后,所述处理器32可执行所述多个指令从而实现:
将所述待处理文本转换成第一词向量,以及将所述第二文本转换成第二词向量;
所述将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型包括:
将所述第一词向量以及所述第二词向量输入预先训练好的文本生成模型;
所述生成与所述待处理文本的含义相同的第三文本包括:
生成与所述待处理文本的含义相同的第三文本对应的第三词向量。
在一种可选的实施方式中,所述处理器32可执行所述多个指令从而实现:
使用第一标识对所述第一词向量进行标记,以及使用第二标识对所述第二词向量进行标记;其中,携带有所述第一标识的第三词向量是由所述第一词向量生成的,携带有所述第二标识的第三词向量是由所述第二词向量生成的。
具体地,所述处理器32对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在图3所描述的电子设备3中,先获取待处理文本,进一步地,从所述待处理文本中提取关键词,并对所述关键词进行多样性填充,获得多个第一文本,计算每个所述第一文本相对于所述待处理文本的多样性得分,根据所述多样性得分,从多个所述第一文本中确定第二文本,更进一步地,可以将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型,生成与所述待处理文本的含义相同的第三文本。可见,本发明中,采用多样性的方式来对待处理文本进行数据填充,再根据多样性得分来确定第二文本,之后将待处理文件以及第二文本同时输入文本生成模型,可以获得更多的与所述待处理文本的含义相同的第三文本,从而不仅实现了数据增强,同时,也提高了文本生成的精确性,提高了文本的生成效果。
所述电子设备3集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种文本生成方法,其特征在于,所述方法包括:
获取待处理文本;
从所述待处理文本中提取关键词,并对所述关键词进行多样性填充,获得多个第一文本;
计算每个所述第一文本相对于所述待处理文本的多样性得分;
根据所述多样性得分,从多个所述第一文本中确定第二文本;
将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型;
生成与所述待处理文本的含义相同的第三文本。
2.根据权利要求1所述的方法,其特征在于,所述根据所述多样性得分,从多个所述第一文本中确定第二文本包括:
针对每个所述第一文本,判断所述第一文本相对于所述待处理文本的多样性得分是否超过预设分数阈值;
若所述第一文本相对于所述待处理文本的多样性得分超过预设分数阈值,则将所述第一文本确定为第二文本。
3.根据权利要求1所述的方法,其特征在于,所述根据所述多样性得分,从多个所述第一文本中确定第二文本包括:
按照从高到低的顺序,将计算得到的多个所述多样性得分进行排序;
将排序靠前的预设数量的所述多样性得分对应的第一文本确定为第二文本。
4.根据权利要求2或3所述的方法,其特征在于,所述方法还包括:
获取预设的文本数量;
所述生成与所述待处理文本的含义相同的第三文本包括:
生成与所述待处理文本的含义相同的所述文本数量的第三文本。
5.根据权利要求1至3中任一项所述的方法,其特征在于,所述方法还包括:
输出所述第三文本;
将所述待处理文本、所述第二文本以及所述第三文本分类至同一个目录下。
6.根据权利要求1所述的方法,其特征在于,在所述根据所述多样性得分,从多个所述第一文本中确定第二文本之后,所述方法还包括:
将所述待处理文本转换成第一词向量,以及将所述第二文本转换成第二词向量;
所述将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型包括:
将所述第一词向量以及所述第二词向量输入预先训练好的文本生成模型;
所述生成与所述待处理文本的含义相同的第三文本包括:
生成与所述待处理文本的含义相同的第三文本对应的第三词向量。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
使用第一标识对所述第一词向量进行标记,以及使用第二标识对所述第二词向量进行标记;其中,携带有所述第一标识的第三词向量是由所述第一词向量生成的,携带有所述第二标识的第三词向量是由所述第二词向量生成的。
8.一种文本生成装置,其特征在于,所述文本生成装置包括:
获取模块,用于获取待处理文本;
提取填充模块,用于从所述待处理文本中提取关键词,并对所述关键词进行多样性填充,获得多个第一文本;
计算模块,用于计算每个所述第一文本相对于所述待处理文本的多样性得分;
确定模块,用于根据所述多样性得分,从多个所述第一文本中确定第二文本;
输入模块,用于将所述待处理文本以及所述第二文本输入预先训练好的文本生成模型;
生成模块,用于生成与所述待处理文本的含义相同的第三文本。
9.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述处理器用于执行存储器中存储的计算机程序以实现如权利要求1至7中任意一项所述的文本生成方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有至少一个指令,所述至少一个指令被处理器执行时实现如权利要求1至7任意一项所述的文本生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910016740.7A CN109918627B (zh) | 2019-01-08 | 2019-01-08 | 文本生成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910016740.7A CN109918627B (zh) | 2019-01-08 | 2019-01-08 | 文本生成方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109918627A true CN109918627A (zh) | 2019-06-21 |
CN109918627B CN109918627B (zh) | 2024-03-19 |
Family
ID=66960089
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910016740.7A Active CN109918627B (zh) | 2019-01-08 | 2019-01-08 | 文本生成方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109918627B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110598204A (zh) * | 2019-07-31 | 2019-12-20 | 平安科技(深圳)有限公司 | 基于知识图谱的实体识别数据增强方法及系统 |
CN111339749A (zh) * | 2020-03-02 | 2020-06-26 | 乐山师范学院 | 无条件文本生成方法、文本生成装置及存储介质 |
CN111950729A (zh) * | 2020-07-19 | 2020-11-17 | 中国建设银行股份有限公司 | 一种知识库构建方法、装置、电子设备和可读存储装置 |
CN111951805A (zh) * | 2020-07-10 | 2020-11-17 | 华为技术有限公司 | 一种文本数据处理方法及装置 |
CN112417154A (zh) * | 2020-11-25 | 2021-02-26 | 上海创米科技有限公司 | 确定文献相似度的方法和装置 |
CN112488164A (zh) * | 2020-11-18 | 2021-03-12 | 广东电力信息科技有限公司 | 一种任务型对话文本增强系统 |
CN112818082A (zh) * | 2019-11-15 | 2021-05-18 | 北京沃东天骏信息技术有限公司 | 评价文本推送方法和装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886567A (zh) * | 2017-01-12 | 2017-06-23 | 北京航空航天大学 | 基于语义扩展的微博突发事件检测方法及装置 |
CN108073708A (zh) * | 2017-12-20 | 2018-05-25 | 北京百度网讯科技有限公司 | 信息输出方法和装置 |
CN108090169A (zh) * | 2017-12-14 | 2018-05-29 | 上海智臻智能网络科技股份有限公司 | 问句扩展方法及装置、存储介质、终端 |
CN108287822A (zh) * | 2018-01-23 | 2018-07-17 | 北京容联易通信息技术有限公司 | 一种中文相似问题生成系统与方法 |
CN108446296A (zh) * | 2018-01-24 | 2018-08-24 | 北京奇艺世纪科技有限公司 | 一种信息处理方法及装置 |
CN108460015A (zh) * | 2018-02-08 | 2018-08-28 | 合肥工业大学 | 文本情感分类数据增强分析方法 |
CN108874949A (zh) * | 2018-06-05 | 2018-11-23 | 北京玄科技有限公司 | 基于业务语料的意图分类方法、装置及智能问答方法 |
CN108932218A (zh) * | 2018-06-29 | 2018-12-04 | 北京百度网讯科技有限公司 | 一种实例扩展方法、装置、设备和介质 |
CN111814451A (zh) * | 2020-05-21 | 2020-10-23 | 北京嘀嘀无限科技发展有限公司 | 文本处理方法、装置、设备和存储介质 |
CN113627530A (zh) * | 2021-08-11 | 2021-11-09 | 中国平安人寿保险股份有限公司 | 相似问题文本生成方法、装置、设备及介质 |
-
2019
- 2019-01-08 CN CN201910016740.7A patent/CN109918627B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886567A (zh) * | 2017-01-12 | 2017-06-23 | 北京航空航天大学 | 基于语义扩展的微博突发事件检测方法及装置 |
CN108090169A (zh) * | 2017-12-14 | 2018-05-29 | 上海智臻智能网络科技股份有限公司 | 问句扩展方法及装置、存储介质、终端 |
CN108073708A (zh) * | 2017-12-20 | 2018-05-25 | 北京百度网讯科技有限公司 | 信息输出方法和装置 |
CN108287822A (zh) * | 2018-01-23 | 2018-07-17 | 北京容联易通信息技术有限公司 | 一种中文相似问题生成系统与方法 |
CN108446296A (zh) * | 2018-01-24 | 2018-08-24 | 北京奇艺世纪科技有限公司 | 一种信息处理方法及装置 |
CN108460015A (zh) * | 2018-02-08 | 2018-08-28 | 合肥工业大学 | 文本情感分类数据增强分析方法 |
CN108874949A (zh) * | 2018-06-05 | 2018-11-23 | 北京玄科技有限公司 | 基于业务语料的意图分类方法、装置及智能问答方法 |
CN108932218A (zh) * | 2018-06-29 | 2018-12-04 | 北京百度网讯科技有限公司 | 一种实例扩展方法、装置、设备和介质 |
CN111814451A (zh) * | 2020-05-21 | 2020-10-23 | 北京嘀嘀无限科技发展有限公司 | 文本处理方法、装置、设备和存储介质 |
CN113627530A (zh) * | 2021-08-11 | 2021-11-09 | 中国平安人寿保险股份有限公司 | 相似问题文本生成方法、装置、设备及介质 |
Non-Patent Citations (1)
Title |
---|
和为等: "基于分析和生成的复述与SMT语料扩展", 《哈尔滨工业大学学报》, no. 5, pages 45 - 50 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110598204A (zh) * | 2019-07-31 | 2019-12-20 | 平安科技(深圳)有限公司 | 基于知识图谱的实体识别数据增强方法及系统 |
CN110598204B (zh) * | 2019-07-31 | 2023-07-25 | 平安科技(深圳)有限公司 | 基于知识图谱的实体识别数据增强方法及系统 |
CN112818082A (zh) * | 2019-11-15 | 2021-05-18 | 北京沃东天骏信息技术有限公司 | 评价文本推送方法和装置 |
CN111339749A (zh) * | 2020-03-02 | 2020-06-26 | 乐山师范学院 | 无条件文本生成方法、文本生成装置及存储介质 |
CN111951805A (zh) * | 2020-07-10 | 2020-11-17 | 华为技术有限公司 | 一种文本数据处理方法及装置 |
CN111950729A (zh) * | 2020-07-19 | 2020-11-17 | 中国建设银行股份有限公司 | 一种知识库构建方法、装置、电子设备和可读存储装置 |
CN112488164A (zh) * | 2020-11-18 | 2021-03-12 | 广东电力信息科技有限公司 | 一种任务型对话文本增强系统 |
CN112417154A (zh) * | 2020-11-25 | 2021-02-26 | 上海创米科技有限公司 | 确定文献相似度的方法和装置 |
CN112417154B (zh) * | 2020-11-25 | 2023-01-24 | 上海创米数联智能科技发展股份有限公司 | 确定文献相似度的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109918627B (zh) | 2024-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109918627A (zh) | 文本生成方法、装置、电子设备及存储介质 | |
CN111177569B (zh) | 基于人工智能的推荐处理方法、装置及设备 | |
KR102288249B1 (ko) | 정보 처리 방법, 단말기, 및 컴퓨터 저장 매체 | |
US20190286996A1 (en) | Human-machine interactive method and device based on artificial intelligence | |
KR101508260B1 (ko) | 문서 특징을 반영하는 요약문 생성 장치 및 방법 | |
CN112507715A (zh) | 确定实体之间关联关系的方法、装置、设备和存储介质 | |
CN111090727B (zh) | 语言转换处理方法、装置及方言语音交互系统 | |
CN111414122B (zh) | 一种智能文本处理方法、装置、电子设备及存储介质 | |
CN109857846B (zh) | 用户问句与知识点的匹配方法和装置 | |
CN108228576B (zh) | 文本翻译方法及装置 | |
CN109165380A (zh) | 一种神经网络模型训练方法及装置、文本标签确定方法及装置 | |
CN110347790B (zh) | 基于注意力机制的文本查重方法、装置、设备及存储介质 | |
CN109033277A (zh) | 基于机器学习的类脑系统、方法、设备及存储介质 | |
CN112836487B (zh) | 一种自动评论方法、装置、计算机设备及存储介质 | |
US11514034B2 (en) | Conversion of natural language query | |
CN110297893A (zh) | 自然语言问答方法、装置、计算机装置及存储介质 | |
CN109145168A (zh) | 一种专家服务机器人云平台 | |
CN111400473A (zh) | 意图识别模型的训练方法及装置、存储介质及电子设备 | |
CN109117474A (zh) | 语句相似度的计算方法、装置及存储介质 | |
CN108345612A (zh) | 一种问题处理方法和装置、一种用于问题处理的装置 | |
CN111553138B (zh) | 用于规范内容结构文档的辅助写作方法及装置 | |
CN110795544B (zh) | 内容搜索方法、装置、设备和存储介质 | |
CN116821307B (zh) | 内容交互方法、装置、电子设备和存储介质 | |
CN109190116A (zh) | 语义解析方法、系统、电子设备及存储介质 | |
CN111680514B (zh) | 信息处理和模型训练方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |