CN109858004A - 文本改写方法、装置及电子设备 - Google Patents

文本改写方法、装置及电子设备 Download PDF

Info

Publication number
CN109858004A
CN109858004A CN201910111757.0A CN201910111757A CN109858004A CN 109858004 A CN109858004 A CN 109858004A CN 201910111757 A CN201910111757 A CN 201910111757A CN 109858004 A CN109858004 A CN 109858004A
Authority
CN
China
Prior art keywords
text
rewriting
neural network
rewritten
semantic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910111757.0A
Other languages
English (en)
Other versions
CN109858004B (zh
Inventor
梁宇
许春阳
陈航
程芃森
张冬
许森岚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Silent Information Technology Co Ltd
Original Assignee
Sichuan Silent Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Silent Information Technology Co Ltd filed Critical Sichuan Silent Information Technology Co Ltd
Priority to CN201910111757.0A priority Critical patent/CN109858004B/zh
Publication of CN109858004A publication Critical patent/CN109858004A/zh
Application granted granted Critical
Publication of CN109858004B publication Critical patent/CN109858004B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本申请提供一种文本改写方法、装置及电子设备,涉及计算机技术领域。其中,所述文本改写方法采用双向循环神经网络对文本进行处理,可以结合上下文内容对待改写文本进行语义识别,提高语义理解的准确性;同时,采用门控循环单元网络对该双向循环神经网络识别到的语义编码进行处理,可以在保证其改写性能的同时提高其训练效率;此外,在本申请实施例提供的文本改写方法中,通过对门控循环单元网络处理后得到的多个改写文本进行评分,然后根据其得分从多个改写文本中选择满足要求的改写文本作为目标文本,可以提高文本改写结果的多样性。

Description

文本改写方法、装置及电子设备
技术领域
本申请涉及计算机技术领域,具体而言,涉及一种文本改写方法、装置及电子设备
背景技术
语言是人类交流的载体,是人们生活中不可或缺的重要组成部分。但由于年龄、生活习惯、教育程度、方言特色等不同,人们对相同事物的描述、用词会存在千差万别。跨年龄、跨地域、跨背景、跨领域的交流容易让人感到迷惑,甚至产生误解。
因此,如何运用计算机技术将交流语言转换为便于理解的形式,对于本领域技术人员而言具有重要的研究意义。
发明内容
为了解决现有技术中的上述问题,本申请提供一种文本改写方法、装置及电子设备,以实现将文本转换为具有相同语义的其他文本。
为了实现上述目的,本申请较佳实施例采用的技术方案如下:
第一方面,本申请实施例提供一种文本改写方法,该方法可以应用于电子设备,所述电子设备配置有包括双向循环神经网络及门控循环单元网络的神经网络模型,所述方法包括:
获取待改写文本;
将所述待改写文本输入训练后的双向循环神经网络进行语义识别,得到与所述待改写文本对应的语义编码;
将所述语义编码输入训练后的门控循环单元网络进行处理,得到与所述语义编码对应的多个改写文本;
对所述多个改写文本进行评分,得到每一个改写文本对应的得分;
根据所述得分从所述多个改写文本中选择对应得分大于预设阈值的改写文本作为目标文本。
在本申请实施例中,在获取待改写文本的步骤之前,所述方法还包括对所述神经网络模型进行训练的步骤,该步骤包括:
获取预先制作的文本样例对,所述文本样例对包括第一文本及与该第一文本语义相同的第二文本;
将所述第一文本输入所述双向循环神经网络,得到与所述第一文本对应的语义编码;
将与所述第一文本对应的语义编码及所述第二文本输入所述门控循环单元网络,得到与所述第一文本及所述第二文本对应的输出文本;
对所述输出文本进行评价,并根据评价结果判断所述神经网络模型是否收敛;
若未收敛,对所述双向循环神经网络及门控循环单元网络的参数进行调整。
可选地,在本申请实施例中,所述对所述输出文本进行评价的步骤,包括:
计算所述输出文本与所述第二文本的相似度;
检测所述输出文本与所述第二文本的词汇数量的差值,并根据所述差值确定所述输出文本对应的惩罚因子;
根据所述相似度及所述惩罚因子得到所述输出文本对应的评价结果。
进一步地,在本申请实施例中,所述将所述待改写文本输入所述双向循环神经网络进行语义识别,得到与所述待改写文本对应的语义编码的步骤,包括:
对待改写文本进行分词处理,得到所述待改写文本包含的多个词汇;
通过所述双向循环神经网络对所述多个词汇进行双向识别,得到所述待改写文本对应的语义编码。
在本申请实施例中,所述双向循环神经网络包括正向网络及反向网络,所述通过所述双向循环神经网络对所述多个词汇进行双向识别,得到所述待改写文本对应的语义编码的步骤,包括:
将所述多个词汇按照待改写文本的正向顺序依次输入所述正向网络,并在输入每一个词汇后对所述正向网络的隐藏状态进行更新,得到所述待改写文本对应的第一隐藏状态;
将所述多个词汇按照待改写文本的反向顺序依次输入所述反向网络,并在输入每一个词汇后对所述反向网络的隐藏状态进行更新,得到所述待改写文本对应的第二隐藏状态;
根据所述第一隐藏状态及所述第二隐藏状态,得到所述待改写文本对应的语义编码。
进一步地,在本申请实施例中,所述将所述语义编码输入所述门控循环单元网络进行处理,得到与所述语义编码对应的多个改写文本的步骤,包括:
根据预先训练得到的改写参数对所述语义编码进行处理,得到与所述语义编码对应的多个目标词汇;
将所述多个目标词汇分别作为起始词,并根据所述语义编码依次预测所述起始词之后的词汇,得到与所述语义编码对应的多个改写文本。
可选地,在本申请实施例中,所述起始词及所述起始词之后的词汇分别对应一输出概率,所述对所述多个改写文本进行评分,得到每一个改写文本对应的得分的步骤,包括:
根据所述改写文本中每一个词汇对应的输出概率计算所述改写文本对应的组合概率,并将所述组合概率作为所述改写文本对应的得分。
第二方面,本申请实施例提供一种文本改写装置,应用于电子设备,所述电子设备配置有包括双向循环神经网络及门控循环单元网络的神经网络模型,所述装置包括:
获取模块,用于获取待改写文本;
识别模块,用于将所述待改写文本输入训练后的双向循环神经网络进行语义识别,得到与所述待改写文本对应的语义编码;
改写模块,用于将所述语义编码输入训练后的门控循环单元网络进行处理,得到与所述语义编码对应的多个改写文本;
评分模块,用于对所述多个改写文本进行评分,得到每一个改写文本对应的得分;
筛选模块,用于根据所述得分从所述多个改写文本中选择对应得分大于预设阈值的改写文本作为目标文本。
可选地,在本申请实施例中,所述装置还包括训练模块,所述训练模块用于:
获取预先制作的文本样例对,所述文本样例对包括第一文本及与该第一文本语义相同的第二文本;
将所述第一文本输入所述双向循环神经网络,得到与所述第一文本对应的语义编码;
将与所述第一文本对应的语义编码及所述第二文本输入所述门控循环单元网络,得到与所述第一文本及所述第二文本对应的输出文本;
对所述输出文本进行评价,并根据评价结果判断所述神经网络模型是否收敛;
在未收敛时,对所述双向循环神经网络及门控循环单元网络的参数进行调整。
第三方面,本申请实施例还提供一种电子设备,所述电子设备包括处理器及存储器;其中,所述存储器用于存储计算机程序,所述处理器用于加载执行所述计算机程序,以使所述电子设备执行如上所述的方法。
相对于现有技术而言,本申请具有以下有益效果:
本申请实施例提供的文本改写方法,采用双向循环神经网络对文本进行处理,可以结合上下文内容对待改写文本进行语义识别,提高语义理解的准确性。同时,采用门控循环单元网络对该双向循环神经网络识别到的语义编码进行处理,可以在保证其改写性能的同时提高其训练效率。此外,在本申请实施例提供的文本改写方法中,通过对门控循环单元网络处理后得到的多个改写文本进行评分,然后根据其得分从多个改写文本中选择满足要求的改写文本作为目标文本,可以提高文本改写结果的多样性。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的电子设备的结构示意图;
图2为本申请实施例提供的文本改写方法的步骤流程示意图;
图3为本申请实施例提供的文本改写方法中对神经网络模型进行训练的步骤流程示意图;
图4为本申请实施例提供的神经网络模型的结构示意图;
图5为本申请实施例提供的神经网络模型中双向循环神经网络的结构示意图;
图6为本申请实施例提供的文本改写装置的模块示意图。
图标:100-电子设备;111-存储器;112-存储控制器;113-处理器;70-文本改写装置;701-获取模块;702-识别模块;703-改写模块;704-评分模块;705-筛选模块;706-训练模块。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本申请的描述中,需要说明的是,术语“第一”、“第二”等命名方式仅是为了区分本申请的不同特征,简化描述,而不是指示或暗示其相对重要性,因此不能理解为对本申请的限制。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
请参照图1,为本申请实施例提供的电子设备100。所述电子设备100包括文本改写装置70、存储器111、存储控制器112及处理器113。
所述存储器111、存储控制器112及处理器113各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。所述文本改写装置70可以包括至少一个可以软件或固件(firmware)的形式存储于所述存储器111中或固化在所述电子设备100的操作系统(operating system,OS)中的软件功能模块。所述处理器113用于执行所述存储器111中存储的可执行模块,例如所述文本改写装置70所包括的软件功能模块及计算机程序等。
其中,所述存储器111可以是,但不限于,随机存取存储器(Random AccessMemory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(ProgrammableRead-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-OnlyMemory,EEPROM)等。其中,存储器111用于存储程序,所述处理器113在接收到执行指令后,执行所述程序。所述处理器113以及其他可能的组件对存储器111的访问可在所述存储控制器112的控制下进行。
所述处理器113可能是一种集成电路芯片,具有信号的处理能力;也可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。
应当理解的是,图1所示的结构仅为示意图,所述电子设备100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。图1中所示的各组件可以采用硬件、软件或其组合实现。
参照图2,为本申请实施例提供的文本改写方法的步骤流程示意图,该方法可以应用于如图1所示的电子设备100,为该电子设备100提供文本改写功能。
在本申请实施例中,所述电子设备100可以是手机、电脑、服务器等具有数据处理功能的任意设备。
例如,在一种可能的实施例中,该方法可以应用于手机。当手机用户在与他人聊天的过程中无法理解对方发送的文字消息时,可以将该消息文本作为待改写文本进行本地处理,得到与该文字消息语义相同或相近的其他文本,进而帮助手机用户理解其含义,提高沟通质量。
可选地,在另一种可能的实施例中,所述方法也可以应用于服务器。例如,当用户在使用QQ、微信或其他软件与他人聊天的过程中无法理解对方发送的文字消息时,可以将该消息文本作为待改写文本发送至服务器,由所述服务器对该消息文本进行处理,得到与该文字消息语义相同或相近的其他文本。
具体地,在本申请实施例中,所述消息文本的改写过程可以通过神经网络模型实现,其中,该神经网络模型包括用于识别文本语义的双向循环神经网络,以及用于根据该语义进行文本改写的门控循环单元网络。
可选地,在本申请实施例中,所述神经网络模型可以使用Python语言进行创建,因此,在一种可能的实施方式中,所述电子设备100可以安装用于搭建Python开发环境的Python解释器。并且,在本申请实施例中,所述电子设备100除了包括基本的计算机硬件之外,还可以配置GPU(Graphics Processing Unit,图像处理器),以提高所述神经网络模型在训练过程以及文本改写过程中的计算效率。
下面结合图2-图5对本申请实施例提供的文本改写方法进行详细说明。
参照图2,在本身实施例中,所述文本改写方法包括:
步骤S10,获取待改写文本。
需要说明的是,在本申请实施例中,所述神经网络模型需要进行大量训练,在通过训练获得相应的泛化能力之后才能对所述待改写文本进行自动改写。具体地,请参照图3和图4,在本申请实施例中,对所述神经网络模型进行训练的步骤包括:
步骤S01,获取预先制作的文本样例对,所述文本样例对包括第一文本及与该第一文本语义相同的第二文本。
步骤S02,将所述第一文本输入所述双向循环神经网络,得到与所述第一文本对应的语义编码。
步骤S03,将与所述第一文本对应的语义编码及所述第二文本输入所述门控循环单元网络,得到与所述第一文本及所述第二文本对应的输出文本。
在本申请实施例中,为了确保训练样本的多样性,所述文本样例对可以来源于生活中的各个方面,如生活用语、电影台词、媒体新闻等。其中,所述文本样例对中的第一文本和第二文本语义相同,例如,在一种可能的实施方式中,所述第一文本为“喜欢”,所示第二文本为粤语“中意”,或网络语“稀饭”。
在制作好所述文本样例对之后,将所述第一文本输入所述双向循环神经网络进行语义识别,即可得到该第一文本所对应的语义编码。
具体地,请参照图4和图5,在本申请实施例中,所述双向循环神经网络包括用于对文本语义进行正向识别的正向网络及用于对文本语义进行反向识别的反向网络。所述双向循环神经网络对所述第一文本进行语义识别的过程大致包括:将第一文本分解为x1、x2、x3等多个词汇;按照所述第一文本的正向顺序将该多个词汇依次对应输入所述正向网络的神经元,并在输入每一个词汇后对所述正向网络的隐藏状态进行更新,得到所述第一文本对应的第一隐藏状态,同时,按照所述第一文本的反向顺序将该多个词汇依次对应输入所述反向网络的神经元,并在输入每一个词汇后对所述反向网络的隐藏状态进行更新,得到所述第一文本对应的第二隐藏状态;然后根据所述正向网络和反向网络对每一个词汇进行理解得到的第一隐藏状态和第二隐藏状态得到所述第一文本对应的语义编码c。
参照图4,在得到所述第一文本对应的语义编码c之后,将该语义编码c与所述第二文本输入所述门控循环单元网络进行训练,即可使所述门控循环单元网络学习到该语义编码c与第二文本之间的对应关系。在本申请实施例中,所述门控循环单元网络可以包括一个更新门及一个重置门,其中,所述更新门用于控制需要从ht-1的隐藏层中遗忘的信息量,以及需要加入当前时刻候选隐藏层的信息量;所述重置门用来控制需要保留的历史信息量。
在所述门控循环单元对所述第二文本进行处理的过程中,也可以将所述第二文本分解为i1、i2…im等多个词汇,然后将该第二文本中的多个词汇作为目标标签与所述第一文本对应的语义编码c相结合,得到由y1、y2…ym多个词汇组成的输出文本。
需要说明的是,在本申请实施例中,所述第一文本与所述第二文本中所包含的词汇数量可以相同,也可以不同。并且,在本申请实施例中,对所述第一文本和第二文本进行分词处理得到的词汇可以包括标点符号,所述第一文本与所述第二文本的语句形式可以相同,也可以不同,例如,当所述第一文本为陈述句时,所述第二文本可以是陈述句,也可以是问句或其他形式的语句。
进一步地,请继续参照图3,在所述步骤S01-S03之后,对所述神经网络模型进行训练的步骤还包括:
步骤S04,对所述输出文本进行评价,并根据评价结果判断所述神经网络模型是否收敛;
步骤S05,若未收敛,对所述双向循环神经网络及门控循环单元网络的参数进行调整。
在一种可能的实施方式中,可以采用BLEU指标对所述神经网络模型的输出结果(即所述输出文本)进行评价,以判断该模型的性能是否已满足要求。具体地,该评价过程可以表示为:
其中,BLEU表示对所述输出文本对应的评价结果,BP为所述输出文本对应的惩罚因子(该惩罚因子可以通过所述输出文本与所述第二文本的词汇数量的差值确定),表示所述输出文本与所述第二文本的相似度(该相似度可以通过N-gram算法计算得到)。
在本申请实施例中,该BLEU指标的取值范围为[0,1],其中,0代表最差,1代表最好。
进一步地,在得到上述评价结果之后,根据该评价结果即可判断神经网络模型的当前性能是否已满足要求,若未达到指标要求,则对所述双向循环神经网络及门控循环单元网络的参数进行调整,直至模型收敛(即达到指标要求)完成训练。
在所述模型训练完成之后,即可根据其在训练过程中从文本样例对学习到的经验对新文本进行自动改写。
进一步地,回到图2,在所述步骤S10之后,所述方法还包括:
步骤S20,将所述待改写文本输入训练后的双向循环神经网络进行语义识别,得到与所述待改写文本对应的语义编码。
在本申请实施例中,所述双向循环神经网络在经过大量训练后可以获得对文本语义识别的能力,因此,将所述待改写文本输入到训练后的双向循环神经网络进行双向识别,即可得到该待改写文本对应的语义编码。其中,对所述待改写文本进行双向识别的具体过程可以参照训练过程中对所述第一文本进行识别的过程,此处不再赘述。
进一步地,请继续参照图2,在所述步骤S20之后,所述方法还包括:
步骤S30,将所述语义编码输入训练后的门控循环单元网络进行处理,得到与所述语义编码对应的多个改写文本。
在本申请实施例中,所述门控循环单元网络在经过训练之后可以获得根据语义编码进行文本改写的能力。具体地,在改写过程中所述门控循环单元网络可以根据所述语义编码中包含的信息得到与所述待改写文本对应的多个目标词汇,然后将所述多个目标词汇分别作为起始词,并预测所述起始词之后的词汇,从而可以得到多个改写文本。
具体地,请参照图4,在将所述多个目标词汇分别作为起始词,并预测所述起始词之后的词汇的过程中,可以将所述起始词作为i1输入所述门控循环单元的神经元,预测出该起始词之后的第一个词汇,并更新改写文本对应的当前隐藏状态。
进一步地,在预测出该起始词之后的第一个词汇后,将该第一个词汇作为i2输入所述门控循环单元的神经元,同时结合所述待改写文本对应的语义编码c,可以预测出所述起始词之后的第二个词汇,并更新改写文本对应的当前隐藏状态。以此类推,可以预测出所述起始词之后的所有词汇,构成与待改写文本对应的改写文本。
其中,在预测每一个词汇的过程中有至少一个词汇可供选择,因此通过该过程可以得到与待改写文本对应的多个改写文本。
进一步地,请继续参照图2,在所述步骤S30之后,所述方法还包括:
步骤S40,对所述多个改写文本进行评分,得到每一个改写文本对应的得分。
在本申请实施例中,所述门控循环单元网络根据待改写文本的语义编码处理得到的词汇均对应一输出概率。在一种可能的实施方式中,为了实现改写结果的多样性,同时保证改写文本的改写质量,可以通过beam search算法结合最大似然的思想对上述改写文本进行评分,具体而言,即可以将改写文本中每一个词汇所对应的输出概率相乘,得到每一个输出文本对应的组合概率,并将该组合概率作为改写文本对应的得分。
进一步地,继续参照图2,在所述步骤S40之后,所述方法还包括:
步骤S50,根据所述得分从所述多个改写文本中选择对应得分大于预设阈值的改写文本作为目标文本。
在通过上述步骤S40得到每一个改写文本对应的评分之后,可以根据该得分排名从所述门控循环单元网络输出的多个改写文本中选择预设数量的改写文本作为目标文本展现给用户,从而提高输出结果的多样性,给用户提供更多的参考选择。同时,在本申请实施例中,通过将得分靠前的top N作为目标文本提供给用户作为参考,还可以避免改写过程中由于仅考虑当前词和下一词的最佳选择导致改写文本不通顺,最终导致用户依然无法理解待改写文本的语义的情况。
参照图6,为本申请实施例提供的文本改写装置70的模块示意图,该装置可以用于图1所示的电子设备100,其中,所述电子设备100配置有包括双向循环神经网络及门控循环单元网络的神经网络模型,所述装置包括:
获取模块701,用于获取待改写文本;
识别模块702,用于将所述待改写文本输入训练后的双向循环神经网络进行语义识别,得到与所述待改写文本对应的语义编码;
改写模块703,用于将所述语义编码输入训练后的门控循环单元网络进行处理,得到与所述语义编码对应的多个改写文本;
评分模块704,用于对所述多个改写文本进行评分,得到每一个改写文本对应的得分;
筛选模块705,用于根据所述得分从所述多个改写文本中选择对应得分大于预设阈值的改写文本作为目标文本。
在本申请实施例中,所述装置还包括训练模块706,所述训练模块706用于:
获取预先制作的文本样例对,所述文本样例对包括第一文本及与该第一文本语义相同的第二文本;
将所述第一文本输入所述双向循环神经网络,得到与所述第一文本对应的语义编码;
将与所述第一文本对应的语义编码及所述第二文本输入所述门控循环单元网络,得到与所述第一文本及所述第二文本对应的输出文本;
对所述输出文本进行评价,并根据评价结果判断所述神经网络模型是否收敛;
在未收敛时,对所述双向循环神经网络及门控循环单元网络的参数进行调整。
具体地,在本申请实施例中,所述训练模块706在对所述输出文本进行评价的过程中,具体用于:
计算所述输出文本与所述第二文本的相似度;
检测所述输出文本与所述第二文本的词汇数量的差值,并根据所述差值确定所述输出文本对应的惩罚因子;
根据所述相似度及所述惩罚因子得到所述输出文本对应的评价结果。
进一步地,在本申请实施例中,所述识别模块702具体用于:
对待改写文本进行分词处理,得到所述待改写文本包含的多个词汇;
通过所述双向循环神经网络对所述多个词汇进行双向识别,得到所述待改写文本对应的语义编码。
进一步地,在本申请实施例中,所述双向循环神经网络包括正向网络和反向网络,在对所述多个词汇进行双向识别的过程中,所述识别模块702还具体用于:
将所述多个词汇按照待改写文本的正向顺序依次输入所述正向网络,并在输入每一个词汇后对所述正向网络的隐藏状态进行更新,得到所述待改写文本对应的第一隐藏状态;
将所述多个词汇按照待改写文本的反向顺序依次输入所述反向网络,并在输入每一个词汇后对所述反向网络的隐藏状态进行更新,得到所述待改写文本对应的第二隐藏状态;
根据所述第一隐藏状态及所述第二隐藏状态,得到所述待改写文本对应的隐藏状态。
进一步地,在本申请实施例中,所述改写模块703具体用于:
根据预先训练得到的改写参数对所述语义编码进行处理,得到与所述语义编码对应的多个目标词汇;
将所述多个目标词汇分别作为起始词,并根据所述语义编码依次预测所述起始词之后的词汇,得到与所述语义编码对应的多个改写文本。
以上各模块实现其对应功能的具体过程可以参照上述文本改写方法,此处不再赘述。
应当注意的是,在本申请实施例中所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
综上所述,本申请提供一种文本改写方法、装置及电子设备,其中,所述文本改写方法采用双向循环神经网络对文本进行处理,可以结合上下文内容对待改写文本进行语义识别,提高语义理解的准确性。同时,采用门控循环单元网络对该双向循环神经网络识别到的语义编码进行处理,可以在保证其改写性能的同时提高其训练效率。此外,在本申请实施例提供的文本改写方法中,通过对门控循环单元网络处理后得到的多个改写文本进行评分,然后根据其得分从多个改写文本中选择满足要求的改写文本作为目标文本,可以提高文本改写结果的多样性。
以上所述实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的精神和范围,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种文本改写方法,其特征在于,应用于电子设备,所述电子设备配置有包括双向循环神经网络及门控循环单元网络的神经网络模型,所述方法包括:
获取待改写文本;
将所述待改写文本输入训练后的双向循环神经网络进行语义识别,得到与所述待改写文本对应的语义编码;
将所述语义编码输入训练后的门控循环单元网络进行处理,得到与所述语义编码对应的多个改写文本;
对所述多个改写文本进行评分,得到每一个改写文本对应的得分;
根据所述得分从所述多个改写文本中选择对应得分大于预设阈值的改写文本作为目标文本。
2.如权利要求1所述的方法,其特征在于,在获取待改写文本的步骤之前,所述方法还包括对所述神经网络模型进行训练的步骤,该步骤包括:
获取预先制作的文本样例对,所述文本样例对包括第一文本及与该第一文本语义相同的第二文本;
将所述第一文本输入所述双向循环神经网络,得到与所述第一文本对应的语义编码;
将与所述第一文本对应的语义编码及所述第二文本输入所述门控循环单元网络,得到与所述第一文本及所述第二文本对应的输出文本;
对所述输出文本进行评价,并根据评价结果判断所述神经网络模型是否收敛;
若未收敛,对所述双向循环神经网络及门控循环单元网络的参数进行调整。
3.如权利要求2所述的方法,其特征在于,所述对所述输出文本进行评价的步骤,包括:
计算所述输出文本与所述第二文本的相似度;
检测所述输出文本与所述第二文本的词汇数量的差值,并根据所述差值确定所述输出文本对应的惩罚因子;
根据所述相似度及所述惩罚因子得到所述输出文本对应的评价结果。
4.如权利要求1-3中任一项所述的方法,其特征在于,所述将所述待改写文本输入所述双向循环神经网络进行语义识别,得到与所述待改写文本对应的语义编码的步骤,包括:
对待改写文本进行分词处理,得到所述待改写文本包含的多个词汇;
通过所述双向循环神经网络对所述多个词汇进行双向识别,得到所述待改写文本对应的语义编码。
5.如权利要求4所述的方法,其特征在于,所述双向循环神经网络包括正向网络及反向网络,所述通过所述双向循环神经网络对所述多个词汇进行双向识别,得到所述待改写文本对应的语义编码的步骤,包括:
将所述多个词汇按照待改写文本的正向顺序依次输入所述正向网络,并在输入每一个词汇后对所述正向网络的隐藏状态进行更新,得到所述待改写文本对应的第一隐藏状态;
将所述多个词汇按照待改写文本的反向顺序依次输入所述反向网络,并在输入每一个词汇后对所述反向网络的隐藏状态进行更新,得到所述待改写文本对应的第二隐藏状态;
根据所述第一隐藏状态及所述第二隐藏状态,得到所述待改写文本对应的语义编码。
6.如权利要求1-3中任一项所述的方法,其特征在于,所述将所述语义编码输入所述门控循环单元网络进行处理,得到与所述语义编码对应的多个改写文本的步骤,包括:
根据预先训练得到的改写参数对所述语义编码进行处理,得到与所述语义编码对应的多个目标词汇;
将所述多个目标词汇分别作为起始词,并根据所述语义编码依次预测所述起始词之后的词汇,得到与所述语义编码对应的多个改写文本。
7.如权利要求6所述的方法,其特征在于,所述起始词及所述起始词之后的词汇分别对应一输出概率,所述对所述多个改写文本进行评分,得到每一个改写文本对应的得分的步骤,包括:
根据所述改写文本中每一个词汇对应的输出概率计算所述改写文本对应的组合概率,并将所述组合概率作为所述改写文本对应的得分。
8.一种文本改写装置,其特征在于,应用于电子设备,所述电子设备配置有包括双向循环神经网络及门控循环单元网络的神经网络模型,所述装置包括:
获取模块,用于获取待改写文本;
识别模块,用于将所述待改写文本输入训练后的双向循环神经网络进行语义识别,得到与所述待改写文本对应的语义编码;
改写模块,用于将所述语义编码输入训练后的门控循环单元网络进行处理,得到与所述语义编码对应的多个改写文本;
评分模块,用于对所述多个改写文本进行评分,得到每一个改写文本对应的得分;
筛选模块,用于根据所述得分从所述多个改写文本中选择对应得分大于预设阈值的改写文本作为目标文本。
9.如权利要求8所述的装置,其特征在于,所述装置还包括训练模块,所述训练模块用于:
获取预先制作的文本样例对,所述文本样例对包括第一文本及与该第一文本语义相同的第二文本;
将所述第一文本输入所述双向循环神经网络,得到与所述第一文本对应的语义编码;
将与所述第一文本对应的语义编码及所述第二文本输入所述门控循环单元网络,得到与所述第一文本及所述第二文本对应的输出文本;
对所述输出文本进行评价,并根据评价结果判断所述神经网络模型是否收敛;
在未收敛时,对所述双向循环神经网络及门控循环单元网络的参数进行调整。
10.一种电子设备,其特征在于,所述电子设备包括处理器及存储器;其中,所述存储器用于存储计算机程序,所述处理器用于加载执行所述计算机程序,以使所述电子设备执行如权利要求1-7中任一项所述的方法。
CN201910111757.0A 2019-02-12 2019-02-12 文本改写方法、装置及电子设备 Active CN109858004B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910111757.0A CN109858004B (zh) 2019-02-12 2019-02-12 文本改写方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910111757.0A CN109858004B (zh) 2019-02-12 2019-02-12 文本改写方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN109858004A true CN109858004A (zh) 2019-06-07
CN109858004B CN109858004B (zh) 2023-08-01

Family

ID=66897705

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910111757.0A Active CN109858004B (zh) 2019-02-12 2019-02-12 文本改写方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN109858004B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111090755A (zh) * 2019-11-29 2020-05-01 福建亿榕信息技术有限公司 一种文本关联关系判别方法及存储介质
CN111428484A (zh) * 2020-04-14 2020-07-17 广州云从鼎望科技有限公司 一种信息管理方法、系统、设备和介质
CN115631251A (zh) * 2022-09-07 2023-01-20 北京百度网讯科技有限公司 基于文本生成图像的方法、装置、电子设备和介质
CN115713071A (zh) * 2022-11-11 2023-02-24 北京百度网讯科技有限公司 用于处理文本的神经网络的训练方法和处理文本的方法

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080073032A (ko) * 2007-02-05 2008-08-08 (주)트루시스템 예측 기반 단어 입력 방법
CN101371253A (zh) * 2005-04-25 2009-02-18 微软公司 生成拼写建议的方法和系统
CN102439542A (zh) * 2009-03-30 2012-05-02 触摸式有限公司 电子设备的文本输入系统及文本输入方法
CN105894088A (zh) * 2016-03-25 2016-08-24 苏州赫博特医疗信息科技有限公司 基于深度学习及分布式语义特征医学信息抽取系统及方法
CN106547740A (zh) * 2016-11-24 2017-03-29 四川无声信息技术有限公司 文本信息处理方法及装置
CN106650943A (zh) * 2016-10-28 2017-05-10 北京百度网讯科技有限公司 基于人工智能的辅助写作方法和装置
US20170148464A1 (en) * 2015-11-20 2017-05-25 Adobe Systems Incorporated Automatic emphasis of spoken words
CN106776869A (zh) * 2016-11-28 2017-05-31 北京百度网讯科技有限公司 基于神经网络的搜索优化方法、装置以及搜索引擎
US20170270100A1 (en) * 2016-03-18 2017-09-21 International Business Machines Corporation External Word Embedding Neural Network Language Models
CN107273503A (zh) * 2017-06-19 2017-10-20 北京百度网讯科技有限公司 用于生成同语言平行文本的方法和装置
CN107358948A (zh) * 2017-06-27 2017-11-17 上海交通大学 基于注意力模型的语言输入关联性检测方法
CN107526725A (zh) * 2017-09-04 2017-12-29 北京百度网讯科技有限公司 基于人工智能的用于生成文本的方法和装置
JP2018021949A (ja) * 2016-08-01 2018-02-08 日本電信電話株式会社 単語予測装置、プログラム
CN107844469A (zh) * 2017-10-26 2018-03-27 北京大学 基于词向量查询模型的文本简化方法
US20180096632A1 (en) * 2016-09-30 2018-04-05 Omar U. Florez Technology to provide visual context to the visually impaired
US20180204120A1 (en) * 2015-07-07 2018-07-19 Touchtype Ltd. Improved artificial neural network for language modelling and prediction
US20180329883A1 (en) * 2017-05-15 2018-11-15 Thomson Reuters Global Resources Unlimited Company Neural paraphrase generator
CN108959250A (zh) * 2018-06-27 2018-12-07 众安信息技术服务有限公司 一种基于语言模型和词特征的纠错方法及其系统
CN108959246A (zh) * 2018-06-12 2018-12-07 北京慧闻科技发展有限公司 基于改进的注意力机制的答案选择方法、装置和电子设备
CN109002186A (zh) * 2018-06-28 2018-12-14 北京金山安全软件有限公司 一种输入预测方法及装置

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101371253A (zh) * 2005-04-25 2009-02-18 微软公司 生成拼写建议的方法和系统
KR20080073032A (ko) * 2007-02-05 2008-08-08 (주)트루시스템 예측 기반 단어 입력 방법
CN102439542A (zh) * 2009-03-30 2012-05-02 触摸式有限公司 电子设备的文本输入系统及文本输入方法
US20180204120A1 (en) * 2015-07-07 2018-07-19 Touchtype Ltd. Improved artificial neural network for language modelling and prediction
US20170148464A1 (en) * 2015-11-20 2017-05-25 Adobe Systems Incorporated Automatic emphasis of spoken words
US20170270100A1 (en) * 2016-03-18 2017-09-21 International Business Machines Corporation External Word Embedding Neural Network Language Models
CN105894088A (zh) * 2016-03-25 2016-08-24 苏州赫博特医疗信息科技有限公司 基于深度学习及分布式语义特征医学信息抽取系统及方法
JP2018021949A (ja) * 2016-08-01 2018-02-08 日本電信電話株式会社 単語予測装置、プログラム
US20180096632A1 (en) * 2016-09-30 2018-04-05 Omar U. Florez Technology to provide visual context to the visually impaired
CN106650943A (zh) * 2016-10-28 2017-05-10 北京百度网讯科技有限公司 基于人工智能的辅助写作方法和装置
CN106547740A (zh) * 2016-11-24 2017-03-29 四川无声信息技术有限公司 文本信息处理方法及装置
CN106776869A (zh) * 2016-11-28 2017-05-31 北京百度网讯科技有限公司 基于神经网络的搜索优化方法、装置以及搜索引擎
US20180329883A1 (en) * 2017-05-15 2018-11-15 Thomson Reuters Global Resources Unlimited Company Neural paraphrase generator
CN107273503A (zh) * 2017-06-19 2017-10-20 北京百度网讯科技有限公司 用于生成同语言平行文本的方法和装置
CN107358948A (zh) * 2017-06-27 2017-11-17 上海交通大学 基于注意力模型的语言输入关联性检测方法
CN107526725A (zh) * 2017-09-04 2017-12-29 北京百度网讯科技有限公司 基于人工智能的用于生成文本的方法和装置
CN107844469A (zh) * 2017-10-26 2018-03-27 北京大学 基于词向量查询模型的文本简化方法
CN108959246A (zh) * 2018-06-12 2018-12-07 北京慧闻科技发展有限公司 基于改进的注意力机制的答案选择方法、装置和电子设备
CN108959250A (zh) * 2018-06-27 2018-12-07 众安信息技术服务有限公司 一种基于语言模型和词特征的纠错方法及其系统
CN109002186A (zh) * 2018-06-28 2018-12-14 北京金山安全软件有限公司 一种输入预测方法及装置

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
GUIBIN CHEN: "Ensemble application of convolutional and recurrent neural networks for multi-label text categorization", 《2017 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS》, pages 1 - 7 *
MARC\'AURELIO RANZATO: "Sequence Level Training with Recurrent Neural Networks", 《HTTPS://ARXIV.ORG/ABS/1511.06732》, pages 1 - 16 *
乌尼尔: "基于CNN词根形态选择模型的改进蒙汉机器翻译研究", 中文信息学报, vol. 32, no. 05, pages 42 - 48 *
刘婉婉;苏依拉;乌尼尔;仁庆道尔吉;: "基于LSTM的蒙汉机器翻译的研究", 计算机工程与科学, vol. 40, no. 10, pages 1890 - 1896 *
朱海潮: "基于指针的深度学习机器阅读理解", 智能计算机与应用, vol. 7, no. 06, pages 157 - 159 *
柯研 等: "基于循环神经网络的自然语言处理方法", 《数码世界》 *
柯研 等: "基于循环神经网络的自然语言处理方法", 《数码世界》, no. 10, 1 October 2018 (2018-10-01), pages 212 - 213 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111090755A (zh) * 2019-11-29 2020-05-01 福建亿榕信息技术有限公司 一种文本关联关系判别方法及存储介质
CN111090755B (zh) * 2019-11-29 2023-04-04 福建亿榕信息技术有限公司 一种文本关联关系判别方法及存储介质
CN111428484A (zh) * 2020-04-14 2020-07-17 广州云从鼎望科技有限公司 一种信息管理方法、系统、设备和介质
CN115631251A (zh) * 2022-09-07 2023-01-20 北京百度网讯科技有限公司 基于文本生成图像的方法、装置、电子设备和介质
CN115631251B (zh) * 2022-09-07 2023-09-22 北京百度网讯科技有限公司 基于文本生成图像的方法、装置、电子设备和介质
CN115713071A (zh) * 2022-11-11 2023-02-24 北京百度网讯科技有限公司 用于处理文本的神经网络的训练方法和处理文本的方法

Also Published As

Publication number Publication date
CN109858004B (zh) 2023-08-01

Similar Documents

Publication Publication Date Title
CN109858004A (zh) 文本改写方法、装置及电子设备
Woodward et al. Active one-shot learning
US11120337B2 (en) Self-training method and system for semi-supervised learning with generative adversarial networks
CN111582694B (zh) 一种学习评估方法及装置
Otero et al. A new sequential covering strategy for inducing classification rules with ant colony algorithms
AU2020385049B2 (en) Identifying optimal weights to improve prediction accuracy in machine learning techniques
US11537922B2 (en) Temporal processing scheme and sensorimotor information processing
US10528863B2 (en) Feedback mechanisms in sequence learning systems with temporal processing capability
JP7207309B2 (ja) プログラム、情報処理方法、および情報処理装置
CN108604332A (zh) 用于生成预测的系统和方法
CN113435998B (zh) 贷款逾期预测方法、装置、电子设备及存储介质
Foo et al. Era: Expert retrieval and assembly for early action prediction
KR20210066545A (ko) 반도체 소자의 시뮬레이션을 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체
Al-Behadili et al. Ant colony optimization algorithm for rule-based classification: Issues and potential solutions
WO2021026034A1 (en) Artificial intelligence job recommendation neural network machine learning training based on embedding technologies and actual and synthetic job transition latent information
Moran et al. List online classification
Dung et al. Reinforcement learning for POMDP using state classification
CN113240323B (zh) 基于机器学习的水平评测方法、装置及相关设备
CN112818084B (zh) 信息交互方法、相关装置、设备及计算机可读介质
US20210374612A1 (en) Interpretable imitation learning via prototypical option discovery
CN112149623B (zh) 一种自适应多传感器信息融合系统、方法及存储介质
CN115204931A (zh) 用户服务策略确定方法、装置及电子设备
CN113238947A (zh) 一种人机协同的对话系统评测方法及系统
CN115398446A (zh) 使用符号编程的机器学习算法搜索
CN113191527A (zh) 一种基于预测模型进行人口预测的预测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant