CN111563390B - 文本生成方法、装置和电子设备 - Google Patents
文本生成方法、装置和电子设备 Download PDFInfo
- Publication number
- CN111563390B CN111563390B CN202010352129.4A CN202010352129A CN111563390B CN 111563390 B CN111563390 B CN 111563390B CN 202010352129 A CN202010352129 A CN 202010352129A CN 111563390 B CN111563390 B CN 111563390B
- Authority
- CN
- China
- Prior art keywords
- text
- target
- target text
- original
- conversion model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000006243 chemical reaction Methods 0.000 claims abstract description 106
- 230000014509 gene expression Effects 0.000 claims description 67
- 238000012549 training Methods 0.000 claims description 59
- 230000006870 function Effects 0.000 claims description 51
- 238000012937 correction Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 abstract description 16
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000036651 mood Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本公开实施例公开了一种文本生成方法、装置、电子设备和计算机可读存储介质。其中该文本生成方法包括:接收原始文本;利用第一方式将所述原始文本转换成第一目标文本;利用不同于所述第一方式的第二方式将所述原始文本转换成第二目标文本;基于所述原始文本、所述第一目标文本和所述第二目标文本生成目标文本。上述方法通过结合规则和转换模型的结果生成目标文本,解决了现有技术中直接翻译口语存在的翻译不准确的技术问题。
Description
技术领域
本公开涉及文本生成领域,尤其涉及一种文本生成方法、装置、电子设备及计算机可读存储介质。
背景技术
目前自然语言处理的研究中,以标准形式出现的书面语作为主要的研究主体,已经取得了比较广泛的研究进展。而口语语言,作为非标准形式的自然语言,通常被认为是“特殊语言”,是人机交互场景重要的表达媒介,在这个研究领域仍然存在很多亟需解决的问题。人机自然语言交互涉及到语法、语义、语用三个层面,为了推动人机自然语言交互的发展,需要在自然语言处理的基础上,引入自然语言理解、认知语言学、心理语言学、社会语言学等学科的综合参与。
日常场景的口语化和开放性特征在自然语言处理中都非常具有难度。特别是语音翻译领域中,由于用户说出的语言很多为口语化的语言,口语化的句子一般语法结构不规整,语气助词较多,分析和建模难度增大;其次,日程场景开放性大,没有足够的知识库来支持日常场景的建模,因此使用现有的模型直接将识别出的口语翻译成对应的目标语言会存在不准确的问题。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
为了解决现有技术中图口语翻译不准确的问题,本公开实施例提出如下技术方案。
第一方面,本公开实施例提供一种文本生成方法,包括:
接收原始文本;
利用第一方式将所述原始文本转换成第一目标文本;
利用不同于所述第一方式的第二方式将所述原始文本转换成第二目标文本;
基于所述原始文本、所述第一目标文本和所述第二目标文本生成目标文本。第二方面,本公开实施例提供一种文本生成装置,包括:
原始文本接收模块,用于接收原始文本;
第一转换模块,用于利用第一方式将所述原始文本转换成第一目标文本;
第二转换模块,用于利用不同于所述第一方式的第二方式将所述原始文本转换成第二目标文本;
目标文本生成模块,用于基于所述原始文本、所述第一目标文本和所述第二目标文本生成目标文本。
第三方面,本公开实施例提供一种电子设备,包括:至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有能被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述第一方面中的任一所述的方法。
第四方面,本公开实施例提供一种非暂态计算机可读存储介质,其特征在于,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行前述第一方面中的任一所述的方法。
本公开实施例公开了一种文本生成方法、装置、电子设备和计算机可读存储介质。其中该文本生成方法包括:接收原始文本;利用第一方式将所述原始文本转换成第一目标文本;利用不同于所述第一方式的第二方式将所述原始文本转换成第二目标文本;基于所述原始文本、所述第一目标文本和所述第二目标文本生成目标文本。上述方法通过结合规则和转换模型的结果生成目标文本,解决了现有技术中直接翻译口语存在的翻译不准确的技术问题。
上述说明仅是本公开技术方案的概述,为了能更清楚了解本公开的技术手段,而可依照说明书的内容予以实施,并且为让本公开的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本公开实施例提供的文本生成方法的流程示意图;
图2为本公开实施例提供的文本生成方法中的步骤S102的一个具体实施方式意图;
图3为本公开实施例提供的文本生成方法中的步骤S202的一个具体实施方式意图;
图4为本公开实施例提供的文本生成方法中的步骤S202的另一个具体实施方式意图;
图5为本公开实施例提供的文本生成方法中的步骤S104的一个具体实施方式意图;
图6为本公开实施例提供的文本生成装置的实施例的结构示意图;
图7为根据本公开实施例提供的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
图1为本公开实施例提供的文本生成方法实施例的流程图,本实施例提供的该文本生成方法可以由一文本生成装置来执行,该文本生成装置可以实现为软件,或者实现为软件和硬件的组合,该文本生成装置可以集成设置在文本生成系统中的某设备中,比如文本生成服务器或者文本生成终端设备中。如图1 所示,该方法包括如下步骤:
步骤S101,接收原始文本;
可选的,本公开实施例中的原始文本为通过语音识别识别出的口语所转换成的文本。示例性的,用户通过语音采集装置输入口语语音,通过语音识别装置将识别出的语音转换为文本,该文本中包括了很多口语中常用的词或者口语化的句式,如“我想当时的,那时候的场面会非常的火爆”其中“当时的”和“那时候的”其实是一个意思,在口语中这种情况比较常见,但是如果如实将其翻译成其他语言,翻译的结果可能出现错误。因此需要对所述原始文本进行处理,将其处理成可以翻译的标准语言文本。
可选的,所述原始文本可以是经过预处理的口语文本,如在语音识别时,由于输入的是口语,因此可能存在识别错误、文本格式不正确的情况,如“中日友好合作关系”被识别为“终日友好合作关系”,此时通过预处理的过程纠错,将其纠正成正确的文字。文本格式不正确是指对口语语音进行识别之后,所识别出来的文本可以是口语格式的文本,需要将其转换成书写格式的文本以适应后续的机器翻译过程。
步骤S102,利用第一方式将所述原始文本转换成第一目标文本;
可选的,所述步骤S102包括:基于预设的规则将所述原始文本转换成第一目标文本。
在本公开实施例中,包括一个预设的规则系统,将所述原始文件转换成第一目标文件,其中所述第一目标文件可以是转换后的标准语言文本,即口语对应的书面语;或者所述第一目标文件也可以是需要在所述原始文本中修改的口语化的文本。
可选的,如图2所示,所述步骤S102包括:
步骤S201,基于预设的字典以及规则库生成第一目标文本的正则表达式;
步骤S202,根据所述正则表达式从所述原始文本中匹配出所述第一目标文本。
其中在所述步骤S201中,所述预设的字典为通过数据挖掘出的口语中的常用的词或字,所述规则库包括了口语中常见的规则,如重复规则、语气规则、修正规则、方言规则、热词规则等等,所述字典和规则库可以根据需要来设置,在此不再赘述。根据所述字典以及规则库生成第一目标文本的正则表达式,所述正则表达式为需要匹配的第一目标文本。
可选的,所述正则表达式包括:语气词的正则表达式、叠词的正则表达式、口语修正模板的正则表达式、预设的固定正则表达式中的一个或多个。
示例性的,通过字典和语气规则可以生成如下语气词的正则表达式:是有 ->有,就是->是。也就是说口语中的“是有”、“就是”是需要转换的部分,将其分别转换为“有”和“是”。通过字典和重复规则,可以生成如下叠词的正则表达式:呵呵+->呵呵;通过字典和修正规则可以生成如下口语修正模板的正则表达式:并不是不仅是->不仅是;通过字典和方言规则,可以生成如下正则表达式:内个->那个,蛮->很;通过字典和热词规则,可以生成如下正则表达式: D一季度->第一季度,无本->uber。其中所述预设的规则表达式为预先设置的固定的口语转换规则。可以理解的,上述规则库和具体的正则表达式均为举例,不构成对本公开的限制,实际应用中可以根据需要生成其他的正则表达式在此不再枚举。
在所述步骤S202中,根据所述正则表达式通过模式匹配从所述原始文本中匹配出第一目标文本。同样的,根据上述描述,所述第一目标文本可以是通过所述正则表达式所匹配出的需要修改的文本部分,也可以是通过所述正则表达式直接修改所述原始文本得到的文本。
可选的,如图3所示,所述步骤S202还包括:
步骤S301,根据所述正则表达式从所述原始文本中匹配出候选第一目标文本;
步骤S302,将所述候选第一目标文本输入语言模型判断所述候选第一目标文本为第一目标文本的置信度;
步骤S303,将置信度高于第一阈值的候选第一目标文本作为所述第一目标文本。
在该实施例中,在步骤S301中通过所述正则表达式可以从所述原始文本中匹配出多个候选的第一目标文本,此时可能由于规则库的问题,匹配出的候选第一目标文本并不是想要得到的第一目标文本,所以在步骤S302和步骤S303 中使用预先训练好的语言模型判断所述候选第一目标文本为第一目标文本的置信度,所述语言模型是符合语言习惯的模型,如规则库中将“爸爸”匹配出来作为候选的第一目标文本,根据正则表达式需要将其转换成“父亲”,但是此时根据语言模型,“爸爸”一词也是可以作为书面语来使用的,因此将“爸爸”输入语言模型得到其为口语表达的置信度很低,此时置信度会低于第一阈值,则可以将该候选第一目标文本过滤掉,只保留置信度高于第一阈值的候选第一目标文本作为所述第一目标文本。
可选的,如图4所示,所述步骤S202还包括:
步骤S401,根据所述正则表达式从所述文本中匹配出候选第一目标文本;
步骤S402,对所述候选第一目标文本进行分词或词性判断得到所述候选第一目标文本中的第一目标文本。
上述步骤S401与步骤S301相同,都得到候选第一目标文件;而在步骤S402 中,通过分词结果以及词性判断结果判断所述就选第一文本是否为第一目标文本。示例性的,当所述候选第一目标文本无法被分成一个词或者候选第一目标文本的词性跟它在原始文本中所处的位置明显不匹配,则将所述候选第一目标文本判定为第一目标文本。
可选的,在所述步骤S202之后,还包括:
当所述第一目标文本转换错误,根据所述转换错误的第一目标文本更新所述预设的字典以及规则库。
示例性的,通过上述步骤S303或步骤S402可以筛选出所述候选第一目标文本中不是第一目标文本的文本,由此可以将筛选出的候选第一目标本所对应的原始文本中的文本从字典中删除并将规则库中对应的正则表达式删除。
步骤S103,利用不同于所述第一方式的第二方式将所述原始文本转换成第二目标文本;
可选的,所述步骤S103包括:基于转换模型将原始文本转换为第二目标文本。
经过上述步骤S102得到原始文本中需要修改的文本或者直接得到修改后的文本作为所述第一目标文本。但是由于通过规则匹配到的第一目标文本比较有限并且字典和规则库本身也可能不准确,因此在本公开实施例中再加入一个模型来并行的将所述原始文本转换为第二目标文本。其中所述第二目标文本与所述第一目标文本一样,可以是转换后的标准语言文本,即口语对应的书面语;或者所述第二目标文件也可以是需要在所述原始文本中修改的口语化的文本。通过同样的原始文本所得到的所述第二目标文本可能与所述第一目标文本相同也可能不同。
其中,所述转换模型为使用口语标注数据预先训练好的模型,用于识别所述原始文本中需要修改的部分文本。示例性的,所述转换模型为神经网络。
在实际训练所述转换模型时,由于口语的标注数据比较少,所述转换模型难以训练,因此,在本公开一个实施例中,可以通过合成的数据对所述转换模型进行预训练得到一个预训练的转换模型,之后使用真实的口语训练数据集对所述预训练的转换模型得到预先训练好的模型,具体的,所述转换模型通过以下步骤进行训练:
获取标准文本,其中所述标准文本为不包含待修改的部分文本的文本;
在所述标准文本中嵌入噪声词生成预训练数据集;
根据所述预训练数据集对所述转换模型进行预训练得到预训练的转换模型;
获取训练数据集,根据所述训练数据集训练所述预训练的转换模型得到所述转换模型。
示例性的,在上述步骤中所述标准文本为标准的书面语言文本,其可以直接通过机器翻译模型翻译成其他语言,所述标准文本不包括需要修改的文本。在所述标准文本中嵌入噪声词生成预训练数据集,其中所述噪声词可以是从所述标准文本中随机选择的词源所产生的噪声词,然后找出所述噪声词中最接近口语的词,并插入所述词源前边的随机位置,作为噪声词来模拟口语中的口误或者其他在口语中所发生的问题。示例性的,通过统计口语语料的词频和词性,整理出语气词-词频表,这些词会按概率随机插入上述两个语句块之间,以模拟犹豫、思考等口语特性。另外,对于具有更复杂句法结构的口语数据的合成,可以使用基于模版的方法等。可以理解的,还可以使用其他的方式插入噪声词,其目的在于模拟口语场景,在此不再赘述。
使用按上述方法合成的数据对模型进行预训练,直到损失函数收敛,得到预训练的模型,此时的模型基于合成数据训练而成,已经具备一定的转换能力,但是由于其训练数据为合成数据,因此可能对真实文本进行转换时效果不好,因此之后再使用真实的训练数据集继续训练以得到所述转换模型。这样可以解决口语训练数据较少,模型训练比较困难的问题。
示例性的,所述转换模型为神经网络,所述神经网络为包括编码器和解码器结构的模型,如Transform模型等,本公开实施例中以Transform模型为例。典型的Transform模型,其输出序列的分布函数如下:
如果直接对该模型进行训练,会得到一个从口语到书面语的转换模型,但是直接训练出来模型只能进行转换任务,无法检测出原始文本中的哪一部分是需要修改的口语部分,并且直接训练可能会比较苦难。因此,在本公开一个实施例中,所述转换模型的训练步骤还可以包括:
将解码器的输出向量输入分类层得到每个词的分类概率,其中所述分类概率表示每个词为所述第二目标文本的概率;
将解码器的输出向量输入序列预测层得到预测序列的概率;
将所述分类概率和所述预测序列概率输入模型损失函数计算所述转换模型的误差;
根据所述误差更新模型的参数。
在上述训练步骤中,需要在所述训练数据集中多加入一个标注,作为第二目标文本的标注,示例性的所述第二目标文本为口语文本,即训练数据中的原始文本中都加入了口语部分的标注,如上述的示例中的句子“我想当时的,那时候的场面会非常的火爆”其中可以将“当时的”这三个字标注为口语词,示例性的,可以将其标注为“E”以表示其类型为口语,其他的词可以标注为“O”以表示其类型为书面语。在这种情况下,所述模型中会包括两个预测器,其中一个为为翻译预测器,另外一个为分类预测器;其中,翻译预测器为一个softmax 层,为Transform模型中常规的字符串输出层,用于输出预测的文本,其当前时刻的输出为yt,多个时刻的输入形成预测文本,yt由翻译预测器的softmax层输出的预测序列的概率决定;其中分类预测器为另外一个softmax层,为本公开中的模型加入的额外的分类层,用于当前时刻翻译预测层的输出为yt时,预测该输出的分类类型的概率,得到其是“E”还是“O”,如果预测其为“E”则认为该位置对应的是需要修改的口语词或字,将其输出为预先设置的特殊字符,如“@dis”,如果预测其为“O”,则直接将原始文本中对应位置的字符复制到输出文本中作为预测文本;由此上述转换模型预测出两个预测文本。对应的,该转换模型的损失函数为两个上述两个预测器的联合损失函数:
L(x,y,z|θ)=(1-α)L(x,y|θ)+αL(x,z|θ) (1)
其中L(x,y|θ)为翻译预测器的损失函数,L(x,z|θ)为分类预测器的损失函数,α为平衡系数,并且0<α<1,用于平衡两个损失函数的权重。x为转换模型的输入,y为翻译预测器的输出,z为分类预测器的输出,θ为转换模型的参数集合。
示例性的,上述损失函数均为最大似然估计损失函数,其中:
通过上述损失函数(1),可以计算转换模型的误差,并根据该误差更新所述转换模型的参数θ直至达到收敛条件。由于在该实施例中,引入了第二目标文本的标注,并在转换模型中加入了分类预测器,使得转换模型更加针对第二目标文本,并且根据分类预测器的结果输出的文本保证了输出文本和原始文本在单词顺序和覆盖率的一致性,使得模型更加适应本公开的应用场景。
由于本公开需要预测出第二目标文本,而第二目标文本是需要在原始文本中进行修改的文本,如口语中需要删除的文本,因此在本公开的任务中,准确率比召回率要更重要,因为如果最终输出的文本中包括了该删除而未删除的文本,其只会影响语义的简洁性,但是如果错误的删除了不该删除的文本,则会损害语义的完整性。因此在一个实施例中,可以对训练目标进行调整,加入一个调节系数作为乘法因子,具体的,所述转换模型的损失函数包括:
预测序列损失函数以及分类损失函数;
其中,所述预测序列损失函数还包括调节系数,当所述词被分类为第二目标文本时,所述调节系数的值不为1。
即,如果当前时刻的输出yt=“@dis”,则在所述预测序列损失函数中加入调节系数,以调节该输出的在损失函数中的权重,如果需要准确率,则调高该调节系数,如果需要召回率,则调低该调节系数。
示例性的,在该实施例中,所述预测序列损失函数为:
上述的转换模型受制于其解码的特性限制,其每一时刻的输出需要依赖与之前的所有时刻的输出结果,因此解码速度比较慢。因此在本公开一个实施例中,通过优化解码的方法来加快解码的速度,可选的,所述转换模型的训练步骤中还包括:
将所述编码器的输出向量输入一个全连接层;
所述全连接层的输出通过激活函数激活得到第一输出向量;
将所述第一输出向量与所述编码器的输入向量相乘得到所述解码器的输入向量。
在该实施例中,引入一个连续的隐变量,称为遗传度,即上述步骤中的第一输入向量,其目的是对原始文件和第二目标文件之间的对齐方式进行建模或捕获目标变量之间的依赖关系。第二目标文件中的预测序列中的每个位置,会从隐变量中并行地重建。该连续的隐变量用来学习字词级别的输入和输出之间的继承关系,直接生成在解码过程中的解码器输入词嵌入特征,这是通过一对一的将编码器的输入词嵌入特征乘以一个遗传度因子而获得的。初始可以使用全1向量初始化遗传度,然后基于遗传度生成预测序列。遗传度是介于0和1 之间的随机变量,表示词嵌入特征从编码器输入到解码器输入的转换关系。具体的,其实现方法为在编码器的输出层之外再加上一个全连接层,所述全连接层的输出通过sigmoid激活函数激活,以将编码器的输出转换成一个每个元素值均在0和1之间的向量,即遗传度。之后将所述遗传度与所述编码器的输入词嵌入特征进行对位一一相乘得到解码器的输入词嵌入特征。此时转换模型的预测序列的概率分布如下:
where H=h1:T;h1:T∈[0,1]
通过上述转换模型的训练过程,可以得到步骤S103中所使用的转换模型,以得到所述第二目标文件。
步骤S104,基于所述原始文本、所述第一目标文本和所述第二目标文本生成目标文本。
在该步骤中,生成最终的目标文件,示例性的,所述目标文件为口语生成的文本所对应的书面语文本,该书面语文本适用于通过机器翻译的方式翻译成其他语言。
可选的,如图5所示,所述步骤S104包括:
步骤S501,基于所述第一目标文本和所述第二目标文本确定待修改的部分文本;
步骤S502,在所述原始文本中修改所述待修改的部分文本得到所述目标文本。
在一个实施例中,所述步骤S501中的第一目标文本和第二目标文本分别为通过预设的规则得到的待修改部分文本和通过转换模型得到的待修改部分文本,此时为了结果更加准确,可以取第一目标文本和第二目标文本的交集作为待修改部分的文本,即通过规则和模型都判断需要修改的部分才做修改;在另一个实施例中,所述步骤S501中的第一目标文本和第二目标文本为转换后的文本,即修改好的文本,此时,需要通过原始文本和第一目标文件确定出通过规则修改的部分文本,通过原始文本和第二目标文件确定出通过转换模型修改的部分文本,之后再做两部分修改部分文本的交集得到待修改的部分文本。在步骤S502 中,直接在原始文本中修改所述待修改的部分文本得到最终的目标文本。
对于某些特殊场景下,上述步骤S104可以进一步简化,如任务中只包括删除口语中重复或不必要的词,如由于犹豫或这思考而重复说出的词,语气词等等,这些词只需要从原始文本中删除,此时,如果在步骤S501中,所述第一目标文本和第二目标文本为转换后的文本,则可以直接通过取第一目标文本和第二目标文本的并集得到最终的目标文本。
本公开实施例公开了一种文本生成方法,该文本生成方法包括:接收原始文本;利用第一方式将所述原始文本转换成第一目标文本;利用不同于所述第一方式的第二方式将所述原始文本转换成第二目标文本;基于所述原始文本、所述第一目标文本和所述第二目标文本生成目标文本。上述方法通过结合规则和转换模型的结果生成目标文本,解决了现有技术中直接翻译口语存在的翻译不准确的技术问题。
在上文中,虽然按照上述的顺序描述了上述方法实施例中的各个步骤,本领域技术人员应清楚,本公开实施例中的步骤并不必然按照上述顺序执行,其也可以倒序、并行、交叉等其他顺序执行,而且,在上述步骤的基础上,本领域技术人员也可以再加入其他步骤,这些明显变型或等同替换的方式也应包含在本公开的保护范围之内,在此不再赘述。
图6为本公开实施例提供的文本生成装置实施例的结构示意图,如图6所示,该装置600包括:原始文本接收模块601、第一转换模块602、第二转换模块603和目标文本生成模块604。其中,
原始文本接收模块601,用于接收原始文本;
第一转换模块602,用于利用第一方式将所述原始文本转换成第一目标文本;
第二转换模块603,用于利用不同于所述第一方式的第二方式将所述原始文本转换成第二目标文本;
目标文本生成模块604,用于基于所述原始文本、所述第一目标文本和所述第二目标文本生成目标文本。
进一步的,所述目标文本生成模块604,还用于:
基于所述第一目标文本和所述第二目标文本确定待修改的部分文本;
在所述原始文本中修改所述待修改的部分文本得到所述目标文本。
进一步的,所述第一转换模块602,还用于:
基于预设的字典以及规则库生成第一目标文本的正则表达式;
根据所述正则表达式从所述原始文本中匹配出所述第一目标文本。
进一步的,所述正则表达式包括:
语气词的正则表达式、叠词的正则表达式、口语修正模板的正则表达式、预设的固定正则表达式中的一个或多个。
进一步的,所述第一转换模块602,还用于:
根据所述正则表达式从所述原始文本中匹配出候选第一目标文本;
将所述候选第一目标文本输入语言模型判断所述候选第一目标文本为第一目标文本的置信度;
将置信度高于第一阈值的候选第一目标文本作为所述第一目标文本。
进一步的,所述第一转换模块602,还用于:
根据所述正则表达式从所述文本中匹配出候选第一目标文本;
对所述候选第一目标文本进行分词或词性判断得到所述候选第一目标文本中的第一目标文本。
进一步的,所述第一转换模块602,还用于:
当所述第一目标文本转换错误,根据所述转换错误的第一目标文本更新所述预设的字典以及规则库。
进一步的,第二转换模块603还用于:基于转换模型将原始文本转换为第二目标文本,所述转换模型通过以下步骤进行训练:
获取标准文本,其中所述标准文本为不包含待修改的部分文本的文本;
在所述标准文本中嵌入噪声词生成预训练数据集;
根据所述预训练数据集对所述转换模型进行预训练得到预训练的转换模型;
获取训练数据集,根据所述训练数据集训练所述预训练的转换模型得到所述转换模型。
进一步的,所述转换模型为包括编码器和解码器结构的模型,所述转换模型的训练步骤中还包括:
将解码器的输出向量输入分类层得到每个词的分类概率,其中所述分类概率表示每个词为所述第二目标文本的概率;
将解码器的输出向量输入序列预测层得到预测序列的概率;
将所述分类概率和所述预测序列概率输入模型损失函数计算所述转换模型的误差;
根据所述误差更新模型的参数。
进一步的,所述模型损失函数包括:
预测序列损失函数以及分类损失函数;
其中,所述预测序列损失函数还包括调节系数,当所述词被分类为第二目标文本时,所述调节系数的值不为1。
进一步的,所述转换模型为包括编码器和解码器结构的模型,所述转换模型的训练步骤中还包括:
将所述编码器的输出向量输入一个全连接层;
所述全连接层的输出通过激活函数激活得到第一输出向量;
将所述第一输出向量与所述编码器的输入向量相乘得到所述解码器的输入向量。
图6所示装置可以执行图1-图5所示实施例的方法,本实施例未详细描述的部分,可参考对图1-图5所示实施例的相关说明。该技术方案的执行过程和技术效果参见图1-图5所示实施例中的描述,在此不再赘述。
下面参考图7,其示出了适于用来实现本公开实施例的电子设备700的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图7示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702 被安装。在该计算机程序被处理装置701执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、 RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收原始文本;利用第一方式将所述原始文本转换成第一目标文本;利用不同于所述第一方式的第二方式将所述原始文本转换成第二目标文本;基于所述原始文本、所述第一目标文本和所述第二目标文本生成目标文本。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,提供了一种文本生成方法,包括:
接收原始文本;
利用第一方式将所述原始文本转换成第一目标文本;
利用不同于所述第一方式的第二方式将所述原始文本转换成第二目标文本;
基于所述原始文本、所述第一目标文本和所述第二目标文本生成目标文本。
进一步的,所述基于所述原始文本、所述第一目标文本和所述第二目标文本生成目标文本,包括:
基于所述第一目标文本和所述第二目标文本确定待修改的部分文本;
在所述原始文本中修改所述待修改的部分文本得到所述目标文本。
进一步的,所述利用第一方式将所述原始文本转换成第一目标文本,包括:
基于预设的字典以及规则库生成第一目标文本的正则表达式;
根据所述正则表达式从所述原始文本中匹配出所述第一目标文本。
进一步的,所述正则表达式包括:
语气词的正则表达式、叠词的正则表达式、口语修正模板的正则表达式、预设的固定正则表达式中的一个或多个。
进一步的,所述根据所述正则表达式从所述原始文本中匹配出所述第一目标文本,包括:
根据所述正则表达式从所述原始文本中匹配出候选第一目标文本;
将所述候选第一目标文本输入语言模型判断所述候选第一目标文本为第一目标文本的置信度;
将置信度高于第一阈值的候选第一目标文本作为所述第一目标文本。
进一步的,所述根据所述正则表达式从所述文本中匹配出所述第一目标文本,包括:
根据所述正则表达式从所述文本中匹配出候选第一目标文本;
对所述候选第一目标文本进行分词或词性判断得到所述候选第一目标文本中的第一目标文本。
进一步的,所述方法还包括:
当所述第一目标文本转换错误,根据所述转换错误的第一目标文本更新所述预设的字典以及规则库。
进一步的,所述利用不同于所述第一方式的第二方式将所述原始文本转换为第二目标文本包括:基于转换模型将原始文本转换为第二目标文本,所述转换模型通过以下步骤进行训练:
获取标准文本,其中所述标准文本为不包含待修改的部分文本的文本;
在所述标准文本中嵌入噪声词生成预训练数据集;
根据所述预训练数据集对所述转换模型进行预训练得到预训练的转换模型;
获取训练数据集,根据所述训练数据集训练所述预训练的转换模型得到所述转换模型。
进一步的,所述转换模型为包括编码器和解码器结构的模型,所述转换模型的训练步骤中还包括:
将解码器的输出向量输入分类层得到每个词的分类概率,其中所述分类概率表示每个词为所述第二目标文本的概率;
将解码器的输出向量输入序列预测层得到预测序列的概率;
将所述分类概率和所述预测序列概率输入模型损失函数计算所述转换模型的误差;
根据所述误差更新模型的参数。
进一步的,所述模型损失函数包括:
预测序列损失函数以及分类损失函数;
其中,所述预测序列损失函数还包括调节系数,当所述词被分类为第二目标文本时,所述调节系数的值不为1。
进一步的,所述转换模型为包括编码器和解码器结构的模型,所述转换模型的训练步骤中还包括:
将所述编码器的输出向量输入一个全连接层;
所述全连接层的输出通过激活函数激活得到第一输出向量;
将所述第一输出向量与所述编码器的输入向量相乘得到所述解码器的输入向量。
根据本公开的一个或多个实施例,提供了一种文本生成装置,包括:
原始文本接收模块,用于接收原始文本;
第一转换模块,用于利用第一方式将所述原始文本转换成第一目标文本;
第二转换模块,用于利用不同于所述第一方式的第二方式将所述原始文本转换成第二目标文本;
目标文本生成模块,用于基于所述原始文本、所述第一目标文本和所述第二目标文本生成目标文本。
进一步的,所述目标文本生成模块,还用于:
基于所述第一目标文本和所述第二目标文本确定待修改的部分文本;
在所述原始文本中修改所述待修改的部分文本得到所述目标文本。
进一步的,所述第一转换模块,还用于:
基于预设的字典以及规则库生成第一目标文本的正则表达式;
根据所述正则表达式从所述原始文本中匹配出所述第一目标文本。
进一步的,所述正则表达式包括:
语气词的正则表达式、叠词的正则表达式、口语修正模板的正则表达式、预设的固定正则表达式中的一个或多个。
进一步的,所述第一转换模块,还用于:
根据所述正则表达式从所述原始文本中匹配出候选第一目标文本;
将所述候选第一目标文本输入语言模型判断所述候选第一目标文本为第一目标文本的置信度;
将置信度高于第一阈值的候选第一目标文本作为所述第一目标文本。
进一步的,所述第一转换模块,还用于:
根据所述正则表达式从所述文本中匹配出候选第一目标文本;
对所述候选第一目标文本进行分词或词性判断得到所述候选第一目标文本中的第一目标文本。
进一步的,所述第一转换模块,还用于:
当所述第一目标文本转换错误,根据所述转换错误的第一目标文本更新所述预设的字典以及规则库。
进一步的,第二转换模块还用于:基于转换模型将原始文本转换为第二目标文本,所述转换模型通过以下步骤进行训练:
获取标准文本,其中所述标准文本为不包含待修改的部分文本的文本;
在所述标准文本中嵌入噪声词生成预训练数据集;
根据所述预训练数据集对所述转换模型进行预训练得到预训练的转换模型;
获取训练数据集,根据所述训练数据集训练所述预训练的转换模型得到所述转换模型。
进一步的,所述转换模型为包括编码器和解码器结构的模型,所述转换模型的训练步骤中还包括:
将解码器的输出向量输入分类层得到每个词的分类概率,其中所述分类概率表示每个词为所述第二目标文本的概率;
将解码器的输出向量输入序列预测层得到预测序列的概率;
将所述分类概率和所述预测序列概率输入模型损失函数计算所述转换模型的误差;
根据所述误差更新模型的参数。
进一步的,所述模型损失函数包括:
预测序列损失函数以及分类损失函数;
其中,所述预测序列损失函数还包括调节系数,当所述词被分类为第二目标文本时,所述调节系数的值不为1。
进一步的,所述转换模型为包括编码器和解码器结构的模型,所述转换模型的训练步骤中还包括:
将所述编码器的输出向量输入一个全连接层;
所述全连接层的输出通过激活函数激活得到第一输出向量;
将所述第一输出向量与所述编码器的输入向量相乘得到所述解码器的输入向量。
根据本公开的一个或多个实施例,提供了一种电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有能被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述第一方面中的任一所述文本生成方法。
根据本公开的一个或多个实施例,提供了一种非暂态计算机可读存储介质,其特征在于,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行前述第一方面中的任一所述文本生成方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (13)
1.一种文本生成方法,其特征在于,包括:
接收原始文本;
利用第一方式将所述原始文本转换成第一目标文本;
利用不同于所述第一方式的第二方式将所述原始文本转换成第二目标文本;
基于所述原始文本、所述第一目标文本和所述第二目标文本生成目标文本;
其中,所述利用不同于所述第一方式的第二方式将所述原始文本转换为第二目标文本包括:基于转换模型将原始文本转换为第二目标文本,所述转换模型通过以下步骤进行训练:
获取标准文本,其中所述标准文本为不包含待修改的部分文本的文本;
在所述标准文本中嵌入噪声词生成预训练数据集;
根据所述预训练数据集对所述转换模型进行预训练得到预训练的转换模型;
获取训练数据集,根据所述训练数据集训练所述预训练的转换模型得到所述转换模型。
2.如权利要求1所述的文本生成方法,其特征在于,所述基于所述原始文本、所述第一目标文本和所述第二目标文本生成目标文本,包括:
基于所述第一目标文本和所述第二目标文本确定待修改的部分文本;
在所述原始文本中修改所述待修改的部分文本得到所述目标文本。
3.如权利要求1所述的文本生成方法,其特征在于,所述利用第一方式将所述原始文本转换成第一目标文本,包括:
基于预设的字典以及规则库生成第一目标文本的正则表达式;
根据所述正则表达式从所述原始文本中匹配出所述第一目标文本。
4.如权利要求3所述的文本生成方法,其特征在于,所述正则表达式包括:
语气词的正则表达式、叠词的正则表达式、口语修正模板的正则表达式、预设的固定正则表达式中的一个或多个。
5.如权利要求4所述的文本生成方法,其特征在于,所述根据所述正则表达式从所述原始文本中匹配出所述第一目标文本,包括:
根据所述正则表达式从所述原始文本中匹配出候选第一目标文本;
将所述候选第一目标文本输入语言模型判断所述候选第一目标文本为第一目标文本的置信度;
将置信度高于第一阈值的候选第一目标文本作为所述第一目标文本。
6.如权利要求3所述的文本生成方法,其特征在于,所述根据所述正则表达式从所述原始文本中匹配出所述第一目标文本,包括:
根据所述正则表达式从所述原始文本中匹配出候选第一目标文本;
对所述候选第一目标文本进行分词或词性判断得到所述候选第一目标文本中的第一目标文本。
7.如权利要求3所述的文本生成方法,其特征在于,所述方法还包括:
当所述第一目标文本转换错误,根据所述转换错误的第一目标文本更新所述预设的字典以及规则库。
8.如权利要求1所述的文本生成方法,其特征在于,所述转换模型为包括编码器和解码器结构的模型,所述转换模型的训练步骤中还包括:
将解码器的输出向量输入分类层得到每个词的分类概率,其中所述分类概率表示每个词为所述第二目标文本的概率;
将解码器的输出向量输入序列预测层得到预测序列的概率;
将所述分类概率和所述预测序列概率输入模型损失函数计算所述转换模型的误差;
根据所述误差更新模型的参数。
9.如权利要求8所述的文本生成方法,其特征在于,所述模型损失函数包括:
预测序列损失函数以及分类损失函数;
其中,所述预测序列损失函数还包括调节系数,当所述词被分类为第二目标文本时,所述调节系数的值不为1。
10.如权利要求1所述的文本生成方法,其特征在于,所述转换模型为包括编码器和解码器结构的模型,所述转换模型的训练步骤中还包括:
将所述编码器的输出向量输入一个全连接层;
所述全连接层的输出通过激活函数激活得到第一输出向量;
将所述第一输出向量与所述编码器的输入向量相乘得到所述解码器的输入向量。
11.一种文本生成装置,其特征在于,包括:
原始文本接收模块,用于接收原始文本;
第一转换模块,用于利用第一方式将所述原始文本转换成第一目标文本;
第二转换模块,用于利用不同于所述第一方式的第二方式将所述原始文本转换成第二目标文本;
目标文本生成模块,用于基于所述原始文本、所述第一目标文本和所述第二目标文本生成目标文本;
其中,所述利用不同于所述第一方式的第二方式将所述原始文本转换为第二目标文本包括:基于转换模型将原始文本转换为第二目标文本,所述转换模型通过以下步骤进行训练:
获取标准文本,其中所述标准文本为不包含待修改的部分文本的文本;
在所述标准文本中嵌入噪声词生成预训练数据集;
根据所述预训练数据集对所述转换模型进行预训练得到预训练的转换模型;
获取训练数据集,根据所述训练数据集训练所述预训练的转换模型得到所述转换模型。
12.一种电子设备,包括:
存储器,用于存储计算机可读指令;以及
处理器,用于运行所述计算机可读指令,使得所述处理器运行时实现根据权利要求1-10中任意一项所述的方法。
13.一种非暂态计算机可读存储介质,用于存储计算机可读指令,当所述计算机可读指令由计算机执行时,使得所述计算机执行权利要求1-10中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010352129.4A CN111563390B (zh) | 2020-04-28 | 2020-04-28 | 文本生成方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010352129.4A CN111563390B (zh) | 2020-04-28 | 2020-04-28 | 文本生成方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111563390A CN111563390A (zh) | 2020-08-21 |
CN111563390B true CN111563390B (zh) | 2022-03-15 |
Family
ID=72074453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010352129.4A Active CN111563390B (zh) | 2020-04-28 | 2020-04-28 | 文本生成方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111563390B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112257393B (zh) * | 2020-12-22 | 2021-04-13 | 北京百度网讯科技有限公司 | 实现文本生成的方法、装置、设备和介质 |
CN112733554B (zh) * | 2020-12-23 | 2021-09-07 | 深圳市爱科云通科技有限公司 | 口语文本处理方法、装置、服务器及可读存储介质 |
CN112861548B (zh) * | 2021-02-10 | 2023-06-23 | 百度在线网络技术(北京)有限公司 | 自然语言生成及模型的训练方法、装置、设备和存储介质 |
CN113191119A (zh) * | 2021-06-02 | 2021-07-30 | 云知声智能科技股份有限公司 | 文本纠错模型的训练方法、设备和存储介质 |
CN116312485B (zh) * | 2023-05-23 | 2023-08-25 | 广州小鹏汽车科技有限公司 | 语音识别方法、装置及车辆 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9471566B1 (en) * | 2005-04-14 | 2016-10-18 | Oracle America, Inc. | Method and apparatus for converting phonetic language input to written language output |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105843811B (zh) * | 2015-01-13 | 2019-12-06 | 华为技术有限公司 | 转换文本的方法和设备 |
CN106354716B (zh) * | 2015-07-17 | 2020-06-02 | 华为技术有限公司 | 转换文本的方法和设备 |
CN109190134B (zh) * | 2018-11-21 | 2023-05-30 | 科大讯飞股份有限公司 | 一种文本翻译方法及装置 |
-
2020
- 2020-04-28 CN CN202010352129.4A patent/CN111563390B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9471566B1 (en) * | 2005-04-14 | 2016-10-18 | Oracle America, Inc. | Method and apparatus for converting phonetic language input to written language output |
Also Published As
Publication number | Publication date |
---|---|
CN111563390A (zh) | 2020-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563390B (zh) | 文本生成方法、装置和电子设备 | |
CN111027331B (zh) | 用于评估翻译质量的方法和装置 | |
CN111177393B (zh) | 一种知识图谱的构建方法、装置、电子设备及存储介质 | |
CN111274815B (zh) | 用于挖掘文本中的实体关注点的方法和装置 | |
CN110969012B (zh) | 文本纠错方法、装置、存储介质及电子设备 | |
CN111402861B (zh) | 一种语音识别方法、装置、设备及存储介质 | |
CN111368559A (zh) | 语音翻译方法、装置、电子设备及存储介质 | |
CN112883968B (zh) | 图像字符识别方法、装置、介质及电子设备 | |
CN111382261B (zh) | 摘要生成方法、装置、电子设备及存储介质 | |
WO2020182123A1 (zh) | 用于推送语句的方法和装置 | |
US20240029709A1 (en) | Voice generation method and apparatus, device, and computer readable medium | |
CN112509562B (zh) | 用于文本后处理的方法、装置、电子设备和介质 | |
CN111339789B (zh) | 一种翻译模型训练方法、装置、电子设备及存储介质 | |
CN111368560A (zh) | 文本翻译方法、装置、电子设备及存储介质 | |
CN112883967B (zh) | 图像字符识别方法、装置、介质及电子设备 | |
CN111681661B (zh) | 语音识别的方法、装置、电子设备和计算机可读介质 | |
CN113139391A (zh) | 翻译模型的训练方法、装置、设备和存储介质 | |
CN111339758A (zh) | 基于深度学习模型的文本纠错方法及系统 | |
CN111354343A (zh) | 语音唤醒模型的生成方法、装置和电子设备 | |
CN112364653A (zh) | 用于语音合成的文本分析方法、装置、服务器和介质 | |
US20240265214A1 (en) | Translation processing method, apparatus, device and medium | |
CN112380876A (zh) | 基于多语言机器翻译模型的翻译方法、装置、设备和介质 | |
CN115270717A (zh) | 一种立场检测方法、装置、设备及介质 | |
CN115640815A (zh) | 翻译方法、装置、可读介质及电子设备 | |
CN111400454A (zh) | 摘要生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |