CN110287498B - 层次化翻译方法、装置及存储介质 - Google Patents
层次化翻译方法、装置及存储介质 Download PDFInfo
- Publication number
- CN110287498B CN110287498B CN201910463498.8A CN201910463498A CN110287498B CN 110287498 B CN110287498 B CN 110287498B CN 201910463498 A CN201910463498 A CN 201910463498A CN 110287498 B CN110287498 B CN 110287498B
- Authority
- CN
- China
- Prior art keywords
- translated
- model
- key information
- preset model
- sentence template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013519 translation Methods 0.000 title claims abstract description 118
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000012545 processing Methods 0.000 claims description 26
- 238000013527 convolutional neural network Methods 0.000 claims description 19
- 238000005070 sampling Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000000306 recurrent effect Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例提供一种层次化翻译方法、装置及存储介质,该方法包括:确定待翻译对象中的关键信息,关键信息包括中心词和实词中至少一个;根据关键信息和待翻译对象,生成句子模板,句子模板中包含关键信息对应的翻译结果;根据句子模板和待翻译对象,生成待翻译对象对应的翻译结果。本发明实施例可以保证关键信息的翻译正确率。
Description
技术领域
本发明实施例涉及人工智能技术,尤其涉及一种层次化翻译方法、装置及存储介质。
背景技术
作为人工智能的目标之一,机器翻译具有重要的科学研究价值。同时,机器翻译又具有重要的实用价值。随着经济全球化及互联网的飞速发展,机器翻译在促进政治、经济、文化交流等方面起到越来越重要的作用。
在相关技术中,机器翻译主要采用端到端翻译模型,对需要翻译的内容进行统一处理,生成翻译结果,从而有一定概率造成关键信息的丢失或者翻译错误。但在一些场景中,例如同声传译或者相对正式的内容翻译中,需要保证关键信息的翻译准确率。因此,目前亟需研究一种保证关键信息的翻译正确率的翻译方法。
发明内容
本发明实施例提供一种层次化翻译方法、装置及存储介质,以保证关键信息的翻译正确率。
第一方面,本发明实施例提供一种层次化翻译方法,包括:确定待翻译对象中的关键信息,关键信息包括中心词和实词中至少一个;根据关键信息和待翻译对象,生成句子模板,句子模板中包含关键信息对应的翻译结果;根据句子模板和待翻译对象,生成待翻译对象对应的翻译结果。
在一种可能的设计中,上述确定待翻译对象中的关键信息,可以包括:使用第一预设模型确定待翻译对象中的关键信息。其中,待翻译对象为第一预设模型的输入,关键信息为第一预设模型的输出。
可选地,第一预设模型可以为以下任一模型:RNN模型,CNN模型和Transformer模型等。其中,Transformer模型是一种完全基于Attention机制来加速深度学习训练过程的算法模型。
在一种可能的设计中,上述根据关键信息和待翻译对象,生成句子模板,可以包括:使用第二预设模型,根据关键信息和待翻译对象,生成句子模板。其中,关键信息和待翻译对象为第二预设模型的输入,句子模板为第二预设模型的输出。
可选地,第二预设模型可以为基于以下任一模型获得的:RNN模型,CNN模型和Transformer模型,等等。
在一种可能的设计中,上述根据句子模板和待翻译对象,生成待翻译对象对应的翻译结果,可以包括:使用第三预设模型,根据句子模板和待翻译对象,生成待翻译对象对应的翻译结果。其中,句子模板和待翻译对象为第三预设模型的输入,待翻译对象对应的翻译结果为第三预设模型的输出。
可选地,第三预设模型可以为基于以下任一模型获得的:RNN模型,CNN模型和Transformer模型,等等。
可选地,第一预设模型和第二预设模型的softmax层采用Gumbel Softmax采样技术确定参数。
第二方面,本发明实施例提供一种层次化翻译装置,包括:
第一处理模块,用于确定待翻译对象中的关键信息,关键信息包括中心词和实词中至少一个;
第二处理模块,用于根据关键信息和待翻译对象,生成句子模板,句子模板中包含关键信息对应的翻译结果;
第三处理模块,用于根据句子模板和待翻译对象,生成待翻译对象对应的翻译结果。
在一种可能的设计中,上述第一处理模块可以具体用于:使用第一预设模型确定待翻译对象中的关键信息。其中,待翻译对象为第一预设模型的输入,关键信息为第一预设模型的输出。
可选地,第一预设模型可以为以下任一模型:RNN模型,CNN模型和Transformer模型等。其中,Transformer模型是一种完全基于Attention机制来加速深度学习训练过程的算法模型。
在一种可能的设计中,上述第二处理模块可以具体用于:使用第二预设模型,根据关键信息和待翻译对象,生成句子模板。其中,关键信息和待翻译对象为第二预设模型的输入,句子模板为第二预设模型的输出。
可选地,第二预设模型可以为基于以下任一模型获得的:RNN模型,CNN模型和Transformer模型,等等。
在一种可能的设计中,上述第三处理模块可以具体用于:使用第三预设模型,根据句子模板和待翻译对象,生成待翻译对象对应的翻译结果。其中,句子模板和待翻译对象为第三预设模型的输入,待翻译对象对应的翻译结果为第三预设模型的输出。
可选地,第三预设模型可以为基于以下任一模型获得的:RNN模型,CNN模型和Transformer模型,等等。
可选地,第一预设模型和第二预设模型的softmax层采用Gumbel Softmax采样技术确定参数。
第三方面,本发明实施例提供一种层次化翻译装置,包括:至少一个处理器和存储器。其中,存储器存储计算机执行指令;至少一个处理器执行该存储器存储的计算机执行指令,使得至少一个处理器执行如第一方面任一项所述的方法。
第四方面,本发明实施例提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机执行指令,计算机执行指令被处理器执行时用于实现如第一方面任一项所述的方法。
本发明实施例提供的层次化翻译方法、装置及存储介质,首先确定待翻译对象中的关键信息,并根据关键信息和待翻译对象,生成句子模板,该句子模板中包含关键信息对应的翻译结果,即首先翻译待翻译对象中的关键信息,之后根据句子模板和待翻译对象,生成待翻译对象对应的翻译结果,在已翻译的关键信息的基础上再翻译其他的上下文内容。通过上述层次化翻译,优先保证关键信息的翻译正确率,提升用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的层次化翻译方法的流程图;
图2为本发明一实施例提供的第二预设模型的示例图;
图3为本发明一实施例提供的第三预设模型的示例图;
图4为本发明一实施例提供的层次化翻译模型的示意图;
图5为本发明一实施例提供的层次化翻译装置的结构示意图;
图6为本发明另一实施例提供的层次化翻译装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
本发明实施例的应用场景可以包括但不限于语音翻译和文本翻译。
图1为本发明一实施例提供的层次化翻译方法的流程图。本发明实施例提供一种层次化翻译方法,该层次化翻译方法可以由翻译软件/客户端所安装的层次化翻译装置的处理设备,例如处理器,执行相应的软件代码实现,也可由该层次化翻译装置的处理设备执行相应的软件代码,并结合其他硬件实体实现。其中,层次化翻译装置例如是台式电脑、笔记本、个人数字助理(personal digital assistant,简称:PDA)、智能手机、平板电脑和翻译机等终端设备,也可以是服务器。该实施例以终端设备为执行主体进行说明。服务器的执行方式类似,本实施例此处不做赘述。
终端设备的处理器上可通过执行软件应用并在终端设备的显示设备上渲染生成翻译界面。
如图1所示,该层次化翻译方法包括:
S101、确定待翻译对象中的关键信息。
其中,关键信息包括中心词和实词中至少一个。
可以理解,待翻译对象通常是一个句子,而句子的成分由词或词组充当。例如,在现代汉语中,一般的句子成分有八种,即主语、谓语、宾语、动语,定语、状语,补语和中心语;在英语中,句子成分包括主语、谓语、宾语、表语、定语、状语、补足语和同位语。一个句子中,不同的词或词组所发挥的作用不同,有的较为关键,即关键信息,有的相对不是关键信息。
这里,该层次化翻译方法首先提取待翻译对象中的关键信息,具体可通过多种方式实现。例如,对待翻译对象进行分词处理,之后,确定分词处理后的各个词或词组的权重等信息,其中对应权重较大的词或词组即为关键信息。
汉语词汇可以分为实词和虚词两大类。实词,是指含有实际意义的词。实词能单独充当句子成分,即有词汇意义和语法意义的词。一般包括:名词、动词、形容词、数词、量词和代词等。从功能上看,实词能够充任主语、宾语或谓语,虚词不能充任这些成分。从意义上看,实词表示实在的意义,能够充当句子的主语、谓语、宾语,或者能够成为主谓宾的中心。例如,事物、动作、行为、变化、性质、处所和时间等。虚词一般不表示实在的意义,只起语法作用,本身没什么具体的意义,例如,的、把、被、所、呢、吧,等等;有的表示某种逻辑概念,例如,因为、而且、和、或,等等。其中,实词可以包括名词、动词、形容词、数词、量词和代词六类;虚词可以包括副词、介词、连词、助词、叹词和拟声词六类。
中心词,也称中心语或定位词。中心词是偏正短语中被修饰语所修饰、限制的中心成分。在含有多层定语或多层状语的偏正短语中,每一层定语或状语所修饰的中心词成分都是中心词。需注意的是,对于多层定语或多层状语,也就是说,定语+名词(代词)和状语+动词(形容词)这两种结构中的“+”后面的就是中心词。例如,“刚买的新书”中“新书”为中心词。
补充说明的是,部分场景下,中心词和实词的含义是相同的。
大部分场景下,某些关键信息,如实词、中心词等信息需要保证较高的翻译准确率,而一般的虚词或者不是关键信息的内容如果翻译质量相对差点,并不会影响最终的用户体验。因此,本发明实施例首先确定并翻译待翻译对象中的关键信息。
可选地,关键信息可以是一个,或者,关键信息也可以是多个,具体可根据历史经验或实际需求进行设置,此处不对其构成限制。
可选地,S101、确定待翻译对象中的关键信息,可以包括:确定并翻译待翻译对象中的关键信息。此时,关键信息为目标语言。其中,机器翻译是将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。
例如,给定完整的句子:张三与李四举行了会谈。其中,关键信息可以为“举行”或者“hold”。
S102、根据关键信息和待翻译对象,生成句子模板。
其中,该句子模板中包含关键信息对应的翻译结果。
该步骤对待翻译对象中的关键信息进行翻译,生成句子模板。该句子模板为待翻译对象对应的翻译结果的粗糙模板,不严格的要求一定为词串,可以为XX变量类型。
仍以上述示例说明,给定完整的句子:张三与李四举行了会谈。其中,关键信息可以为“举行”或“hold”,句子模板为“XX and XX hold XX talk.”
S103、根据句子模板和待翻译对象,生成待翻译对象对应的翻译结果。
之前步骤已对待翻译对象中的关键信息优先进行翻译,该步骤基于关键信息再扩充其他非关键信息的翻译内容,生成待翻译对象对应的翻译结果。
本发明实施例,首先确定待翻译对象中的关键信息,并根据关键信息和待翻译对象,生成句子模板,该句子模板中包含关键信息对应的翻译结果,即首先翻译待翻译对象中的关键信息,之后根据句子模板和待翻译对象,生成待翻译对象对应的翻译结果,在已翻译的关键信息的基础上再翻译其他的上下文内容。通过上述层次化翻译,优先保证关键信息的翻译正确率,提升用户体验。
在上述实施例的基础上,S101、确定待翻译对象中的关键信息,可以包括:使用第一预设模型确定待翻译对象中的关键信息。其中,待翻译对象为第一预设模型的输入,关键信息为第一预设模型的输出。也就是说,第一预设模型用于确定待翻译对象中的关键信息。
可选地,第一预设模型可以为以下任一模型:循环神经网络(recurrent neuralnetwork,简称:RNN)模型,卷积神经网络(convolutional neural networks,简称:CNN)模型和Transformer模型等常见神经网络模型。其中,Transformer模型是一种完全基于Attention(注意力)机制来加速深度学习训练过程的算法模型。
在一些实施例中,S102、根据关键信息和待翻译对象,生成句子模板,可以包括:使用第二预设模型,根据关键信息和待翻译对象,生成句子模板。其中,关键信息和待翻译对象为第二预设模型的输入,句子模板为第二预设模型的输出。也就是说,第二预设模型用于生成句子模板。
可选地,第二预设模型可以为基于以下任一模型获得的:RNN模型,CNN模型和Transformer模型,等等。第二预设模型本质上仍然为序列标注问题,同时,第二预设模型接收第一预设模型的输出作为额外的输入。以Transformer模型为例,可以增加一个额外的内存单元来实现这个功能,如图2所示。
参考图2,在现有Transformer模型的基础上,增加一个模块,该模块接收第一预设模型输出的关键信息,例如中心词,进行额外存储,用于辅助第二预设模型完成句子模板的生成。为与现有Transformer模型的结构进行区别,该模块采用虚线表示。至于现有Transformer模型的相关说明,可参考相关技术,此处不再赘述。
在一些实施例中,S103、根据句子模板和待翻译对象,生成待翻译对象对应的翻译结果,可以包括:使用第三预设模型,根据句子模板和待翻译对象,生成待翻译对象对应的翻译结果。其中,句子模板和待翻译对象为第三预设模型的输入,待翻译对象对应的翻译结果为第三预设模型的输出。也即,第三预设模型用于生成最终的翻译结果。
可选地,第三预设模型可以为基于以下任一模型获得的:RNN模型,CNN模型和Transformer模型,等等。与第二预设模型类似,第三预设模型接收第二预设模型的输出作为额外的输入。仍以Transformer模型为例,可以增加一个额外的内存单元来实现这个功能,如图3所示。其中,图2和图3的区别在于:在图3中,将图2所示的中的关键信息替换为第二预设模型的输出,即将关键信息替换为句子模板。
整体上来说,本发明实施例的翻译系统共分为三个模型,分别完成不同的内容生成。如图4所示:
第一预设模型,用于确定关键信息;
第二预设模型,用于基于第一预设模型确定的关键信息,生成句子模板;
第三预设模型,用于根据第二预设模型生成的句子模板,生成最终的翻译结果。
为描述方便,将上述翻译系统称为层次化翻译模型,通过该层次化翻译模型即可完成层次化的句子建模翻译。
上述实施例主要解释说明了对层次化翻译模型的应用,接下来,说明层次化翻译模型的训练过程。
针对层次化翻译模型的训练,可以包括有监督语料和无监督语料两种。其中,有监督语料的训练,需要人工标注一个句子中关键信息的翻译结果和句子模板的翻译结果;无监督语料的训练则无需标注任何的额外语料。由于有监督语料的训练比较简单,这里不再特别说明,而无监督语料的训练相对复杂,因此,以下进行特别阐述。
对于无监督语料的训练来说,最终能够反馈层次化翻译模型正确与否的只有第三预设模型的翻译结果。而由于第一预设模型和第二预设模型的输出需要做离散化的决策,因此,无法直接通过一般的反向梯度算法进行参数求解。在这里,本发明实施例采用一种基于Gumbel Softmax采样技术的学习范式来实现。
具体来说,和一般的softmax层不同,本发明实施例在第一预设模型和第二预设模型的softmax层采用Gumbel Softmax采样技术确定参数。由于Gumbel Softmax采样技术做了参数重采样(reparameter tricks),使得离散化的决策可以被求导,能够将第三预设模型的梯度反向传播到第一预设模型和第二预设模型。
例如,可以采用多次Gumbel Softmax采样技术对第一预设模型和第二预设模型的输出结果进行平均化:
uk-Uniform(0,1)
εk=-log(-log uk)
其中:
xk表示当前模型最后一层预测的结果,即预测当前时刻生成某个词k的概率分布uk;uk服从Uniform(0,1),表示均值为0,方差为1的标准正态分布;
通过εk=-log(-loguk)计算得到εk;
yk表示词表中最高频的词或短语或字,j的取值范围为词表的大小,τ是大于零的参数,可以解释为温度,用于控制分布的生成效果。温度越高,生成的分布越平滑;温度越低,生成的分布越接近离散的one-hot分布。训练中,可以通过逐渐降低温度,以逐步逼近真实的离散分布。
以第二预设模型为例,第二预设模型的上述yk可以通过在第三预设模型中额外增加的模块反向梯度过来。而第一预设模型的yk则通过第二预设模型中额外增加的模块反向梯度过来。
图5为本发明一实施例提供的层次化翻译装置的结构示意图。本发明实施例提供一种层次化翻译装置,该层次化翻译装置可以通过软件和/或硬件的方式实现。如图5所示,层次化翻译装置50包括:第一处理模块51、第二处理模块52和第三处理模块53。其中,
该第一处理模块51,用于确定待翻译对象中的关键信息。其中,关键信息包括中心词和实词中至少一个。
该第二处理模块52,用于根据关键信息和待翻译对象,生成句子模板。其中,句子模板中包含关键信息对应的翻译结果。
该第三处理模块53,用于根据句子模板和待翻译对象,生成待翻译对象对应的翻译结果。
本发明实施例提供的层次化翻译装置,可用于执行上述的方法实施例,其实现方式和技术效果类似,本实施例此处不再赘述。
进一步地,第一处理模块51可以具体用于:使用第一预设模型确定待翻译对象中的关键信息。其中,待翻译对象为第一预设模型的输入,关键信息为第一预设模型的输出。
可选地,第一预设模型可以为以下任一模型:RNN模型,CNN模型和Transformer模型等。其中,Transformer模型是一种完全基于Attention机制来加速深度学习训练过程的算法模型。
进一步地,第二处理模块52可以具体用于:使用第二预设模型,根据关键信息和待翻译对象,生成句子模板。其中,关键信息和待翻译对象为第二预设模型的输入,句子模板为第二预设模型的输出。
可选地,第二预设模型可以为基于以下任一模型获得的:RNN模型,CNN模型和Transformer模型,等等。
在一些实施例中,第三处理模块53可以具体用于:使用第三预设模型,根据句子模板和待翻译对象,生成待翻译对象对应的翻译结果。其中,句子模板和待翻译对象为第三预设模型的输入,待翻译对象对应的翻译结果为第三预设模型的输出。
可选地,第三预设模型可以为基于以下任一模型获得的:RNN模型,CNN模型和Transformer模型,等等。
可选地,第一预设模型和第二预设模型的softmax层采用Gumbel Softmax采样技术确定参数。
图6为本发明另一实施例提供的层次化翻译装置的结构示意图。如图6所示,该层次化翻译装置60包括:
至少一个处理器61和存储器62;
存储器62存储计算机执行指令;
至少一个处理器61执行存储器62存储的计算机执行指令,使得至少一个处理器61执行如上所述的导播控制方法。
处理器61的具体实现过程可参见上述方法实施例,其实现原理和技术效果类似,本实施例此处不再赘述。
可选地,该层次化翻译装置60还包括通信部件63。其中,处理器61、存储器62以及通信部件63可以通过总线64连接。
其中,通信部件63用于层次化翻译装置60和其他设备之间有线或无线方式的通信。层次化翻译装置60可以接入基于通信标准的无线网络,如Wi-Fi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件63还包括NFC模块,以促进短程通信。
可选地,该层次化翻译装置60还包括音频部件(未示出)和/或显示部件(未示出)。其中:
该音频部件,用于输出和/或输入音频信号。例如,音频部件包括一个扬声器,用于输出音频信号。在一些实施例中,音频部件还包括一个麦克风(microphone,简称:MIC),所接收的音频信号可以被进一步存储在存储器或经由通信部件发送。
显示部件,用于显示翻译结果。
通过音频部件和/或显示部件,将翻译结果通知给用户,从而可以进一步提升用户体验。
进一步地,层次化翻译装置60还可以包括:电源部件(未示出),为层次化翻译装置60的各种部件提供电力。层次化翻译装置60可以包括电源管理系统,一个或多个电源,及其他与为层次化翻译装置60生成、管理和分配电力相关联的组件。
本发明实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机执行指令,计算机执行指令被处理器执行时用于实现如上所述的层次化翻译方法。
在上述的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的设备实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个单元中。上述模块成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能模块的形式实现的集成的模块,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例所述方法的部分步骤。
应理解,上述处理器可以是中央处理单元(central processing unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(digital signal processor,简称:DSP)、专用集成电路(application specific integrated circuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合发明所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器可能包含高速RAM存储器,也可能还包括非易失性存储NVM,例如至少一个磁盘存储器,还可以为U盘、移动硬盘、只读存储器、磁盘或光盘等。
总线可以是工业标准体系结构(industry standard architecture,简称:ISA)总线、外部设备互连(peripheral component,简称:PCI)总线或扩展工业标准体系结构(extended Industry standard architecture,简称:EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,本申请附图中的总线并不限定仅有一根总线或一种类型的总线。
上述存储介质可以是由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。存储介质可以是通用或专用计算机能够存取的任何可用介质。
一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于专用集成电路(application specific integrated circuits,简称:ASIC)中。当然,处理器和存储介质也可以作为分立组件存在于终端或服务器中。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (9)
1.一种层次化翻译方法,其特征在于,包括:
确定待翻译对象中的关键信息,所述关键信息包括中心词和实词中至少一个;
使用第二预设模型根据所述关键信息和所述待翻译对象,生成句子模板,其中,所述关键信息和所述待翻译对象为所述第二预设模型的输入,所述句子模板为所述第二预设模型的输出,所述句子模板中包含所述关键信息对应的翻译结果,其中,所述关键信息和所述待翻译对象为所述第二预设模型的输入,所述句子模板为所述第二预设模型的输出,所述句子模板为待翻译对象对应的翻译结果的粗糙模板;
使用第三预设模型根据所述句子模板和所述待翻译对象,生成所述待翻译对象对应的翻译结果,其中,所述句子模板和所述待翻译对象为所述第三预设模型的输入,所述待翻译对象对应的翻译结果为所述第三预设模型的输出。
2.根据权利要求1所述的方法,其特征在于,所述确定待翻译对象中的关键信息,包括:
使用第一预设模型确定所述待翻译对象中的所述关键信息,其中,所述待翻译对象为所述第一预设模型的输入,所述关键信息为所述第一预设模型的输出。
3.根据权利要求2所述的方法,其特征在于,所述第一预设模型为以下任一模型:
循环神经网络RNN模型,卷积神经网络CNN模型,Transformer模型。
4.根据权利要求1所述的方法,其特征在于,所述第二预设模型为基于以下任一模型获得的:
循环神经网络RNN模型,卷积神经网络CNN模型,Transformer模型。
5.根据权利要求1所述的方法,其特征在于,所述第三预设模型为基于以下任一模型获得的:
循环神经网络RNN模型,卷积神经网络CNN模型,Transformer模型。
6.根据权利要求1或3所述的方法,其特征在于,第一预设模型和第二预设模型的softmax层采用Gumbel Softmax采样技术确定参数。
7.一种层次化翻译装置,其特征在于,包括:
第一处理模块,用于确定待翻译对象中的关键信息,所述关键信息包括中心词和实词中至少一个;
第二处理模块,用于根据所述关键信息和所述待翻译对象,生成句子模板,所述句子模板中包含所述关键信息对应的翻译结果;
第三处理模块,用于根据所述句子模板和所述待翻译对象,生成所述待翻译对象对应的翻译结果;
所述第二处理模块可以具体用于:使用第二预设模型,根据关键信息和待翻译对象,生成句子模板;其中,关键信息和待翻译对象为第二预设模型的输入,句子模板为第二预设模型的输出,所述句子模板为待翻译对象对应的翻译结果的粗糙模板;
所述第三处理模块可以具体用于:使用第三预设模型根据所述句子模板和所述待翻译对象,生成所述待翻译对象对应的翻译结果,其中,所述句子模板和所述待翻译对象为所述第三预设模型的输入,所述待翻译对象对应的翻译结果为所述第三预设模型的输出。
8.一种层次化翻译装置,其特征在于,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如权利要求1至6任一项所述的方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1至6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910463498.8A CN110287498B (zh) | 2019-05-30 | 2019-05-30 | 层次化翻译方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910463498.8A CN110287498B (zh) | 2019-05-30 | 2019-05-30 | 层次化翻译方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110287498A CN110287498A (zh) | 2019-09-27 |
CN110287498B true CN110287498B (zh) | 2023-04-07 |
Family
ID=68002890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910463498.8A Active CN110287498B (zh) | 2019-05-30 | 2019-05-30 | 层次化翻译方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110287498B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110941966A (zh) * | 2019-12-10 | 2020-03-31 | 北京小米移动软件有限公司 | 机器翻译模型的训练方法、装置及系统 |
CN111027333B (zh) * | 2019-12-20 | 2023-07-21 | 北京百度网讯科技有限公司 | 篇章翻译方法和装置 |
CN111326157B (zh) * | 2020-01-20 | 2023-09-08 | 抖音视界有限公司 | 文本生成方法、装置、电子设备和计算机可读介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1350250A (zh) * | 1992-09-04 | 2002-05-22 | 履带拖拉机股份有限公司 | 文件写作与翻译综合系统 |
WO2010074426A2 (ko) * | 2008-12-24 | 2010-07-01 | 주식회사 씽크풀 | 번역서비스 제공방법 및 그 시스템 |
CN103136192A (zh) * | 2011-11-30 | 2013-06-05 | 北京百度网讯科技有限公司 | 翻译需求识别方法及系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101178706A (zh) * | 2007-12-07 | 2008-05-14 | 无敌科技(西安)有限公司 | 一种正确判别不同地区地址名称的自动翻译方法及其系统 |
CN102855263A (zh) * | 2011-06-30 | 2013-01-02 | 富士通株式会社 | 一种对双语语料库进行句子对齐的方法及装置 |
WO2018023356A1 (en) * | 2016-08-01 | 2018-02-08 | Microsoft Technology Licensing, Llc | Machine translation method and apparatus |
CN106708809B (zh) * | 2016-12-16 | 2021-01-29 | 携程旅游网络技术(上海)有限公司 | 基于模板的多语言翻译方法及翻译系统 |
CN106776587A (zh) * | 2016-12-19 | 2017-05-31 | 新译信息科技(深圳)有限公司 | 数据处理方法和装置 |
KR102449875B1 (ko) * | 2017-10-18 | 2022-09-30 | 삼성전자주식회사 | 음성 신호 번역 방법 및 그에 따른 전자 장치 |
CN108491399B (zh) * | 2018-04-02 | 2021-08-06 | 上海杓衡信息科技有限公司 | 基于语境迭代分析的汉译英机器翻译方法 |
CN108845993B (zh) * | 2018-06-06 | 2022-04-12 | 中国科学技术信息研究所 | 文本信息的翻译方法、装置及终端设备 |
-
2019
- 2019-05-30 CN CN201910463498.8A patent/CN110287498B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1350250A (zh) * | 1992-09-04 | 2002-05-22 | 履带拖拉机股份有限公司 | 文件写作与翻译综合系统 |
WO2010074426A2 (ko) * | 2008-12-24 | 2010-07-01 | 주식회사 씽크풀 | 번역서비스 제공방법 및 그 시스템 |
CN103136192A (zh) * | 2011-11-30 | 2013-06-05 | 北京百度网讯科技有限公司 | 翻译需求识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110287498A (zh) | 2019-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tan et al. | Neural machine translation: A review of methods, resources, and tools | |
US10679148B2 (en) | Implicit bridging of machine learning tasks | |
US9922025B2 (en) | Generating distributed word embeddings using structured information | |
US10789938B2 (en) | Speech synthesis method terminal and storage medium | |
CN109219812B (zh) | 口语对话系统中的自然语言生成 | |
CN108549646B (zh) | 一种基于胶囊的神经网络机器翻译系统、信息数据处理终端 | |
JP2021152963A (ja) | 語義特徴の生成方法、モデルトレーニング方法、装置、機器、媒体及びプログラム | |
CN110914827A (zh) | 基于转移学习的多语言语义解析器 | |
CN109359304B (zh) | 限定性神经网络机器翻译方法及存储介质 | |
CN110287498B (zh) | 层次化翻译方法、装置及存储介质 | |
CN112633947B (zh) | 文本生成模型生成方法、文本生成方法、装置及设备 | |
US8874433B2 (en) | Syntax-based augmentation of statistical machine translation phrase tables | |
KR20190136911A (ko) | 텍스트 리허설 방법, 장치, 서버, 및 기억 매체 | |
CN110175336A (zh) | 翻译方法、装置和电子设备 | |
US11797781B2 (en) | Syntax-based multi-layer language translation | |
KR102284903B1 (ko) | 입력 시퀀스 생성 방법 및 장치 | |
CN112668325B (zh) | 一种机器翻译增强方法、系统、终端及存储介质 | |
Xiu et al. | Human translation vs machine translation: The practitioner phenomenology | |
CN110889295A (zh) | 机器翻译模型、伪专业平行语料的确定方法、系统及设备 | |
WO2021234610A1 (en) | Method of and system for training machine learning algorithm to generate text summary | |
Yang et al. | Hanoit: Enhancing context-aware translation via selective context | |
Acheampong et al. | Toward perfect neural cascading architecture for grammatical error correction | |
CN112052651B (zh) | 诗词生成方法、装置、电子设备及存储介质 | |
JP2006004366A (ja) | 機械翻訳システム及びそのためのコンピュータプログラム | |
Moon et al. | OpenKorPOS: Democratizing Korean Tokenization with Voting-Based Open Corpus Annotation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |