CN113901841A - 翻译方法、装置以及存储介质 - Google Patents
翻译方法、装置以及存储介质 Download PDFInfo
- Publication number
- CN113901841A CN113901841A CN202010641748.5A CN202010641748A CN113901841A CN 113901841 A CN113901841 A CN 113901841A CN 202010641748 A CN202010641748 A CN 202010641748A CN 113901841 A CN113901841 A CN 113901841A
- Authority
- CN
- China
- Prior art keywords
- translation
- preamble
- source text
- subsequent
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013519 translation Methods 0.000 title claims abstract description 327
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000004048 modification Effects 0.000 claims abstract description 26
- 238000012986 modification Methods 0.000 claims abstract description 26
- 238000003062 neural network model Methods 0.000 claims description 2
- 230000014616 translation Effects 0.000 description 276
- 238000010586 diagram Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000000306 recurrent effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 239000012634 fragment Substances 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 3
- 239000000835 fiber Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 208000033748 Device issues Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Neurology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Machine Translation (AREA)
Abstract
本公开的实施例涉及翻译方法、装置以及存储介质。所述方法包括:获取源文本;利用翻译模型对所述源文本进行翻译,得到翻译结果;接收用户对所述翻译结果的修改,根据修改结果确定所述源文本的翻译前序部分;利用所述翻译模型根据所述源文本的翻译前序部分对后续翻译进行预测,得到后续翻译预测结果。本公开的实施例的翻译方法,能够提升翻译的准确性。
Description
技术领域
本公开涉及语言处理技术,更具体地,涉及翻译方法、翻译装置以及计算机可读存储介质。
背景技术
机器翻译在日常生活中的应用十分广泛,也是机器学习在语言处理领域的一个重要研究方向。在机器翻译过程中,需要准确捕捉源文本的语义,才能够准确生成对应的翻译文本。目前的机器翻译技术的准确性无法满足需求,有必要提供一种新的翻译方案。
发明内容
本公开实施例提供一种新的翻译方案,以提升翻译文本的准确性。
根据本公开的实施例的第一方面,提供了一种翻译方法,包括:
获取源文本;
利用翻译模型对所述源文本进行翻译,得到翻译结果;
接收用户对所述翻译结果的修改,根据修改结果确定所述源文本的翻译前序部分;
利用所述翻译模型根据所述源文本的翻译前序部分对后续翻译进行预测,得到后续翻译预测结果。
可选地,所述翻译模型包括编码器和解码器,所述解码器采用集束搜索解码算法;
所述利用所述翻译模型根据所述源文本的翻译前序部分对所述源文本的后续翻译进行预测,包括:
按照集束宽度为1的方式,将所述源文本的翻译前序部分初始化为所述解码器的前序解码序列;
利用所述解码器计算所述前序解码序列的得分和所述前序解码序列中的解码单元的注意力权重;以及根据预设的集束宽度、所述前序解码序列的得分和所述前序解码序列中的解码单元的注意力权重,确定后序解码序列,所述预设的集束宽度为大于1的自然数。
可选地,所述方法还包括:
将所述后续翻译预测结果提供给用户,以供用户根据所述后续翻译预测结果确定所述源文本的翻译后序部分。
可选地,所述方法还包括:
接收用户对所述后续翻译预测结果的反馈,根据所述反馈确定所述预测的准确率。
可选地,所述翻译模型为基于注意力机制的神经元网络模型。
根据本公开的实施例的第二方面,提供了一种翻译装置,包括:
获取模块,用于获取源文本;
翻译模块,用于利用翻译模型对所述源文本进行翻译,得到翻译结果;
第一确定模块,用于接收用户对所述翻译结果的修改,根据修改结果确定所述源文本的翻译前序部分;
预测模块,用于利用所述翻译模型根据所述源文本的翻译前序部分对后续翻译进行预测,得到后续翻译预测结果。
可选地,所述翻译模型包括编码器和解码器,所述解码器采用集束搜索解码算法;
所述预测模块利用所述翻译模型根据所述源文本的翻译前序部分对所述源文本的后续翻译进行预测,包括:
按照集束宽度为1的方式,将所述源文本的翻译前序部分初始化为所述解码器的前序解码序列;
利用所述解码器计算所述前序解码序列的得分和所述前序解码序列中的解码单元的注意力权重;以及根据预设的集束宽度、所述前序解码序列的得分和所述前序解码序列中的解码单元的注意力权重,确定后序解码序列,所述预设的集束宽度为大于1的自然数。
可选地,所述翻译装置还包括第二确定模块;
所述第二确定模块,用于接收用户对所述后续翻译预测结果的反馈,根据所述反馈确定所述预测的准确率。
根据本公开的实施例的第三方面,提供了一种翻译装置,包括处理器和存储器,所述存储器存储有计算机指令,所述计算机指令被所述处理器执行时实现本公开的第一方面的翻译方法。
根据本公开的实施例的第四方面,提供了一种计算机可读存储介质,其上存储有计算机指令,所述计算机指令被处理器执行时实现本公开的第一方面的翻译方法。
本公开的实施例提供的翻译方法,在机器翻译时引入了用户确定的翻译前序部分,提高了机器翻译的准确性。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的实施例的特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本公开的实施例,并且连同其说明一起用于解释本公开的实施例的原理。
图1是本公开一个实施例提供的文本生成系统的框图;
图2是本公开一个实施例提供的翻译方法的流程图;
图3是本公开一个实施例提供的对后续翻译进行预测的示意图;
图4是本公开一个实施例提供的翻译界面示意图;
图5是本公开一个实施例提供的翻译界面示意图;
图6是本公开一个实施例提供的翻译装置的框图;
图7是本公开一个实施例提供的翻译装置的框图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开的实施例及其应用或使用的任何限制。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开的实施例提供的翻译方案,可以在机器生成翻译文本的过程中引入用户对译文的修改,将人工翻译和机器翻译有机的结合起来,提升翻译的准确性。
<文本生成系统>
图1是本公开的实施例提供的文本生成系统的框图。如图1所示,该文本生成系统包括提供文本生成服务的服务器101(下文称之为“文本生成服务器101”)和用户的终端设备103。文本生成服务器101和终端设备103之间可以通过网络102通信连接。
文本生成服务器101的配置可以包括但不限于:处理器1011、存储器1012、接口装置1013、通信装置1014、输入装置1015、输出装置1016。处理器1011可以包括但不限于中央处理器CPU、微处理器MCU等。存储器1012可以包括但不限于ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置1013可以包括但不限于USB接口、串行接口、并行接口等。通信装置1014例如能够进行有线通信或无线通信,具体地可以包括WiFi通信、蓝牙通信、2G/3G/4G/5G通信等。输入装置1015包括但不限于键盘、鼠标、触摸屏、麦克风等。输出装置1016包括但不限于显示屏、扬声器等。服务器101的配置也可以仅包括上述装置中的部分装置。
终端设备103例如可以是安装有智能操作系统(例如安卓、IOS、Windows、Linux等系统)的电子设备,包括但不限于便携式电脑、台式计算机、手机、平板电脑等。终端设备103的配置包括但不限于处理器1031、存储器1032、接口装置1033、通信装置1034、GPU(Graphics Processing Unit,图像处理器)1035、显示装置1036、输入装置1037、扬声器1038、麦克风1039、以及相机1030。处理器1031包括但不限于中央处理器CPU、微处理器MCU等。存储器1032包括但不限于ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置1033包括但不限于USB接口、串行接口、并行接口等。通信装置1034例如能够进行有线通信或无线通信,具体地可以包括WiFi通信、蓝牙通信、2G/3G/4G/5G通信等。GPU 1035用于对图像进行处理。显示装置1036包括但不限于液晶屏、触摸屏等。输入装置1037包括但不限于键盘、鼠标、触摸屏等。终端设备103的配置也可以仅包括上述装置中的部分装置。
应用于本公开的一个实施例中,文本生成服务器101可以是提供翻译服务的服务器,用户可以通过终端设备103向文本生成服务器101提交源文本以及提交对翻译结果的修改,由文本生成服务器101对源文本的后续翻译进行预测。
应用于本公开的一个实施例中,文本生成服务器101可以是提供摘要生成服务的服务器,用户可以通过终端设备103向文本生成服务器101提交源文本以及提交对初始机器生成摘要的修改,由文本生成服务器101进行后续摘要预测。
图1所示的文本生成系统仅仅是说明性的并且绝不意味着对本公开的实施例、其应用或使用的任何限制。本领域技术人员应当理解,尽管前面描述了文本生成服务器101和终端设备103的多个装置,但是,本公开的实施例可以仅涉及其中的部分装置。例如,文本生成服务器101可以只涉及处理器、存储器以及通信装置,终端设备103可以只涉及处理器、存储器、通信装置、输入装置和显示屏。本领域技术人员可以根据本公开的实施例所公开的方案设计指令。指令如何控制处理器进行操作,是本领域公知技术,故在此不再详细描述。
<翻译方法实施例>
参见图2所示,说明本公开的一个实施例提供的翻译方法。该翻译方法可以由翻译装置执行。
在一个具体的例子中,该翻译装置可以是搭载有离线翻译软件的终端设备。该终端设备例如可以是安装有智能操作系统(例如安卓、IOS、Windows、Linux等系统)的电子设备,包括但不限于便携式电脑、台式计算机、手机、平板电脑等,该终端设备可以具有类似于图1所示的终端设备的硬件配置。
在另一个具体的例子中,该翻译装置可以为图1中的文本生成服务器101。
下面以图1所示的文本生成系统为例说明该翻译方法,该翻译方法可以包括步骤S202-S208。
S202、获取源文本。
用户可以在终端设备103提供的人机交互界面中输入源文本。终端设备103将该源文本上传到翻译装置,翻译装置获取到源文本。
S204、利用翻译模型对源文本进行翻译,得到翻译结果。
在一个具体的例子中,翻译装置在获取到源文本后,将源文本输入至翻译模型中,由翻译模型对源文本进行翻译得到翻译结果,也就是得到源文本的初始机翻译文。翻译装置将源文本的初始机翻译文下发给终端设备103,终端设备103将源文本的初始机翻译文展示给用户。
该翻译模型可以是基于神经元网络的机器翻译模型(Neural MachineTranslation,NMT),NMT模型可以直接学习一种语言输入句子到另一个语言的输出句子的映射。NMT模型采用编码器-解码器架构,具体来说,首先使用编码器对源文本进行学习,以构建表示源文本语义的向量,然后由解码器处理语义向量得到译文。以这种方式,NMT模型解可以捕获语言的长期依赖性(例如语法结构等),并产生更流畅的翻译。
编码器和解码器可以使用循环神经网络、或者卷积神经网络、或者基于注意力机制的神经元网络实现。循环神经网络(Recurrent Neural Network,RNN)是一类以序列数据为输入,在序列的演进方向进行递归且所有节点按链式连接的递归神经网络。卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络。循环神经网络具有记忆性、参数共享并且图灵完备,卷积神经网络具有表征学习能力,两者在自然语言处理(Natural Language Processing,NLP)、语音识别、语言建模、文本生成、机器翻译等领域具有应用优势。基于注意力机制的神经元网络,可以在处理大量信息的过程中,利用注意力机制选择关键信息进行处理,有利于提高神经网络的效率和准确性。
在一个具体的例子中,翻译模型可以是Transformer模型。Transformer模型是一种基于编码器-解码器架构的自然语言翻译模型,使用基于注意力机制的神经元网络实现。
翻译模型可以按照从左向右的顺序依次产生目标词组成译文,翻译模型对源文本进行翻译得到翻译结果的过程,可以是从词表中预测出目标词的过程。
S206、接收用户对翻译结果的修改,根据修改结果确定源文本的翻译前序部分。
终端设备103将翻译结果,也就是源文本的初始机翻译文展示给用户,用户可以通过终端设备103对翻译结果进行修改,由终端设备将修改结果提交给翻译装置。翻译装置接收到翻译结果后,根据翻译结果确定源文本的翻译前序部分。
在翻译工作中,由于不同语言的表达方式不同,源文本和其译文的语序不一定是一样的。本公开的实施例中,“翻译前序部分”并不是指源文本的前一部分的译文,而是指源文本的译文的前一部分。同样的,“翻译后序部分”并不是指源文本的后一部分的译文,而是指源文本的译文的后面的部分。
源文本的翻译前序部分包括从初始机翻译文的开头到修改结束位置的全部内容。例如,源文本的初始机翻译文一共包括50个译文词,用户认可其中的前i个译文词,不认可第i+1个译文词,用户对第i+1个译文词进行了修改,则从第1个译文词到修改后的第i+1个译文词的这部分译文将被确定为源文本翻译前序部分。
S208、利用翻译模型根据源文本的翻译前序部分对后续翻译进行预测,得到后续翻译预测结果。
翻译装置利用翻译模型对后续翻译进行预测,下面以带有注意力机制的基于编码器-解码器架构的翻译模型为例,说明如何对后续翻译进行预测:
翻译模型可以按照从左向右的顺序依次产生目标词组成译文,翻译模型对源文本进行翻译得到翻译结果的过程,也就是是从词表中预测出目标词的过程。翻译模型预测出的后续翻译预测结果可能是一个或者多个。
在机器翻译场景中,第t个解码时间步预测出的译文词yt,依赖于源文本X,以及第1个解码时间步至第t-1个解码时间步已经预测出的译文词y1,…,yt-1,也即:
p(yt|{y1,…,yt-1},X)=g(yt-1,ct,st)
其中,p()表示概率,g()表示解码器网络,ct为第t个解码时间步生成译文词yt时的上下文变量,st为第t个解码时间步时解码器的隐层状态。
在一个具体的例子中,解码器采用集束搜索(Beam Search)算法来进行目标词预测。集束搜索是一种启发式图搜索算法,通常用在图的解空间比较大的情况下,为了减少搜索所占用的空间和时间,在每一步深度扩展的时候,剪掉一些质量比较差的结点,保留下一些质量较高的结点。这样减少了空间消耗,并提高了时间效率。集束搜索使用集束宽度(Beam Width)来限制在每一步保留下来的可能性词的数量。
解码器采用集束搜索(Beam Search)算法来时,预测源文本的翻译后序部分的过程,可以包括步骤S2082-S2086。
S2082、按照集束宽度为1的方式,将源文本的翻译前序部分初始化为解码器的前序解码序列。
在一个具体的例子中,可以将翻译前序部分进行分词处理,以得到前序解码序列中的各个解码单元(token)。解码单元是解码的基本单位,可以是词(word),字母(character),字母片段(subword)。本公开实施例中可以使用字母片段(subword),通过在大规模单语中统计字母串(也就是字母片段)出现的次数,把高频的字母片段固定下来作为一个基本解码单位(token)。
S2084、利用解码器计算前序解码序列的得分和前序解码序列中的解码单元的注意力权重。
在一个具体的例子中,前序解码序列的得分可以是前序解码序列中的每个解码单元在该位置上的概率的乘积。
S2086、根据预设的集束宽度、前序解码序中的解码单元的得分和前序解码序列中的解码单元的注意力权重,确定后序解码序列,所述预设的集束宽度为大于1的自然数。
参见图3所示的一个具体的例子,将源文本和源文本的翻译前序部分提供给翻译模型。按照集束宽度为1的方式,根据源文本的翻译前序部分确定的前序解码序列为“q1-r1”,其中包括第一个解码时间步t1的唯一一个解码单元q1,第二个解码时间步t2的唯一一个解码单元r1。解码器从第3个解码时间步t3开始,按照集束宽度为3(即预设的集束宽度为3)的方式进行局部最优搜索,直至出现结束符(结束符表明译文结束)。具体地,在第3个解码时间步t3,解码单元r1之后的3个局部最优解为s1,s2,s3。在第4个解码时间步t4,解码单元s1之后的3个局部最优解为e1,e2,e3,解码单元s2之后的3个局部最优解为u1,u2,u3,解码单元s3之后的3个局部最优解为v1,v2,v3,只保留其中最优的3个解码单元e3,u2,v3。在第5个解码时间步t5,解码单元e3之后的3个局部最优解为z1,z2,z3,解码单元u2之后为结束符,解码单元v3之后为结束符。在第6个解码时间步t6,解码单元z3之后之后为结束符。最终保留的三组解码序列“q1-r1-s1-e3-z3”、“q1-r1-s2-u2”、“q1-r1-s3-v3”。在一个具体的例子中,将这3个解码序列的后半部分,也就是“s1-e3-z3”、“s2-u2”、“s3-v3”作为后续翻译预测结果。在另一个具体的例子中,分别计算解码序列“q1-r1-s1-e3-z3”、“q1-r1-s2-u2”、“q1-r1-s3-v3”的得分,将分值最高的解码序列的后半部分作为后续翻译预测结果。
翻译装置得到后续翻译预测结果后,将后续翻译预测结果发送给终端设备103。终端设备103将后续翻译预测结果展示给用户,以供用户根据后续翻译预测结果确定源文本的翻译后序部分。也就是说,在步骤S208之后,用户可以看到源文本的翻译前序部分(该翻译前序部分基于机器翻译和用户修改确定),以及机器根据翻译前序部分预测出的后续翻译预测结果,用户可以利用后续翻译预测结果确定源文本的翻译后序部分。
在一个具体的例子中,用户接受后续翻译预测结果,也就是不再修改后续翻译预测结果,将后续预测翻译预测结果作为源文本的翻译后序部分。在一个具体的例子中,步骤S208得到的后续翻译预测结果为多个,用户可以从中选取一个后续翻译预测结果作为源文本的翻译后序部分。
在另一个具体的例子中,用户不认可后续翻译预测结果,对后续翻译预测结果进行了修改,则再次执行步骤S206-S208,也就是翻译装置重新确定源文本的翻译前序部分,根据重新确定的翻译前序部分对后续翻译进行预测。
用户对后续翻译预测结果的接受、修改、选取都属于用户对后续预测翻译结果的反馈,终端装置103可以将用户对后续预测翻译结果的反馈上传给翻译装置。翻译装置根据用户对后续翻译预测结果的反馈,可以确定翻译模型预测的准确率,从而对翻译模型进行改进。例如,统计后续预测的总次数以及其中用户修改后续预测结果的次数,计算用户修改后续预测结果的次数与后续预测的总次数的比值,作为翻译模型的预测准确率。
图4是基于本公开实施例的翻译方法的翻译界面示意图。终端设备搭载的翻译应用程序提供中译英的翻译服务,翻译界面上的内容包括中文源文本区域、英文译文区域、以及翻译按钮200。用户可以在中文源文本区域中输入待翻译的中文源文本“因为大雨,比赛延迟了半个小时”。
用户直接点击翻译按钮200后,终端设备对源文本进行翻译,得到翻译结果,也就是初始机翻译文。翻译界面的英文译文区域会出现该中文源本文的初始机翻译文“Thematch was delayed for half an hour because of the heavy rain”。
用户对初始机翻译文进行了修改,将“because”改为“due”,则翻译前序部分包括从开头到“due”的部分,也就是“The match was delayed for half an hour due”。
翻译装置根据中文源文本“因为大雨,比赛延迟了半个小时”和英文翻译前序部分“The match was delayed for half an hour due”,预测出得到后续翻译预测结果“toheavy rain”。
图5是基于本公开实施例的翻译方法的翻译界面示意图。翻译界面上的内容包括第一语言源文本区域、第二语言译文区域、以及翻译按钮。
用户可以在第一语言源文本区域输入待翻译的第一语言的源文本“xxxxxxxxx”,得到翻译结果“aa-bb-cc-dd-ee”,其中,“aa”、“bb”、“cc”、“dd”、“ee”分别代表一个第二语言的译文词。用户将译文词“dd”修改为“gg”,则翻译前序部分为“aa-bb-cc-gg”。翻译装置根据翻译前序部分“aa-bb-cc-gg”对后续翻译进行预测,得到3个后续翻译预测结果,分别是译文词“kk”,译文词“ss”,以及译文词“rr”。用户从3个后续翻译预测结果中选取了译文词“ss”,则源文本“xxxxxxxxx”的最后的译文为“aa-bb-cc-gg-ss”。
本公开的实施例的翻译方法,可以在机器生成翻译文本的过程中引入用户对译文的修改,将人工翻译和机器翻译有机的结合起来,提升翻译的准确性。本公开的实施例的翻译方法,允许用户实时干预译文生成,能够根据用户修改的前序译文,预测后序译文,满足了人机交互进行翻译的需求。本公开的实施例的翻译方法,可以将人工翻译和机器翻译有机的结合,让机器翻译的技术更好的辅助人工翻译,提高翻译速度。
本公开的实施例的翻译方法,可以将翻译结果和后续翻译的预测结果提供给企业、翻译公司、个人等用户,为这些用户提供准确、快速的翻译服务。企业、翻译公司、个人可以通过其持有的终端设备搭载的翻译软件得到该翻译结果和后续翻译的预测结果。企业、翻译公司、个人也可以通过其持有的终端设备访问文本生成服务器,得到该翻译结果和后续翻译的预测结果。本公开的实施例的翻译方法,可以在机器生成翻译文本的过程中引入人工对译文的修改,将人工翻译和机器翻译有机的结合起来,从而提升翻译的准确性和翻译的速度。
<翻译装置实施例>
图6是本公开的一个实施例提供的翻译装置20的示意图。该翻译装置20包括以下模块:
获取模块21,用于获取源文本。
翻译模块22,用于利用翻译模型对源文本进行翻译,得到翻译结果。
第一确定模块23,用于接收用户对翻译结果的修改,根据修改结果确定源文本的翻译前序部分。
预测模块24,用于利用翻译模型根据源文本的翻译前序部分对后续翻译进行预测,得到后续翻译预测结果。
在一个具体的例子中,翻译模型包括编码器和解码器,解码器采用集束搜索解码算法。
预测模块利用翻译模型根据源文本的翻译前序部分对源文本的后续翻译进行预测,包括:
按照集束宽度为1的方式,将源文本的翻译前序部分初始化为解码器的前序解码序列;
利用解码器计算前序解码序列的得分和前序解码序列中的解码单元的注意力权重;以及根据预设的集束宽度、前序解码序列的得分和前序解码序列中的解码单元的注意力权重,确定后序解码序列,预设的集束宽度为大于1的自然数。
在一个具体的例子中,该翻译装置20还可以包括第二确定模块。第二确定模块,用于接收用户对后续翻译预测结果的反馈,根据反馈确定预测的准确率。
在一个具体的例子中,该翻译模型为基于注意力机制的神经元网络模型。
图7是本公开的一个实施例提供的翻译装置30的示意图。该翻译装置30包括处理器31和存储器32,存储器32存储有计算机指令,计算机指令被处理器31执行时实现前述任一实施例公开的翻译方法。
本公开的实施例的翻译装置,可以在机器生成翻译文本的过程中引入用户对译文的修改,将人工翻译和机器翻译有机的结合起来,提升翻译的准确性。本公开的实施例的翻译装置,允许用户实时干预译文生成,能够根据用户修改的前序译文,预测后序译文,满足了人机交互进行翻译的需求。本公开的实施例的翻译装置,可以将人工翻译和机器翻译有机的结合,让机器翻译的技术更好的辅助人工翻译,提高翻译速度。
<文本摘要生成方法实施例>
本公开实施例提供了文本摘要生成方法。该文本摘要生成方法可以由文本摘要生成装置执行。
在一个具体的例子中,该文本摘要生成装置可以是搭载有离线文本摘要生成软件的终端设备。该终端设备例如可以是安装有智能操作系统(例如安卓、IOS、Windows、Linux等系统)的电子设备,包括但不限于便携式电脑、台式计算机、手机、平板电脑等,该终端设备可以具有类似于图1所示的终端设备的硬件配置。
在另一个具体的例子中,该翻离线文本摘要生成软件的终端设备可以为图1中的文本生成服务器101。
下面说明本实施例提供的文本摘要生成方法,该文本摘要生成方法包括以下步骤:
S302、获取源文本。
S304、利用文本摘要生成模型根据源文本生成初始摘要。
S306、接收用户对初始摘要的修改,根据修改结果确定摘要前序部分。
S308、利用文本摘要生成模型根据摘要前序部分对后续摘要进行预测,得到后续摘要预测结果。
文本摘要生成模型可以基于神经元网络的文本摘要生成模型。文本摘要生成模型可以编码器-解码器结构,编码器和解码器可以使用循环神经网络、卷积神经网络或者基于注意力机制的神经元网络实现。文本摘要生成模型可以按照从左向右的顺序依次产生目标词组成摘要,文本摘要生成模型根据源文本生成摘要的过程,可以是从词表中预测出目标词的过程。
解码器采用集束搜索算法时,对后续摘要进行预测的过程,还可以包括步骤S3082-S3086。
S3082、按照集束宽度为1的方式,将源文本的摘要前序部分初始化为解码器的前序解码序列。
S3084、利用解码器计算前序解码序列的得分和前序解码序列中的解码单元的注意力权重。
S3086、根据预设的集束宽度、前序解码序中的解码单元的得分和前序解码序列中的解码单元的注意力权重,确定后序解码序列,所述预设的集束宽度为大于1的自然数。
步骤S302-S308和前述步骤S202-208类似,步骤S3082-S3086和前述步骤S2082-S2086类似,具体细节可以参见前述步骤,这里不再过多说明。
在一个具体的例子中,文本摘要生成方法还包括:将后续摘要预测结果提供给用户,以供用户根据后续摘要预测结果确定摘要后序部分。
在一个具体的例子中,接收用户对后续摘要预测结果的反馈,根据反馈确定预测的准确率。
本公开的实施例的文本摘要生成方法,允许用户实时干预摘要生成,能够根据用户修改的摘要前序,预测后续摘要。本公开的实施例的文本摘要生成方法,可以在机器生成摘要的过程中引入用户对摘要的修改,提升摘要的准确性。
本公开实施例还提供了一种文本摘要生成装置,包括处理器和存储器,存储器存储有计算机指令,计算机指令被处理器执行时实现前述任一实施例公开的文本摘要生成方法。
<计算机可读存储介质实施例>
本公开实施例还提供了一种计算机可读存储介质,其上存储有计算机指令,计算机指令被处理器执行时实现前述任一实施例公开的翻译方法。
本公开实施例还提供了一种计算机可读存储介质,其上存储有计算机指令,计算机指令被处理器执行时实现前述任一实施例公开的文本摘要生成方法。
本公开中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本公开特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本公开的实施例可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的实施例的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开的实施例操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的实施例的各个方面。
这里参照根据本公开的实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的实施例的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (10)
1.一种翻译方法,其特征在于,包括:
获取源文本;
利用翻译模型对所述源文本进行翻译,得到翻译结果;
接收用户对所述翻译结果的修改,根据修改结果确定所述源文本的翻译前序部分;
利用所述翻译模型根据所述源文本的翻译前序部分对后续翻译进行预测,得到后续翻译预测结果。
2.根据权利要求1所述的方法,所述翻译模型包括编码器和解码器,所述解码器采用集束搜索解码算法;
所述利用所述翻译模型根据所述源文本的翻译前序部分对所述源文本的后续翻译进行预测,包括:
按照集束宽度为1的方式,将所述源文本的翻译前序部分初始化为所述解码器的前序解码序列;
利用所述解码器计算所述前序解码序列的得分和所述前序解码序列中的解码单元的注意力权重;以及根据预设的集束宽度、所述前序解码序列的得分和所述前序解码序列中的解码单元的注意力权重,确定后序解码序列,所述预设的集束宽度为大于1的自然数。
3.根据权利要求1所述的方法,所述方法还包括:
将所述后续翻译预测结果提供给用户,以供用户根据所述后续翻译预测结果确定所述源文本的翻译后序部分。
4.根据权利要求1所述的方法,所述方法还包括:
接收用户对所述后续翻译预测结果的反馈,根据所述反馈确定所述预测的准确率。
5.根据权利要求1-4中任一所述的方法,所述翻译模型为基于注意力机制的神经元网络模型。
6.一种翻译装置,其特征在于,包括:
获取模块,用于获取源文本;
翻译模块,用于利用翻译模型对所述源文本进行翻译,得到翻译结果;
第一确定模块,用于接收用户对所述翻译结果的修改,根据修改结果确定所述源文本的翻译前序部分;
预测模块,用于利用所述翻译模型根据所述源文本的翻译前序部分对后续翻译进行预测,得到后续翻译预测结果。
7.根据权利要求6所述的翻译装置,所述翻译模型包括编码器和解码器,所述解码器采用集束搜索解码算法;
所述预测模块利用所述翻译模型根据所述源文本的翻译前序部分对所述源文本的后续翻译进行预测,包括:
按照集束宽度为1的方式,将所述源文本的翻译前序部分初始化为所述解码器的前序解码序列;
利用所述解码器计算所述前序解码序列的得分和所述前序解码序列中的解码单元的注意力权重;以及根据预设的集束宽度、所述前序解码序列的得分和所述前序解码序列中的解码单元的注意力权重,确定后序解码序列,所述预设的集束宽度为大于1的自然数。
8.根据权利要求6所述的翻译装置,还包括第二确定模块;
所述第二确定模块,用于接收用户对所述后续翻译预测结果的反馈,根据所述反馈确定所述预测的准确率。
9.一种翻译装置,其特征在于,包括处理器和存储器,所述存储器存储有计算机指令,所述计算机指令被所述处理器执行时实现权利要求1-5任一项所述的翻译方法。
10.一种计算机可读存储介质,其上存储有计算机指令,所述计算机指令被处理器执行时实现权利要求1-5任一项所述的翻译方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010641748.5A CN113901841A (zh) | 2020-07-06 | 2020-07-06 | 翻译方法、装置以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010641748.5A CN113901841A (zh) | 2020-07-06 | 2020-07-06 | 翻译方法、装置以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113901841A true CN113901841A (zh) | 2022-01-07 |
Family
ID=79186765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010641748.5A Pending CN113901841A (zh) | 2020-07-06 | 2020-07-06 | 翻译方法、装置以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113901841A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230070302A1 (en) * | 2021-09-07 | 2023-03-09 | Lilt, Inc. | Partial execution of translation in browser |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263352A (zh) * | 2019-06-18 | 2019-09-20 | 澳门大学 | 用于训练深层神经机器翻译模型的方法及装置 |
-
2020
- 2020-07-06 CN CN202010641748.5A patent/CN113901841A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263352A (zh) * | 2019-06-18 | 2019-09-20 | 澳门大学 | 用于训练深层神经机器翻译模型的方法及装置 |
Non-Patent Citations (4)
Title |
---|
张亚鹏;叶娜;蔡东风;: "利用句法信息改进交互式机器翻译", 中文信息学报, no. 02, 15 March 2017 (2017-03-15) * |
李彤;梁海锋;: "基于CBE的交互式机器翻译方法研究", 大众科技, no. 08, 20 August 2019 (2019-08-20), pages 1 * |
袁乃青: "第十章:编码-解码模型,注意力,上下文嵌入_Dan Jurafsky《自然语言处理综述》(第三版)读书笔记", CSDN, 2 February 2020 (2020-02-02), pages 1 - 5 * |
陈振舜;刘建明;: "基于意图的神经网络对话模型", 桂林电子科技大学学报, no. 05, 25 October 2018 (2018-10-25) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230070302A1 (en) * | 2021-09-07 | 2023-03-09 | Lilt, Inc. | Partial execution of translation in browser |
US11900073B2 (en) * | 2021-09-07 | 2024-02-13 | Lilt, Inc. | Partial execution of translation in browser |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102577514B1 (ko) | 텍스트 창작 방법, 텍스트 창작 장치, 전자 기기 및 저장 매체 | |
US10629193B2 (en) | Advancing word-based speech recognition processing | |
CN108170749B (zh) | 基于人工智能的对话方法、装置及计算机可读介质 | |
JP7301922B2 (ja) | 意味検索方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
JP2022028887A (ja) | テキスト誤り訂正処理方法、装置、電子機器及び記憶媒体 | |
CN118349673A (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
CN115309877B (zh) | 对话生成方法、对话模型训练方法及装置 | |
JP7133002B2 (ja) | 句読点予測方法および装置 | |
WO2024045475A1 (zh) | 语音识别方法、装置、设备和介质 | |
CN110297895B (zh) | 一种基于自由文本知识的对话方法及系统 | |
JP7246437B2 (ja) | 対話感情スタイル予測方法、装置、電子機器、記憶媒体及びプログラム | |
CN113434642B (zh) | 文本摘要生成方法、装置及电子设备 | |
CN113947095B (zh) | 多语种文本翻译方法、装置、计算机设备及存储介质 | |
CN113641830B (zh) | 模型预训练方法、装置、电子设备和存储介质 | |
RU2712101C2 (ru) | Предсказание вероятности появления строки с использованием последовательности векторов | |
CN111783395B (zh) | 用于输出文本的方法和装置 | |
CN112528654A (zh) | 自然语言处理方法、装置及电子设备 | |
CN115312034A (zh) | 基于自动机和字典树处理语音信号的方法、装置和设备 | |
CN113360683A (zh) | 训练跨模态检索模型的方法以及跨模态检索方法和装置 | |
CN113901841A (zh) | 翻译方法、装置以及存储介质 | |
CN115248846B (zh) | 文本识别方法、设备、介质 | |
CN116341564A (zh) | 基于语义理解的问题推理方法和装置 | |
CN112990292B (zh) | 基于神经网络的对话状态的生成方法及装置 | |
CN116306612A (zh) | 一种词句生成方法及相关设备 | |
CN112733556A (zh) | 同步交互式翻译方法及装置、存储介质、计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |