CN114742075A - 一种基于预训练的多模态机器翻译方法 - Google Patents
一种基于预训练的多模态机器翻译方法 Download PDFInfo
- Publication number
- CN114742075A CN114742075A CN202210347414.6A CN202210347414A CN114742075A CN 114742075 A CN114742075 A CN 114742075A CN 202210347414 A CN202210347414 A CN 202210347414A CN 114742075 A CN114742075 A CN 114742075A
- Authority
- CN
- China
- Prior art keywords
- picture
- model
- text
- training
- coding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种基于预训练的多模态机器翻译方法,步骤为:处理多模态机器翻译数据集Multi30k,包含文本描述和图像两部分输入;构建Vision Transformer模型,处理图片输入,得到图片编码表示;继承Huggingface的预训练参数,构建基于Transformer结构的mBart模型;mBart模型的文本编码模块处理文本输入,得到文本编码表示;设计提示模板,连接图片编码表示和文本编码表示,送入mBart模型的编码器模块;固定mBart模型的预训练参数,将KL散度引入损失函数计算,进行模型的微调。本发明通过继承大规模文本预训练模型的参数,微调图像编码表示模块,有效地将大规模文本预训练知识应用到多模态机器翻译,提升多模态机器翻译的性能,为后续其他多模态任务的研究提供思路。
Description
技术领域
本发明涉及一种多模态机器翻译技术,具体为基于预训练的多模态机器翻译方法。
背景技术
机器翻译是利用计算机将一种自然语言转换成另一种自然语言的过程。机器翻译是自然语言处理领域的传统任务,它的发展经历了基于规则的方法、基于实体的方法、统计机器翻译再到现在的神经机器翻译。在近几年的主流模型框架Transformer的基础上,已有大量的研究者对其进行了优化改进,如今的机器翻译技术已经相当成熟,应用到了日常生活中。
多模态机器翻译是将文本对应的图片信息引入传统的机器翻译过程的一项多模态任务。不同于机器翻译数十年的发展历程,多模态机器翻译课题作为传统神经机器翻译课题的延申,只发展了几年的时间。当前的多模态机器翻译任务,旨在利用与双语文本匹配的图片信息,来补充额外信息、增强翻译,是一项跨模态、跨领域的研究任务。
对于多模态机器翻译的图片部分,由于现有的多模态机器翻译数据集规模有限,很难从头训练一个图片特征抽取器。现有的方法都是基于预训练的模型,如Resnet、RCNN等,提取图片特征,从而获得充分的图片内容表示能力。对于文本部分,当前的数据规模足以从头训练一个优秀的翻译模型,因此现有的讨论往往忽略了文本模块作为核心部分对多模态机器翻译的影响。实际上,很多的翻译错误来源于文本翻译本身,所以需要图片提供额外的正确信息进行补充。
由于目前多模态机器翻译方法大多局限于模态信息的提取与模态交互结构的改进,此类方式在文本非受限的情况下,性能的提升十分有限。换而言之,当前的方法无法解决充分文本本身存在的问题。基于当前存在的问题,图像部分的预训练方法给予了启示,对于数据量稀缺的多模态机器翻译,通过大规模的预训练能够进一步提升翻译质量,解决文本本身存在的问题。然而,多模态机器翻译数据稀缺的问题,同样也是双语和图像联合预训练的瓶颈。虽然目前已有研究人员通过扩充多模态机器翻译数据集做了预训练,一定程度上证明了预训练的作用。但是数据稀缺的问题使得直接预训练的方式只适用于当前测试集文本简单的情况,很难处理更复杂的任务。
针对上述问题,考虑到大规模文本预训练模型mBart具有强大的文本表示能力,将其迁移到多模态机器翻译领域,能够充分利用预训练模型的文本表示能力,突破数据稀缺导致的性能瓶颈,进一步提升多模态机器翻译的性能。在使用文本预训练模型增强多模态机器翻译时,也面临着以下问题:如何将图像模块融入文本预训练的mBart模型,如何对齐图片表示与文本表示,如何进行模型的微调。这些问题的存在,使得目前在多模态机器翻译领域文本预训练模型的应用还不成熟,需要进一步的探索。
发明内容
针对现有多模态机器翻译技术大多局限于模态信息的提取与模态交互结构的改进,性能提升十分有限的问题,将大规模文本预训练模型的优势引入多模态机器翻译领域的尝试还不成熟等不足,本发明要解决的技术问题是提供一种基于预训练的多模态机器翻译方法,探索大规模文本预训练模型在多模态机器翻译任务上的应用。
为解决上述技术问题,本发明采用的技术方案是:
一种基于预训练的多模态机器翻译方法,包括以下步骤:
1)处理多模态机器翻译数据集,包含文本描述和对应图片两部分输入数据;
2)构建Vision Transformer模型,处理图片输入数据,得到图片编码表示;
3)利用现有的预训练模型参数,用于构建基于Transformer结构的预训练模型,文本输入数据经过预训练模型的编码层,得到文本编码表示;
4)设计提示模板,连接图片编码表示和文本编码表示,送入预训练模型的编码器模块;
5)固定预训练模型的预训练参数,将KL散度引入损失函数计算,进行模型的微调,将微调后得到的模型输入图片和文本,实现多模态机器翻译。
步骤1)中,从公开多模态机器翻译数据集中获得训练数据,将图片数据划分成固定大小的子图片,每个子图片称作patch,再调整其维度至对于模型的输入大小合适,得到对每一个patch的编码,即图片嵌入向量,具体为:
101)以输入(batch,c,h,w),每个patch分辨率为p1*p2,划分为子图片的过程的具体过程:首先,将每张图片切分成(h/p1)*(w/p2)个小块,即从(batch,c,p1*(h/p1),p2*(w/p2))到(batch,c,(h/p1)*(w/p2),p1*p2),再将其转换成(batch,(h/p1)*(w/p2),p1*p2*c),相当于分成了(h/p1)*(w/p2)个patch,每个patch的维度是p1*p2*c;这一过程的实现通过以下公式计算:
x=rearrange(img,′b c(h p1)(w p2)→b(h w)(p1 p2 c)′)
其中,rearrange函数是einops库的算子,p1、p2是一个patch高和宽的像素数,c是通道数,b是batch数,batch代表模型训练时数据划分的批次,h,w分别是图像的高和宽的像素数。
102)划分子图片后,得到图片的嵌入向量,并对其维度进行调整,图片嵌入向量经过一层全连接层调整维度至所需长度,作为模型的输入。
步骤2)中,构建Vision Transformer模型,处理图片嵌入向量输入,得到图片编码表示,具体为:
201)使用2维的sincos编码方式编码位置信息,编码公式为:
其中,PE为二维矩阵,行表示子图片,列表示位置向量;pos表示子图片在图片中的位置;dmodel表示位置向量的维度;i表示位置向量的位置;
202)将图片嵌入向量、二维位置编码向量连接后得到输入向量,将其送入VisionTransformer模型的编码器结构,得到图片编码表示。
步骤4)中,设计提示模板,连接图片编码表示和文本编码表示,送入mBart模型的编码器模块,具体为:
401)设计提示模板,将图片编码表示为X,源语言文本编码表示为Y,目标语言文本编码表示为Z,提示模板表示为“[提示1]”、“[提示2]”、“[提示3]”,连接得到编码器输入编码表示“[提示1]:X[提示2]:Y”;
402)使用预训练模型的位置编码模块编码文本部分得到文本位置编码,将图像部分每一维视作相同位置进行编码,得到图片位置编码;将文本位置编码和图片位置编码连接后,与输入编码表示相加,送入预训练模型的编码器模块,进行图像文本的联合表示学习;
403)连接提示模板和目标语言文本编码得到解码器输入编码表示“[提示3]:Z”,送入预训练模型的解码器模块,进行目标语的自回归生成。
步骤5)中,固定预训练模型的预训练参数,计算文本编码表示与图片编码表示的KL散度,将得到的损失LKL与预训练模型原有的交叉熵损失LCE相加,得到新的损失L,进行模型的微调;损失公式为:
L=LCE+αLKL
其中,p(·)表示归一化的文本编码表示、q(·)表示归一化的图片编码表示,xi表示分布的第i维,LCE为交叉熵损失,LKL为KL散度损失。
本发明具有以下有益效果及优点:
1.本发明通过大规模文本预训练模型的使用,能够有效地将预训练的文本知识迁移到多模态机器翻译领域。使用KL散度损失来对齐图像表示与文本表示,成功地将图像模块融入文本预训练模型中,提升了多模态机器翻译的性能。
2.与此同时,本发明通过Vision Transformer模型的图片编码方式,将图片编码成类似文本的词串形式,在获得强大的图像特征抽取能力的同时,能更好地对齐图像表示和文本表示。
3.本发明成功地将大规模文本预训练模型应用到了多模态机器翻译领域,为后续在其他多模态任务上利用文本预训练模型的知识和对齐不同模态信息提供了思路。
附图说明
图1为本发明方法中模型结构图示;
图2为本发明方法中图片划分图示。
具体实施方式
下面结合说明书附图对本发明作进一步阐述。
本发明针对传统的多模态机器翻译技术大多局限于模态信息的提取与模态交互结构的改进,性能提升十分有限这一现状,提出一种基于预训练的多模态机器翻译方法。该方法成功地将大规模文本预训练模型应用到多模态机器翻译领域,通过VisionTransformer模型来提取图片编码表示,设计提示模板和引入KL散度损失来对齐图像与文本,在达到有效的多模态机器翻译的同时,为后续的其他多模态研究提供了更多的可能。
本发明方法步骤如下:
1)处理多模态机器翻译数据集Multi30k,包含文本描述和对应图片两部分输入;
2)构建Vision Transformer模型,处理图片输入,得到图片编码表示;
3)利用Huggingface的预训练模型参数,用于构建基于Transformer结构的mBart模型,文本输入经过mBart模型的Embedding层,得到文本编码表示;
4)设计提示模板,连接图片编码表示和文本编码表示,送入mBart模型的编码器模块;
5)固定mBart模型的预训练参数,将KL散度引入损失函数计算,进行模型的微调。
步骤1)中,从公开多模态机器翻译数据集Multi30k中获得训练数据,将图片划分成固定大小的子图片,每个子图片称作patch,再调整其维度至对于模型的输入大小合适,得到对每一个patch的编码,即图片嵌入向量。这一过程如图2所示,具体为:
101)以输入(batch,3,384,384),每个patch分辨率为32*32为例,划分为子图片的过程的具体过程:首先,将每张图片切分成12*12个小块,即从(batch,3,32*12,32*12)到(batch,3,12*12,32*32),再将其转换成(batch,12*12,32*32*3),相当于分成了12*12个patch,每个patch的维度是32*32*3。这一过程的实现可通过以下计算:
x=rearrange(img,′b c(hp1)(w p2)→b(hw)(p1 p2 c)′)
其中,rearrange函数是einops库的算子,p1、p2是一个patch的高和宽的像素数,c是通道数,b是batch数,batch代表模型训练时数据划分的批次,h,w分别是图像的高和宽的像素数。
102)划分子图片后,得到图片的嵌入向量,还需对其维度进行调整。这里图片嵌入向量经过一层全连接层调整维度至1024,作为模型的输入。
步骤2)中,构建Vision Transformer模型,处理图片嵌入向量输入,得到图片编码表示,具体为:
201)使用2维的sincos编码方式编码位置信息,编码公式为:
其中,PE为二维矩阵,行表示子图片,列表示位置向量;pos表示子图片在图片中的位置;dmodel表示位置向量的维度;i表示位置向量的位置;
202)将图片嵌入向量、二维位置编码向量连接后得到输入向量,将其送入VisionTransformer的编码器结构,得到图片编码表示。
步骤3)中,利用Huggingface的预训练参数,构建基于Transformer结构的mBart模型。将文本数据通过mBart模型的Embedding层后,得到文本编码表示,这一过程如图1所示。
步骤4)中,设计提示模板,连接图片编码表示和文本编码表示,送入mBart模型的编码器模块,这一过程如图1所示,具体为:
401)设计提示模板,将图片编码表示为X,源语言文本编码表示为Y,目标语言文本编码表示为Z,对应提示模板为“IMG”、“EN”、“DE”,连接得到编码器输入编码表示“IMG:XEN:Y”。
402)使用mBart的位置编码模块编码文本部分得到文本位置编码,将图像部分每一维视作相同位置进行编码,得到图片位置编码。将文本位置编码和图片位置编码连接后,与输入编码表示相加,送入mBart模型的编码器模块,进行图像文本的联合表示学习;
403)连接提示模板和目标语言文本编码得到解码器输入编码表示“DE:Z”,送入mBart模型的解码器模块,进行目标语的自回归生成。
步骤5)中,固定mBart模型的预训练参数,计算文本编码表示与图片编码表示的KL散度,得到损失LKL与mBart模型原有的交叉熵损失LCE相加,得到新的损失L,进行模型的微调。损失公式为:
L=LCE+αLKL
其中,LCE为交叉熵损失,LKL为KL散度损失,p(·)表示归一化的文本编码表示、q(·)表示归一化的图片编码表示,xi表示分布的第i维。
本实施例以数据集Multi30k为例,将基于预训练的多模态机器翻译模型应用到Multi30k的英德-2016任务和英法-2016任务上。Multi30k数据集包含31014张图片和对应的双语文本,构成训练和测试的数据。通过表1可以发现,本发明提出的方法对比文本翻译的Transformer模型,和传统的设计图片与文本交互模块的多模态机器翻译模型,在BLEU值上均有明显提升。证明了本发明提出的方法能够有效利用图片信息和预训练的文本知识,提升多模态机器翻译的性能。
表1实验结果对比
本发明提出了一种基于预训练的多模态机器翻译方法,能够将大规模文本预训练模型mBart的知识迁移到多模态机器翻译领域,增强翻译性能。这种方式通过使用VisionTransformer模型提取图片特征,获得图片表示。通过设计提示模板和引入KL散度损失,对齐图像表示与文本表示,解决文本预训练下多模态信息不匹配的问题。使用文本预训练模型处理多模态任务,验证了大规模文本预训练模型的文本表示能力,验证了多模态信息对齐的重要性。与此同时,预训练的多模态机器翻译方法也为未来其他多模态领域下的任务提供了新的思考。
Claims (5)
1.一种基于预训练的多模态机器翻译方法,其特征包括以下步骤:
1)处理多模态机器翻译数据集,包含文本描述和对应图片两部分输入数据;
2)构建Vision Transformer模型,处理图片输入数据,得到图片编码表不;
3)利用现有的预训练模型参数,用于构建基于Transformer结构的预训练模型,文本输入数据经过预训练模型的编码层,得到文本编码表示;
4)设计提示模板,连接图片编码表示和文本编码表示,送入预训练模型的编码器模块;
5)固定预训练模型的预训练参数,将KL散度引入损失函数计算,进行模型的微调,将微调后得到的模型输入图片和文本,实现多模态机器翻译。
2.按权利要求1所述的基于预训练的多模态机器翻译方法,其特征在于:步骤1)中,从公开多模态机器翻译数据集中获得训练数据,将图片数据划分成固定大小的子图片,每个子图片称作patch,再调整其维度至对于模型的输入大小合适,得到对每一个patch的编码,即图片嵌入向量,具体为:
101)以输入(batch,c,h,w),每个patch分辨率为p1*p2,划分为子图片的过程的具体过程:首先,将每张图片切分成(h/p1)*(w/p2)个小块,即从(batch,c,p1*(h/p1),p2*(w/p2))到(batch,c,(h/p1)*(w/p2),p1*p2),再将其转换成(batch,(h/p1)*(w/p2),p1*p2*c),相当于分成了(h/p1)*(w/p2)个patch,每个patch的维度是p1*p2*c;这一过程的实现通过以下公式计算:
x=rearrange(img,′b c(h p1)(w p2)→b(h w)(p1 p2 c)′)
其中,rearrange函数是einops库的算子,p1、p2是一个patch高和宽的像素数,c是通道数,b是batch数,batch代表模型训练时数据划分的批次,h,w分别是图像的高和宽的像素数。
102)划分子图片后,得到图片的嵌入向量,并对其维度进行调整,图片嵌入向量经过一层全连接层调整维度至所需长度,作为模型的输入。
4.按权利要求1所述的基于预训练的多模态机器翻译方法,其特征在于:步骤4)中,设计提示模板,连接图片编码表示和文本编码表示,送入mBart模型的编码器模块,具体为:
401)设计提示模板,将图片编码表示为X,源语言文本编码表示为Y,目标语言文本编码表示为Z,提示模板表示为“[提示1]”、“[提示2]”、“[提示3]”,连接得到编码器输入编码表示“[提示1]:X[提示2]:Y”;
402)使用预训练模型的位置编码模块编码文本部分得到文本位置编码,将图像部分每一维视作相同位置进行编码,得到图片位置编码;将文本位置编码和图片位置编码连接后,与输入编码表示相加,送入预训练模型的编码器模块,进行图像文本的联合表示学习;
403)连接提示模板和目标语言文本编码得到解码器输入编码表示“[提示3]:Z”,送入预训练模型的解码器模块,进行目标语的自回归生成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210347414.6A CN114742075A (zh) | 2022-04-01 | 2022-04-01 | 一种基于预训练的多模态机器翻译方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210347414.6A CN114742075A (zh) | 2022-04-01 | 2022-04-01 | 一种基于预训练的多模态机器翻译方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114742075A true CN114742075A (zh) | 2022-07-12 |
Family
ID=82278699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210347414.6A Pending CN114742075A (zh) | 2022-04-01 | 2022-04-01 | 一种基于预训练的多模态机器翻译方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114742075A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116109866A (zh) * | 2023-01-18 | 2023-05-12 | 阿里巴巴(中国)有限公司 | 微调模型构建、图像分类处理方法及装置、电子设备 |
-
2022
- 2022-04-01 CN CN202210347414.6A patent/CN114742075A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116109866A (zh) * | 2023-01-18 | 2023-05-12 | 阿里巴巴(中国)有限公司 | 微调模型构建、图像分类处理方法及装置、电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111738251B (zh) | 一种融合语言模型的光学字符识别方法、装置和电子设备 | |
CN110570481A (zh) | 基于风格迁移的书法字库自动修复方法及系统 | |
CN104821011A (zh) | 基于相机拍摄的2d户型照片生成3d户型模型的方法 | |
CN112036406B (zh) | 一种图像文档的文本抽取方法、装置及电子设备 | |
CN112070114B (zh) | 基于高斯约束注意力机制网络的场景文字识别方法及系统 | |
CN113591546A (zh) | 语义增强型场景文本识别方法及装置 | |
CN112016604A (zh) | 一种运用视觉信息的零资源机器翻译方法 | |
CN113408535B (zh) | 一种基于中文字符级特征和语言模型的ocr纠错方法 | |
Kang et al. | Ddcolor: Towards photo-realistic image colorization via dual decoders | |
CN113344036A (zh) | 一种基于动态词嵌入的多模态Transformer的图像描述方法 | |
CN116167362A (zh) | 模型训练方法、中文文本纠错方法、电子设备和存储介质 | |
CN109886274A (zh) | 基于opencv和深度学习的社保卡识别方法及系统 | |
CN112766220A (zh) | 双通道微表情识别方法、系统、存储介质、计算机设备 | |
Wu et al. | Seesr: Towards semantics-aware real-world image super-resolution | |
CN114742075A (zh) | 一种基于预训练的多模态机器翻译方法 | |
CN111507181A (zh) | 票据图像的矫正方法、装置及计算机设备 | |
CN111723587A (zh) | 一种面向跨语言知识图谱的汉泰实体对齐方法 | |
CN114218889A (zh) | 文档处理及文档模型的训练方法、装置、设备和存储介质 | |
CN110175548A (zh) | 基于注意力机制和通道信息的遥感图像建筑物提取方法 | |
Wang et al. | Textformer: component-aware text segmentation with transformer | |
CN106570910B (zh) | 基于自编码特征和近邻模型的图像自动标注方法 | |
CN113535975A (zh) | 一种基于汉字知识图谱的多维度智能纠错方法 | |
CN115953800A (zh) | 一种支持跨模态的文档预训练模型实现方法及装置 | |
CN117710986B (zh) | 一种基于掩码的交互式增强图像文本识别的方法及系统 | |
CN114782848B (zh) | 一种应用特征金字塔的图片字幕生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |