CN117034965A - 基于视觉语言预训练的图像文本翻译方法及装置 - Google Patents

基于视觉语言预训练的图像文本翻译方法及装置 Download PDF

Info

Publication number
CN117034965A
CN117034965A CN202310996132.3A CN202310996132A CN117034965A CN 117034965 A CN117034965 A CN 117034965A CN 202310996132 A CN202310996132 A CN 202310996132A CN 117034965 A CN117034965 A CN 117034965A
Authority
CN
China
Prior art keywords
text
image
sample
language
source language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310996132.3A
Other languages
English (en)
Other versions
CN117034965B (zh
Inventor
张亚萍
向露
刘宇宸
周玉
宗成庆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN202310996132.3A priority Critical patent/CN117034965B/zh
Publication of CN117034965A publication Critical patent/CN117034965A/zh
Application granted granted Critical
Publication of CN117034965B publication Critical patent/CN117034965B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种基于视觉语言预训练的图像文本翻译方法及装置,方法包括:确定源语言图像;将源语言图像输入至图像文本翻译模型,得到图像文本翻译模型输出的源语言图像对应的目标语言文本;其中,图像文本翻译模型的损失值基于样本预测源语言文本与样本源语言图像对应的样本源语言标签之间的差异,以及样本预测目标语言文本与样本目标语言标签之间的差异确定。本发明的图像文本翻译模型基于样本图像特征向量以及样本预测源语言文本对样本源语言图像进行图像文本翻译时,样本图像特征向量能够补充提供相应的视觉信息,对文本识别错误进行校正,以增强图像文本翻译,准确得到样本预测目标语言文本,进而提高图像文本翻译模型的图像文本翻译精度。

Description

基于视觉语言预训练的图像文本翻译方法及装置
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种基于视觉语言预训练的图像文本翻译方法及装置。
背景技术
图像文本翻译旨在将嵌入图像中的源语言文本翻译成目标语言文本,具有广泛的实际应用场景:如旅游时对海报、路牌、店铺门面和广告牌等的拍照翻译导航等。目前图像文本翻译多使用图像文本识别和机器翻译级联模型实现。图像文本识别模型用于将嵌入在图像中的源语言文本提取转录为可编辑文本,机器翻译模型用于将可编辑文本翻译成目标语言文本。
然而,由于级联模型相互独立,未能考虑模型之间的互补信息增强,存在误差累积,导致图像文本翻译精度较低。例如,输入图像中“beer”文字风格复杂,图像文本识别模型错误地将“beer”识别成“13ee2”,而在机器翻译阶段,机器翻译模型依赖于文字识别模型提取的文本信息,将输入图片“beer”翻译成了“13ee2”,导致了错误累计。
发明内容
本发明提供一种基于视觉语言预训练的图像文本翻译方法及装置,用以解决现有技术中图像文本翻译精度较低的缺陷。
本发明提供一种基于视觉语言预训练的图像文本翻译方法,包括:
确定源语言图像;
将所述源语言图像输入至图像文本翻译模型,得到所述图像文本翻译模型输出的所述源语言图像对应的目标语言文本;
其中,所述图像文本翻译模型的损失值基于样本预测源语言文本与样本源语言图像对应的样本源语言标签之间的差异,以及样本预测目标语言文本与所述样本目标语言标签之间的差异确定,所述样本预测源语言文本是所述图像文本翻译模型对所述样本源语言图像进行文字识别得到的,所述样本预测目标语言文本是所述图像文本翻译模型基于所述样本源语言图像对应的样本图像特征向量,以及所述样本预测源语言文本对所述样本源语言图像进行图像文本翻译得到的,所述图像文本翻译模型是基于视觉语言预训练模型初始化后得到的。
根据本发明提供的一种基于视觉语言预训练的图像文本翻译方法,所述图像文本翻译模型的损失值基于如下步骤确定:
将所述样本源语言图像输入至初始图像文本翻译模型的图像编码层,得到所述图像编码层输出的样本图像特征向量;
将所述样本图像特征向量输入至所述初始图像文本翻译模型的文字识别解码层,得到所述文字识别解码层输出的所述样本预测源语言文本;
将所述样本图像特征向量以及所述样本预测源语言文本输入至所述初始图像文本翻译模型的图像文本翻译层,得到所述图像文本翻译层输出的所述样本预测目标语言文本;
基于所述样本预测源语言文本与所述样本源语言标签之间的差异,以及所述样本预测目标语言文本与所述样本目标语言标签之间的差异,确定所述图像文本翻译模型的损失值。
根据本发明提供的一种基于视觉语言预训练的图像文本翻译方法,所述将所述样本图像特征向量输入至所述初始图像文本翻译模型的文字识别解码层,得到所述文字识别解码层输出的所述样本预测源语言文本,包括:
将所述样本源语言图像的位置向量以及所述样本图像特征向量输入至所述文字识别解码层,由所述文字识别解码层基于所述位置向量进行位置注意力计算,以及基于所述样本图像特征向量进行上下文注意力计算,得到所述文字识别解码层输出的所述样本预测源语言文本。
根据本发明提供的一种基于视觉语言预训练的图像文本翻译方法,所述将所述样本图像特征向量以及所述样本预测源语言文本输入至所述初始图像文本翻译模型的图像文本翻译层,得到所述图像文本翻译层输出的所述样本预测目标语言文本,包括:
将所述样本预测源语言文本输入至所述图像文本翻译层的文本编码层,得到所述文本编码层输出的样本文本特征向量;
将所述样本图像特征向量以及所述样本文本特征向量输入至所述图像文本翻译层的跨语言解码层,得到所述跨语言解码层输出的所述样本预测目标语言文本。
根据本发明提供的一种基于视觉语言预训练的图像文本翻译方法,所述将所述样本预测源语言文本输入至所述图像文本翻译层的文本编码层,得到所述文本编码层输出的样本文本特征向量,包括:
将所述样本预测源语言文本输入至所述文本编码层,由所述文本编码层对所述样本预测源语言文本中各分词进行归一化处理后,线性投影到联合图像文本嵌入空间,得到所述文本编码层输出的样本文本特征向量。
根据本发明提供的一种基于视觉语言预训练的图像文本翻译方法,所述将所述样本图像特征向量以及所述样本文本特征向量输入至所述图像文本翻译层的跨语言解码层,得到所述跨语言解码层输出的所述样本预测目标语言文本,包括:
将所述样本图像特征向量以及所述样本文本特征向量输入至所述跨语言解码层的向量组合层,得到所述向量组合层输出的跨模态向量;
将所述跨模态向量输入至所述跨语言解码层的跨模态解码层,得到所述跨模态解码输出的所述样本预测目标语言文本。
根据本发明提供的一种基于视觉语言预训练的图像文本翻译方法,所述基于所述样本预测源语言文本与所述样本源语言标签之间的差异,以及所述样本预测目标语言文本与所述样本目标语言标签之间的差异,确定所述图像文本翻译模型的损失值,包括:
基于所述样本预测源语言文本与所述样本源语言标签之间的差异,确定文字识别解码损失值;
基于所述样本预测目标语言文本与所述样本目标语言标签之间的差异,确定跨语言解码损失值;
基于所述文字识别解码损失值,以及所述跨语言解码损失值,确定所述图像文本翻译模型的损失值。
本发明还提供一种基于视觉语言预训练的图像文本翻译装置,包括:
确定单元,用于确定源语言图像;
翻译单元,用于将所述源语言图像输入至图像文本翻译模型,得到所述图像文本翻译模型输出的所述源语言图像对应的目标语言文本;
其中,所述图像文本翻译模型的损失值基于样本预测源语言文本与样本源语言图像对应的样本源语言标签之间的差异,以及样本预测目标语言文本与所述样本目标语言标签之间的差异确定,所述样本预测源语言文本是所述图像文本翻译模型对所述样本源语言图像进行文字识别得到的,所述样本预测目标语言文本是所述图像文本翻译模型基于所述样本源语言图像对应的样本图像特征向量,以及所述样本预测源语言文本对所述样本源语言图像进行图像文本翻译得到的,所述图像文本翻译模型是基于视觉语言预训练模型初始化后得到的。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述任一种所述基于视觉语言预训练的图像文本翻译方法。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述基于视觉语言预训练的图像文本翻译方法。
本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述基于视觉语言预训练的图像文本翻译方法。
本发明提供的基于视觉语言预训练的图像文本翻译方法及装置,由于样本源语言图像对应的样本图像特征向量关联有视觉信息,从而在图像文本翻译模型基于样本图像特征向量以及样本预测源语言文本对样本源语言图像进行图像文本翻译时,样本图像特征向量能够补充提供相应的视觉信息,对文本识别错误进行校正,以增强图像文本翻译,准确得到样本预测目标语言文本,进而提高图像文本翻译模型的图像文本翻译精度。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的基于视觉语言预训练的图像文本翻译方法的流程示意图;
图2是本发明提供的文字识别解码层的结构示意图;
图3是本发明提供的跨语言解码层的结构示意图;
图4是本发明提供的图像文本翻译模型训练方法的流程示意图;
图5是本发明提供的基于视觉语言预训练的图像文本翻译装置的结构示意图;
图6是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前图像文本翻译多使用图像文本识别和机器翻译级联模型实现。图像文本识别模型用于将嵌入在图像中的源语言文本提取转录为可编辑文本,机器翻译模型用于将可编辑文本翻译成目标语言文本。
然而,由于级联模型相互独立,未能考虑模型之间的互补信息增强,存在误差累积,导致图像文本翻译精度较低。例如,输入图像中“beer”文字风格复杂,图像文本识别模型错误地将“beer”识别成“13ee2”,而在机器翻译阶段,机器翻译模型依赖于文字识别模型提取的文本信息,将输入图片“beer”翻译成了“13ee2”,导致了错误累计。
对此,本发明提供一种基于视觉语言预训练的图像文本翻译方法。图1是本发明提供的基于视觉语言预训练的图像文本翻译方法的流程示意图,如图1所示,该方法包括如下步骤:
步骤110、确定源语言图像。
此处,源语言图像指包含有源语言文本的图像,源语言图像可以是手机、相机等图像采集设备采集得到的图像,也可以是通过爬虫技术从互联网上爬取得到的图像,本发明实施例对此不作具体限定。
步骤120、将源语言图像输入至图像文本翻译模型,得到图像文本翻译模型输出的源语言图像对应的目标语言文本;
其中,图像文本翻译模型的损失值基于样本预测源语言文本与样本源语言图像对应的样本源语言标签之间的差异,以及样本预测目标语言文本与样本目标语言标签之间的差异确定,样本预测源语言文本是图像文本翻译模型对样本源语言图像进行文字识别得到的,样本预测目标语言文本是图像文本翻译模型基于样本源语言图像对应的样本图像特征向量,以及样本预测源语言文本对样本源语言图像进行图像文本翻译得到的,图像文本翻译模型是基于视觉语言预训练模型初始化后得到的。
具体地,图像文本翻译模型用于将源语言图像中的源语言文本翻译为目标语言文本。例如,源语言图像中的源语言文本为英文文本,则图像文本翻译模型用于将该英文文本翻译为中文文本(即目标语言文本)。
其中,图像文本翻译模型的损失值基于样本预测源语言文本与样本源语言图像对应的样本源语言标签之间的差异,以及样本预测目标语言文本与样本目标语言标签之间的差异确定。样本预测源语言文本是图像文本翻译模型对样本源语言图像进行文字识别得到的,即样本预测源语言文本是考虑了样本源语言图像的图像信息后得到的,也可以理解为样本预测源语言文本关联有视觉信息。样本预测目标语言文本是图像文本翻译模型基于样本源语言图像对应的样本图像特征向量,以及样本预测源语言文本对样本源语言图像进行图像文本翻译得到的,由于样本源语言图像对应的样本图像特征向量关联有视觉信息,从而在对样本源语言图像进行图像文本翻译时,能够补充提供相应的视觉信息,以增强图像文本翻译,准确得到样本预测目标语言文本。此外,图像文本翻译模型是基于视觉语言预训练模型初始化后得到的,由于视觉语言预训练模型包含有丰富的视觉和语言知识,从而可以通过视觉语言预训练模型统一视觉和文本的语义特征表达空间,使得图像文本翻译模型同时融合视觉信息和文本信息,提高图像文本翻译精度。
此外,样本源语言标签指样本源语言图像中源语言文本对应的源语言标签,样本预测源语言文本与样本源语言图像对应的样本源语言标签之间的差异用于表征样本预测源语言文本与样本源语言标签之间的相似度,相似度越高,两者之间的差异越小,对应损失值也越小,图像文本翻译模型学习到的视觉信息也越多。样本目标语言标签指样本源语言图像中源语言文本对应的目标语言标签,样本预测目标语言文本与样本目标语言标签之间的差异用于表征样本预测目标语言文本与样本目标语言标签之间的相似度,相似度越高,两者之间的差异越小,对应损失值也越小。
可以理解的是,在将源语言图像输入至图像文本翻译模型之前,还可以预先训练得到图像文本翻译模型,具体可以通过执行如下步骤实现:首先,收集大量样本源语言图像,通过人工标注确定其对应的样本源语言标签以及样本目标语言标签。随即,基于样本源语言图像、样本源语言标签以及样本目标语言标签对初始图像文本翻译模型进行训练,从而得到图像文本翻译模型。
本发明实施例提供的基于视觉语言预训练的图像文本翻译方法,由于样本源语言图像对应的样本图像特征向量关联有视觉信息,从而在图像文本翻译模型基于样本图像特征向量以及样本预测源语言文本对样本源语言图像进行图像文本翻译时,样本图像特征向量能够补充提供相应的视觉信息,对文本识别错误进行校正,以增强图像文本翻译,准确得到样本预测目标语言文本,进而提高图像文本翻译模型的图像文本翻译精度。
基于上述实施例,图像文本翻译模型的损失值基于如下步骤确定:
将样本源语言图像输入至初始图像文本翻译模型的图像编码层,得到图像编码层输出的样本图像特征向量;
将样本图像特征向量输入至初始图像文本翻译模型的文字识别解码层,得到文字识别解码层输出的样本预测源语言文本;
将样本图像特征向量以及样本预测源语言文本输入至初始图像文本翻译模型的图像文本翻译层,得到图像文本翻译层输出的样本预测目标语言文本;
基于样本预测源语言文本与样本源语言标签之间的差异,以及样本预测目标语言文本与样本目标语言标签之间的差异,确定图像文本翻译模型的损失值。
具体地,初始图像文本翻译模型指参数随机化的模型,其可以为视觉语言预训练模型CLIP(Contrastive Language-Image Pre-training)。初始图像文本翻译模型包括图像编码层、文字识别解码层以及图像文本翻译层。图像编码层可以基于图像编码器(ImageEncoder,IE)构建得到,如可以基于ViT图像编码器构建得到,文字识别解码层可以基于文字识别解码器构建得到。
图像编码层用于对样本源语言图像进行图像编码,得到样本图像特征向量,文字识别解码层用于将样本图像特征向量解码成源语言文本序列,进而得到样本预测源语言文本。
其中,图像编码层可以基于图像编码器(Image Encoder,IE)构建得到,如可以基于ViT图像编码器构建得到,文字识别解码层可以基于文字识别解码器构建得到。
在一些具体实施方式中,对于样本源语言图像可以按照固定大小P×P的正方形网格进行切片,得到切片的二维网格图,二维网格图保留了样本源语言图像中的原始结构关系。进一步地,可以将二维网格图按照空间顺序重构成/>其中Li=HW/P2。接着,对重构后的各子图进行线性向量映射,获取映射后的样本图像特征向量其中D表示映射后的特征维度。
此外,图像文本翻译层用于基于样本图像特征向量以及样本预测源语言文本,进行图像文本翻译,得到样本预测目标语言文本。在确定样本预测源语言文本以及样本预测目标语言文本之后,基于样本预测源语言文本与样本源语言标签之间的差异,以及样本预测目标语言文本与样本目标语言标签之间的差异,可以确定图像文本翻译模型的损失值。
基于上述任一实施例,将样本图像特征向量输入至初始图像文本翻译模型的文字识别解码层,得到文字识别解码层输出的样本预测源语言文本,包括:
将样本源语言图像的位置向量以及样本图像特征向量输入至文字识别解码层,由文字识别解码层基于位置向量进行位置注意力计算,以及基于样本图像特征向量进行上下文注意力计算,得到文字识别解码层输出的样本预测源语言文本。
具体地,样本源语言图像可以被切分为多个子图(如可以切分为二维网格图),位置向量用于表征各子图的位置信息。文字识别解码层基于位置向量进行位置注意力计算,以及基于样本图像特征向量进行上下文注意力计算,得到文字识别解码层输出的样本预测源语言文本。
如图2所示,文字识别解码层可以包括2个多头注意力单元MHA,一个多层感知器MLP,各MHA和MLP均连接有层归一化LN,p表示位置向量,c表示输入的上下文信息,M表示注意力掩码,Fi表示样本图像特征向量,表示样本预测源语言文本。其中,左边第一个MHA用于基于位置向量进行位置注意力计算,第二个MHA用于基于样本图像特征向量进行上下文注意力计算,最后通过MLP输出/>
基于上述任一实施例,将样本图像特征向量以及样本预测源语言文本输入至初始图像文本翻译模型的图像文本翻译层,得到图像文本翻译层输出的样本预测目标语言文本,包括:
将样本预测源语言文本输入至图像文本翻译层的文本编码层,得到文本编码层输出的样本文本特征向量;
将样本图像特征向量以及样本文本特征向量输入至图像文本翻译层的跨语言解码层,得到跨语言解码层输出的样本预测目标语言文本。
具体地,图像文本翻译层包括文本编码层以及跨语言解码层。文本编码层用于对样本预测源语言文本进行文本编码,得到样本文本特征向量,跨语言解码层用于基于样本图像特征向量以及样本文本特征向量,即融合样本图像特征向量的视觉信息以及样本文本特征向量的文本信息,预测得到样本预测目标语言文本,增强了跨语言解码层的翻译性能。
其中,文本编码层可以基于Transformer中的文本编码器(Text Encoder,TE)构建得到,跨语言解码层可以基于解码器构建得到。
如图3所示,跨语言解码层可以包括2个多头注意力单元MHA,一个多层感知器MLP,各MHA和MLP均连接有层归一化LN,p表示样本源语言图像的位置向量,c表示输入的上下文信息,M表示注意力掩码,Fi表示样本图像特征向量,Ft表示样本文本特征向量,表示样本预测目标语言文本。其中,左边第一个MHA用于基于位置向量进行位置注意力计算,第二个MHA用于基于样本图像特征向量以及样本文本特征向量进行上下文注意力计算,最后通过MLP输出/>
基于上述任一实施例,将样本预测源语言文本输入至图像文本翻译层的文本编码层,得到文本编码层输出的样本文本特征向量,包括:
将样本预测源语言文本输入至文本编码层,由文本编码层对样本预测源语言文本中各分词进行归一化处理后,线性投影到联合图像文本嵌入空间,得到文本编码层输出的样本文本特征向量。
具体地,文本编码层可以对样本预测源语言文本进行分词,并对各分词进行归一化处理后,线性投影到联合图像文本嵌入空间,得到映射后的样本文本特征向量Ft
其中,Lt表示分词后的文本序列长度,D表示嵌入样本文本特征向量的维度。
基于上述任一实施例,将样本图像特征向量以及样本文本特征向量输入至图像文本翻译层的跨语言解码层,得到跨语言解码层输出的样本预测目标语言文本,包括:
将样本图像特征向量以及样本文本特征向量输入至跨语言解码层的向量组合层,得到向量组合层输出的跨模态向量;
将跨模态向量输入至跨语言解码层的跨模态解码层,得到跨模态解码输出的样本预测目标语言文本。
具体地,跨语言解码层包括向量组合层和跨模态解码,向量组合层用于基于样本图像特征向量以及样本文本特征向量,得到跨模态向量。跨模态解码用于对跨模态向量进行解码,得到样本预测目标语言文本。
其中,跨模态向量Fc可以表示为:
其中,Lc=Li+Lt,D表示样本图像特征向量和样本文本特征向量的维度。
基于上述任一实施例,基于样本预测源语言文本与样本源语言标签之间的差异,以及样本预测目标语言文本与样本目标语言标签之间的差异,确定图像文本翻译模型的损失值,包括:
基于样本预测源语言文本与样本源语言标签之间的差异,确定文字识别解码损失值;
基于样本预测目标语言文本与样本目标语言标签之间的差异,确定跨语言解码损失值;
基于文字识别解码损失值,以及跨语言解码损失值,确定图像文本翻译模型的损失值。
在一些具体实施方式中,在确定样本预测源语言文本以及样本预测目标语言文本之后,基于样本预测源语言文本与样本源语言标签之间的差异,可以确定文字识别解码损失值以及基于样本预测目标语言文本与样本目标语言标签之间的差异,可以确定跨语言解码损失值/>将/>与/>之和作为图像文本翻译模型的损失值,利用AdamW优化器更新权值,直至初始图像文本翻译模型收敛,得到图像文本翻译模型。其中,可以将样本预测源语言文本输出概率的负对数似然作为/>将样本预测目标语言文本输出概率的负对数似然作为/>
基于上述任一实施例,本发明还提供一种图像文本翻译模型的训练方法,如图4所示,图像文本翻译模型的图像编码层基于图像编码器构建,文字识别解码层基于文字识别解码器构建,图像文本翻译层基于文本编码器以及视觉增强的跨语言解码器构建。其中,图像编码层采用视觉语言预训练模型的图像编码器,即图像编码层的图像编码器继承视觉语言预训练模型的权重并冻结该权重;文字识别解码层采用视觉语言预训练模型的文本编码器,即文字识别解码层的文本编码器继承视觉语言预训练模型的权重并冻结该权重。现结合图像文本翻译模型说明基于视觉语言预训练的图像文本翻译方法的流程:
首先,将样本源语言图像x输入至图像文本翻译模型的图像编码器,由图像编码器进行图像编码,得到样本图像特征向量Fi。接着,将样本图像特征向量Fi输入至图像文本翻译模型的文字识别解码器,由文字识别解码器进行文字解码,得到样本预测源语言文本
将样本预测源语言文本输入至图像文本翻译模型的文本编码器,由文本编码器进行文本编码,得到样本文本特征向量Ft。将样本图像特征向量Fi以及样本文本特征向量Ft输入至视觉增强的跨语言解码器,由视觉增强的跨语言解码器进行解码,得到样本预测目标语言文本/>
基于样本预测源语言文本与样本源语言标签之间的差异,可以确定文字识别解码损失值/>以及基于样本预测目标语言文本/>与样本目标语言标签之间的差异,可以确定跨语言解码损失值/>将/>与/>之和作为图像文本翻译模型的损失值,利用AdamW优化器更新权值,直至初始图像文本翻译模型收敛,得到图像文本翻译模型。
下面对本发明提供的基于视觉语言预训练的图像文本翻译装置进行描述,下文描述的基于视觉语言预训练的图像文本翻译装置与上文描述的基于视觉语言预训练的图像文本翻译方法可相互对应参照。
基于上述任一实施例,本发明还提供一种基于视觉语言预训练的图像文本翻译装置,如图5所示,该装置包括:
确定单元510,用于确定源语言图像;
翻译单元520,用于将所述源语言图像输入至图像文本翻译模型,得到所述图像文本翻译模型输出的所述源语言图像对应的目标语言文本;
其中,所述图像文本翻译模型的损失值基于样本预测源语言文本与样本源语言图像对应的样本源语言标签之间的差异,以及样本预测目标语言文本与所述样本目标语言标签之间的差异确定,所述样本预测源语言文本是所述图像文本翻译模型对所述样本源语言图像进行文字识别得到的,所述样本预测目标语言文本是所述图像文本翻译模型基于所述样本源语言图像对应的样本图像特征向量,以及所述样本预测源语言文本对所述样本源语言图像进行图像文本翻译得到的,所述图像文本翻译模型是基于视觉语言预训练模型初始化后得到的。
图6是本发明提供的电子设备的结构示意图,如图6所示,该电子设备可以包括:处理器(processor)610、存储器(memory)620、通信接口(Communications Interface)630和通信总线640,其中,处理器610,存储器620,通信接口630通过通信总线640完成相互间的通信。处理器610可以调用存储器620中的逻辑指令,以执行基于视觉语言预训练的图像文本翻译方法,该方法包括:确定源语言图像;将所述源语言图像输入至图像文本翻译模型,得到所述图像文本翻译模型输出的所述源语言图像对应的目标语言文本;其中,所述图像文本翻译模型的损失值基于样本预测源语言文本与样本源语言图像对应的样本源语言标签之间的差异,以及样本预测目标语言文本与所述样本目标语言标签之间的差异确定,所述样本预测源语言文本是所述图像文本翻译模型对所述样本源语言图像进行文字识别得到的,所述样本预测目标语言文本是所述图像文本翻译模型基于所述样本源语言图像对应的样本图像特征向量,以及所述样本预测源语言文本对所述样本源语言图像进行图像文本翻译得到的,所述图像文本翻译模型是基于视觉语言预训练模型初始化后得到的。
此外,上述的存储器620中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的基于视觉语言预训练的图像文本翻译方法,该方法包括:确定源语言图像;将所述源语言图像输入至图像文本翻译模型,得到所述图像文本翻译模型输出的所述源语言图像对应的目标语言文本;其中,所述图像文本翻译模型的损失值基于样本预测源语言文本与样本源语言图像对应的样本源语言标签之间的差异,以及样本预测目标语言文本与所述样本目标语言标签之间的差异确定,所述样本预测源语言文本是所述图像文本翻译模型对所述样本源语言图像进行文字识别得到的,所述样本预测目标语言文本是所述图像文本翻译模型基于所述样本源语言图像对应的样本图像特征向量,以及所述样本预测源语言文本对所述样本源语言图像进行图像文本翻译得到的,所述图像文本翻译模型是基于视觉语言预训练模型初始化后得到的。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各提供的基于视觉语言预训练的图像文本翻译方法,该方法包括:确定源语言图像;将所述源语言图像输入至图像文本翻译模型,得到所述图像文本翻译模型输出的所述源语言图像对应的目标语言文本;其中,所述图像文本翻译模型的损失值基于样本预测源语言文本与样本源语言图像对应的样本源语言标签之间的差异,以及样本预测目标语言文本与所述样本目标语言标签之间的差异确定,所述样本预测源语言文本是所述图像文本翻译模型对所述样本源语言图像进行文字识别得到的,所述样本预测目标语言文本是所述图像文本翻译模型基于所述样本源语言图像对应的样本图像特征向量,以及所述样本预测源语言文本对所述样本源语言图像进行图像文本翻译得到的,所述图像文本翻译模型是基于视觉语言预训练模型初始化后得到的。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于视觉语言预训练的图像文本翻译方法,其特征在于,包括:
确定源语言图像;
将所述源语言图像输入至图像文本翻译模型,得到所述图像文本翻译模型输出的所述源语言图像对应的目标语言文本;
其中,所述图像文本翻译模型的损失值基于样本预测源语言文本与样本源语言图像对应的样本源语言标签之间的差异,以及样本预测目标语言文本与所述样本目标语言标签之间的差异确定,所述样本预测源语言文本是所述图像文本翻译模型对所述样本源语言图像进行文字识别得到的,所述样本预测目标语言文本是所述图像文本翻译模型基于所述样本源语言图像对应的样本图像特征向量,以及所述样本预测源语言文本对所述样本源语言图像进行图像文本翻译得到的,所述图像文本翻译模型是基于视觉语言预训练模型初始化后得到的。
2.根据权利要求1所述的基于视觉语言预训练的图像文本翻译方法,其特征在于,所述图像文本翻译模型的损失值基于如下步骤确定:
将所述样本源语言图像输入至初始图像文本翻译模型的图像编码层,得到所述图像编码层输出的样本图像特征向量;
将所述样本图像特征向量输入至所述初始图像文本翻译模型的文字识别解码层,得到所述文字识别解码层输出的所述样本预测源语言文本;
将所述样本图像特征向量以及所述样本预测源语言文本输入至所述初始图像文本翻译模型的图像文本翻译层,得到所述图像文本翻译层输出的所述样本预测目标语言文本;
基于所述样本预测源语言文本与所述样本源语言标签之间的差异,以及所述样本预测目标语言文本与所述样本目标语言标签之间的差异,确定所述图像文本翻译模型的损失值。
3.根据权利要求2所述的基于视觉语言预训练的图像文本翻译方法,其特征在于,所述将所述样本图像特征向量输入至所述初始图像文本翻译模型的文字识别解码层,得到所述文字识别解码层输出的所述样本预测源语言文本,包括:
将所述样本源语言图像的位置向量以及所述样本图像特征向量输入至所述文字识别解码层,由所述文字识别解码层基于所述位置向量进行位置注意力计算,以及基于所述样本图像特征向量进行上下文注意力计算,得到所述文字识别解码层输出的所述样本预测源语言文本。
4.根据权利要求2所述的基于视觉语言预训练的图像文本翻译方法,其特征在于,所述将所述样本图像特征向量以及所述样本预测源语言文本输入至所述初始图像文本翻译模型的图像文本翻译层,得到所述图像文本翻译层输出的所述样本预测目标语言文本,包括:
将所述样本预测源语言文本输入至所述图像文本翻译层的文本编码层,得到所述文本编码层输出的样本文本特征向量;
将所述样本图像特征向量以及所述样本文本特征向量输入至所述图像文本翻译层的跨语言解码层,得到所述跨语言解码层输出的所述样本预测目标语言文本。
5.根据权利要求4所述的基于视觉语言预训练的图像文本翻译方法,其特征在于,所述将所述样本预测源语言文本输入至所述图像文本翻译层的文本编码层,得到所述文本编码层输出的样本文本特征向量,包括:
将所述样本预测源语言文本输入至所述文本编码层,由所述文本编码层对所述样本预测源语言文本中各分词进行归一化处理后,线性投影到联合图像文本嵌入空间,得到所述文本编码层输出的样本文本特征向量。
6.根据权利要求4所述的基于视觉语言预训练的图像文本翻译方法,其特征在于,所述将所述样本图像特征向量以及所述样本文本特征向量输入至所述图像文本翻译层的跨语言解码层,得到所述跨语言解码层输出的所述样本预测目标语言文本,包括:
将所述样本图像特征向量以及所述样本文本特征向量输入至所述跨语言解码层的向量组合层,得到所述向量组合层输出的跨模态向量;
将所述跨模态向量输入至所述跨语言解码层的跨模态解码层,得到所述跨模态解码输出的所述样本预测目标语言文本。
7.根据权利要求2所述的基于视觉语言预训练的图像文本翻译方法,其特征在于,所述基于所述样本预测源语言文本与所述样本源语言标签之间的差异,以及所述样本预测目标语言文本与所述样本目标语言标签之间的差异,确定所述图像文本翻译模型的损失值,包括:
基于所述样本预测源语言文本与所述样本源语言标签之间的差异,确定文字识别解码损失值;
基于所述样本预测目标语言文本与所述样本目标语言标签之间的差异,确定跨语言解码损失值;
基于所述文字识别解码损失值,以及所述跨语言解码损失值,确定所述图像文本翻译模型的损失值。
8.一种基于视觉语言预训练的图像文本翻译装置,其特征在于,包括:
确定单元,用于确定源语言图像;
翻译单元,用于将所述源语言图像输入至图像文本翻译模型,得到所述图像文本翻译模型输出的所述源语言图像对应的目标语言文本;
其中,所述图像文本翻译模型的损失值基于样本预测源语言文本与样本源语言图像对应的样本源语言标签之间的差异,以及样本预测目标语言文本与所述样本目标语言标签之间的差异确定,所述样本预测源语言文本是所述图像文本翻译模型对所述样本源语言图像进行文字识别得到的,所述样本预测目标语言文本是所述图像文本翻译模型基于所述样本源语言图像对应的样本图像特征向量,以及所述样本预测源语言文本对所述样本源语言图像进行图像文本翻译得到的,所述图像文本翻译模型是基于视觉语言预训练模型初始化后得到的。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述基于视觉语言预训练的图像文本翻译方法。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述基于视觉语言预训练的图像文本翻译方法。
CN202310996132.3A 2023-08-08 2023-08-08 基于视觉语言预训练的图像文本翻译方法及装置 Active CN117034965B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310996132.3A CN117034965B (zh) 2023-08-08 2023-08-08 基于视觉语言预训练的图像文本翻译方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310996132.3A CN117034965B (zh) 2023-08-08 2023-08-08 基于视觉语言预训练的图像文本翻译方法及装置

Publications (2)

Publication Number Publication Date
CN117034965A true CN117034965A (zh) 2023-11-10
CN117034965B CN117034965B (zh) 2024-03-22

Family

ID=88622073

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310996132.3A Active CN117034965B (zh) 2023-08-08 2023-08-08 基于视觉语言预训练的图像文本翻译方法及装置

Country Status (1)

Country Link
CN (1) CN117034965B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112800785A (zh) * 2021-04-13 2021-05-14 中国科学院自动化研究所 多模态机器翻译方法、装置、电子设备和存储介质
CN113011202A (zh) * 2021-03-23 2021-06-22 中国科学院自动化研究所 基于多任务训练的端到端图像文本翻译方法、系统、装置
CN113435216A (zh) * 2021-06-24 2021-09-24 湖南大学 神经网络机器翻译模型训练方法、机器翻译方法和装置
CN113971837A (zh) * 2021-10-27 2022-01-25 厦门大学 一种基于知识的多模态特征融合的动态图神经手语翻译方法
CN114239612A (zh) * 2021-06-10 2022-03-25 天津大学 一种多模态神经机器翻译方法、计算机设备及存储介质
CN114298121A (zh) * 2021-10-09 2022-04-08 腾讯科技(深圳)有限公司 基于多模态的文本生成方法、模型训练方法和装置
WO2022095345A1 (zh) * 2020-11-05 2022-05-12 苏州浪潮智能科技有限公司 一种多模态模型训练方法、装置、设备及存储介质
WO2022134164A1 (zh) * 2020-12-24 2022-06-30 科大讯飞股份有限公司 翻译方法、装置、设备及存储介质
CN114970721A (zh) * 2022-05-26 2022-08-30 北京有竹居网络技术有限公司 多语言多模态预训练模型的训练方法、装置及电子设备
CN115238115A (zh) * 2022-07-28 2022-10-25 平安科技(深圳)有限公司 基于中文数据的图像检索方法、装置、设备及存储介质
CN115640815A (zh) * 2022-11-10 2023-01-24 北京有竹居网络技术有限公司 翻译方法、装置、可读介质及电子设备
CN115640520A (zh) * 2022-11-07 2023-01-24 北京百度网讯科技有限公司 跨语言跨模态模型的预训练方法、设备和存储介质
CN116168401A (zh) * 2023-02-23 2023-05-26 厦门大学 基于多模态码本的文本图像翻译模型的训练方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022095345A1 (zh) * 2020-11-05 2022-05-12 苏州浪潮智能科技有限公司 一种多模态模型训练方法、装置、设备及存储介质
WO2022134164A1 (zh) * 2020-12-24 2022-06-30 科大讯飞股份有限公司 翻译方法、装置、设备及存储介质
CN113011202A (zh) * 2021-03-23 2021-06-22 中国科学院自动化研究所 基于多任务训练的端到端图像文本翻译方法、系统、装置
CN112800785A (zh) * 2021-04-13 2021-05-14 中国科学院自动化研究所 多模态机器翻译方法、装置、电子设备和存储介质
CN114239612A (zh) * 2021-06-10 2022-03-25 天津大学 一种多模态神经机器翻译方法、计算机设备及存储介质
CN113435216A (zh) * 2021-06-24 2021-09-24 湖南大学 神经网络机器翻译模型训练方法、机器翻译方法和装置
CN114298121A (zh) * 2021-10-09 2022-04-08 腾讯科技(深圳)有限公司 基于多模态的文本生成方法、模型训练方法和装置
CN113971837A (zh) * 2021-10-27 2022-01-25 厦门大学 一种基于知识的多模态特征融合的动态图神经手语翻译方法
CN114970721A (zh) * 2022-05-26 2022-08-30 北京有竹居网络技术有限公司 多语言多模态预训练模型的训练方法、装置及电子设备
CN115238115A (zh) * 2022-07-28 2022-10-25 平安科技(深圳)有限公司 基于中文数据的图像检索方法、装置、设备及存储介质
CN115640520A (zh) * 2022-11-07 2023-01-24 北京百度网讯科技有限公司 跨语言跨模态模型的预训练方法、设备和存储介质
CN115640815A (zh) * 2022-11-10 2023-01-24 北京有竹居网络技术有限公司 翻译方法、装置、可读介质及电子设备
CN116168401A (zh) * 2023-02-23 2023-05-26 厦门大学 基于多模态码本的文本图像翻译模型的训练方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
刘华峰 等: "跨模态表征与生成技术", 《中国图像图形学报》, vol. 28, no. 6, pages 1608 - 1629 *
刘宇宸 等: "跨模态信息融合的端到端语音翻译", 《软件学报》, vol. 34, no. 4, pages 1837 *
黄鑫 等: "基于跨模态实体信息融合的神经机器翻译方法", 《自动化学报》, vol. 49, no. 6, pages 1170 - 1180 *

Also Published As

Publication number Publication date
CN117034965B (zh) 2024-03-22

Similar Documents

Publication Publication Date Title
CN113011202B (zh) 基于多任务训练的端到端图像文本翻译方法、系统、装置
CN109359297B (zh) 一种关系抽取方法及系统
WO2023160472A1 (zh) 一种模型训练方法及相关设备
CN111079532A (zh) 一种基于文本自编码器的视频内容描述方法
CN110807335B (zh) 基于机器学习的翻译方法、装置、设备及存储介质
CN114596566B (zh) 文本识别方法及相关装置
CN112818712B (zh) 基于翻译记忆库的机器翻译方法及装置
CN112446221B (zh) 翻译评估方法、装置、系统及计算机存储介质
CN113836992A (zh) 识别标签的方法、训练标签识别模型的方法、装置及设备
CN111814496B (zh) 文本处理方法、装置、设备及存储介质
CN112182151B (zh) 基于多语言的阅读理解任务识别方法及装置
CN113743101A (zh) 文本纠错方法、装置、电子设备和计算机存储介质
CN116910307A (zh) 一种跨模态视频文本检索方法、系统、设备及介质
CN112417897A (zh) 词对齐模型训练、文本处理的方法、系统、设备和介质
CN111563380A (zh) 一种命名实体识别方法及其装置
CN114092931B (zh) 场景文字识别方法、装置、电子设备及存储介质
JP2023062150A (ja) 文字認識モデルトレーニング、文字認識方法、装置、機器及び媒体
CN115730585A (zh) 文本纠错及其模型训练方法、装置、存储介质及设备
CN116563840B (zh) 基于弱监督跨模态对比学习的场景文本检测与识别方法
CN117034965B (zh) 基于视觉语言预训练的图像文本翻译方法及装置
CN117253239A (zh) 融合版面信息的端到端文档图像翻译方法及装置
CN111325068B (zh) 基于卷积神经网络的视频描述方法及装置
CN115438220A (zh) 一种噪音鲁棒学习的跨语言跨模态检索方法及装置
CN113591493B (zh) 翻译模型的训练方法及翻译模型的装置
CN115565186A (zh) 文字识别模型的训练方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant