CN118397147A - 一种基于深度学习的图像文本生成方法及装置 - Google Patents
一种基于深度学习的图像文本生成方法及装置 Download PDFInfo
- Publication number
- CN118397147A CN118397147A CN202410691802.5A CN202410691802A CN118397147A CN 118397147 A CN118397147 A CN 118397147A CN 202410691802 A CN202410691802 A CN 202410691802A CN 118397147 A CN118397147 A CN 118397147A
- Authority
- CN
- China
- Prior art keywords
- image
- model
- training
- modal
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000013135 deep learning Methods 0.000 title claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 69
- 235000019580 granularity Nutrition 0.000 claims abstract description 34
- 238000013140 knowledge distillation Methods 0.000 claims abstract description 13
- 230000004927 fusion Effects 0.000 claims abstract description 11
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 61
- 238000004590 computer program Methods 0.000 claims description 12
- 238000004821 distillation Methods 0.000 claims description 8
- 230000007246 mechanism Effects 0.000 claims description 4
- 238000011524 similarity measure Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 8
- 238000013138 pruning Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 201000007848 Arts syndrome Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度学习的图像文本生成方法及装置,其包括:获取第一图像数据集和第二图像数据集,通过对比语言图像预训练方法对训练完成的第一图像模型进行微调,得到第二图像模型;通过transformer对第二图像模型进行特征提取,得到多个不同粒度的特征表示;通过多模态对比训练和负相关学习方法,对所述多个不同粒度的特征表示进行融合;基于融合后的多模态特征表示和预设教师模型,通过知识蒸馏方法训练学生模型;将目标图像输入到训练完成的学生模型,生成目标图像的预测文本。本发明通过对比语言图像预训练方法、多模态融合和负相关学习的结合,在减少了图文生成模型的计算需求的同时,提高了鲁棒性和准确性。
Description
技术领域
本发明属于深度学习与图像处理技术领域,具体涉及一种基于深度学习的图像文本生成方法及装置。
背景技术
近年来,图生文(Image-to-Text)技术在计算机视觉和自然语言处理领域取得了显著进展。主流方法通常依赖于大型预训练模型,如Transformer架构(例如BERT、ViT),这些模型在多个任务中表现出了卓越的性能。现有技术中,CLIP(Contrastive Language-Image Pretraining,对比语言图像预训练)通过对比学习在图像和文本之间建立了有效的连接,显著提高了图像-文本检索的效果。此外,多模态融合方法结合了粗粒度和细粒度表示学习,进一步提升了模型在多模态数据处理中的表现。
尽管现有技术在准确性和多样性上取得了显著进展,但高昂的计算资源需求仍然是一个亟待解决的问题。具体而言,现有方法在训练过程中通常需要大规模的计算资源和长时间的训练周期,这限制了它们在实际应用中的普及和推广。此外,单一的优化方法在处理复杂多模态数据时,往往难以同时兼顾模型的准确性、多样性和鲁棒性。因此,如何在降低计算资源需求的同时,保持和提升模型的性能,成为当前图生文技术发展的主要瓶颈。
发明内容
为实现降低计算资源需求的同时,保持和提升图生文模型的性能,在本发明的第一方面提供了一种基于深度学习的图像文本生成方法,包括:获取第一图像数据集和第二图像数据集,并根据第一图像数据集训练第一图像模型,其中第一图像的分辨率低于第二图像的分辨率;基于第二图像数据集,通过对比语言图像预训练方法对训练完成的第一图像模型进行微调,得到第二图像模型;通过transformer对第二图像模型进行特征提取,得到多个不同粒度的特征表示;通过多模态对比训练和负相关学习方法,对所述多个不同粒度的特征表示进行融合;基于融合后的多模态特征表示和预设教师模型,通过知识蒸馏方法训练学生模型;将目标图像输入到训练完成的学生模型,生成目标图像的预测文本。
在本发明的一些实施例中,所述基于第二图像数据集,通过对比语言图像预训练方法对训练完成的第一图像模型进行微调,得到第二图像模型包括:基于第二图像数据集及其对应的文本描述,对训练完成的第一图像模型进行微调;基于对比语言图像预训练方法和对比损失函数,对微调后的第一图像模型训练图文嵌入表示。
进一步的,所述对比损失函数表示为:
,
其中,Z i表示第二图像嵌入,c i表示第i个文本嵌入;Sim表示相似度度量函数,M表示第二图像样本数;j表示第二图像的样本序数。
在本发明的一些实施例中,所述通过transformer对第二图像模型进行特征提取,得到多个不同粒度的特征表示包括:分别通过transformer的编码器和多头注意力机制,提取第二图像模型中的多个不同粒度的特征表示;通过transformer的融合模块,将所述多个不同粒度的特征表示进行融合。
在本发明的一些实施例中,所述通过多模态对比训练和负相关学习方法,对所述多个不同粒度的特征表示进行融合包括:确定参与多模态对比训练和负相关学习方法的多模态模型数量、每个多模态模型的预测损失函数和集成预测损失函数;基于多模态模型数量、每个多模态模型的预测损失函数和集成预测损失函数,构建负相关损失函数;通过所述负相关损失函数,对所述多个不同粒度的特征表示进行融合。
在本发明的一些实施例中,所述基于融合后的多模态特征表示和预设教师模型,通过知识蒸馏方法训练学生模型包括:将融合后的多模态特征表示输入到预设教师模型,将预设教师模型的输出作为学生模型的软标签;确定预设教师模型和学生模型之间的交叉熵损失和KL散度损失的权重,以及动态温度系数;根据所述交叉熵损失和KL散度损失的权重,以及温度系数确定蒸馏损失函数;基于融合后的多模态特征表示和软标签,并通过蒸馏损失函数训练学生模型。
本发明的第二方面,提供了一种基于深度学习的图像文本生成装置,包括:获取模块,用于获取第一图像数据集和第二图像数据集,并根据第一图像数据集训练第一图像模型,其中第一图像的分辨率低于第二图像的分辨率;微调模块,用于基于第二图像数据集,通过对比语言图像预训练方法对训练完成的第一图像模型进行微调,得到第二图像模型;提取模块,用于通过transformer对第二图像模型进行特征提取,得到多个不同粒度的特征表示;融合模块,用于通过多模态对比训练和负相关学习方法,对所述多个不同粒度的特征表示进行融合;生成模块,用于基于融合后的多模态特征表示和预设教师模型,通过知识蒸馏方法训练学生模型;将目标图像输入到训练完成的学生模型,生成目标图像的预测文本。
本发明的第三方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明在第一方面提供的基于深度学习的图像文本生成方法。
本发明的第四方面,提供了一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现本发明在第一方面提供的基于深度学习的图像文本生成方法。
本发明的有益效果是:
本发明通过RECLIP预训练和微调,减少初始训练阶段的计算资源需求,然后在高分辨率数据上进行微调,恢复和提升模型性能;通过多模态融合,实现粗粒度和细粒度表示学习,并利用Transformer提取全局和局部特征,并通过一致的多模态对比训练,动态调整各自的权重,确保有效融合多模态信息。通过负相关学习在Transformer架构中实现,强化模型多样性和鲁棒性,减少预测误差。通过知识蒸馏和剪枝降低模型复杂度,并进一步减少计算资源需求。
附图说明
图1为本发明的一些实施例中的基于深度学习的图像文本生成方法的基本流程示意图;
图2为本发明的一些实施例中的基于深度学习的图像文本生成方法的具体流程示意图;
图3为本发明的一些实施例中的通过负相关学习方法进行特征融合的流程示意图;
图4为本发明的一些实施例中的通过蒸馏方法训练学生模型的结构示意图;
图5为本发明的一些实施例中的电子设备的结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
参考图1与图2,在本发明的第一方面,提供了一种基于深度学习的图像文本生成方法,包括:S100.获取第一图像数据集和第二图像数据集,并根据第一图像数据集训练第一图像模型,其中第一图像的分辨率低于第二图像的分辨率;S200.基于第二图像数据集,通过对比语言图像预训练方法对训练完成的第一图像模型进行微调,得到第二图像模型;S300.通过transformer对第二图像模型进行特征提取,得到多个不同粒度的特征表示;S400.通过多模态对比训练和负相关学习方法,对所述多个不同粒度的特征表示进行融合;S300.基于融合后的多模态特征表示和预设教师模型,通过知识蒸馏方法训练学生模型;将目标图像输入到训练完成的学生模型,生成目标图像的预测文本。
可以理解,第一图像模型、第二图像模型均为多模态模型,也即是图文多模态模型。第一图像的分辨率低于第二图像的分辨率,分别表示低分辨率图像数据集和高分辨图像数据集,且每个图像数据集除包含图像本身之外,还应该包括每张图像的文本描述。
在本发明的一些实施例的步骤S100中,获取第一图像数据集和第二图像数据集,并根据第一图像数据集训练第一图像模型,其中第一图像的分辨率低于第二图像的分辨率。通过使用小图像数据集(低分辨率图像数据集)进行的预训练,减少图像文本生成模型的计算资源需求。
在本发明的一些实施例的步骤S200中,所述基于第二图像数据集,通过对比语言图像预训练方法对训练完成的第一图像模型进行微调,得到第二图像模型包括:
S201.基于第二图像数据集及其对应的文本描述,对训练完成的第一图像模型进行微调;
具体地,预训练损失函数表示为:
,
其中,Z i表示第一图像嵌入,c i表示第i个文本嵌入;Sim表示相似度度量函数,通常用向量相似度表示;N表示第二图像样本数;j表示第二图像的样本序数。
所述对比损失函数(微调损失函数)表示为:
,
其中,Z i ’表示第二图像嵌入,c i表示第i个文本嵌入;Sim表示相似度度量函数,M表示第二图像样本数;j表示第二图像的样本序数。
S202.基于对比语言图像预训练方法和对比损失函数,对微调后的第一图像模型训练图文嵌入表示。
整体损失函数表示为:L RECLIP =L pretrain +λL finetune,其中λ表示微调损失的权重。可以理解,通过高分辨率数据对模型进行微调,恢复和提升模型性能。
在本实施例中采用资源高效的对比语言图像预训练(Resource-EfficientContrastive Language-Image Pretraining,RECLIP)方法。
在本发明的一些实施例的步骤S300中,所述通过transformer对第二图像模型进行特征提取,得到多个不同粒度的特征表示包括:
S301.分别通过transformer的编码器和多头注意力机制,提取第二图像模型中的多个不同粒度的特征表示;
具体地,通过transformer的编码器提取第二图像模型中的全局特征,实现粗粒度表示;通过多头注意力机制提取第二图像模型中的局部特征,实现细粒度表示。
S302.通过transformer的融合模块,将所述多个不同粒度的特征表示进行融合。
结合步骤S301中的粗粒度和细粒度表示第二图像模型进行一致的多模态对比训练。
L
multimodal
=λ
coarse
L
coarse
+λ
fine
L
fine
,
L coarse表示粗粒度表示学习的损失函数,λ coarse表示粗粒度表示学习的权重;L fine表示粗粒度表示学习的损失函数,λ fine表示细粒度表示学习的权重。可以理解,当粗粒度特征表示或细粒度特征表示有多个时,上述对应的损失函数则用累加损失表示。
参考图2,在本发明的一些实施例的步骤S400中,所述通过多模态对比训练和负相关学习方法,对所述多个不同粒度的特征表示进行融合包括:
S401.确定参与多模态对比训练和负相关学习方法的多模态模型数量、每个多模态模型的预测损失函数和集成预测损失函数;
具体地,每个多模态模型的预测损失函数表示为l(h i, y),y表示真实标签(在本实施例中是指样本图像的正确文本描述)。
S402.基于多模态模型数量、每个多模态模型的预测损失函数和集成预测损失函数,构建负相关损失函数;
所述负相关损失函数表示为:
,
M表示集成成员总数;d表示差异h i −f,f表示集成预测损失函数;D表示损失函数的二阶导数;λ表示权重超参数。特别地,为了优化训练效果,降低计算量,通过集成和个人损失的平衡函数来调节局部损失和整体损失。所述平衡函数表示为:
。
S403.通过所述负相关损失函数,对所述多个不同粒度的特征表示进行融合。
参考图3,在本发明的一些实施例的步骤S500中,所述基于融合后的多模态特征表示和预设教师模型,通过知识蒸馏方法训练学生模型包括:
S501.将融合后的多模态特征表示输入到预设教师模型,将预设教师模型的输出作为学生模型的软标签;
具体地,使用预训练的高性能大型模型作为教师模型,选择一个较小的模型作为学生模型,确保其结构简单、计算量小。
S502.确定预设教师模型和学生模型之间的交叉熵损失和KL散度损失的权重,以及动态温度系数;
S503.根据所述交叉熵损失和KL散度损失的权重,以及温度系数确定蒸馏损失函数;
具体地,知识蒸馏损失函数结合了学生模型的标准交叉熵损失和学生模型输出与教师模型输出之间的KL散度损失。
标准交叉熵损失(Cross-Entropy Loss)表示学生模型在真实标签上的标准分类损失,用于确保学生模型能够正确分类输入数据,其定义为:L CE =CrossEntropy(p S ,y),p S表示学生模型的输出概率分布,通过激活函数(例如softmax)计算。KL散度损失 (Kullback-Leibler Divergence Loss)表示学生模型输出与教师模型输出之间的KL散度损失,用于让学生模型模仿教师模型的输出分布。其定义为:
L KL=KL(p T∥p s),
其中,p T是教师模型的输出概率分布,并使用温度系数进行调整;p s是学生模型的输出概率分布,并使用温度系数进行调整;温度系数T用于平滑教师模型和学生模型的输出概率分布,使学生模型能够更好地学习教师模型的知识。
S504.基于融合后的多模态特征表示和软标签,并通过蒸馏损失函数训练学生模型。
具体地,结合交叉熵损失和KL散度损失,定义综合蒸馏损失函数:L distill =αL CE +(1− α)T 2 L KL,
其中:α是用于平衡交叉熵损失和KL散度损失的权重参数;T是温度系数。
在一些实施例中,为了进一步减少模型的复杂度和计算需求。还包括:S504.对训练完成的学生模型进行剪枝。具体地,对训练完成的学生模型进行剪枝,去除冗余参数和无用连接,剪枝后的损失函数表示为:
,
L prune为剪枝后的损失函数,L baseline为原始损失函数,λ为剪枝正则化项的权重,w i为第i个权重,τ为剪枝阈值。表示指示函数,即当∣w i∣<τ时,函数值为1;否则为0。换句话说,它用于判断每个权重w i是否小于阈值τ。如果满足条件∣w i∣<τ,则指示函数的值为1,否则为0。
需要说明的是,教师模型通常为参数较大规模的大语言模型,例如GPT-3(Generative Pre-trained Transformer 3)、BERT(Bidirectional EncoderRepresentations from Transformers)或CLIP(Contrastive Language-ImagePretraining)等;学生模型为DistilBERT、MobileNet、TinyBERT、TinyLlama、LiteLlama等小语言模型。
可以理解,本发明通过RECLIP技术、小图像预训练和高分辨率微调,减少计算资源需求;通过Transformer模型进行粗粒度和细粒度表示学习,并通过多模态对比训练融合信息;通过负相关学习增强模型的多样性和鲁棒性;通过知识蒸馏指导学生模型训练,以及通过模型剪枝删除不重要的参数。整个系统综合使用了Transformer和其他技术,确保在降低计算资源的同时,提升模型的准确性和鲁棒性。
实施例2
参考图4,本发明的第二方面,提供了一种基于深度学习的图像文本生成装置1,包括:获取模块11,用于获取第一图像数据集和第二图像数据集,并根据第一图像数据集训练第一图像模型,其中第一图像的分辨率低于第二图像的分辨率;微调模块12,用于基于第二图像数据集,通过对比语言图像预训练方法对训练完成的第一图像模型进行微调,得到第二图像模型;提取模块13,用于通过transformer对第二图像模型进行特征提取,得到多个不同粒度的特征表示;融合模块14,用于通过多模态对比训练和负相关学习方法,对所述多个不同粒度的特征表示进行融合;生成模块15,用于基于融合后的多模态特征表示和预设教师模型,通过知识蒸馏方法训练学生模型;将目标图像输入到训练完成的学生模型,生成目标图像的预测文本。
进一步的,所述微调模块12包括:微调单元,用于基于第二图像数据集及其对应的文本描述,对训练完成的第一图像模型进行微调;训练单元,用于基于对比语言图像预训练方法和对比损失函数,对微调后的第一图像模型训练图文嵌入表示。
实施例3
参考图5,本发明的第三方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明在第一方面的基于深度学习的图像文本生成方法。
电子设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有电子设备500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图5中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例所描述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个计算机程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++、Python,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。需要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于深度学习的图像文本生成方法,其特征在于,包括:
获取第一图像数据集和第二图像数据集,并根据第一图像数据集训练第一图像模型,其中第一图像的分辨率低于第二图像的分辨率;
基于第二图像数据集,通过对比语言图像预训练方法对训练完成的第一图像模型进行微调,得到第二图像模型;
通过transformer对第二图像模型进行特征提取,得到多个不同粒度的特征表示;
通过多模态对比训练和负相关学习方法,对所述多个不同粒度的特征表示进行融合;
基于融合后的多模态特征表示和预设教师模型,通过知识蒸馏方法训练学生模型;将目标图像输入到训练完成的学生模型,生成目标图像的预测文本。
2.根据权利要求1所述的基于深度学习的图像文本生成方法,其特征在于,所述基于第二图像数据集,通过对比语言图像预训练方法对训练完成的第一图像模型进行微调,得到第二图像模型包括:
基于第二图像数据集及其对应的文本描述,对训练完成的第一图像模型进行微调;
基于对比语言图像预训练方法和对比损失函数,对微调后的第一图像模型训练图文嵌入表示。
3.根据权利要求2所述的基于深度学习的图像文本生成方法,其特征在于,所述对比损失函数表示为:
,
其中,Z i表示第二图像嵌入,c i表示第i个文本嵌入;Sim表示相似度度量函数,M表示第二图像样本数;j表示第二图像的样本序数。
4.根据权利要求1所述的基于深度学习的图像文本生成方法,其特征在于,所述通过transformer对第二图像模型进行特征提取,得到多个不同粒度的特征表示包括:
分别通过transformer的编码器和多头注意力机制,提取第二图像模型中的多个不同粒度的特征表示;
通过transformer的融合模块,将所述多个不同粒度的特征表示进行融合。
5.根据权利要求1所述的基于深度学习的图像文本生成方法,其特征在于,所述通过多模态对比训练和负相关学习方法,对所述多个不同粒度的特征表示进行融合包括:
确定参与多模态对比训练和负相关学习方法的多模态模型数量、每个多模态模型的预测损失函数和集成预测损失函数;
基于多模态模型数量、每个多模态模型的预测损失函数和集成预测损失函数,构建负相关损失函数;
通过所述负相关损失函数,对所述多个不同粒度的特征表示进行融合。
6.根据权利要求1所述的基于深度学习的图像文本生成方法,其特征在于,所述基于融合后的多模态特征表示和预设教师模型,通过知识蒸馏方法训练学生模型包括:
将融合后的多模态特征表示输入到预设教师模型,将预设教师模型的输出作为学生模型的软标签;
确定预设教师模型和学生模型之间的交叉熵损失和KL散度损失的权重,以及动态温度系数;根据所述交叉熵损失和KL散度损失的权重,以及温度系数确定蒸馏损失函数;
基于融合后的多模态特征表示和软标签,并通过蒸馏损失函数训练学生模型。
7.一种基于深度学习的图像文本生成装置,其特征在于,包括:
获取模块,用于获取第一图像数据集和第二图像数据集,并根据第一图像数据集训练第一图像模型,其中第一图像的分辨率低于第二图像的分辨率;
微调模块,用于基于第二图像数据集,通过对比语言图像预训练方法对训练完成的第一图像模型进行微调,得到第二图像模型;
提取模块,用于通过transformer对第二图像模型进行特征提取,得到多个不同粒度的特征表示;
融合模块,用于通过多模态对比训练和负相关学习方法,对所述多个不同粒度的特征表示进行融合;
生成模块,用于基于融合后的多模态特征表示和预设教师模型,通过知识蒸馏方法训练学生模型;将目标图像输入到训练完成的学生模型,生成目标图像的预测文本。
8.根据权利要求7所述的基于深度学习的图像文本生成装置,其特征在于,所述微调模块包括:
微调单元,用于基于第二图像数据集及其对应的文本描述,对训练完成的第一图像模型进行微调;
训练单元,用于基于对比语言图像预训练方法和对比损失函数,对微调后的第一图像模型训练图文嵌入表示。
9.一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至6任一项所述的基于深度学习的图像文本生成方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述的基于深度学习的图像文本生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410691802.5A CN118397147A (zh) | 2024-05-30 | 2024-05-30 | 一种基于深度学习的图像文本生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410691802.5A CN118397147A (zh) | 2024-05-30 | 2024-05-30 | 一种基于深度学习的图像文本生成方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118397147A true CN118397147A (zh) | 2024-07-26 |
Family
ID=91987926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410691802.5A Pending CN118397147A (zh) | 2024-05-30 | 2024-05-30 | 一种基于深度学习的图像文本生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118397147A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118628614A (zh) * | 2024-08-13 | 2024-09-10 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 基于少样本学习的大语言模型的图到文本生成方法及装置 |
-
2024
- 2024-05-30 CN CN202410691802.5A patent/CN118397147A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118628614A (zh) * | 2024-08-13 | 2024-09-10 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 基于少样本学习的大语言模型的图到文本生成方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444340B (zh) | 文本分类方法、装置、设备及存储介质 | |
CN109902186B (zh) | 用于生成神经网络的方法和装置 | |
CN110852438B (zh) | 模型生成方法和装置 | |
KR102170199B1 (ko) | 비교 세트를 사용한 입력 예시들 분류 | |
CN111523640B (zh) | 神经网络模型的训练方法和装置 | |
CN113470619B (zh) | 语音识别方法、装置、介质及设备 | |
CN109918568B (zh) | 个性化学习方法、装置、电子设备及存储介质 | |
CN117709426A (zh) | 训练机器学习模型的方法、系统和计算机存储介质 | |
CN111666416B (zh) | 用于生成语义匹配模型的方法和装置 | |
CN111340220B (zh) | 用于训练预测模型的方法和装置 | |
CN118397147A (zh) | 一种基于深度学习的图像文本生成方法及装置 | |
CN112509562B (zh) | 用于文本后处理的方法、装置、电子设备和介质 | |
CN110263218B (zh) | 视频描述文本生成方法、装置、设备和介质 | |
WO2022156434A1 (zh) | 用于生成文本的方法和装置 | |
CN113095129A (zh) | 姿态估计模型训练方法、姿态估计方法、装置和电子设备 | |
CN116977885A (zh) | 视频文本任务处理方法、装置、电子设备及可读存储介质 | |
CN117633228A (zh) | 模型训练方法和装置 | |
CN114861758A (zh) | 多模态数据处理方法、装置、电子设备及可读存储介质 | |
WO2024001653A9 (zh) | 特征提取方法、装置、存储介质及电子设备 | |
CN115129877B (zh) | 标点符号预测模型的生成方法、装置和电子设备 | |
CN115795025A (zh) | 一种摘要生成方法及其相关设备 | |
CN113255819B (zh) | 用于识别信息的方法和装置 | |
CN112685996B (zh) | 文本标点预测方法、装置、可读介质和电子设备 | |
CN113361677B (zh) | 神经网络模型的量化方法和装置 | |
CN114020908A (zh) | 文本分类方法及装置、计算机可读存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |