CN114240811A - 一种基于多张图像生成新图像的方法 - Google Patents
一种基于多张图像生成新图像的方法 Download PDFInfo
- Publication number
- CN114240811A CN114240811A CN202111430792.2A CN202111430792A CN114240811A CN 114240811 A CN114240811 A CN 114240811A CN 202111430792 A CN202111430792 A CN 202111430792A CN 114240811 A CN114240811 A CN 114240811A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- feature extraction
- transformation
- extraction network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于多张图像生成新图像的方法,该方法将多张输入图像分别输入训练后的图像特征提取网络,提取每个输入图像的多尺度特征;将输入图像、输入图像的姿态和目标姿态输入训练后的变换特征提取网络,提取每个输入图像多尺度下的初始变换、遮挡图和注意力图;将目标姿态输入训练后的目标合成网络,所述目标合成网络包括编码器和解码器,且在解码器的不同层级,加入残差模块和融合模块;目标合成网络预测每个输入图像特征在不同尺度下的残差变换来改善匹配目标姿态,然后对变换后的特征进行融合以得到目标特征,最终通过解码器解码目标特征得到生成的目标图像。本发明的方法可以适用于多种类型的图像数据,能够尽可能地保留图像细节。
Description
技术领域
本发明涉及图像生成领域,尤其涉及一种基于多张图像生成新图像的方法。
背景技术
图像生成技术在多种场合下有广泛的应用。如基于姿态的人体图像生成、基于表情的人脸图像合成和基于视角的新视角合成等。这类图像生成工作大致可以分为基于单张和基于多张输入的方法。基于单张图像的方法普遍存在的问题是:对于被遮挡和不可见的区域,无法生成真实的图像,如早期的人体图像生成工作(Ma,Liqian,et al."Pose guidedperson image generation."arXiv preprint arXiv:1705.09368(2017).)和新视角合成工作(Zhou,Tinghui,et al."View synthesis by appearance flow."Europeanconference on computer vision.Springer,Cham,2016.)。基于多张输入的方法可以有效地补充缺失信息,但是带来新的挑战。基于神经网络直接生成图像的方法通过学习大量数据,将输入图像编码后,取平均,直接交给神经网络预测输出图像(Zakharov,Egor,et al."Few-shot adversarial learning of realistic neural talking head models."Proceedings of the IEEE/CVF International Conference on ComputerVision.2019.),此类方法虽然能够生成结构正确的结果,但是无法保持原有细节,需要依赖测试时微调来补充细节。(Lathuilière,Stéphane,et al."Attention-based fusionfor multi-source human image generation."Proceedings of the IEEE/CVF WinterConference on Applications of Computer Vision.2020.)采用仿射变换对人体图像进行变换,但是无法处理图像中的大幅度非刚性变换,例如衣服等。另有一些方法针对特定对象学习一个网络(Liu,Lingjie,et al."Neural rendering and reenactment of humanactor videos."ACM Transactions on Graphics(TOG)38.5(2019):1-14.)(Wang,Ting-Chun,et al."Video-to-video synthesis."arXiv preprint arXiv:1808.06601(2018).)
发明内容
针对现有技术的不足,本发明提供一种基于多张图像生成新图像的方法,该方法利用神经网络获得源到目标的大致变换后,通过解码器中的级联残差模块和融合模块,减少不同源之间的错位问题,同时相当程度地保留了原图中的细节。本发明是对单张输入的图像生成方法的重要补充,能够提高图像生成的鲁棒性。
本发明的目的通过如下的技术方案来实现:
一种基于多张图像生成新图像的方法,该方法包括以下步骤:
(1)将多张输入图像分别输入训练后的图像特征提取网络,提取每个输入图像的多尺度特征;将输入图像、输入图像的姿态和目标姿态输入训练后的变换特征提取网络,提取每个输入图像多尺度下的初始变换、遮挡图和注意力图,所述变换具体指的是每个像素由原图像变换到目标图像的位移量;
(2)将目标姿态输入训练后的目标合成网络,所述目标合成网络包括编码器和解码器,且在解码器的不同层级,加入残差模块和融合模块;所述目标姿态经过编码器后得到第一层级的目标特征,由第一层级的残差模块结合第一层级的来自变换特征提取网络的初始变换和图像特征提取网络的输入图像的特征,得到第一层级的残差变换;把来自变换特征提取网络的初始变换和残差变换相加,以得到优化后的变换;第一层级的融合模块根据所述优化后的变换,将图像特征提取网络提取的每张输入图像的特征都变换到目标姿态后,然后根据变换特征提取网络的遮挡图对每个输入图像的特征进行补全,再根据变换特征提取网络的注意力图对补全后的不同输入图像的特征进行加权融合,得到第一层级融合后的目标特征,输出给第一层级的解码器进行解码,得到下一层级的输入目标特征;在不同的层级重复上述操作,最终得到目标图像。
进一步地,所述图像特征提取网络和变换特征提取网络以及目标合成网络均为卷积神经网络。
进一步地,对训练图像特征提取网络、变换特征提取网络和目标合成网络进行训练时,首先采用训练数据集训练变换特征提取网络,使得经过初始变换后的输入图像特征和目标图像特征之间的距离最小,得到预训练后的变换特征提取网络;再采用训练数据集同时训练图像特征提取网络、预训练后的变换特征提取网络和目标合成网络,使得生成图像和目标图像之间的距离最小。
本发明的有益效果如下:
用户只需要输入多张同一人物/物体/场景的多张图像和目标姿态信息(人体姿态/人脸标记/视角等),本发明的方法可以自动合成目标姿态下的图像。本发明通过输入多张图像合成新图像,弥补了输入单张图像中数据不足的弊端。同时,通过解码器中的级联残差模块和融合模块,将多张输入图像的特征相结合,可以得到高质量的生成图像。
附图说明
图1是本发明的算法流程图;上方左侧为图像特征提取网络;上方右侧为变换特征提取网络;下方为目标合成网络;虚线框中标出了各个字母代表的含义。
图2为本发明提出的残差融合模块的细节图;虚线框中标出了运算符的含义以及各个字母代表的含义。
图3为本发明在人脸Voxceleb2图像数据集上的生成结果;从左到右为:第1~7个图为输入图像,第8个为目标姿态,第9个为输入第1~2个图的生成结果,第10个为输入第1~4个图的生成结果,第11个为采用本发明的方法输入第1~7个图的生成结果,第12个为实际目标图像。
图4为本发明在ShapeNet椅子数据集上的生成结果;从左到右为:第1~4个图为输入图像,第5个为采用本发明的方法生成的结果,第6个为实际目标图像。
图5为本发明在人体DeepFashion图像数据集上的生成结果;从左到右为:第1~2个图为输入图像,第3个为目标姿态,第4个为采用本发明的方法生成的结果,第5个为实际目标图像。
具体实施方式
下面根据附图和优选实施例详细描述本发明,本发明的目的和效果将变得更加明白,应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明的基于多张图像生成新图像的方法,适用于输入为同一类别且同一对象的多张不同姿态的图像,以及目标姿态,以生成目标姿态下的目标图像。本发明适用场景广泛,可用于多种类型的数据和姿态,例如:输入人体图像,对应姿态为2D人体关键点的热度图;输入人脸图像,对应姿态为2D人脸表情关键点的光栅化图像;输入场景图像,对应姿态为6D相机位姿;输入物体形状图像,对应姿态为观察角度。
本发明的方法的核心流程为:
首先利用图像特征提取网络和变换特征提取网络获得每个输入图像到目标图像的初始变换,再通过目标合成网络的解码器中的残差模块,得到残差的变换,将残差变换与初始变换相加,在融合模块中,用得到的优化后的变换去变换每个输入图像特征,以减少不同输入之间的错位问题,然后根据变换特征提取网络的遮挡图对每个输入图像的特征进行补全,同时基于注意力图,从不同分支的输入图像特征中拿到最有关联性的特征进行加权融合,得到高质量的结果。
本发明包括如下步骤:
1.基于特征提取网络的特征提取:将多张输入图像分别输入训练后的图像特征提取网络,提取每个输入图像的多尺度特征;将输入图像、输入图像的姿态和目标姿态输入训练后的变换特征提取网络,提取每个输入图像多尺度下的初始变换(flow)、遮挡图(occlusion)和注意力图(attention);初始变换负责将输入图像特征大致变换到目标姿态,遮挡图编码了可见和不可见区域,注意力图从不同的输入源中选取更重要的输入。
1.1构建图像特征提取网络、变换特征提取网络、目标姿态提取网络
这里的wk,ak,mk均为多尺度的,即wk={wk,i},i表示第i个尺度。其中,wk为两通道,存储了每个像素的位移,ak,mk为单通道,分别存储了取值范围为[0,1]的置信度值。
其中,变换特征提取网络F需要进行预训练,由于没有基准的变换进行有监督学习,这里基于采样正确性损失Lcor(Ren,Yurui,et al."Structureflow:Image inpaintingvia structure-aware appearance flow."Proceedings of the IEEE/CVFInternational Conference on Computer Vision.2019.)来训练网络F,使得wk采样获得的图像特征与目标图像特征的余弦相似度最大,从而约束wk接近正确的变换。同时,采用正则损失Lreg(Ren,Yurui,et al."Deep image spatial transformation for person imagegeneration."Proceedings of the IEEE/CVF Conference on Computer Vision andPattern Recognition.2020.),惩罚wk中的局部非仿射变换,减少局部高频抖动,使得wk更平滑。
变换特征提取网络进行预训练后,再采用训练数据集同时训练图像特征提取网络、预训练后的变换特征提取网络和目标合成网络,使得生成图像和目标图像之间的距离最小。
2.目标图像生成
目标合成网络包括编码器和解码器,且在解码器的不同层级,加入残差模块和融合模块。目标姿态经过编码器后得到第一层级的目标特征,结合第一层级的来自变换特征提取网络初始变换和图像特征提取网络的输入图像的特征,得到第一层级的残差模块的残差变换,结合来自变换特征提取网络初始变换和残差变换得到优化后的变换;第一层级的融合模块根据所述优化后的变换,将图像特征提取网络提取的每张输入图像的特征都变换到目标姿态后,然后根据变换特征提取网络的遮挡图对每个每张输入图像的特征进行补全,再根据变换特征提取网络的注意力图对补全后的不同输入图像的特征进行加权融合,得到第一层级融合后的目标特征,输出给第一层级的解码器进行解码,得到下一层级的输入目标特征;在不同的层级重复上述操作,最终得到目标图像。
2.1目标姿态编码
对于目标姿态编码器T,其输入为目标姿态,输出为第一层级的目标特征ft 0=T(Pt)。
2.2残差预测
本发明的残差预测为多尺度的,不同尺度的操作相同,以尺度i下的残差预测为例:
(3)通过将残差变换rk,i与原变换wk,i相加,以提升从源到目标变换的准确性,提升不同源变换之后的对齐度:
2.3.融合特征
本发明的特征融合为多尺度的,不同尺度的操作相同,以尺度i下的特征融合为例
经过步骤2.1的残差变换预测,所有的输入特征都变换到了目标姿态下。为了得到最终的单一目标特征,根据遮挡图对每个输入特征与当前层的目标特征ft i加权进行修补,同时根据注意力图对不同输入特征进行加权求和,输出给第i层的解码器进行解码,得到下一层级的输入目标特征ft i+1。
2.4.输出目标图像
由步骤2.1可知,ft 0由目标姿态编码器T得到,ft 0=T(pt);又由2.3可知,解码器中第i+1层的目标特征ft i+1由第i层的源特征和目标特征共同得到。因此这是一个逐级迭代的生成过程。解码器的最后一层经过卷积层和Tanh激活层,生成图像
本发明的图像特征提取网络、变换特征提取网络和目标合成网络进行训练时,损失函数如下:
最终损失函数由以上四项损失函数以及1.1中提到的两项损失函数加权获得。训练时,使用Adam优化器,使得最终损失函数最小化。网络的学习率为0.0001。
实施实例
在一台配备Intel I5-4430中央处理器,Nvidia GeForce GTX 1080Ti显卡以及16GB内存的台式计算机上,使用PyTorch编程语言实现了本发明的实施实例。该实施例使用香港中文大学多媒体实验室的DeepFashion公共数据集,姿态表示为人体2D关键点的热度图,得到图5的结果;使用Voxceleb2数据集,姿态表示为人脸2D关键点的光栅化图像,得到图3的结果;使用ShapeNet椅子数据集,姿态表示为观察角度,得到图4的结果,以及在城市街景KITTI数据集和清华大学标注的Market-1501行人识别公共数据集上进行了实验。通过上述实验表明,本发明能够有效地支持多种数据,且生成的结果能够将输入图像的特征和细节经过合理的变换迁移到目标姿态,同时,本发明有效提取多张输入图像的信息,克服了单张输入的歧义问题,最终生成的图像真实、自然。
本发明建模了一个统一的框架,在多种类型的数据上进行了实验,如人脸表情,人体姿态,视角等。大量的实验表明,本发明的方法可以在不同类型的图像数据(人脸图像、人体图像、城市场景)取得良好的效果,保持输入图像的特征并尽可能的保留细节。
本领域普通技术人员可以理解,以上所述仅为发明的优选实例而已,并不用于限制发明,尽管参照前述实例对发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实例记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在发明的精神和原则之内,所做的修改、等同替换等均应包含在发明的保护范围之内。
Claims (3)
1.一种基于多张图像生成新图像的方法,其特征在于,该方法包括以下步骤:
(1)将多张输入图像分别输入训练后的图像特征提取网络,提取每个输入图像的多尺度特征;将输入图像、输入图像的姿态和目标姿态输入训练后的变换特征提取网络,提取每个输入图像多尺度下的初始变换、遮挡图和注意力图,所述变换具体指的是每个像素由原图像变换到目标图像的位移量;
(2)将目标姿态输入训练后的目标合成网络,所述目标合成网络包括编码器和解码器,且在解码器的不同层级,加入残差模块和融合模块;所述目标姿态经过编码器后得到第一层级的目标特征,由第一层级的残差模块结合第一层级的来自变换特征提取网络的初始变换和图像特征提取网络的输入图像的特征,得到第一层级的残差变换;把来自变换特征提取网络的初始变换和残差变换相加,以得到优化后的变换;第一层级的融合模块根据所述优化后的变换,将图像特征提取网络提取的每张输入图像的特征都变换到目标姿态后,然后根据变换特征提取网络的遮挡图对每个输入图像的特征进行补全,再根据变换特征提取网络的注意力图对补全后的不同输入图像的特征进行加权融合,得到第一层级融合后的目标特征,输出给第一层级的解码器进行解码,得到下一层级的输入目标特征;在不同的层级重复上述操作,最终得到目标图像。
2.根据权利要求1所述的基于多张图像生成新图像的方法,其特征在于,所述图像特征提取网络和变换特征提取网络以及目标合成网络均为卷积神经网络。
3.根据权利要求1所述的基于多张图像生成新图像的方法,其特征在于,对训练图像特征提取网络、变换特征提取网络和目标合成网络进行训练时,首先采用训练数据集训练变换特征提取网络,使得经过初始变换后的输入图像特征和目标图像特征之间的距离最小,得到预训练后的变换特征提取网络;再采用训练数据集同时训练图像特征提取网络、预训练后的变换特征提取网络和目标合成网络,使得生成图像和目标图像之间的距离最小。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111430792.2A CN114240811A (zh) | 2021-11-29 | 2021-11-29 | 一种基于多张图像生成新图像的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111430792.2A CN114240811A (zh) | 2021-11-29 | 2021-11-29 | 一种基于多张图像生成新图像的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114240811A true CN114240811A (zh) | 2022-03-25 |
Family
ID=80751804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111430792.2A Pending CN114240811A (zh) | 2021-11-29 | 2021-11-29 | 一种基于多张图像生成新图像的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114240811A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114627560A (zh) * | 2022-05-13 | 2022-06-14 | 浙江大华技术股份有限公司 | 一种动作识别方法、动作识别模型训练方法及相关装置 |
CN117765186A (zh) * | 2024-02-18 | 2024-03-26 | 广东电网有限责任公司广州供电局 | 一种环境空间的重构方法、装置、设备和存储介质 |
-
2021
- 2021-11-29 CN CN202111430792.2A patent/CN114240811A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114627560A (zh) * | 2022-05-13 | 2022-06-14 | 浙江大华技术股份有限公司 | 一种动作识别方法、动作识别模型训练方法及相关装置 |
CN117765186A (zh) * | 2024-02-18 | 2024-03-26 | 广东电网有限责任公司广州供电局 | 一种环境空间的重构方法、装置、设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110263912B (zh) | 一种基于多目标关联深度推理的图像问答方法 | |
CN113673307A (zh) | 一种轻量型的视频动作识别方法 | |
CN114240811A (zh) | 一种基于多张图像生成新图像的方法 | |
Liu et al. | Psgan++: Robust detail-preserving makeup transfer and removal | |
Yun et al. | Joint face super-resolution and deblurring using generative adversarial network | |
Cui et al. | Deep gesture video generation with learning on regions of interest | |
Natarajan et al. | Dynamic GAN for high-quality sign language video generation from skeletal poses using generative adversarial networks | |
CN111108508B (zh) | 脸部情感识别方法、智能装置和计算机可读存储介质 | |
Xu et al. | Multi-view face synthesis via progressive face flow | |
Zhu et al. | Multiscale temporal network for continuous sign language recognition | |
Zheng et al. | Semantic layout manipulation with high-resolution sparse attention | |
Wu et al. | Adversarial UV-transformation texture estimation for 3D face aging | |
Wu et al. | Face aging with pixel-level alignment GAN | |
Parelli et al. | Spatio-temporal graph convolutional networks for continuous sign language recognition | |
CN113436224B (zh) | 一种基于显式构图规则建模的智能图像裁剪方法及装置 | |
Cong et al. | Multi-Projection Fusion and Refinement Network for Salient Object Detection in 360$^{\circ} $ Omnidirectional Image | |
Hu et al. | Face reenactment via generative landmark guidance | |
CN117315069A (zh) | 基于图像特征对齐的人体姿态迁移方法 | |
CN111738092A (zh) | 一种基于深度学习的恢复被遮挡人体姿态序列方法 | |
WO2023154192A1 (en) | Video synthesis via multimodal conditioning | |
Cao et al. | Guided cascaded super-resolution network for face image | |
Xiao et al. | Multi-modal sign language recognition with enhanced spatiotemporal representation | |
Khan et al. | Face recognition via multi-level 3D-GAN colorization | |
Ortaç et al. | Baby face generation with generative adversarial neural networks: a case study | |
Wang et al. | Thangka image segmentation method based on enhanced receptive field |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |