WO2023284070A1 - 基于位姿自监督对抗生成网络的弱配对图像风格迁移方法 - Google Patents

基于位姿自监督对抗生成网络的弱配对图像风格迁移方法 Download PDF

Info

Publication number
WO2023284070A1
WO2023284070A1 PCT/CN2021/113982 CN2021113982W WO2023284070A1 WO 2023284070 A1 WO2023284070 A1 WO 2023284070A1 CN 2021113982 W CN2021113982 W CN 2021113982W WO 2023284070 A1 WO2023284070 A1 WO 2023284070A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pose
transformation
feature map
network
Prior art date
Application number
PCT/CN2021/113982
Other languages
English (en)
French (fr)
Inventor
王越
陈泽希
郭佳昕
许学成
王云凯
熊蓉
Original Assignee
浙江大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 浙江大学 filed Critical 浙江大学
Publication of WO2023284070A1 publication Critical patent/WO2023284070A1/zh
Priority to US18/411,030 priority Critical patent/US20240144515A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T3/04
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration by non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Abstract

一种基于位姿自监督对抗生成网络的弱配对图像风格迁移方法,属于图像处理领域。适用于弱配对图像的风格迁移,其利用有一定重叠的不同风格图片进行对抗神经网络的模型训练,使其对位姿不敏感并专注于风格的学习,由此在实际应用过程中可以将源风格转换为目标风格但保持位姿不变。另外在上述对抗神经网络的模型训练过程中,引入了一种能够对任意两张图像的相对位姿进行估计的可微分的位姿求解器,将相位相关算法优化为可微分,并将其嵌入到端到端学习网络框架中实现位姿估计。能够实现弱配对数据的风格迁移,为机器人自定位技术提供支撑。

Description

基于位姿自监督对抗生成网络的弱配对图像风格迁移方法 技术领域
本发明属于计算机视觉风格迁移领域,具体涉及一种通过位姿自监督对抗生成网络对图片进行风格迁移。
背景技术
图像风格迁移赋予了机器人对环境更高层次的理解,帮助机器人适应不同的场景。因此,在一个场景上训练或配置的任务,通过这种迁移学习可以很容易地在其他场景上进行。这种设置对多种机器人任务极有帮助,例如将在晴天训练的探测器转移到雨夜,以及地点重识别,和跨领域的语义分割。
目前,在图像风格迁移网络的的训练过程中,大多数工作集中在完全配对的图像风格迁移或完全未配对的图像风格迁移。在配对图像迁移中,来自两个风格的两个图像的内容是完全相同的。为了处理这个任务,Pix2Pix提出了一个基于生成对抗网络(GAN)的解决方案,并取得了良好的性能。然而,在大多数机器人应用中,获得完全配对的数据是不现实的。为了解决这个问题,CycleGAN能够用未配对的图像训练风格转移模型,然而其缺点也是显而易见的,主要是以下两方面:(1)学习到的内容和风格之间的界限可能是模糊的,导致风格迁移的失败,因为这些无监督的方法忽略了监督方法所带来的准确性;(2)大量使用循环一致性导致训练的困难。
然而,介于完全配对和完全未配对的数据之间有一个中间的可利用领域,可以弥补上述的缺陷。在机器人任务中,通过各种类型的传感器,即使很难收集到完全配对的数据,但收集到有大量重叠的数据是可行的,本发明将其称为弱配对数据。由于机器人采集的数据一般是图像,因此对于机器人传感器采集数据,弱配对数据即弱配对图像。考虑到弱配对数据的定义,在弱配对数据上训练的风格迁移器可以有效提升不同域之间的机器人任务的完成度。
对于已配对的数据,两张具有不同风格的图片,有完美的对齐内容。对于未配对的数据,两张图片在数据中是不相关的。对于弱配对的数据,内容相似,但 在位姿上错位。由于机器人携带多传感器来感知几何测量,不同风格的图像的粗略对齐是合理的,因此,我们认为这样的设定是值得处理的。
我们将弱配对图像风格迁移表述为利用原始图像I o对目标图像I t进行生成的过程。
I t=T(f(I o),ξ)
其中f和T是风格迁移过程,以及图像的几何变换过程,ξ是两幅图像之间的相对位姿,它是T的参数。
弱配对数据风格迁移的目的是学习一个网络N t,从数据集I o,I t中近似f,从而用N t迁移原始图像。这个问题的挑战在于如何保持所学函数N t只迁移风格,而不改变原始图像的位姿。简单地学习两个图像之间的网络N t显然会导致风格、位姿和内容纠缠在一起。另一方面,将图像对视为未配对,并没有利用有界的ξ的信息,留下了很大的改进空间。抛开成对图像的完全监督方法,无监督方法很容易被弱配对图像之间复杂的相对位姿所迷惑,并错过了像素级对应所带来的优势。
发明内容
本发明的目的在于解决现有技术中风格迁移时无法迁移风格,而不改变原始图像位姿的问题,并提供一种基于位姿自监督对抗生成网络的弱配对图像风格迁移方法。
为了解决弱配对图像风格迁移,本发明中提出了随机位姿估计的对抗神经网络(PREGAN)。GAN的平衡点是生成数据的分布与目标数据的分布之间的匹配。通过利用位姿注入和位姿恢复作为域随机化和自我监督,生成式对抗过程有望对位姿不敏感,并专注于风格的学习。本发明所采用的具体技术方案如下:
一种基于位姿自监督对抗生成网络的弱配对图像风格迁移方法,其步骤如下:
S1、获取由图像样本对构成的原始数据集,每一组图像样本对中包含同时存在位姿差异和风格差异的第一源图像O 1和第一目标图像T 1
S2、针对原始数据集中的每一组图像样本对,将第一源图像O 1和第一目标图像T 1各自经过3自由度变换P r,分别生成第二源图像O 2和第二目标图像T 2,形成由四张图像组成的一组样本组合;所述3自由度变换P r中包含随机生成的横竖平移以及旋转三种位姿变换,且同一组图像样本对中的第一源图像O 1和第一目标图像T 1所采用的3自由度变换P r保持相同;
S3、将原始数据集中的所述样本组合作为训练样本输入对抗生成网络中,由 对抗生成网络分别对第一源图像O 1和第二源图像O 2进行风格变换生成第三目标图像FakeT 1和第四目标图像FakeT 2,通过最小化输入训练样本的总损失函数训练对抗生成网络,得到弱配对图像风格迁移网络;
所述总损失函数中,单个训练样本的损失函数L由三部分组成:
L=L D+L S+L M
其中第一部分损失L D=(T 1-FakeT 1)+(T 2-FakeT 2),第二部分损失L S=P 3-P 4,第三部分损失L M=P r-P e
式中:P 3为第三目标图像FakeT 1与第一目标图像T 1之间的相对位姿,P 4为第四目标图像FakeT 2与第二目标图像T 2之间的相对位姿,P e为第三目标图像FakeT 1与第四目标图像FakeT 2之间的相对位姿;
S4、将待风格化图像输入所述弱配对图像风格迁移网络中,得到位姿不变但风格化后的图像。
作为优选,所述原始数据集中的图像均为机器人运行路径上的鸟瞰图。
进一步的,所述原始数据集的构建方法如下:
在第一图像采集环境下,在机器人运行路径上的随机地点A采集第一鸟瞰图;然后在与第一图像采集环境不同的第二图像采集环境下,对随机地点A施加随机平移得到随机地点B,通过对采集视角随机施加水平旋转后再次对随机地点B采集第二鸟瞰图,然后将采集的第一鸟瞰图和第二鸟瞰图分别作为第一源图像O 1和第一目标图像T 1,从而构成一组图像样本对;不断重复,将得到的一系列图像样本对构建为原始数据集。
进一步的,所述第一图像采集环境和第二图像采集环境之间的差别为天气不同或采集图像所用传感器不同。
进一步的,所述原始数据集通过在仿真环境中获取鸟瞰图构建。
作为优选,任意两个图像之间的所述相对位姿由可微分的位姿求解器进行求解。
作为优选,所述可微分的位姿求解器包含8个不同的U-Net网络,在可微分的位姿求解器中对第一图像和第二图像进行图像位姿估计的步骤如下:
S101:以预先经过训练的第一U-Net网络和第二U-Net网络作为两个特征提取器,分别以第一图像和第二图像作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第一特征图和第二特征图;
S102:将S101中得到的第一特征图和第二特征图分别进行傅里叶变换后取各自的幅度谱;
S103:将S102中得到的两个幅度谱分别进行对数极坐标变换,使其从笛卡尔坐标系转换到对数极坐标系中,从而使两个幅度谱之间笛卡尔坐标系下的旋转变换被映射成对数极坐标系中y方向上的平移变换;
S104:将S103中两个坐标变换后的幅度谱进行相位相关求解,得到二者之间的平移变换关系,再按照S103中笛卡尔坐标系和对数极坐标系之间的映射关系重新转换,得到所述第一图像和所述第二图像之间的旋转变换关系;
S105:以预先经过训练的第三U-Net网络和第四U-Net网络作为两个特征提取器,分别以第一图像和第二图像作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第三特征图和第四特征图;
S106:将S105中得到的第三特征图和第四特征图分别进行傅里叶变换后取各自的幅度谱;
S107:将S106中得到的两个幅度谱分别进行对数极坐标变换,使其从笛卡尔坐标系转换到对数极坐标系中,从而使两个幅度谱之间笛卡尔坐标系下的缩放变换被映射成对数极坐标系中x方向上的平移变换;
S108:将S107中两个坐标变换后的幅度谱进行相位相关求解,得到二者之间的平移变换关系,再按照S107中笛卡尔坐标系和对数极坐标系之间的映射关系重新转换,得到所述第一图像和所述第二图像之间的缩放变换关系;
S109:将所述第二图像按照S104和S108中得到的旋转变换关系和缩放变换关系进行对应的旋转和缩放变换,得到一张新的第二图像;
S1010:以预先经过训练的第五U-Net网络和第六U-Net网络作为两个特征提取器,分别以第一图像和新的第二图像作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第五特征图和第六特征图;
S1011:将S1010中得到的第五特征图和第六特征图进行相位相关求解,得到所述第一图像和所述第二图像之间的x方向上的平移变换关系;
S1012:以预先经过训练的第七U-Net网络和第八U-Net网络作为两个特征提取器,分别以第一图像和新的第二图像作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构且仅保留有原始输入图片之间的平移变换关系的第七特征图和第八特征图;
S1013:将S1012中得到的第七特征图和第八特征图进行相位相关求解,得到所述第一图像和所述第二图像之间的y方向上的平移变换关系,完成第一图像和第二图像之间包含旋转、缩放和平移三种变换关系的相对位姿估计。
进一步的,所述可微分的位姿求解器中,8个U-Net网络均预先进行训练,训练的总损失函数为所述第一图像和第二图像之间的旋转变换关系损失、缩放变换关系损失、x方向上的平移变换关系损失和y方向上的平移变换关系损失的加权和。
作为优选,所述的原始数据集分批次输入对抗生成网络中进行训练。
作为优选,所述对抗生成网络在训练过程中利用ADAM优化器进行梯度下降以优化网络参数。
本发明相对于现有技术而言,具有以下有益效果:
首先,本发明适用于弱配对图像的风格迁移,其利用有一定重叠的不同风格图片进行对抗神经网络的模型训练,使其对位姿不敏感并专注于风格的学习,由此在实际应用过程中可以将源风格转换为目标风格但保持位姿不变,实现弱配对数据的风格迁移,为机器人自定位技术提供支撑。
其次,本发明在上述对抗神经网络的模型训练过程中,引入了一种能够对任意两张图像的相对位姿进行估计的可微分的位姿求解器。该可微分的位姿求解器将相位相关算法优化为为可微分,并将其嵌入到端到端学习网络框架中实现位姿估计。该可微分的位姿求解器能够针对图像匹配的结果找到最优的特征提取器,不需要详尽的评估就能得到解,又具有良好的可解释性和泛化能力。
附图说明
图1为本方法的步骤分解图。
图2为本方法的网络流程图。
图3为弱配对图像与完全配对图像、未配对图像的对比。
图4为采用该方法进行图像风格迁移的效果图。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步阐述和说明。本发明中各个实施方式的技术特征在没有相互冲突的前提下,均可进行相应组合。
如图1所示,本发明提供了一种基于位姿自监督对抗生成网络的弱配对图像风格迁移方法,其步骤如下:
S1、获取由一系列图像样本对构成的原始数据集,每一组图像样本对中由两张同时存在位姿差异和风格差异的图像组成,分别为第一源图像O 1和第一目标图像T 1。原始数据集中的图像样本对数量应满足后续的网络训练要求,具体根据实际进行调整。
S2、为了满足后续的训练需求,针对原始数据集中的每一组图像样本对进行一个位姿变换操作,具体做法为:对于每一组图像样本,将其中的第一源图像O 1和第一目标图像T 1各自经过一个3自由度变换P r,第一源图像O 1经过3自由度变换P r后生成的图像记为第二源图像O 2,第一目标图像T 1经过3自由度变换P r后生成的图像记为第二目标图像T 2,由此第一源图像O 1、第一目标图像T 1、第二源图像O 2和第二目标图像T 2一起形成了由四张图像组成的一组样本组合。原始数据集中的每一组图像样本对均进行这样的位姿变换操作后,原始数据集被扩展成了包含一系列样本组合的数据集。
需要注意的是,上述3自由度变换P r应当包含3个不同的自由度,分别为两个平移自由度和一个旋转自由度,而且为了保证模型训练的可靠性,这些施加的变换应当使随机的。即3自由度变换P r包含了随机生成的横竖平移以及旋转三种位姿变换。而且,同一组图像样本对中的第一源图像O 1和第一目标图像T 1所采用的3自由度变换P R应当保持相同,即随机生成一个3自由度变换P R后将其同时应用于第一源图像O 1和第一目标图像T 1上。但是由于3自由度变换P R是随机生成的,因此不同的图像样本对中所施加的3自由度变换P R一般是不同的。
经过上述S2的操作,输入的第一源图像O 1和第一目标图像T 1经过统一的随机生成的横竖平移、以及旋转这3自由度变换P R,得到了第二源图像O 2以及第二目标图像T 2。此时对于任意一个样本组合,第一源图像O 1与第二源图像O 2风格一致,第一目标图像T 1与第二目标图像T 2风格一致。假设第一源图像O 1与第一目标图像T 1之间的相对位姿为P 1,输入的第一源图像O 1与第一目标图像T 1之间的相对位姿P 1是未知的。第二源图像O 2与第二目标图像T 2之间的相对位姿为P 2,则P 1=P 2。而且由于施加的3自由度变换是相同的,因此第一源图像O 1与第二源图像O 2、第一目标图像T 1与第二目标图像T 2之间的相对位姿均为P R。可依据这些样本组合中四个图像之间的风格和位姿差异特性,对后续的对抗生成网络进行训练,使其专注于识别风格而不会改变位姿。
S3、将原始数据集中的样本组合作为训练样本,按照设定的训练方式输入对 抗生成网络(GAN)中,对于每一个训练样本而言,当其输入对抗生成网络后由对抗生成网络分别对第一源图像O 1和第二源图像O 2进行风格变换,并对应的由第一源图像O 1生成第三目标图像FakeT 1,由第二源图像O 2生成第四目标图像FakeT 2,通过最小化输入训练样本的总损失函数训练对抗生成网络,得到弱配对图像风格迁移网络。
在对抗生成网络中,第一源图像O 1和第二源图像O 2作为内容图像,而第三目标图像FakeT 1和第四目标图像FakeT 2则作为风格图像。对抗生成网络是一种深度学习模型,其通过两个模块即生成模型(Generative Model)和判别模型(Discriminative Model)的互相博弈学习产生满足要求的输出,具体结构属于现有技术,对此不再赘述。
训练样本的总损失函数由输入对抗生成网络的所有训练样本的损失加和得到。本发明中,优选将原始数据集分批次输入对抗生成网络中进行迭代训练,在每一轮训练过程中利用ADAM优化器进行梯度下降以优化网络参数。因此,总损失函数值为每一轮输入的所有训练样本的损失值之和。
整个对抗生成网络的结构和训练过程可参见图2所示,对于单个训练样本而言,其损失函数L由三部分构成,分别详细描述如下:
1)将第一源图像O 1和第二源图像O 2同时经过用来进行风格变换的对抗生成网络GAN后得到第三目标图像FakeT 1和第四目标图像FakeT 2,因此理论上来讲,此时第三目标图像FakeT 1、第四目标图像FakeT 2中的图像中内容的位姿应当与第一源图像O 1和第二源图像O 2相同,但他们内容的风格应当与第一目标图像T 1、第二目标图像T 2的风格一致。由此得到第一部分损失是第一目标图像T 1和第三目标图像FakeT 1的误差损失与第二目标图像T 2和第四目标图像FakeT 2的误差损失之和,公式如下:
L D=(T 1-FakeT 1)+(T 2-FakeT 2)
2)为了训练上述对抗生成神经网络,使之可以合理的将第一源图像O 1和第二源图像O 2的风格转换成第一目标图像T 1、第二目标图像T 2的风格,而不受复杂位姿的干扰,可求解出第三目标图像FakeT 1与第一目标图像T 1之间的相对位姿P 3以及第三目标图像FakeT 2与第二目标图像T 2之间的相对位姿P 4。此时,若对抗生成神经网络能够成功的转换风格而不受位姿变换的干扰的话,理论上P 3=P 4。由此得到第二部分损失是两组目标图像间相对位姿的误差损失,公式如下:
L S=P 3-P 4
式中:P 3为第三目标图像FakeT 1与第一目标图像T 1之间的相对位姿,P 4为第四目标图像FakeT 2与第二目标图像T 2之间的相对位姿
3)即使P 1是未知的,但是对每一组图像样本对随机生成的P R是已知的,即O 1与O 2,T 1与T 2,FakeT 1与FakeT 2之间的相对位姿都应该为P R。若FakeT 1与FakeT 2之间的相对位姿P e仍等于P R则说明该对抗神经网络抵抗掉了O 1与T 1,O 2与T 2之间的相对位姿的干扰。由此得到了第三部分损失为:
L M=P R-P e
式中:P e为第三目标图像FakeT 1与第四目标图像FakeT 2之间的相对位姿。
最终单个训练样本的损失函数L由三部分组成:
L=L D+L S+L M
经过上述损失函数下的网络训练,待其训练完毕后即可用对抗生成网络作为弱配对图像风格迁移网络,执行配对图像的风格迁移任务。
S4、将待风格化图像输入上述训练得到的弱配对图像风格迁移网络中,得到位姿不变但风格化后的图像。
上述S1~S4的方法理论上可应用于任意的弱配对图像的风格迁移工作中,使得内容图像被风格化的同时保证图像位姿不变。其中一个有价值的应用场景是对机器人上搭载的传感器采集图像进行风格化。下面对该具体场景中上述方法的应用进行详细展开描述,以便于理解。
机器人移动过程中,需要融合多传感器获取的不同数据对环境进行理解。但机器人上搭载的传感器采集的图像受限于传感器类型或者环境中光线、干扰物等因素的影响,必然存在多种多样的风格差异或者位姿差异。因此,需要通过图像风格迁移学习赋予了机器人对周边环境的深层理解,帮助机器人适应不同的场景变换,使得在一个场景上训练或配置的机器人任务能够适用于其他场景。
图3显示了完全配对、未配对以及本发明所提出的弱配对图像的一个典型例子,其中左侧部分的三组图像中,上方一组为完全匹配数据,中间一组和下方一组为无匹配数据,右侧部分的S1.A~S1.C、S2.A~S2.C、S2.A~S2.C为弱配对数据从图中可以看到,对于已配对的数据,两张具有不同风格的图片,有完美的对齐内容。对于未配对的数据,两张图片在数据中是不相关的。对于弱配对的数据,内容相似,但在位姿上错位。上述S1~S4所描述的方法,能够学习一个对抗生 成网络对原始图像进行迁移,而且该迁移过程中只迁移风格,而不改变原始图像的位姿。
在机器人自定位任务中,机器人移动过程中需要获取的一种典型图像为机器人运行路径上的鸟瞰图。因此,本发明中原始数据集中的图像可以是机器人运行路径上的鸟瞰图,通过上述弱配对图像风格迁移形成获得位姿不变但风格化的图像,使得机器人能够通过训练适应不同的环境。对于鸟瞰图而言,原始数据集的构建方法可以采用如下步骤实现:
(1)首先,在第一图像采集环境下,在机器人运行路径上的随机地点A采集第一鸟瞰图;
(2)然后在与第一图像采集环境不同的第二图像采集环境下,对随机地点A施加随机平移得到随机地点B,通过对采集视角随机施加水平旋转后再次对随机地点B采集第二鸟瞰图;
(3)最后,然后将采集的第一鸟瞰图和第二鸟瞰图分别作为第一源图像O 1和第一目标图像T 1,从而构成一组图像样本对。
不断重复上述(1)~(3)过程,即可得到一系列图像样本对,进而构建为原始数据集。
需要注意的是,上述第一图像采集环境和第二图像采集环境之间的差别可以是多样的,一般可以设置为天气不同或采集图像所用传感器不同。例如,在图4中给出了五种不同的差别设置形式下得到的五组图像样本对,从上到下分别为:1)双目视图迁移至无人机视角(传感器不同);2)激光雷达迁移至无人机视角(传感器不同);3)雾天迁移至晴天(天气不同);4)夜晚迁移至晴天(天气不同);5)雨天迁移至晴天(天气不同)。
由于在真实场景中此类数据获取存在困难,因此本发明优选在仿真环境中进行仿真,以此来获取鸟瞰图构建成为原始数据集。仿真的优点在于能够无限制的获取大量的样本对,提高模型的训练精度。
当然,鸟瞰图仅仅是其中一种图像形式,本发明亦可以用于其他类型的图像弱配对图像风格迁移任务中,对此不做限定。
另外,上述损失函数L计算过程中,相对位姿P 3、P 4、P e均需要通过估计得到,并不能直接进行计算,此类估计可以通过可微分的位姿求解器实现。
在本发明的一个较佳实施例中,进一步提供了对任意两个图像之间的相对位 姿进行求解的一种可微分的位姿求解器,其本质是一种可微分的相位相关算法。相位相关是一种基于相似性的匹配器,它对具有相同模态的输入表现良好,但只能在小的高频噪声情况下完成匹配。我们将相位相关算法优化为为可微分,并将其嵌入到我们的端到端学习网络框架中,形成可微分的位姿求解器。这种架构使得我们的系统能够针对图像匹配的结果找到最优的特征提取器。具体来说,本发明采用了传统的相位相关,并赋予快速傅里叶变换层(FFT)、对数极性变换层(LPT)和相位相关层(DC)以可微分性质,从而使其可用于端到端可微分的位姿求解器的训练。
如图5所示,该可微分的位姿求解器包含8个不同的U-Net网络,为了便于描述将需要进行相对位姿求解的两个图像记为第一图像Sample1和第二图像Sample2,这两张图像存在内容差异和位姿差异,因此属于异构图像。其核心是8个独立的U-Net网络以及傅里叶变换层(FFT)、对数极性变换层(LPT)和相位相关层(DC),该可微分的位姿求解器的输入是上述异构的第一图像和第二图像,其最终输出是第一图像和第二图像之间的三种位姿变换关系,即平移、旋转和缩放。
在可微分的位姿求解器中对第一图像和第二图像进行图像位姿估计的步骤如下:
在传统的相位相关算法中,利用高通滤波器来抑制两个输入的随机随机噪声,而这一过程可以看作是一个特征提取器。但是对于一对输入的异构图像而言,两者之间存在比较明显的变化,一个高通滤波器是远远不够的。考虑到没有共同的特征来直接监督特征提取器,本发明利用端到端学习来解决这个问题。本发明中对第一图像和第二图像在旋转缩放阶段和平移阶段分别构建了8个独立的可训练U-Net网络(记为U-Net1~U-Net8),这8个U-Net网络在平移、旋转和缩放三类损失的监督下预先经过训练后,能够从异构图像中提取出图片中的同构特征即共同特征,从而估计出将两张异构图像转换为两张同构的特征图所需的相对位姿。本发明中,假如仅设4个U-Net网络,那么旋转与缩放两种变换的求解需要被偶合起来的,x方向平移与y方向平移的求解也需要被偶合起来,这样训练得到的特征提取器所提取的特征存在效果不佳的情况;因此,我们将旋转、缩放、x平移、y平移解耦,分别训练各自的U-Net网络,一共得到8个U-Net网络,以达到提升精度的效果。
在本实施例中,对于8个独立的U-Net网络,其输入和输出大小分别为256×256。每个U-Net网络由4个下采样的编码器层和4个上采样的解码器层来提取特征。随着训练的进行,8个U-Net的参数会被调整。请注意,这个网络是轻量级的,所以它具有足够高效的实时性,能够满足应用场景的要求。
另外,傅里叶变换层(FFT)的作用是对U-Net网络提取的特征图进行傅里叶变换,去掉图像之间的平移变换关系但保留旋转和缩放变换关系。因为根据傅里叶变换的特性,只有旋转和比例对频谱的幅度有影响,但对频谱的幅度对平移不敏感。因此引入FFT后就得到了对平移不敏感但对缩放和旋转尤其敏感的表示方法,因此在后续求解缩放和旋转时可以忽略平移。
另外,对数极性变换层(LPT)的作用是对FFT变换后的图像进行对数极坐标变换,将图像从笛卡尔坐标系映射至对数极坐标系。在该映射过程中,笛卡尔坐标系下的缩放和旋转可以转换成对数极坐标系下的平移。该坐标系变换,可以得出关于缩放和旋转的交叉相关形式,消除整个可微分的位姿求解器中的所有穷尽性评价。
另外,相位相关层(DC)的作用是进行相位相关求解,即计算两个幅度谱之间的交叉相关性。根据求解得到的相关性,可以得到二者之间的平移变换关系。交叉相关性的具体计算过程属于现有技术,不再赘述。
下面对该可微分的位姿求解器的具体结构以及位姿估计流程进行详细展开描述,其步骤如下:
S101:以预先经过训练的第一U-Net网络U-Net1和第二U-Net网络U-Net2作为两个特征提取器,分别以异构的第一图像和第二图像作为两个特征提取器U-Net1和U-Net2各自的原始输入图片(即第一图像输入U-Net1中,而第二图像输入U-Net2中,下同),提取两张原始输入图片中的同构特征,得到同构的第一特征图和第二特征图。此时,第一特征图和第二特征图中同时保留有原始输入图片之间的平移、旋转和缩放变换关系。
S102:将S101中得到的第一特征图和第二特征图分别进行第一次傅里叶变换操作(记为FFT1)后取各自的幅度谱,此时两个幅度谱之间保留有原始输入图片之间的旋转和缩放变换关系,但平移变换关系已在FFT1中被滤掉。
S103:将S102中得到的两个幅度谱分别进行第一次对数极坐标变换操作(记为LPT1),使其从笛卡尔坐标系转换到对数极坐标系中,从而使两个幅度谱之间 笛卡尔坐标系下的旋转变换被映射成对数极坐标系中y方向上的平移变换(记为Y)。
S104:将S103中两个坐标变换后的幅度谱在相位相关层(DC)中进行相位相关求解,得到二者之间的平移变换关系。需注意,在S103的LPT1中,笛卡尔坐标系下的旋转变换与对数极坐标系中y方向上的平移变换Y之间存在映射关系,因此可以再将该平移变换关系按照S103中笛卡尔坐标系和对数极坐标系之间的映射关系重新转换,得到前述第一图像和第二图像之间的旋转变换关系。
上述旋转变换关系本质上是第二图像要实现与第一图像的配准,所需要被旋转的角度theta,该角度可作为相对位姿估计的一部分。
S105:同样的,以预先经过训练的第三U-Net网络U-Net3和第四U-Net网络U-Net4作为两个特征提取器,分别以异构的第一图像和第二图像作为两个特征提取器U-Net3和U-Net4各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第三特征图和第四特征图。此时,第三特征图和第四特征图中也同时保留有原始输入图片之间的平移、旋转和缩放变换关系。
S106:将S105中得到的第三特征图和第四特征图分别进行第二次傅里叶变换操作(记为FFT2)后取各自的幅度谱。同样的,这两个幅度谱之间保留有原始输入图片之间的旋转和缩放变换关系而平移变换关系已在已在FFT2中被滤掉。
S107:将S106中得到的两个幅度谱分别进行第二次对数极坐标变换操作(记为LPT2),使其从笛卡尔坐标系转换到对数极坐标系中,从而使两个幅度谱之间笛卡尔坐标系下的缩放变换被映射成对数极坐标系中x方向上的平移变换X。
S108:将S107中两个坐标变换后的幅度谱在相位相关层(DC)中进行相位相关求解,得到二者之间的平移变换关系。同样的,在S107的LPT2中,笛卡尔坐标系下的旋转变换与对数极坐标系中x方向上的平移变换X之间存在映射关系,因此可以再按照S107中笛卡尔坐标系和对数极坐标系之间的映射关系重新转换,得到前述第一图像和前述第二图像之间的缩放变换关系。
上述缩放变换关系本质上是第二图像要实现与第一图像的配准,所需要被缩放的比例scale,该比例可作为相对位姿估计的一部分。
由此,通过上述步骤,已获得了第一图像和第二图像之间的旋转变换关系和缩放变换关系。
S109:将前述第二图像按照S104和S108中得到的旋转变换关系和缩放变 换关系进行对应的旋转和缩放变换,得到一张新的第二图像。由于通过旋转和缩放变换后,第一图像和第二图像之间已不存在角度和比例的差异,因此新的第二图像与输入的第一图像之间目前仅包含平移变换关系,而不存在旋转变换关系和缩放变换关系,后续仅需要通过平移变换消除两者之间的平移差异即可。对于平移变换关系,只需要通过相位相关求解,就可以获取其x和y方向上的平移变换关系。
S1010:以预先经过训练的第五U-Net网络U-Net5和第六U-Net网络U-Net6作为两个特征提取器,分别以第一图像和新的第二图像作为两个特征提取器U-Net5和U-Net6各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第五特征图和第六特征图。此时,第五特征图和第六特征图中仅保留有原始输入图片之间的平移变换关系,而不存在旋转和缩放变换关系。
S1011:将S1010中得到的第五特征图和第六特征图在相位相关层(DC)中进行相位相关求解,得到第一图像和第二图像之间的x方向上的平移变换关系。
S1012:以预先经过训练的第七U-Net网络U-Net7和第八U-Net网络U-Net8作为两个特征提取器,分别以第一图像和新的第二图像作为两个特征提取器U-Net7和U-Net8各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第七特征图和第八特征图。此时,第七特征图和第八特征图中仅保留有原始输入图片之间的平移变换关系,而不存在旋转和缩放变换关系。
S1013:将S1012中得到的第七特征图和第八特征图在相位相关层(DC)中进行相位相关求解,得到第一图像和第二图像之间的y方向上的平移变换关系。
上述x方向上的平移变换关系和y方向上的平移变换关系本质上是第二图像要实现与第一图像的配准,分别需要在x方向上平移的距离X和在y方向上平移的距离Y,这两个距离也可作为相对位姿估计的一部分。
由此可见,本发明的位姿估计是分为两个阶段来实现的,一共得到了四个自由度(X、Y、theta、scale)的估计值。首先,通过S101~S109的旋转缩放阶段实现旋转和缩放变换关系的估计,然后再通过S1010~S1013平移阶段实现平移变换关系的估计。
综合上述S104、S108、S1011和S1013的结果,就可以得到异构的第一图像和第二图像之间旋转、缩放和平移三种变换关系的位姿估计值,从而完成两者的位姿估计过程,后续可以根据相应的估计值进行损失函数L的计算。
需注意,上述可微分的位姿求解器中,8个U-Net网络均预先进行训练,为了保证每一个U-Net网络均可以准确提取同构特征,需要设置合理的损失函数。训练的总损失函数应当为第一图像和所述第二图像之间的旋转变换关系损失、缩放变换关系损失、x方向上的平移变换关系损失和y方向上的平移变换关系损失的加权和,具体加权值可根据实际进行调整。
在本实施例中,总损失函数中四种损失的加权权值均为1,且四种损失均采用L1损失,四种损失函数分别如下:
将S104中预测的旋转关系theta记为theta_predict,将S108中预测的缩放关系scale记为scale_predict,将S1011中预测的x方向上的平移变换X记为x_predict,将S1013中预测的y方向上的平移变换Y记为y_predict。因此,每一轮训练过程中求得两个异构图片之间的平移(x_predict,y_predict),旋转(theta_predict),缩放(scale_predict)关系。
1)在模型中将所求得的theta_predict与其真值theta_gt做1范数距离损失,L_theta=(theta_gt-theta_predict),将L_theta回传用以训练U-Net1、U-Net2,使其能够提取到更好的用于求theta_predict的特征。
2)将所求得的scale_predict与其真值scale_gt做1范数距离损失,L_scale=(scale_gt-scale_predict),将L_scale回传用以训练U-Net3、U-Net4,使其能够提取到更好的用于求scale_predict的特征。
3)将所求得的x_predict与其真值x_gt做1范数距离损失,L_x=(x_gt-x_predict),将L_x回传用以训练U-Net5、U-Net6,使其能够提取到更好的用于求x_predict的特征。
4)将所求得的y_predict与其真值y_gt做1范数距离损失,L_y=(y_gt-y_predict),将L_y回传用以训练U-Net7、U-Net8,使其能够提取到更好的用于求y_predict的特征。
因此,总损失函数为L*=L_x+L_y+L_theta+L_scale,训练过程中通过梯度下降方法对8个U-Net网络的模型参数进行优化,使总损失函数L*最小。训练完毕后的8个U-Net网络组成了用于对实际的异构图像进行位姿估计的可微分的位姿求解器,该可微分的位姿求解器中可按照上述S101~S1013的方法进行两张异构图像的位姿估计。需注意该可微分的位姿求解器的训练需要超前于前述对抗生成网络的训练。
在引入上述可微分的位姿求解器的基础上,为了验证上述S1~S4提出的弱匹配图像风格迁移方法的效果,本发明在图4所展示的三种不同天气差别设置形式下采集了三种不同的图像样本对,进而构成了图三个原始数据集。在这三个原始数据集基础上,进行了本发明前述对抗生成网络的训练。然后在晴天训练了车辆识别网络以及道路分割网络,并在雨天,夜晚,雾天三个天气以及其分别对应的通过风格迁移得到的晴天下测试了车辆识别网络以及道路分割网络的准确率。测试结果如表1所示,其中mAP为平均准确率,IoU为重叠区域。具体测试方法为,1)车辆识别:在一套含有1000组弱匹配图像的数据集中(每组包含一张晴天,以及其对应的天气条件为雨天,雾天,夜晚的弱匹配图片)将在晴天下用YOLOv3训练的车辆识别网络分别在i)晴天ii)雨天iii)雨天迁移至晴天iv)雾天v)雾天迁移至晴天vi)夜晚vii)夜晚迁移至晴天这七种天气条件下的图像中进行车辆识别,得到不同条件下的车辆识别平均准确率mAP(mean average precision)。1)道路分割:在一套含有1000组弱匹配图像的数据集中(每组包含一张晴天,以及其对应的天气条件为雨天,雾天,夜晚的弱匹配图片)将在晴天下用KittiSeg训练的车辆识别网络分别在i)晴天ii)雨天iii)雨天迁移至晴天iv)雾天v)雾天迁移至晴天vi)夜晚vii)夜晚迁移至晴天这七种天气条件下的图像中进行道路分割,得到不同条件下的分割成功区域百分比IoU(Intersection over Union)。
表1
Figure PCTCN2021113982-appb-000001
由此可见,本发明的弱匹配图像风格迁移方法能够很好地实现图像保持位姿不变情况下的风格迁移。
以上所述的实施例只是本发明的一种较佳的方案,然其并非用以限制本发明。有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型。因此凡采取等同替换或等效变换的方式所获得的技术方案,均落在本发明的保护范围内。

Claims (10)

  1. 一种基于位姿自监督对抗生成网络的弱配对图像风格迁移方法,其特征在于,步骤如下:
    S1、获取由图像样本对构成的原始数据集,每一组图像样本对中包含同时存在位姿差异和风格差异的第一源图像O 1和第一目标图像T 1
    S2、针对原始数据集中的每一组图像样本对,将第一源图像O 1和第一目标图像T 1各自经过3自由度变换P r,分别生成第二源图像O 2和第二目标图像T 2,形成由四张图像组成的一组样本组合;所述3自由度变换P r中包含随机生成的横竖平移以及旋转三种位姿变换,且同一组图像样本对中的第一源图像O 1和第一目标图像T 1所采用的3自由度变换P R保持相同;
    S3、将原始数据集中的所述样本组合作为训练样本输入对抗生成网络中,由对抗生成网络分别对第一源图像O 1和第二源图像O 2进行风格变换生成第三目标图像FakeT 1和第四目标图像FakeT 2,通过最小化输入训练样本的总损失函数训练对抗生成网络,得到弱配对图像风格迁移网络;
    所述总损失函数中,单个训练样本的损失函数L由三部分组成:
    L=L D+L S+L M
    其中第一部分损失L D=(T 1-FakeT 1)+(T 2-FakeT 2),第二部分损失L S=P 3-P 4,第三部分损失L M=P r-P e
    式中:P 3为第三目标图像FakeT 1与第一目标图像T 1之间的相对位姿,P 4为第四目标图像FakeT 2与第二目标图像T 2之间的相对位姿,P e为第三目标图像FakeT 1与第四目标图像FakeT 2之间的相对位姿;
    S4、将待风格化图像输入所述弱配对图像风格迁移网络中,得到位姿不变但风格化后的图像。
  2. 如权利要求1所述的基于位姿自监督对抗生成网络的弱配对图像风格迁移方法,其特征在于,所述原始数据集中的图像均为机器人运行路径上的鸟瞰图。
  3. 如权利要求2所述的基于位姿自监督对抗生成网络的弱配对图像风格迁移方法,其特征在于,所述原始数据集的构建方法如下:
    在第一图像采集环境下,在机器人运行路径上的随机地点A采集第一鸟瞰图;然后在与第一图像采集环境不同的第二图像采集环境下,对随机地点A施 加随机平移得到随机地点B,通过对采集视角随机施加水平旋转后再次对随机地点B采集第二鸟瞰图,然后将采集的第一鸟瞰图和第二鸟瞰图分别作为第一源图像O 1和第一目标图像T 1,从而构成一组图像样本对;不断重复,将得到的一系列图像样本对构建为原始数据集。
  4. 如权利要求3所述的基于位姿自监督对抗生成网络的弱配对图像风格迁移方法,其特征在于,所述第一图像采集环境和第二图像采集环境之间的差别为天气不同或采集图像所用传感器不同。
  5. 如权利要求3所述的基于位姿自监督对抗生成网络的弱配对图像风格迁移方法,其特征在于,所述原始数据集通过在仿真环境中获取鸟瞰图构建。
  6. 如权利要求1所述的基于位姿自监督对抗生成网络的弱配对图像风格迁移方法,其特征在于,任意两个图像之间的所述相对位姿由可微分的位姿求解器进行求解。
  7. 如权利要求1所述的基于位姿自监督对抗生成网络的弱配对图像风格迁移方法,其特征在于,所述可微分的位姿求解器包含8个不同的U-Net网络,在可微分的位姿求解器中对第一图像和第二图像进行图像位姿估计的步骤如下:
    S101:以预先经过训练的第一U-Net网络和第二U-Net网络作为两个特征提取器,分别以第一图像和第二图像作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第一特征图和第二特征图;
    S102:将S101中得到的第一特征图和第二特征图分别进行傅里叶变换后取各自的幅度谱;
    S103:将S102中得到的两个幅度谱分别进行对数极坐标变换,使其从笛卡尔坐标系转换到对数极坐标系中,从而使两个幅度谱之间笛卡尔坐标系下的旋转变换被映射成对数极坐标系中y方向上的平移变换;
    S104:将S103中两个坐标变换后的幅度谱进行相位相关求解,得到二者之间的平移变换关系,再按照S103中笛卡尔坐标系和对数极坐标系之间的映射关系重新转换,得到所述第一图像和所述第二图像之间的旋转变换关系;
    S105:以预先经过训练的第三U-Net网络和第四U-Net网络作为两个特征提取器,分别以第一图像和第二图像作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第三特征图和第四特征图;
    S106:将S105中得到的第三特征图和第四特征图分别进行傅里叶变换后取各自的幅度谱;
    S107:将S106中得到的两个幅度谱分别进行对数极坐标变换,使其从笛卡尔坐标系转换到对数极坐标系中,从而使两个幅度谱之间笛卡尔坐标系下的缩放变换被映射成对数极坐标系中x方向上的平移变换;
    S108:将S107中两个坐标变换后的幅度谱进行相位相关求解,得到二者之间的平移变换关系,再按照S107中笛卡尔坐标系和对数极坐标系之间的映射关系重新转换,得到所述第一图像和所述第二图像之间的缩放变换关系;
    S109:将所述第二图像按照S104和S108中得到的旋转变换关系和缩放变换关系进行对应的旋转和缩放变换,得到一张新的第二图像;
    S1010:以预先经过训练的第五U-Net网络和第六U-Net网络作为两个特征提取器,分别以第一图像和新的第二图像作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第五特征图和第六特征图;
    S1011:将S1010中得到的第五特征图和第六特征图进行相位相关求解,得到所述第一图像和所述第二图像之间的x方向上的平移变换关系;
    S1012:以预先经过训练的第七U-Net网络和第八U-Net网络作为两个特征提取器,分别以第一图像和新的第二图像作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构且仅保留有原始输入图片之间的平移变换关系的第七特征图和第八特征图;
    S1013:将S1012中得到的第七特征图和第八特征图进行相位相关求解,得到所述第一图像和所述第二图像之间的y方向上的平移变换关系,完成第一图像和第二图像之间包含旋转、缩放和平移三种变换关系的相对位姿估计。
  8. 如权利要求7所述的基于位姿自监督对抗生成网络的弱配对图像风格迁移方法,其特征在于,所述可微分的位姿求解器中,8个U-Net网络均预先进行训练,训练的总损失函数为所述第一图像和第二图像之间的旋转变换关系损失、缩放变换关系损失、x方向上的平移变换关系损失和y方向上的平移变换关系损失的加权和。
  9. 如权利要求1所述的基于位姿自监督对抗生成网络的弱配对图像风格迁移方法,其特征在于,所述的原始数据集分批次输入对抗生成网络中进行训练。
  10. 如权利要求1所述的基于位姿自监督对抗生成网络的弱配对图像风格迁移方法,其特征在于,所述对抗生成网络在训练过程中利用ADAM优化器进行梯度下降以优化网络参数。
PCT/CN2021/113982 2021-07-14 2021-08-23 基于位姿自监督对抗生成网络的弱配对图像风格迁移方法 WO2023284070A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/411,030 US20240144515A1 (en) 2021-07-14 2024-01-12 Weakly paired image style transfer method based on pose self-supervised generative adversarial network

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110796509.1 2021-07-14
CN202110796509.1A CN113538218B (zh) 2021-07-14 2021-07-14 基于位姿自监督对抗生成网络的弱配对图像风格迁移方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/411,030 Continuation US20240144515A1 (en) 2021-07-14 2024-01-12 Weakly paired image style transfer method based on pose self-supervised generative adversarial network

Publications (1)

Publication Number Publication Date
WO2023284070A1 true WO2023284070A1 (zh) 2023-01-19

Family

ID=78128014

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/113982 WO2023284070A1 (zh) 2021-07-14 2021-08-23 基于位姿自监督对抗生成网络的弱配对图像风格迁移方法

Country Status (3)

Country Link
US (1) US20240144515A1 (zh)
CN (1) CN113538218B (zh)
WO (1) WO2023284070A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115267724B (zh) * 2022-07-13 2023-08-29 浙江大学 一种基于激光雷达可估位姿的移动机器人位置重识别方法
CN115619835B (zh) * 2022-09-13 2023-09-01 浙江大学 基于深度相位相关的异构三维观测配准方法、介质及设备
CN116703895B (zh) * 2023-08-02 2023-11-21 杭州灵西机器人智能科技有限公司 基于生成对抗网络的小样本3d视觉检测方法及其系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200151559A1 (en) * 2018-11-14 2020-05-14 Nvidia Corporation Style-based architecture for generative neural networks
CN111783525A (zh) * 2020-05-20 2020-10-16 中国人民解放军93114部队 基于风格迁移的航空摄影图像目标样本生成方法
CN111932438A (zh) * 2020-06-18 2020-11-13 浙江大华技术股份有限公司 图像风格迁移方法、设备及存储装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112823379A (zh) * 2018-10-10 2021-05-18 Oppo广东移动通信有限公司 用于训练机器学习模型的方法和装置、用于视频风格转移的装置
CN110458750B (zh) * 2019-05-31 2021-05-25 北京理工大学 一种基于对偶学习的无监督图像风格迁移方法
CN110930295B (zh) * 2019-10-25 2023-12-26 广东开放大学(广东理工职业学院) 一种图像风格迁移方法、系统、装置和存储介质
CN111340865B (zh) * 2020-02-24 2023-04-07 北京百度网讯科技有限公司 用于生成图像的方法和装置
CN111445476B (zh) * 2020-02-27 2023-05-26 上海交通大学 基于多模态无监督图像内容解耦的单目深度估计方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200151559A1 (en) * 2018-11-14 2020-05-14 Nvidia Corporation Style-based architecture for generative neural networks
CN111783525A (zh) * 2020-05-20 2020-10-16 中国人民解放军93114部队 基于风格迁移的航空摄影图像目标样本生成方法
CN111932438A (zh) * 2020-06-18 2020-11-13 浙江大华技术股份有限公司 图像风格迁移方法、设备及存储装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZEXI CHEN; JIAXIN GUO; XUECHENG XU; YUNKAI WANG; YUE WANG; RONG XIONG: "PREGAN: Pose Randomization and Estimation for Weakly Paired Image Style Translation", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 17 January 2021 (2021-01-17), 201 Olin Library Cornell University Ithaca, NY 14853 , XP081882365, DOI: 10.1109/LRA.2021.3061359 *

Also Published As

Publication number Publication date
CN113538218B (zh) 2023-04-07
US20240144515A1 (en) 2024-05-02
CN113538218A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
WO2023284070A1 (zh) 基于位姿自监督对抗生成网络的弱配对图像风格迁移方法
Fan et al. Learning collision-free space detection from stereo images: Homography matrix brings better data augmentation
CN110135249B (zh) 基于时间注意力机制和lstm的人体行为识别方法
CN106022380A (zh) 基于深度学习的个体身份识别方法
CN112651262B (zh) 一种基于自适应行人对齐的跨模态行人重识别方法
CN107067410B (zh) 一种基于增广样本的流形正则化相关滤波目标跟踪方法
CN110135277B (zh) 一种基于卷积神经网络的人体行为识别方法
Zhu et al. Tiny object tracking: A large-scale dataset and a baseline
CN111428650B (zh) 一种基于sp-pggan风格迁移的行人重识别方法
CN109325407A (zh) 基于f-ssd网络滤波的光学遥感视频目标检测方法
Zhan et al. FA-ResNet: Feature affine residual network for large-scale point cloud segmentation
CN114333062B (zh) 基于异构双网络和特征一致性的行人重识别模型训练方法
Yang et al. Channel expansion convolutional network for image classification
Shi et al. JRA-Net: Joint representation attention network for correspondence learning
Zuo et al. LGADet: Light-weight anchor-free multispectral pedestrian detection with mixed local and global attention
Sleaman et al. Indoor mobile robot navigation using deep convolutional neural network
WO2022241877A1 (zh) 基于神经网络的异构图像位姿估计及配准方法、装置及介质
CN115496859A (zh) 基于散乱点云交叉注意学习的三维场景运动趋势估计方法
Yan et al. CAINNFlow: Convolutional block attention modules and invertible neural networks flow for anomaly detection and localization tasks
Xu et al. MMT: Mixed-Mask Transformer for Remote Sensing Image Semantic Segmentation
Chen et al. PointFormer: a dual perception attention-based network for point cloud classification
CN114140524A (zh) 一种多尺度特征融合的闭环检测系统及方法
Xu et al. Scale‐Adaptive Kernel Correlation Filter with Maximum Posterior Probability Estimation and Combined Features for Visual Target Tracking
Jian et al. Remote Sensing Image Classification Based on Different Convolutional Neural Network Models
Chiadika et al. Improving training time in capsule neural network

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21949845

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE