CN113450295B - 一种基于差分对比学习的深度图合成方法 - Google Patents
一种基于差分对比学习的深度图合成方法 Download PDFInfo
- Publication number
- CN113450295B CN113450295B CN202110658919.XA CN202110658919A CN113450295B CN 113450295 B CN113450295 B CN 113450295B CN 202110658919 A CN202110658919 A CN 202110658919A CN 113450295 B CN113450295 B CN 113450295B
- Authority
- CN
- China
- Prior art keywords
- depth map
- neural network
- depth
- data set
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001308 synthesis method Methods 0.000 title abstract description 8
- 238000000034 method Methods 0.000 claims abstract description 20
- 238000013507 mapping Methods 0.000 claims abstract description 16
- 238000013528 artificial neural network Methods 0.000 claims abstract description 14
- 238000013527 convolutional neural network Methods 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 230000003042 antagnostic effect Effects 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims description 2
- 230000004083 survival effect Effects 0.000 claims description 2
- 238000010189 synthetic method Methods 0.000 claims 1
- 238000009877 rendering Methods 0.000 abstract description 8
- 230000011218 segmentation Effects 0.000 abstract description 6
- 230000008569 process Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000008485 antagonism Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Abstract
本发明提供了一种基于差分对比学习的深度图合成方法,该方法采取了一种基于差分对比学习的策略,可以有效地限制深度卷积神经网络生成深度图过程中造成的几何形变,从而可以让渲染得到的无噪声深度图具有真实扫描结果的特征,同时能够很好地保持原本几何结构。在利用渲染数据集进行真实扫描数据集上的深度图增强,语义分割和法向贴图估计的任务中,本发明方法得到的合成深度图均取得了最好的结果。
Description
技术领域
本发明属于计算机视觉和计算机图形学领域,尤其涉及一种基于差分对比学习的真实深度图像合成方法。
背景技术
随着图形学技术的发展和市场需求,已经有大量的开源三维模型数据集,其中就包括室外大场景的和室内场景的。利用三维模型数据集,人们可以通过渲染等方式,轻松得到一些可以应用于视觉任务的数据集,比如利用三维模型自带的类别标签,生成用于语义分割的数据集。而对于真实扫描的三维数据,首先需要通过算法重建出三维场景,这个过程往往会不够鲁棒;其次,对于物品类别这样的标签,则需要人为进行标记。在这样的背景下,很多方法开始探索如何将三维模型数据集有效应用到视觉任务上;但是由于渲染数据集与真实数据集之间存在着不可以避免的差别,在渲染数据集上表现好的方法无法直接应用到真实数据集上。因此,人们需要探索渲染数据集和真实数据集之间域的转换。
利用不配对数据集进行彩色图像域转换的各项工作已经在数字艺术领域取得了广泛的应用,然而对深度图像的转换目前还没有很有效的方法。在彩色图像上取得成功的方法,因为没有考虑到深度图像的几何结构,直接应用在深度图像上就会造成严重的几何形变。
对比学习的概念已经在自监督的表达学习各类方法中展现了它的能力,由于渲染数据集和真实数据集不存在匹配的数据,对比学习的方法在此情况下可以发挥优势。
发明内容
本发明提供了一种具有高几何保持度的深度图合成方法,该方法可以让渲染得到的无噪声深度图具有真实扫描结果的特征,同时能够很好地保持原本几何结构。同时在利用渲染数据集进行真实扫描数据集上的深度图增强,语义分割和法向贴图估计的任务中,本发明得到的合成深度图均取得了最好的结果。
本发明是通过以下技术方案来实现的:
一种基于差分对比学习的真实深度图合成方法,通过一深度卷积神经网络G作为数据集映射的载体,将渲染合成的深度图和其对应的彩色图,映射合成为具有真实扫描深度图特征的合成深度图;其中,所述训练好的深度卷积神经网络G通过如下步骤训练获得:
步骤一:选取渲染得到的合成数据集Ds={(ds,Is)}和一个真实扫描的数据集Dr={(dr,Ir)},其中,d和I分别表示为配对的深度图和彩色图。
步骤二:将步骤一获取的两个数据集输入至深度卷积神经网络G,并构建一判别器对深度卷积神经网络G进行训练,训练包括:
利用深度卷积神经网络G中的编码器部分分别提取合成数据集的深度图ds和其对应的合成深度图的特征,并分别按位置两两相减计算差分,采用对比学习以减小合成数据集的深度图ds与其对应的合成深度图特征之间同样位置差分的相互差异为目标进行训练。
以减小深度卷积神经网络G对真实扫描的数据集中的深度图dr产生的无效映射为目标进行训练。
其中,渲染得到的合成数据集为通过渲染开源三维模型数据集获得,真实扫描的数据集为通过扫描仪等设备采集获得。
本发明利用训练好的深度卷积神经网络G,就可以将渲染的深度图像转化为具有真实扫描特征的深度图像,从而可以替代真实扫描深度图应用于深度图增强,语义分割和法相贴图等预测任务中。
进一步地,所述深度卷积神经网络G的网络结构采用ResNet,UNet等。
进一步地,利用深度卷积神经网络G中的编码器部分分别提取合成数据集的深度图ds和其对应的合成深度图的特征,并分别按位置两两相减计算差分,以减小合成数据集的深度图ds与其对应的合成深度图特征之间同样位置差分的相互差异为目标进行训练,具体为:
(c)从步骤(b)中得到的两个差分集合中选择正组合对和负组合对,以最大化正组合对和负组合对之间的差异为目标进行训练。
进一步地,所述步骤(c)中,正组合对和负组合对具体为:
j≠k
以最大化正组合对和负组合对之间的差异为目标进行训练,采用的目标函数具体为:
其中,τ表示权重,E为能量函数。
进一步地,以减小深度卷积神经网络G对真实扫描的数据集中的深度图dr产生的无效映射为目标进行训练,采用的目标函数具体为:
其中,φ()表示深度卷积神经网络G编码器部分的输出,ψ()表示深度卷积神经网络G解码器部分的输出,||||1表示正则化函数。
本发明的突出贡献是:
本发明提供了一种具有高几何保持度的深度图合成方法;与先前运用在深度图合成上会造成几何形变的彩色图像合成方法不同,本发明可以让渲染得到的无噪声深度图具有真实扫描结果的特征,同时能够很好地保持原本几何结构。本发明在神经网络的训练过程中是端到端的,无须分步骤进行。同时,本发明方法可以利用各种设备的采集数据作为训练数据,合成符合不同需求的深度图,训练无需做任何改动。在合成出具有真实扫描结果特征的深度图之后,本发明可以将该数据应用到真实扫描深度图增强,语义分割和法相贴图的预测任务中;且均取得了目前最好的效果。
附图说明
图1是本发明提出的差分对比学习的示意图。
图2是本发明合成深度图的效果图。
具体实施方式
下面结合具体实施例和附图对本发明作进一步说明。
获取真实扫描数据集为Dr={(dr,Ir)},并通过渲染开源的三维模型数据集获得合成数据集为Ds={(ds,Is)},其中,d∈RH×W为一幅深度图,I∈RH×w×3为其对应的彩色图像,H×W表示图的像素大小。这两个数据集都包含对应的对齐好的深度图像和彩色图像,但是数据集Ds和Dr之间没有对应关系。本发明的目标是实现这两个数据集之间的映射,具体来说是从合成数据集Ds到Dr的单向特征转换映射。
本发明用于完成特征转换映射的是一个深度卷积神经网络G,由编码器子网络φ和解码器子网络ψ串联构成。则由合成数据集ds合成出来的结果为合成深度图 首先,为了能够让合成深度图具有真实扫描深度图dr的特征,本发明采用了生成式对抗的策略来训练深度卷积神经网络G,即应用一个判别器神经网络来最小化生成结果和真实数据之间的域的差别。采用的目标函数为:
E表示能量函数,由于该目标目的是减小两个数据域之间的距离,并不能够保证输入和输出之间的一致性,更不能保证输出能够保持输入的几何结构。本发明引入了新的差分对比学习的策略。
本发明中的差分对比学习策略,通过选取生成结果合成深度图和输入的渲染深度图ds中的块计算差分并进行对比,限制其变化来实现。首先,第一步本发明利用生成器网络即深度卷积神经网络G中的编码器子网络φ来分别提取和ds的特征图,选取其中的N层特征图,记录为其中l表示特征图中的第l层。接着,记是特征图fl中在位置i的一像素块;从特征图fl和中,本方法随机选取多对块作为正组合对和负组合对,同时正负组合对需要满足以下关系:
j≠k
其中,i,j,k表示特征图的不同空间位置。本发明中通过减小合成深度图和输入的渲染深度图ds中区域块差分的差异来获得两者上几何的一致性。在这个步骤中,本发明利用随机选择出来的正负组合对计算出和ds的差分信息误差,以最小化该误差为训练网络的目标:
其中,τ表示权重;对于所有随机选择出来的正负对,总的目标函数为:
此外,由于全局的偏移无法用以上阐述的局部块差分一致性来控制,本发明利用减小深度卷积神经网络G对真实扫描深度图dr产生的无效映射为训练网络的目标:
其中,||||1表示正则化函数。
综上,对于训练特征映射神经网络G,本发明的总目标函数为:
L=Ladv+αLdc+βLidt
其中,α,β为权重。
本实施例中深度卷积神经网络G采用通用的Resnet网络结构,判别器神经网络D采用多层卷积神经网络构成,并设定α=1.5,β=1.0,最终训练出的深度卷积神经网络G在实验中达到了很好的效果。最终可以合成出如图2所示的效果;和左边的输入相比,本发明合成出来的深度图像没有产生几何形变,具有真实扫描深度图特征,可直接应用于语义分割和法相贴图的预测任务中。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其他不同形式的变化或变动。这里无需也无法把所有的实施方式予以穷举。而由此所引申出的显而易见的变化或变动仍处于本发明的保护范围。
Claims (2)
1.一种基于差分对比学习的深度图合成方法,其特征在于,通过一深度卷积神经网络G作为数据集映射的载体,将渲染合成的深度图和其对应的彩色图,映射合成为具有真实扫描深度图特征的合成深度图;其中,所述深度卷积神经网络G通过如下步骤训练获得:
步骤一:选取渲染得到的合成数据集Ds={(ds,Is)}和一个真实扫描的数据集Dr={(dr,Ir)},其中,d和I分别表示为配对的深度图和彩色图;
步骤二:将步骤一获取的两个数据集输入至深度卷积神经网络G,并构建一判别器对深度卷积神经网络G进行训练,训练包括:
利用深度卷积神经网络G中的编码器部分分别提取合成数据集的深度图ds和其对应的合成深度图的特征,并分别按位置两两相减计算差分,采用对比学习以减小合成数据集的深度图ds与其对应的合成深度图特征之间同样位置差分的相互差异为目标进行训练;具体为:
(c)从步骤(b)中得到的两个差分集合中选择正组合对和负组合对,以最大化正组合对和负组合对之间的差异为目标进行训练;
正组合对和负组合对具体为:
j≠k
采用的目标函数具体为:
其中,τ表示权重,E为能量函数;
以减小深度卷积神经网络G对真实扫描的数据集中的深度图dr产生的无效映射为目标进行训练;采用的目标函数具体为:
其中,φ()表示深度卷积神经网络G编码器部分的输出,ψ()表示深度卷积神经网络G解码器部分的输出,|| ||1表示正则化函数。
2.根据权利要求1所述的一种基于差分对比学习的深度图合成方法,其特征在于,所述深度卷积神经网络G的网络结构采用ResNet或UNet。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110658919.XA CN113450295B (zh) | 2021-06-15 | 2021-06-15 | 一种基于差分对比学习的深度图合成方法 |
JP2021151513A JP7218959B2 (ja) | 2021-06-15 | 2021-09-16 | 差分比較学習に基づく深度マップ合成方法 |
LU500682A LU500682B1 (fr) | 2021-06-15 | 2021-09-23 | Procédé de synthèse de carte de profondeur basé sur l'apprentissage de comparaison différentielle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110658919.XA CN113450295B (zh) | 2021-06-15 | 2021-06-15 | 一种基于差分对比学习的深度图合成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113450295A CN113450295A (zh) | 2021-09-28 |
CN113450295B true CN113450295B (zh) | 2022-11-15 |
Family
ID=77811545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110658919.XA Active CN113450295B (zh) | 2021-06-15 | 2021-06-15 | 一种基于差分对比学习的深度图合成方法 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7218959B2 (zh) |
CN (1) | CN113450295B (zh) |
LU (1) | LU500682B1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114359363B (zh) * | 2022-01-11 | 2024-06-18 | 浙江大学 | 一种基于深度学习的视频一致性深度估计方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109960860A (zh) * | 2019-03-13 | 2019-07-02 | 华北电力大学 | 基于差分进化极限学习机的电力系统暂态稳定评估方法 |
CN112598775A (zh) * | 2020-12-21 | 2021-04-02 | 广东工业大学 | 一种基于对比学习的多视图生成方法 |
CN112862858A (zh) * | 2021-01-14 | 2021-05-28 | 浙江大学 | 一种基于场景运动信息的多目标跟踪方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108475330B (zh) * | 2015-11-09 | 2022-04-08 | 港大科桥有限公司 | 用于有伪像感知的视图合成的辅助数据 |
EP3343502B1 (en) | 2016-12-28 | 2019-02-20 | Dassault Systèmes | Depth sensor noise |
CN111512344A (zh) * | 2017-08-08 | 2020-08-07 | 西门子股份公司 | 使用增强用生成式对抗神经网络从cad数据生成合成深度图像 |
CN110555434B (zh) * | 2019-09-03 | 2022-03-29 | 浙江科技学院 | 一种局部对比和全局指导的立体图像视觉显著性检测方法 |
-
2021
- 2021-06-15 CN CN202110658919.XA patent/CN113450295B/zh active Active
- 2021-09-16 JP JP2021151513A patent/JP7218959B2/ja active Active
- 2021-09-23 LU LU500682A patent/LU500682B1/fr active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109960860A (zh) * | 2019-03-13 | 2019-07-02 | 华北电力大学 | 基于差分进化极限学习机的电力系统暂态稳定评估方法 |
CN112598775A (zh) * | 2020-12-21 | 2021-04-02 | 广东工业大学 | 一种基于对比学习的多视图生成方法 |
CN112862858A (zh) * | 2021-01-14 | 2021-05-28 | 浙江大学 | 一种基于场景运动信息的多目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
基于深度强化学习和循环卷积神经网络的图像恢复算法;杨海清等;《高技术通讯》;20190515(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113450295A (zh) | 2021-09-28 |
LU500682B1 (fr) | 2022-11-16 |
JP2022191122A (ja) | 2022-12-27 |
JP7218959B2 (ja) | 2023-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110503680B (zh) | 一种基于非监督的卷积神经网络单目场景深度估计方法 | |
CN112766160A (zh) | 基于多级属性编码器和注意力机制的人脸替换方法 | |
CN113283444B (zh) | 一种基于生成对抗网络的异源图像迁移方法 | |
CN110992414B (zh) | 一种基于卷积神经网络的室内单目场景深度估计的方法 | |
CN106920214A (zh) | 空间目标图像超分辨率重建方法 | |
CN115409937A (zh) | 基于集成神经辐射场的人脸视频表情迁移模型构建方法及表情迁移方法和系统 | |
CN113222875B (zh) | 一种基于色彩恒常性的图像和谐化合成方法 | |
CN111489405B (zh) | 基于条件增强生成对抗网络的人脸草图合成系统 | |
CN116486074A (zh) | 一种基于局部和全局上下文信息编码的医学图像分割方法 | |
CN113450295B (zh) | 一种基于差分对比学习的深度图合成方法 | |
Guo et al. | Deep illumination-enhanced face super-resolution network for low-light images | |
CN113096015B (zh) | 基于渐进式感知和超轻量级网络的图像超分辨率重建方法 | |
Wu et al. | Self-driven dual-path learning for reference-based line art colorization under limited data | |
CN112686830A (zh) | 基于图像分解的单一深度图的超分辨率方法 | |
CN116664435A (zh) | 一种基于多尺度人脸解析图融入的人脸复原方法 | |
CN107133921A (zh) | 基于多层次邻域嵌入的图像超分辨率重建方法及系统 | |
CN114331894A (zh) | 一种基于潜在特征重构和掩模感知的人脸图像修复方法 | |
CN116977455A (zh) | 基于深度双向学习的人脸素描图像生成系统及方法 | |
CN113726976A (zh) | 一种基于编码-解码网络的大容量以图藏图方法和系统 | |
Wang et al. | Boosting light field image super resolution learnt from single-image prior | |
CN113343761A (zh) | 一种基于生成对抗的实时人脸表情迁移方法 | |
Ma et al. | Cloud-egan: Rethinking cyclegan from a feature enhancement perspective for cloud removal by combining cnn and transformer | |
CN110781737A (zh) | 水声数据体绘制中基于梳状波变换的传递函数设计方法 | |
CN114511488B (zh) | 一种夜间场景的日间风格可视化方法 | |
Yi | Research on artificial intelligence art image synthesis algorithm based on generation model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |