CN113450295B - 一种基于差分对比学习的深度图合成方法 - Google Patents

一种基于差分对比学习的深度图合成方法 Download PDF

Info

Publication number
CN113450295B
CN113450295B CN202110658919.XA CN202110658919A CN113450295B CN 113450295 B CN113450295 B CN 113450295B CN 202110658919 A CN202110658919 A CN 202110658919A CN 113450295 B CN113450295 B CN 113450295B
Authority
CN
China
Prior art keywords
depth map
neural network
depth
data set
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110658919.XA
Other languages
English (en)
Other versions
CN113450295A (zh
Inventor
沈越凡
郑友怡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202110658919.XA priority Critical patent/CN113450295B/zh
Priority to JP2021151513A priority patent/JP7218959B2/ja
Priority to LU500682A priority patent/LU500682B1/fr
Publication of CN113450295A publication Critical patent/CN113450295A/zh
Application granted granted Critical
Publication of CN113450295B publication Critical patent/CN113450295B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

本发明提供了一种基于差分对比学习的深度图合成方法,该方法采取了一种基于差分对比学习的策略,可以有效地限制深度卷积神经网络生成深度图过程中造成的几何形变,从而可以让渲染得到的无噪声深度图具有真实扫描结果的特征,同时能够很好地保持原本几何结构。在利用渲染数据集进行真实扫描数据集上的深度图增强,语义分割和法向贴图估计的任务中,本发明方法得到的合成深度图均取得了最好的结果。

Description

一种基于差分对比学习的深度图合成方法
技术领域
本发明属于计算机视觉和计算机图形学领域,尤其涉及一种基于差分对比学习的真实深度图像合成方法。
背景技术
随着图形学技术的发展和市场需求,已经有大量的开源三维模型数据集,其中就包括室外大场景的和室内场景的。利用三维模型数据集,人们可以通过渲染等方式,轻松得到一些可以应用于视觉任务的数据集,比如利用三维模型自带的类别标签,生成用于语义分割的数据集。而对于真实扫描的三维数据,首先需要通过算法重建出三维场景,这个过程往往会不够鲁棒;其次,对于物品类别这样的标签,则需要人为进行标记。在这样的背景下,很多方法开始探索如何将三维模型数据集有效应用到视觉任务上;但是由于渲染数据集与真实数据集之间存在着不可以避免的差别,在渲染数据集上表现好的方法无法直接应用到真实数据集上。因此,人们需要探索渲染数据集和真实数据集之间域的转换。
利用不配对数据集进行彩色图像域转换的各项工作已经在数字艺术领域取得了广泛的应用,然而对深度图像的转换目前还没有很有效的方法。在彩色图像上取得成功的方法,因为没有考虑到深度图像的几何结构,直接应用在深度图像上就会造成严重的几何形变。
对比学习的概念已经在自监督的表达学习各类方法中展现了它的能力,由于渲染数据集和真实数据集不存在匹配的数据,对比学习的方法在此情况下可以发挥优势。
发明内容
本发明提供了一种具有高几何保持度的深度图合成方法,该方法可以让渲染得到的无噪声深度图具有真实扫描结果的特征,同时能够很好地保持原本几何结构。同时在利用渲染数据集进行真实扫描数据集上的深度图增强,语义分割和法向贴图估计的任务中,本发明得到的合成深度图均取得了最好的结果。
本发明是通过以下技术方案来实现的:
一种基于差分对比学习的真实深度图合成方法,通过一深度卷积神经网络G作为数据集映射的载体,将渲染合成的深度图和其对应的彩色图,映射合成为具有真实扫描深度图特征的合成深度图;其中,所述训练好的深度卷积神经网络G通过如下步骤训练获得:
步骤一:选取渲染得到的合成数据集Ds={(ds,Is)}和一个真实扫描的数据集Dr={(dr,Ir)},其中,d和I分别表示为配对的深度图和彩色图。
步骤二:将步骤一获取的两个数据集输入至深度卷积神经网络G,并构建一判别器对深度卷积神经网络G进行训练,训练包括:
利用判别器对从合成数据集映射合成的合成深度图
Figure BDA0003114489240000021
与真实扫描的数据集中的深度图dr进行判别,采用生成式对抗神经网络的方法以减小两个数据分布间的差异为目标进行训练;
利用深度卷积神经网络G中的编码器部分分别提取合成数据集的深度图ds和其对应的合成深度图
Figure BDA0003114489240000022
的特征,并分别按位置两两相减计算差分,采用对比学习以减小合成数据集的深度图ds与其对应的合成深度图
Figure BDA0003114489240000023
特征之间同样位置差分的相互差异为目标进行训练。
以减小深度卷积神经网络G对真实扫描的数据集中的深度图dr产生的无效映射为目标进行训练。
其中,渲染得到的合成数据集为通过渲染开源三维模型数据集获得,真实扫描的数据集为通过扫描仪等设备采集获得。
本发明利用训练好的深度卷积神经网络G,就可以将渲染的深度图像转化为具有真实扫描特征的深度图像,从而可以替代真实扫描深度图应用于深度图增强,语义分割和法相贴图等预测任务中。
进一步地,所述深度卷积神经网络G的网络结构采用ResNet,UNet等。
进一步地,利用判别器对从合成数据集映射合成的合成深度图
Figure BDA0003114489240000024
与真实扫描的数据集中的深度图dr进行判别,以减小两个数据分布间的差异为目标进行训练,采用的目标函数具体为:
Figure BDA0003114489240000025
其中,
Figure BDA0003114489240000026
表示判别器的输出;
进一步地,利用深度卷积神经网络G中的编码器部分分别提取合成数据集的深度图ds和其对应的合成深度图
Figure BDA0003114489240000027
的特征,并分别按位置两两相减计算差分,以减小合成数据集的深度图ds与其对应的合成深度图
Figure BDA0003114489240000028
特征之间同样位置差分的相互差异为目标进行训练,具体为:
(a)利用深度卷积神经网络G编码器部分分别对合成数据集的深度图ds和其对应的合成深度图
Figure BDA0003114489240000031
进行特征提取,并分别均匀抽取其中的N层的特征图。
(b)对抽取出的每层特征图随机抽取区域块并两两相减计算差分,得到合成数据集的深度图ds和合成深度图
Figure BDA0003114489240000032
对应的两个差分集合。
(c)从步骤(b)中得到的两个差分集合中选择正组合对和负组合对,以最大化正组合对和负组合对之间的差异为目标进行训练。
进一步地,所述步骤(c)中,正组合对和负组合对具体为:
正组合对:
Figure BDA0003114489240000033
负组合对:
Figure BDA0003114489240000034
j≠k
其中,
Figure BDA0003114489240000035
表示从合成深度图
Figure BDA0003114489240000036
中提取的第l层特征图的区域块,
Figure BDA0003114489240000037
表示从合成数据集的深度图ds中提取的第l层特征图的区域块,i,j,k表示特征图的不同空间位置。
以最大化正组合对和负组合对之间的差异为目标进行训练,采用的目标函数具体为:
Figure BDA0003114489240000038
其中,τ表示权重,E为能量函数。
进一步地,以减小深度卷积神经网络G对真实扫描的数据集中的深度图dr产生的无效映射为目标进行训练,采用的目标函数具体为:
Figure BDA0003114489240000039
其中,φ()表示深度卷积神经网络G编码器部分的输出,ψ()表示深度卷积神经网络G解码器部分的输出,||||1表示正则化函数。
本发明的突出贡献是:
本发明提供了一种具有高几何保持度的深度图合成方法;与先前运用在深度图合成上会造成几何形变的彩色图像合成方法不同,本发明可以让渲染得到的无噪声深度图具有真实扫描结果的特征,同时能够很好地保持原本几何结构。本发明在神经网络的训练过程中是端到端的,无须分步骤进行。同时,本发明方法可以利用各种设备的采集数据作为训练数据,合成符合不同需求的深度图,训练无需做任何改动。在合成出具有真实扫描结果特征的深度图之后,本发明可以将该数据应用到真实扫描深度图增强,语义分割和法相贴图的预测任务中;且均取得了目前最好的效果。
附图说明
图1是本发明提出的差分对比学习的示意图。
图2是本发明合成深度图的效果图。
具体实施方式
下面结合具体实施例和附图对本发明作进一步说明。
获取真实扫描数据集为Dr={(dr,Ir)},并通过渲染开源的三维模型数据集获得合成数据集为Ds={(ds,Is)},其中,d∈RH×W为一幅深度图,I∈RH×w×3为其对应的彩色图像,H×W表示图的像素大小。这两个数据集都包含对应的对齐好的深度图像和彩色图像,但是数据集Ds和Dr之间没有对应关系。本发明的目标是实现这两个数据集之间的映射,具体来说是从合成数据集Ds到Dr的单向特征转换映射。
本发明用于完成特征转换映射的是一个深度卷积神经网络G,由编码器子网络φ和解码器子网络ψ串联构成。则由合成数据集ds合成出来的结果为合成深度图
Figure BDA0003114489240000041
Figure BDA0003114489240000042
首先,为了能够让合成深度图
Figure BDA0003114489240000043
具有真实扫描深度图dr的特征,本发明采用了生成式对抗的策略来训练深度卷积神经网络G,即应用一个判别器神经网络
Figure BDA0003114489240000044
来最小化生成结果和真实数据之间的域的差别。采用的目标函数为:
Figure BDA0003114489240000045
E表示能量函数,由于该目标目的是减小两个数据域之间的距离,并不能够保证输入和输出之间的一致性,更不能保证输出能够保持输入的几何结构。本发明引入了新的差分对比学习的策略。
本发明中的差分对比学习策略,通过选取生成结果合成深度图
Figure BDA0003114489240000046
和输入的渲染深度图ds中的块计算差分并进行对比,限制其变化来实现。首先,第一步本发明利用生成器网络即深度卷积神经网络G中的编码器子网络φ来分别提取
Figure BDA0003114489240000047
和ds的特征图,选取其中的N层特征图,记录为
Figure BDA0003114489240000048
其中l表示特征图中的第l层。接着,记
Figure BDA0003114489240000049
是特征图fl中在位置i的一像素块;从特征图fl
Figure BDA00031144892400000410
中,本方法随机选取多对块作为正组合对和负组合对,同时正负组合对需要满足以下关系:
正组合对:
Figure BDA00031144892400000411
负组合对:
Figure BDA0003114489240000051
j≠k
其中,i,j,k表示特征图的不同空间位置。本发明中通过减小合成深度图
Figure BDA0003114489240000052
和输入的渲染深度图ds中区域块差分的差异来获得两者上几何的一致性。在这个步骤中,本发明利用随机选择出来的正负组合对计算出
Figure BDA0003114489240000053
和ds的差分信息误差,以最小化该误差为训练网络的目标:
Figure BDA0003114489240000054
其中,τ表示权重;对于所有随机选择出来的正负对,总的目标函数为:
Figure BDA0003114489240000055
此外,由于全局的偏移无法用以上阐述的局部块差分一致性来控制,本发明利用减小深度卷积神经网络G对真实扫描深度图dr产生的无效映射为训练网络的目标:
Figure BDA0003114489240000056
其中,||||1表示正则化函数。
综上,对于训练特征映射神经网络G,本发明的总目标函数为:
L=Ladv+αLdc+βLidt
其中,α,β为权重。
本实施例中深度卷积神经网络G采用通用的Resnet网络结构,判别器神经网络D采用多层卷积神经网络构成,并设定α=1.5,β=1.0,最终训练出的深度卷积神经网络G在实验中达到了很好的效果。最终可以合成出如图2所示的效果;和左边的输入相比,本发明合成出来的深度图像没有产生几何形变,具有真实扫描深度图特征,可直接应用于语义分割和法相贴图的预测任务中。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其他不同形式的变化或变动。这里无需也无法把所有的实施方式予以穷举。而由此所引申出的显而易见的变化或变动仍处于本发明的保护范围。

Claims (2)

1.一种基于差分对比学习的深度图合成方法,其特征在于,通过一深度卷积神经网络G作为数据集映射的载体,将渲染合成的深度图和其对应的彩色图,映射合成为具有真实扫描深度图特征的合成深度图;其中,所述深度卷积神经网络G通过如下步骤训练获得:
步骤一:选取渲染得到的合成数据集Ds={(ds,Is)}和一个真实扫描的数据集Dr={(dr,Ir)},其中,d和I分别表示为配对的深度图和彩色图;
步骤二:将步骤一获取的两个数据集输入至深度卷积神经网络G,并构建一判别器对深度卷积神经网络G进行训练,训练包括:
利用判别器对从合成数据集映射合成的合成深度图
Figure FDA0003834564260000011
与真实扫描的数据集中的深度图dr进行判别,采用生成式对抗神经网络的方法以减小两个数据分布间的差异为目标进行训练;采用的目标函数具体为:
Figure FDA0003834564260000012
其中,
Figure FDA0003834564260000013
表示判别器的输出;
利用深度卷积神经网络G中的编码器部分分别提取合成数据集的深度图ds和其对应的合成深度图
Figure FDA0003834564260000014
的特征,并分别按位置两两相减计算差分,采用对比学习以减小合成数据集的深度图ds与其对应的合成深度图
Figure FDA0003834564260000015
特征之间同样位置差分的相互差异为目标进行训练;具体为:
(a)利用深度卷积神经网络G编码器部分分别对合成数据集的深度图ds和其对应的合成深度图
Figure FDA0003834564260000016
进行特征提取,并分别均匀抽取其中的N层的特征图;
(b)对抽取出的每层特征图随机抽取区域块并两两相减计算差分,得到合成数据集的深度图ds和合成深度图
Figure FDA0003834564260000017
对应的两个差分集合;
(c)从步骤(b)中得到的两个差分集合中选择正组合对和负组合对,以最大化正组合对和负组合对之间的差异为目标进行训练;
正组合对和负组合对具体为:
正组合对:
Figure FDA0003834564260000018
负组合对:
Figure FDA0003834564260000019
j≠k
其中,
Figure FDA0003834564260000021
表示从合成深度图
Figure FDA0003834564260000022
中提取的第l层特征图的区域块,
Figure FDA0003834564260000023
表示从合成数据集的深度图ds中提取的第l层特征图的区域块,i,j,k表示特征图的不同空间位置;
采用的目标函数具体为:
Figure FDA0003834564260000024
其中,τ表示权重,E为能量函数;
以减小深度卷积神经网络G对真实扫描的数据集中的深度图dr产生的无效映射为目标进行训练;采用的目标函数具体为:
Figure FDA0003834564260000025
其中,φ()表示深度卷积神经网络G编码器部分的输出,ψ()表示深度卷积神经网络G解码器部分的输出,|| ||1表示正则化函数。
2.根据权利要求1所述的一种基于差分对比学习的深度图合成方法,其特征在于,所述深度卷积神经网络G的网络结构采用ResNet或UNet。
CN202110658919.XA 2021-06-15 2021-06-15 一种基于差分对比学习的深度图合成方法 Active CN113450295B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110658919.XA CN113450295B (zh) 2021-06-15 2021-06-15 一种基于差分对比学习的深度图合成方法
JP2021151513A JP7218959B2 (ja) 2021-06-15 2021-09-16 差分比較学習に基づく深度マップ合成方法
LU500682A LU500682B1 (fr) 2021-06-15 2021-09-23 Procédé de synthèse de carte de profondeur basé sur l'apprentissage de comparaison différentielle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110658919.XA CN113450295B (zh) 2021-06-15 2021-06-15 一种基于差分对比学习的深度图合成方法

Publications (2)

Publication Number Publication Date
CN113450295A CN113450295A (zh) 2021-09-28
CN113450295B true CN113450295B (zh) 2022-11-15

Family

ID=77811545

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110658919.XA Active CN113450295B (zh) 2021-06-15 2021-06-15 一种基于差分对比学习的深度图合成方法

Country Status (3)

Country Link
JP (1) JP7218959B2 (zh)
CN (1) CN113450295B (zh)
LU (1) LU500682B1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114359363B (zh) * 2022-01-11 2024-06-18 浙江大学 一种基于深度学习的视频一致性深度估计方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109960860A (zh) * 2019-03-13 2019-07-02 华北电力大学 基于差分进化极限学习机的电力系统暂态稳定评估方法
CN112598775A (zh) * 2020-12-21 2021-04-02 广东工业大学 一种基于对比学习的多视图生成方法
CN112862858A (zh) * 2021-01-14 2021-05-28 浙江大学 一种基于场景运动信息的多目标跟踪方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108475330B (zh) * 2015-11-09 2022-04-08 港大科桥有限公司 用于有伪像感知的视图合成的辅助数据
EP3343502B1 (en) 2016-12-28 2019-02-20 Dassault Systèmes Depth sensor noise
CN111512344A (zh) * 2017-08-08 2020-08-07 西门子股份公司 使用增强用生成式对抗神经网络从cad数据生成合成深度图像
CN110555434B (zh) * 2019-09-03 2022-03-29 浙江科技学院 一种局部对比和全局指导的立体图像视觉显著性检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109960860A (zh) * 2019-03-13 2019-07-02 华北电力大学 基于差分进化极限学习机的电力系统暂态稳定评估方法
CN112598775A (zh) * 2020-12-21 2021-04-02 广东工业大学 一种基于对比学习的多视图生成方法
CN112862858A (zh) * 2021-01-14 2021-05-28 浙江大学 一种基于场景运动信息的多目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度强化学习和循环卷积神经网络的图像恢复算法;杨海清等;《高技术通讯》;20190515(第05期);全文 *

Also Published As

Publication number Publication date
CN113450295A (zh) 2021-09-28
LU500682B1 (fr) 2022-11-16
JP2022191122A (ja) 2022-12-27
JP7218959B2 (ja) 2023-02-07

Similar Documents

Publication Publication Date Title
CN110503680B (zh) 一种基于非监督的卷积神经网络单目场景深度估计方法
CN112766160A (zh) 基于多级属性编码器和注意力机制的人脸替换方法
CN113283444B (zh) 一种基于生成对抗网络的异源图像迁移方法
CN110992414B (zh) 一种基于卷积神经网络的室内单目场景深度估计的方法
CN106920214A (zh) 空间目标图像超分辨率重建方法
CN115409937A (zh) 基于集成神经辐射场的人脸视频表情迁移模型构建方法及表情迁移方法和系统
CN113222875B (zh) 一种基于色彩恒常性的图像和谐化合成方法
CN111489405B (zh) 基于条件增强生成对抗网络的人脸草图合成系统
CN116486074A (zh) 一种基于局部和全局上下文信息编码的医学图像分割方法
CN113450295B (zh) 一种基于差分对比学习的深度图合成方法
Guo et al. Deep illumination-enhanced face super-resolution network for low-light images
CN113096015B (zh) 基于渐进式感知和超轻量级网络的图像超分辨率重建方法
Wu et al. Self-driven dual-path learning for reference-based line art colorization under limited data
CN112686830A (zh) 基于图像分解的单一深度图的超分辨率方法
CN116664435A (zh) 一种基于多尺度人脸解析图融入的人脸复原方法
CN107133921A (zh) 基于多层次邻域嵌入的图像超分辨率重建方法及系统
CN114331894A (zh) 一种基于潜在特征重构和掩模感知的人脸图像修复方法
CN116977455A (zh) 基于深度双向学习的人脸素描图像生成系统及方法
CN113726976A (zh) 一种基于编码-解码网络的大容量以图藏图方法和系统
Wang et al. Boosting light field image super resolution learnt from single-image prior
CN113343761A (zh) 一种基于生成对抗的实时人脸表情迁移方法
Ma et al. Cloud-egan: Rethinking cyclegan from a feature enhancement perspective for cloud removal by combining cnn and transformer
CN110781737A (zh) 水声数据体绘制中基于梳状波变换的传递函数设计方法
CN114511488B (zh) 一种夜间场景的日间风格可视化方法
Yi Research on artificial intelligence art image synthesis algorithm based on generation model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant