CN112581551B - 基于潜在空间特征提取和映射的被动非视域成像方法 - Google Patents

基于潜在空间特征提取和映射的被动非视域成像方法 Download PDF

Info

Publication number
CN112581551B
CN112581551B CN202011596477.2A CN202011596477A CN112581551B CN 112581551 B CN112581551 B CN 112581551B CN 202011596477 A CN202011596477 A CN 202011596477A CN 112581551 B CN112581551 B CN 112581551B
Authority
CN
China
Prior art keywords
encoder
picture
target
training
potential space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011596477.2A
Other languages
English (en)
Other versions
CN112581551A (zh
Inventor
胡洋
耿瑞旭
陈彦
李厚强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202011596477.2A priority Critical patent/CN112581551B/zh
Publication of CN112581551A publication Critical patent/CN112581551A/zh
Application granted granted Critical
Publication of CN112581551B publication Critical patent/CN112581551B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

一种基于潜在空间特征提取和映射的被动非视域成像方法,包括以下步骤:收集不同目标在不同光照条件下的数据作为数据集;根据场景需要选择所述数据集中的阴影图片和目标图片作为训练集,训练自动编码器;其中,所述自动编码器包括第一编码器和解码器;通过所述训练自动编码器得到目标图片的第一潜在空间;固定所述第一编码器和所述解码器的权重,训练第二编码器;通过所述训练第二编码器得到从输入的待测试墙面阴影图片空间到第一潜在空间的映射;将待测试的墙面阴影图片输入所述第二编码器中,再将输出的第二潜在空间输入到所述解码器中,进行测试,所述解码器输出与目标图片对应的目标隐藏图片的成像结果。

Description

基于潜在空间特征提取和映射的被动非视域成像方法
技术领域
本发明涉及摄像学成像技术领域,具体涉及一种基于潜在空间特征提取和映射的被动非视域成像方法。
背景技术
近年来,计算摄像学通过将新兴的图像处理技术应用摄像学领域,大幅提升了摄像设备的成像质量、成像范围和稳定性。非视域成像技术通过采集、分析拐角处中继面(通常是墙面)上的漫反射光来对被遮挡的隐藏物体进行成像。根据是否有可控的外部光源,非视距成像可以分为主动成像和被动成像两类。被动非视域成像没有可控的外部光源,但也因此具备更低的系统成本,能够对被遮挡的隐藏场景进行二维成像,在医学成像、自动驾驶、安防等领域有重要的应用前景。
然而,被动非视域成像是一个极为病态的问题,这导致仅从中继面上的漫反射图像恢复隐藏场景非常困难。现有技术大多利用传统物理方法,如添加额外的部分遮挡物、使用偏振光来增加额外约束,降低问题的病态性,但这些方法成像质量差,峰值信噪比仅能达到6.7dB左右,难以完成复杂隐藏场景的成像任务;最近的少数深度学习算法通过添加场景先验提高了成像质量,但由于缺乏数据集、均套用U-Net等标准网络结构而缺乏改进等原因,它们的峰值信噪比仍较低,无法满足应用需求;且仅能对简单的图片,如黑白MNIST图片进行被动非视域成像,对于复杂隐藏场景则难以收敛。。综上所述,如何完成具有良好视觉效果和峰值信噪比的高质量非视域成像,以及如何将被动非视域成像应用于更加实际的复杂隐藏场景,是当前被动非视域成像亟待解决的关键技术问题。
发明内容
有鉴于此,本发明的主要目的在于提供一种基于潜在空间特征提取和映射的被动非视域成像方法,以期部分地解决上述技术问题中的至少之一。
为了实现上述目的,作为本发明的一方面,提供了一种基于潜在空间特征提取和映射的被动非视域成像方法,包括以下步骤:
收集不同目标在不同光照条件下的数据作为数据集;
根据场景需要选择所述数据集中的阴影图片和目标图片作为训练集,训练自动编码器;其中,所述自动编码器包括第一编码器和解码器;通过所述训练自动编码器得到目标图片的第一潜在空间;
固定所述第一编码器和所述解码器的权重,训练第二编码器;通过所述训练第二编码器得到从输入的待测试墙面阴影图片空间到第一潜在空间的映射;
将待测试的墙面阴影图片输入所述第二编码器中,再将输出的第二潜在空间输入到所述解码器中,进行测试,所述解码器输出与目标图片对应的目标隐藏图片的成像结果。
其中,所述不同目标的数据包括公开的MNIST手写数字数据集、由StyleGAN合成的模特人脸数据集和下载自Danbooru2018的动漫人脸数据集。
其中,所述不同光照条件包括隐藏图片到中继墙面的距离D,相机观察角度∠α,环境光照L和墙面材料。
其中,所述自动编码器的输入数据和输出数据都是目标图片。
其中,所述自动编码器还包括损失函数,所述损失函数是实际输出图片和目标输出图片之间的失真距离和感知距离的加权和,如下式所示:
LAE=Lp+λ·Ld
其中,Lp是感知距离,衡量的是实际输出图片和目标输出图片在预训练的VGG-19的第三个卷积层上的特征图之间L2损失;Ld是失真距离,它衡量的是实际输出图片和目标输出图片之间的L1损失;λ是权重。
其中,所述第一编码器的结构包括输入层、至少一层卷积层、至少六层平均池化层、一系列的残差模块和至少两层全连接层。
其中,所述解码器的结构与所述第一编码器的结构对称,从而将所述第二潜在空间向量转换为所述目标隐藏图片。
其中,基于最优传输的思想,通过最小化目标图片的第一潜在空间和输出的第二潜在空间之间的差异训练所述第二编码器。
其中,训练第二编码器的时候采用的损失函数为:
min
S.t.
其中,z和分别是第一潜在空间和生成的第二潜在空间中的向量,c表示将向量/>中的单位质量搬移到向量z所需的成本,/>为向量/>需要搬移到向量z的质量,两个约束条件则表示质量守恒。
其中,所述方法还包括对所述测试的结果进行验证,通过结构相似性SSIM和峰值信噪比PSNR两项指标进行评估验证。
基于上述技术方案可知,本发明的被动非视域成像方法相对于现有技术至少具有如下有益效果之一:
(1)本发明能够对人脸等更为复杂的隐藏图像进行彩色高质量成像,且在日光环境下仍有一定的成像效果。
(2)本发明还综合考虑了不同光传输条件下的成像问题。即便是在有较强环境光干扰的日光环境,本发明也能在特定数据集上取得良好的成像效果。除此之外,本发明也适用于不同的观察角度、成像距离和不同的墙面材料。
(3)本发明在手写数字、模特人脸和动漫人脸三种数据下均可取得好于其他方法的成像结果,且对不同光照环境具有较好的鲁棒性,相比于现有的深度学习算法具有更好的泛化性能。
附图说明
图1是本发明的被动非视域成像方法的流程示意图;
图2是本发明的模型示意图;
图3是本发明实施过程中用于采集数据的硬件实拍图;
图4是本发明成像模型所使用的深度神经网络整体框架图;
图5是本发明在不同种类隐藏图片下的成像结果;
图6是本发明在不同种类光照条件下的成像结果。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
本发明的目的在于,提出一种被动非视域成像方法,其可将目标图像投射到墙面的阴影信息高质量地恢复为目标图像。
基于深度学习的被动非视域成像的关键在于高效利用有限的信息,以缓解输入数据分布和目标数据分布差异极大、病态程度高带来的挑战。因此,与已有的使用U-Net的端到端成像算法不同,本发明首先使用自动编码器将目标图像从图像空间映射到潜在空间,以提取目标图像的特征并找到图像空间上能够代表目标图像的一个流形嵌入;之后,本发明基于最优传输理论,使用另一个编码器将输入的墙面阴影图片从它所在的投影空间映射到目标图像的潜在空间中,进而通过潜在空间对目标图像进行成像。
除了实现单一光传输条件下的非视域成像外,本发明还综合考虑了不同光传输条件下的成像问题。即便是在有较强环境光干扰的日光环境,本发明也能在特定数据集上取得良好的成像效果。除此之外,本发明也适用于不同的观察角度、成像距离和不同的墙面材料。
在目前已有的被动非视距成像方法中,通常只能对简单的、黑白的隐藏图像进行模糊的成像,且要求黑暗的光照环境。相比较而言,本发明能够对人脸等更为复杂的隐藏图像进行彩色高质量成像,且在日光环境下仍有一定的成像效果。
如图1所示,为基于潜在空间特征提取和映射的非视域成像方法流程示意图,具体包括以下步骤:
收集不同目标在不同光照条件下的数据作为数据集;
根据场景需要选择所述数据集中的目标图片作为训练集,训练自动编码器;其中,所述自动编码器包括第一编码器和解码器;通过所述训练自动编码器得到目标图片的第一潜在空间;
固定所述第一编码器和所述解码器的权重,训练第二编码器;通过所述训练第二编码器得到从输入的待测试墙面阴影图片空间到第一潜在空间的映射;
将待测试的墙面阴影图片输入所述第二编码器中,再将输出的第二潜在空间输入到所述解码器中,进行测试,所述解码器输出与目标图片对应的目标隐藏图片的成像结果。
具体的,本实施例验证了本发明提出的方法对不同类型隐藏场景,即手写数字、模特人脸和动漫人脸的有效性。在本实施例中,根据图2所示的模型示意图,使用笔记本电脑的显示屏显示隐藏的目标图片Ix,其在墙面形成阴影Ix,同时使用摄像头采集Iy;通过显示屏和摄像头之间的TCP通信保证Ix与Iy的同步。本实例的操作步骤如下:
步骤1:收集来自3种目标数据和4种不同光照条件下的48组,共计3,136,000对目标-阴影数据作为数据集。采集数据的硬件实拍图如图3所示。为了验证方法对不同类型的隐藏场景的有效性,本发明依次选择某种光照条件下(如墙面,黑暗环境,距离D=100,角度∠α1)的三种类型的隐藏图片对应的数据集,作为训练集和测试集,完成后续步骤。
步骤2:训练集中的目标图片Ix作为训练集,训练由一个编码器E1(即第一编码器)和一个解码器D1构成的自动编码器,得到目标图片的潜在空间(即第一潜在空间)。该过程如图4中上面一行所示。从中可以看到,潜在空间要比目标图片空间分布更加简单,从阴影图片空间到潜在空间的映射明显要易于到目标图片空间的映射。在该步骤中,网络的输入数据和输出数据都是目标图片Ix,损失函数则是实际输出图片和目标输出图片之间的失真距离和感知距离的加权和:
LAE=Lp+λ·Ld
其中,Lp是感知距离,它衡量的是实际输出图片和目标输出图片Ix在预训练的VGG-19的第三个卷积层φ3,3(·)上特征图之间的MSE损失,即
和φ3,3(Ix)分别代表了实际输出图片/>和目标输出图片Ix经过预训练的VGG19网络的第3个卷积层后得到的特征图,W和H则是特征图的宽度和高度。Ld是失真距离,它使用1范数衡量实际输出图片/>和目标输出图片Ix之间的曼哈顿距离,即:
λ是权重,经过实验,本发明选择λ=10。
本步骤中采用的编码器E1的网络结构如表1所示。解码器的结构D1与编码器对称,从而将1×512的潜在空间向量转换为目标隐藏图片。
表1编码器的网络结构
步骤3:固定步骤2得到的编码器E1和解码器D1的权重,训练另一个编码器E2(即第二编码器).该编码器的输入是墙面阴影图片Iy,输出是步骤2得到的目标图片的潜在空间(即第二潜在空间).该步骤如图4中下面一行所示,阴影图片空间经过编码器E2映射到了潜在空间。基于最优传输的思想,本发明通过最小化目标图片的潜在空间/>和输出的潜在空间/>之间的差异来训练编码器E2,其损失函数为:
min
s.t.
其中,z和分别是潜在空间/>和生成的潜在空间/>中的向量,c表示将向量/>中的单位质量搬移到向量z所需的成本,/>为向量/>需要搬移到向量z的质量,两个约束条件则表示质量守恒。考虑到在被动非视域成像任务中,z和/>是成对出现的。因此,本发明通过多次实验验证,选择通过最小化z和/>之间的L1损失训练E2,进而完成从输入的阴影图片空间到潜在空间的映射。在本发明中,编码器E2采用了和编码器E1完全相同的网络结构,如表1所示。
步骤4:如图4所示,采用步骤1收集的测试集,选择与步骤2和步骤3相对应的数据组,将需要测试的墙面阴影图片Iy输入步骤3得到的编码器E2中,再将输出的潜在空间继续输入到步骤1得到的解码器D1中,即可得到对应的隐藏图片成像结果/>三种不同类型的隐藏图片数据的结果均在图4中示出。仅从视觉效果上观察,本发明提出的方法能够将不同类型的阴影图片基本转换为高质量的隐藏图片,从而完成被动非视域成像。关于本案例的定量分析结果将在步骤5中给出。
步骤5:本发明通过结构相似性SSIM和峰值信噪比PSNR两项指标评估本发明提出的方法的性能,其结果如表2所示。
从图5给出的直观成像效果和表2给出的定量分析结果均可以看出,本发明能够对不同类型的隐藏图片进行较高质量的被动非视域成像。其中,不仅包括了现有方法能够完成的手写数据集的成像,本发明还可以完成对复杂度较高的模特人脸和动漫人脸的彩色高质量非视域成像。
表2不同类型隐藏目标图片的被动非视域成像定量分析结果
SSIM PSNR
手写数字数据集 0.832 15.27dB
模特人脸数据集 0.597 16.04dB
动漫人脸数据集 0.443 13.56dB
本实施例验证了本发明提出的方法对不同光传输条件,即不同距离D,相机角度∠α,环境光照L和墙面材料的有效性。在本实施例中,本发明首先选择某种特定的隐藏图片类型,如模特人脸图片,在典型的黑暗光照,距离D=100,角度∠α1,使用墙面采集到的数据作为基准数据;之后,依次改变4种光照条件,从而得到了4组对应的不同条件下的数据作为对比数据,这5种条件如图5中所示。与实施例1的训练步骤相同,即按照前述步骤2和步骤3的做法,依次对每组数据完成训练。在步骤4和5中,本实施例依次对5种光照条件下采集和训练的数据进行了测试,测试结果如图6所示。从图6中可以看出,本发明提出的被动非视域成像方法能够在不同的距离、角度、墙面甚至光照环境下条件下取得良好的成像结果。
综上所述,可见本发明提出的一种基于潜在空间特征提取和映射的被动非视域成像方法不仅能够对不同类型隐藏场景取得高质量的全彩成像结果,还能够适应不同光传输条件,在不同的环境下取得良好的成像结果。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于潜在空间特征提取和映射的被动非视域成像方法,其特征在于,包括以下步骤:
收集不同目标在不同光照条件下的数据作为数据集;
根据场景需要选择所述数据集中的阴影图片和目标图片作为训练集,训练自动编码器;其中,所述自动编码器包括第一编码器和解码器,其中,所述第一编码器的结构包括输入层、至少一层卷积层、至少六层平均池化层、一系列的残差模块和至少两层全连接层,所述解码器的结构与所述第一编码器的结构对称,从而将所述第二潜在空间向量转换为所述目标隐藏图片;通过所述训练自动编码器得到目标图片的第一潜在空间;
固定所述第一编码器和所述解码器的权重,训练第二编码器,其中,训练所述第二编码器的时候采用的损失函数为:
π(Zi×Z)=μ(Zi)
其中,z和分别是第一潜在空间和生成的第二潜在空间中的向量,c表示将向量/>中的单位质量搬移到向量z所需的成本,/>为向量/>需要搬移到向量z的质量,两个约束条件则表示质量守恒;通过所述训练第二编码器得到从输入的待测试墙面阴影图片空间到第一潜在空间的映射;
将待测试的墙面阴影图片输入所述第二编码器中,再将输出的第二潜在空间输入到所述解码器中,进行测试,所述解码器输出与目标图片对应的目标隐藏图片的成像结果。
2.根据权利要求1所述的被动非视域成像方法,其特征在于,所述不同目标的数据包括公开的MNIST手写数字数据集、由StyleGAN合成的模特人脸数据集和下载自Danbooru2018的动漫人脸数据集。
3.根据权利要求1所述的被动非视域成像方法,其特征在于,所述不同光照条件包括隐藏图片到中继墙面的距离D,相机观察角度∠α,环境光照L和墙面材料。
4.根据权利要求1所述的被动非视域成像方法,其特征在于,所述自动编码器的输入数据和输出数据都是目标图片。
5.根据权利要求1所述的被动非视域成像方法,其特征在于,所述自动编码器还包括损失函数,所述损失函数是实际输出图片和目标输出图片之间的失真距离和感知距离的加权和,如下式所示:
LAE=Lp+λ·Ld
其中,Lp是感知距离,衡量的是实际输出图片和目标输出图片在预训练的VGG-19的第三个卷积层上的特征图之间L2损失;Ld是失真距离,它衡量的是实际输出图片和目标输出图片之间的L1损失;λ是权重。
6.根据权利要求1所述的被动非视域成像方法,其特征在于,基于最优传输的思想,通过最小化目标图片的第一潜在空间和输出的第二潜在空间之间的差异训练所述第二编码器。
7.根据权利要求1所述的被动非视域成像方法,其特征在于,所述方法还包括对所述测试的结果进行验证,通过结构相似性SSIM和峰值信噪比PSNR两项指标进行评估验证。
CN202011596477.2A 2020-12-29 2020-12-29 基于潜在空间特征提取和映射的被动非视域成像方法 Active CN112581551B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011596477.2A CN112581551B (zh) 2020-12-29 2020-12-29 基于潜在空间特征提取和映射的被动非视域成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011596477.2A CN112581551B (zh) 2020-12-29 2020-12-29 基于潜在空间特征提取和映射的被动非视域成像方法

Publications (2)

Publication Number Publication Date
CN112581551A CN112581551A (zh) 2021-03-30
CN112581551B true CN112581551B (zh) 2024-04-02

Family

ID=75144093

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011596477.2A Active CN112581551B (zh) 2020-12-29 2020-12-29 基于潜在空间特征提取和映射的被动非视域成像方法

Country Status (1)

Country Link
CN (1) CN112581551B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113344774A (zh) * 2021-06-16 2021-09-03 东南大学 一种基于深度卷积逆向图网络的非视域成像方法
CN113688937A (zh) * 2021-09-07 2021-11-23 北京沃东天骏信息技术有限公司 一种图像处理方法及装置、存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784815A (zh) * 2020-07-03 2020-10-16 哈尔滨工业大学 一种基于透射窗的被动非视域半影成像方法
CN112101426A (zh) * 2020-08-26 2020-12-18 东南大学 基于自编码器的无监督学习图像异常检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11048974B2 (en) * 2019-05-06 2021-06-29 Agora Lab, Inc. Effective structure keeping for generative adversarial networks for single image super resolution

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784815A (zh) * 2020-07-03 2020-10-16 哈尔滨工业大学 一种基于透射窗的被动非视域半影成像方法
CN112101426A (zh) * 2020-08-26 2020-12-18 东南大学 基于自编码器的无监督学习图像异常检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
姚义 ; 王诗珂 ; 陈希豪 ; 林宇翩 ; .基于深度学习的结构化图像标注研究.电脑知识与技术.2019,(33),全文. *

Also Published As

Publication number Publication date
CN112581551A (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
Ciancio et al. No-reference blur assessment of digital pictures based on multifeature classifiers
US7623683B2 (en) Combining multiple exposure images to increase dynamic range
Shen et al. Hybrid no-reference natural image quality assessment of noisy, blurry, JPEG2000, and JPEG images
Liu et al. Survey of natural image enhancement techniques: Classification, evaluation, challenges, and perspectives
CN112581551B (zh) 基于潜在空间特征提取和映射的被动非视域成像方法
Bi et al. Haze removal for a single remote sensing image using low-rank and sparse prior
CN113810611B (zh) 一种事件相机的数据模拟方法和装置
Fan et al. Multiscale cross-connected dehazing network with scene depth fusion
Iwasokun et al. Image enhancement methods: a review
CN113628134B (zh) 图像降噪方法及装置、电子设备及存储介质
Agrawal et al. A joint cumulative distribution function and gradient fusion based method for dehazing of long shot hazy images
D'Angelo et al. A full-reference quality metric for geometrically distorted images
CN111178229B (zh) 一种基于深度学习的静脉显像方法和装置
Gaidhani Super-resolution
CN116823863A (zh) 一种红外图像轮廓提取方法及装置
CN111696167A (zh) 自范例学习引导的单张影像超分辨率重构方法
Vavilin et al. Fast HDR image generation from multi-exposed multiple-view LDR images
CN116402908A (zh) 一种基于异构式成像的密集光场图像重建方法
Van Vo et al. High dynamic range video synthesis using superpixel-based illuminance-invariant motion estimation
Bonanomi et al. I3D: a new dataset for testing denoising and demosaicing algorithms
CN112991174A (zh) 一种提高单帧红外图像分辨率的方法与系统
Gao et al. Two‐Step Unsupervised Approach for Sand‐Dust Image Enhancement
Kanj Flicker removal and color correction for high speed videos
Maalouf et al. Image super-resolution, a state-of-the-art review and evaluation
Xu et al. A two-stage progressive shadow removal network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant