CN111598789B - 一种基于深度学习的稀疏颜色传感器图像重建方法 - Google Patents

一种基于深度学习的稀疏颜色传感器图像重建方法 Download PDF

Info

Publication number
CN111598789B
CN111598789B CN202010270361.3A CN202010270361A CN111598789B CN 111598789 B CN111598789 B CN 111598789B CN 202010270361 A CN202010270361 A CN 202010270361A CN 111598789 B CN111598789 B CN 111598789B
Authority
CN
China
Prior art keywords
image
color
network
convolution
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010270361.3A
Other languages
English (en)
Other versions
CN111598789A (zh
Inventor
孙帮勇
袁年曾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202010270361.3A priority Critical patent/CN111598789B/zh
Publication of CN111598789A publication Critical patent/CN111598789A/zh
Application granted granted Critical
Publication of CN111598789B publication Critical patent/CN111598789B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的稀疏颜色传感器图像重建方法,步骤包括:步骤1、构建亮度恢复网络,根据raw图像中占96%的全色像素WS恢复出100%的全色像素图像WR;步骤2、构建生成对抗网络WGAN;步骤3、更新对抗模块参数;步骤4,更新颜色重建网络参数;步骤5,建立非线性映射关系;步骤6,获取RGB彩色图像,将测试数据输入到训练好的颜色重建网络中,得到RGB彩色图像。本发明的方法,每个像素位置只采样了一种颜色,可用于恢复单传感器相机raw图像的完整彩色信息,较传统方法获得更清晰的彩色图像细节。

Description

一种基于深度学习的稀疏颜色传感器图像重建方法
技术领域
本发明属于图像处理技术领域,涉及一种基于深度学习的稀疏颜色传感器图像重建方法。
背景技术
在过去的十年中,数码相机有了很大的发展。数码相机的基本原理是,采用单个传感器的成像结构,一次曝光获得一幅图像,传感器表面覆盖滤光片,曝光成像时,传感器的每个像素位置只采集一种颜色,这种直接采样获取的图像称为raw图像,需通过软件方法重建出每个像素位置上没有直接采样的颜色,这个重建过程被称为图像去马赛克。当前RGB数码相机中,传感器表面最常见的滤光片阵列是Bayer阵列,成像区域由2×2的重复阵列组成,每组2×2阵列包含2个绿色像素(G)、1个红色像素(R)、1个蓝色像素(B)。近些年针对Bayer阵列raw图像的去马赛克技术取得了一定进步,但采用Bayer阵列的相机在拍摄弱光场景图像时仍存在图像不清晰、细节丢失等缺陷。
为了克服Bayer阵列成像在弱光条件下的成像缺陷,Kodak公司提出了RGBW滤光片阵列,在RGB基础上加入了W全色像素。与表面覆盖了滤光片的R、G、B三色像素不同,W全色像素没有覆盖滤光片,从而意味着可接收更多光线进入传感器,从而引发传感器的光电响应,利于捕捉弱光条件下的图像信息,但是其技术效果还是不够理想。
发明内容
本发明的目的是提供一种基于深度学习的稀疏颜色传感器图像重建方法,解决了现有技术在采用Bayer阵列的相机拍摄弱光场景图像时,仍存在图像不清晰、细节丢失,弱光条件下的成像质量差的问题。
本发明采用的技术特征是,一种基于深度学习的稀疏颜色传感器图像重建方法,按照以下步骤具体实施:
步骤1、构建亮度恢复网络,根据raw图像中占96%的全色像素WS恢复出100%的全色像素图像WR
步骤2、构建生成对抗网络WGAN;
步骤3、更新对抗模块参数;
步骤4,更新颜色重建网络参数;
步骤5,建立非线性映射关系,
训练对抗模块和颜色重建网络,直到对抗模块的损失值达到最大,颜色重建网络的损失值达到最小;保存训练好的颜色重建网络的结构及各层参数,得到建立好的非线性映射关系;
步骤6,获取RGB彩色图像,
将测试数据输入到训练好的颜色重建网络中,得到RGB彩色图像。
本发明的有益效果是,首先建立一个亮度恢复网络,从占96%空间的W全色像素中恢复出其余4%空间位置上的W颜色值,得到完整的W颜色值(将其称为W亮度通道图像),并根据W通道图像提取边缘信息的低级特征。然后利用亮度恢复网络的输出和raw图像中的RGB采样值,重建所有位置上的RGB值,获得完整的RGB彩色图像。采用本发明所提出的RGBW滤光片阵列获取的raw图像,每个像素位置只采样了一种颜色,可用于恢复单传感器相机raw图像的完整彩色信息,从而解决单传感器快照式成像存在的颜色丢失和颜色伪影等问题;同时,能够有效提高低光照条件下的成像质量,较传统方法获得更清晰的彩色图像细节。
附图说明
图1是本发明方法采用的传感器表面的RGBW滤光片阵列示意图;
图2是本发明方法的颜色重建模型示意图;
图3是本发明方法的流程示意图;
图4是本发明方法构建的亮度恢复网络模型结构示意图;
图5是本发明方法构建的颜色重建网络模型结构示意图;
图6是本发明方法构建的对抗模块示意图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
参照图1,为进一步提高彩色相机的弱光环境成像能力,本发明方法参考人眼视觉特征,设计了一种RGBW传感器表面滤光片阵列,即用10×10像素的栅格表示RGBW阵列;具体来说,全色像素W类似于人视觉中的杆状细胞用来获取亮度信息,而RGB像素类似视觉中的视锥细胞来获取色度信息,而在人类视网膜中,95%的感光细胞是杆状细胞,只有5%是视锥细胞。因此,为了模拟特别是在弱光条件下的类人视觉性能,本发明方法采用了一种类似人眼视觉系统的RGBW滤光片阵列,W表示全色像素、R表示红色像素、G表示绿色像素、B表示蓝色像素;在传感器平面内R、G、B、W四种颜色像素的空间比例参考人眼系统,即W像素占96%,G像素占2%,R像素和B像素各占1%。因此,这种参照人眼视觉系统的阵列成像方式,能够提高弱光条件下的成像质量,在车辆自动驾驶、机器人和安全摄像机等方面具有广泛应用前景。
利用上述的RGBW滤光片阵列进行成像得到raw图像,即每个像素位置只采集了一种颜色,本发明利用深度学习方法提出一种颜色重建模型,将每个像素位置的其他三种未采样颜色信息进行重建,参照图2,重建过程可描述为:{WS,CS}→IR,其中WS表示raw图像中的全色像素,CS表示raw图像中的稀疏RGB像素,最后输出一个完整三通道的RGB彩色图像IR
参照图3,本发明的方法,按照以下步骤具体实施:
步骤1、构建亮度恢复网络,根据raw图像中占96%的全色像素WS恢复出100%的全色像素图像WR
参照图4,本步骤采用的亮度恢复网络,是利用raw图像中占96%空间的全色像素WS计算出全部空间上的全色像素图像WR,亮度恢复网络的结构依次为:全色像素WS作为输入→第一个卷积层Conv1→第二个卷积层Conv2→第三个卷积层Conv3→第四个卷积层Conv4→第五个卷积层Conv5→第六个卷积层Conv6→输出全色像素图像WR,其中Conv1、Conv2和Conv3的特征映射图的总数均为64个,Conv4和Conv5的特征映射图的总数均为128个;前五个卷积层的卷积核大小均为3×3,卷积步长均为1,并通过ReLU函数激活;网络的最后一层卷积层的尺寸为H×W×1,其中H和W分别代表输入图像的高度和宽度;输出层通过双曲正切函数激活;在恢复100%的全色像素图像WR的同时,采用Canny边缘提取算法提取出边缘特征ER作为低级特征,表达式为ER∈[0,1]H×W×1
亮度恢复网络的每一层均使用批量归一化函数进行归一化处理,在训练亮度恢复网络时,考虑到L1损失函数在目标轮廓的对比度、均匀区域的平滑效果方面表现较好,同时SSIM损失函数引入结构约束能够很好地恢复图像的结构和局部细节,本步骤采用将L1+SSIM损失函数组合在一起作为最终的网络训练损失函数,表达式为:
Figure BDA0002442936270000051
式(1)中,L(WG,WR)表示真实图像的全色像素图像WG和恢复出来的全色像素图像WR之间的损失;
Figure BDA0002442936270000052
p表示像素,P表示整个图像块,N表示图像块中像素的总数,WG(p)和WR(p)分别是WG和WR的像素值;
Figure BDA0002442936270000053
其中,
Figure BDA0002442936270000054
Figure BDA0002442936270000055
分别表示WG和WR的平均值,
Figure BDA0002442936270000056
Figure BDA0002442936270000057
是标准偏差,
Figure BDA0002442936270000058
是真实图像的全色像素图像WG和恢复出来的全色像素图像WR的协方差,C1和C2是常量,l是亮度分量,c是对比度分量,s是结构分量;
步骤2、构建生成对抗网络WGAN,
构建一个颜色重建网络CRN并设置该网络的每层参数,将其作为生成对抗网络WGAN中的生成器,该网络的输入数据包含:步骤1获得的100%全色像素图像WR、边缘特征ER、以及raw图像中的占4%空间的稀疏RGB像素CS,网络输出为重建的RGB彩色图像IR
参照图5,是本步骤提出的颜色重建网络CRN,颜色重建过程采用对抗训练,颜色重建网络CRN作为生成器,对抗模块作为判别器,颜色重建网络CRN的结构依次为:集合K={WR,CS,ER}作为输入→第一个卷积块ConvB1→第一个密集-过渡块Dense1-Tran1→第二个密集-过渡块Dense2-Tran2→第三个密集-过渡块Dense3-Tran3→第二个卷积块ConvB2→第三个卷积块ConvB3→第四个卷积块ConvB4→第五个卷积块ConvB5→第六个卷积块ConvB6→第七个卷积块ConvB7→第八个卷积块ConvB8→输出RGB彩色图像IR,其中,Dense1-Tran1与ConvB7相连,Dense2-Tran2与ConvB6相连,Dense3-Tran3与ConvB5相连,图4中的单向箭头表示特征连接关系,ConvB1的特征映射图的总数为15个,卷积核大小为3×3,卷积步长为1,通过ReLU函数激活;
ConvB1首先处理全色像素图像WR和稀疏RGB像素CS,然后将边缘特征图像PR与ConvB1的输出连接在一起,因此,输出尺寸变为H×W×16,其中H是图像高度,W是图像宽度;ConvB1的串联输出以前馈方式馈入Dense1,通过Tran1连接到Dense2,Dense2通过Tran2连接到Dense3;
Dense1、Dense2、Dense3块的输出尺寸分别为64、128和256,卷积核大小均为3×3,卷积步长均为1;此外,Dense1、Dense2、Dense3块中的每一层都通过批处理归一化函数进行归一化,并通过ReLU函数激活;在本步骤的模型中,使用g=8的增长率来增加每次出现密集块时的卷积层数;
Tran1、Tran2、Tran3块由卷积层和下采样层组成,每个卷积层的卷积核大小均为3×3,卷积步长均为1,并通过ReLU函数激活;下采样层卷积核大小均为3×3,卷积步长均为2;
ConvB2块有两个卷积层;ConvB3块包含五个扩张卷积层,其dilation=2;ConvB4块具有单个卷积层;ConvB2、ConvB3、ConvB4块的每一层的卷积核的核大小为3×3,步长大小为1,深度为512,通过批量归一化函数进行归一化,并通过ReLU函数进行激活;
ConvB5、ConvB6、ConvB7块用作上采样块,输出尺寸分别为256、128、64,每个块都由一个卷积核大小为2×2上采样卷积层和另一个卷积核大小为3×3的卷积层组成,使用批量归一化函数进行归一化,并通过ReLU函数激活;
ConvB8块的输出尺寸为H×W×3,使用tanh函数激活重建的RGB彩色图像IR
构建一个对抗模块并设置该网络的每层参数,将其作为生成对抗网络WGAN中的判别器,用来判断颜色重建网络CRN重建的RGB彩色图像IR与原始图像IG相比是否为真实样本;
参照图6,实施例中,判别器的输入为D={CS,WR,ER,IR,IG},对抗模块的结构依次为:集合D={CS,WR,ER,IR,IG}作为输入→卷积层一ConvF1→卷积层二ConvF2→卷积层三ConvF3→卷积层四ConvF4;其中,ConvF1、ConvF2和ConvF3的特征映射图的总数均为64个,ConvF4的特征映射图的总数为256个,每个卷积层的卷积核大小均为3×3,卷积步长均为1,所有卷积层均使用批量归一化函数进行归一化,并通过ReLU函数激活输出;
步骤3、更新对抗模块参数,
从输入训练样本集中随机选取一个输入训练样本,将所选取的输入训练样本输入到颜色重建网络中,将颜色重建网络的输出矩阵作为生成样本;
从输出训练样本集中选取一个与输入训练样本对应的输出训练样本;
将生成样本与输出训练样本输入到生成对抗网络GAN中的对抗模块中;
利用判别器的损失函数,计算生成对抗网络GAN中的对抗模块的损失值,用该损失值更新对抗模块中的每一层参数;
所述判别器的损失函数的表达式为:
Figure BDA0002442936270000071
式(2)中,LwGAN(D)表示所述判别器的损失函数,IG是原始图像,Pr表示真实样本的数据分布,Pg表示生成样本的数据分布,E表示符合某种分布的输入通过函数处理后得到的输出期望,D(IG)表示对真实的样本进行判别;
步骤4,更新颜色重建网络参数,
计算生成器颜色重建网络的内容损失值,表达式如下:
Figure BDA0002442936270000081
式(3)中,LCRN(IG,IR)表示原始图像IG和颜色重建网络CRN输出的RGB彩色图像IR之间的损失;
Figure BDA0002442936270000082
p表示像素,P表示整个图像块,IG(p)和IR(p)分别是IG和IR的像素值,N表示图像块中像素的总数;
Figure BDA0002442936270000083
其中,
Figure BDA0002442936270000084
表示IG的平均值,
Figure BDA0002442936270000085
表示IR的平均值,
Figure BDA0002442936270000086
Figure BDA0002442936270000087
是标准偏差,
Figure BDA0002442936270000088
是两个图像的协方差,C1和C2是常量,l是亮度分量,c是对比度分量,s是结构分量,
计算生成器颜色重建网络的对抗损失值,表达式如下:
Figure BDA0002442936270000089
式(4)中,LwGAN(G)表示所述生成器的损失函数,IG是原始图像,Pg表示生成样本的数据分布,E表示符合某种分布的输入通过函数处理后得到的输出期望,D(IG)表示对真实的样本进行判别;
将颜色重建网络的内容损失值和对抗损失值相加,得到颜色重建网络的总损失值,表达式如下:
G*=LwGAN(G,D)+λLCRN(G)   (5)
式(5)中,优选的参数λ=100,
用总损失值更新颜色重建网络中的每一层参数。
步骤5,建立非线性映射关系,
训练对抗模块和颜色重建网络,直到对抗模块的损失值达到最大,颜色重建网络的损失值达到最小;保存训练好的颜色重建网络的结构及各层参数,得到建立好的非线性映射关系;
步骤6,获取RGB彩色图像,
将测试数据输入到训练好的颜色重建网络中,得到RGB彩色图像。

Claims (3)

1.一种基于深度学习的稀疏颜色传感器图像重建方法,其特征在于,按照以下步骤具体实施:
步骤1、构建亮度恢复网络,根据raw图像中占96%的全色像素WS恢复出100%的全色像素图像WR,具体过程是,
利用raw图像中占96%空间的全色像素WS计算出全部空间上的全色像素图像WR,亮度恢复网络的结构依次为:全色像素WS作为输入→第一个卷积层Conv1→第二个卷积层Conv2→第三个卷积层Conv3→第四个卷积层Conv4→第五个卷积层Conv5→第六个卷积层Conv6→输出全色像素图像WR
其中Conv1、Conv2和Conv3的特征映射图的总数均为64个,Conv4和Conv5的特征映射图的总数均为128个;前五个卷积层的卷积核大小均为3×3,卷积步长均为1,并通过ReLU函数激活;网络的最后一层卷积层的尺寸为H×W×1,其中H和W分别代表输入图像的高度和宽度;输出层通过双曲正切函数激活;在恢复100%的全色像素图像WR的同时,采用Canny边缘提取算法提取出边缘特征ER作为低级特征,表达式为ER∈[0,1]H×W×1
亮度恢复网络的每一层均使用批量归一化函数进行归一化处理,在训练亮度恢复网络时,采用将L1+SSIM损失函数组合在一起作为最终的网络训练损失函数,表达式为:
Figure FDA0004055242560000011
式(1)中,L(WG,WR)表示真实图像的全色像素图像WG和恢复出来的全色像素图像WR之间的损失;
Figure FDA0004055242560000021
p表示像素,P表示整个图像块,N表示图像块中像素的总数,WG(p)和WR(p)分别是WG和WR的像素值;
Figure FDA0004055242560000022
其中,
Figure FDA0004055242560000023
Figure FDA0004055242560000024
分别表示WG和WR的平均值,
Figure FDA0004055242560000025
Figure FDA0004055242560000026
是标准偏差,
Figure FDA0004055242560000027
是真实图像的全色像素图像WG和恢复出来的全色像素图像WR的协方差,C1和C2是常量,l是亮度分量,c是对比度分量,s是结构分量;
步骤2、构建生成对抗网络WGAN,具体过程是,
构建一个颜色重建网络CRN并设置该网络的每层参数,作为生成对抗网络WGAN中的生成器,该网络的输入数据包含:步骤1获得的100%全色像素图像WR、边缘特征ER、以及raw图像中的占4%空间的稀疏RGB像素CS,网络输出为重建的RGB彩色图像IR
颜色重建过程采用对抗训练,颜色重建网络CRN作为生成器,对抗模块作为判别器,颜色重建网络CRN的结构依次为:集合K={WR,CS,ER}作为输入→第一个卷积块ConvB1→第一个密集-过渡块Dense1-Tran1→第二个密集-过渡块Dense2-Tran2→第三个密集-过渡块Dense3-Tran3→第二个卷积块ConvB2→第三个卷积块ConvB3→第四个卷积块ConvB4→第五个卷积块ConvB5→第六个卷积块ConvB6→第七个卷积块ConvB7→第八个卷积块ConvB8→输出RGB彩色图像IR
其中,Dense1-Tran1与ConvB7相连,Dense2-Tran2与ConvB6相连,Dense3-Tran3与ConvB5相连,ConvB1的特征映射图的总数为15个,卷积核大小为3×3,卷积步长为1,通过ReLU函数激活;
ConvB1首先处理全色像素图像WR和稀疏RGB像素CS,然后将边缘特征图像PR与ConvB1的输出连接在一起,因此,输出尺寸变为H×W×16,其中H是图像高度,W是图像宽度;ConvB1的串联输出以前馈方式馈入Dense1,通过Tran1连接到Dense2,Dense2通过Tran2连接到Dense3;
Dense1、Dense2、Dense3块的输出尺寸分别为64、128和256,卷积核大小均为3×3,卷积步长均为1;此外,Dense1、Dense2、Dense3块中的每一层都通过批处理归一化函数进行归一化,并通过ReLU函数激活;使用g=8的增长率来增加每次出现密集块时的卷积层数;
Tran1、Tran2、Tran3块由卷积层和下采样层组成,每个卷积层的卷积核大小均为3×3,卷积步长均为1,并通过ReLU函数激活;下采样层卷积核大小均为3×3,卷积步长均为2;
ConvB2块有两个卷积层;ConvB3块包含五个扩张卷积层,其dilation=2;ConvB4块具有单个卷积层;ConvB2、ConvB3、ConvB4块的每一层的卷积核的核大小为3×3,步长大小为1,深度为512,通过批量归一化函数进行归一化,并通过ReLU函数进行激活;
ConvB5、ConvB6、ConvB7块用作上采样块,输出尺寸分别为256、128、64,每个块都由一个卷积核大小为2×2上采样卷积层和另一个卷积核大小为3×3的卷积层组成,使用批量归一化函数进行归一化,并通过ReLU函数激活;
ConvB8块的输出尺寸为H×W×3,使用tanh函数激活重建的RGB彩色图像IR
构建一个对抗模块并设置该网络的每层参数,将其作为生成对抗网络WGAN中的判别器,用来判断颜色重建网络CRN重建的RGB彩色图像IR与原始图像IG相比是否为真实样本;
步骤3、更新对抗模块参数;
步骤4,更新颜色重建网络参数;
步骤5,建立非线性映射关系,
训练对抗模块和颜色重建网络,直到对抗模块的损失值达到最大,颜色重建网络的损失值达到最小;保存训练好的颜色重建网络的结构及各层参数,得到建立好的非线性映射关系;
步骤6,获取RGB彩色图像,
将测试数据输入到训练好的颜色重建网络中,得到RGB彩色图像。
2.根据权利要求1所述的基于深度学习的稀疏颜色传感器图像重建方法,其特征在于:所述的步骤3中,具体过程是,
从输入训练样本集中随机选取一个输入训练样本,将所选取的输入训练样本输入到颜色重建网络中,将颜色重建网络的输出矩阵作为生成样本;
从输出训练样本集中选取一个与输入训练样本对应的输出训练样本;
将生成样本与输出训练样本输入到生成对抗网络GAN的对抗模块中;
利用判别器的损失函数,计算生成对抗网络GAN中的对抗模块的损失值,用该损失值更新对抗模块中的每一层参数;判别器的损失函数表达式为:
Figure FDA0004055242560000041
式(2)中,LwGAN(D)表示所述判别器的损失函数,IG是原始图像,Pr表示真实样本的数据分布,Pg表示生成样本的数据分布,E表示符合某种分布的输入通过函数处理后得到的输出期望,D(IG)表示对真实的样本进行判别。
3.根据权利要求1所述的基于深度学习的稀疏颜色传感器图像重建方法,其特征在于:所述的步骤4中,具体过程是,
计算生成器颜色重建网络的内容损失值,表达式如下:
Figure FDA0004055242560000051
式(3)中,LCRN(IG,IR)表示原始图像IG和颜色重建网络CRN输出的RGB彩色图像IR之间的损失;
Figure FDA0004055242560000052
p表示像素,P表示整个图像块,IG(p)和IR(p)分别是IG和IR的像素值,N表示图像块中像素的总数;
Figure FDA0004055242560000053
其中,
Figure FDA0004055242560000054
表示IG的平均值,
Figure FDA0004055242560000055
表示IR的平均值,
Figure FDA0004055242560000056
Figure FDA0004055242560000057
是标准偏差,
Figure FDA0004055242560000058
是两个图像的协方差,C1和C2是常量,l是亮度分量,c是对比度分量,s是结构分量,
计算生成器颜色重建网络的对抗损失值,表达式如下:
Figure FDA0004055242560000059
式(4)中,LwGAN(G)表示所述生成器的损失函数,IG是原始图像,Pg表示生成样本的数据分布,E表示符合某种分布的输入通过函数处理后得到的输出期望,D(IG)表示对真实的样本进行判别;
将颜色重建网络的内容损失值和对抗损失值相加,得到颜色重建网络的总损失值,表达式如下:
G*=LwGAN(G,D)+λLCRN(G)                (5)
用总损失值更新颜色重建网络中的每一层参数。
CN202010270361.3A 2020-04-08 2020-04-08 一种基于深度学习的稀疏颜色传感器图像重建方法 Active CN111598789B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010270361.3A CN111598789B (zh) 2020-04-08 2020-04-08 一种基于深度学习的稀疏颜色传感器图像重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010270361.3A CN111598789B (zh) 2020-04-08 2020-04-08 一种基于深度学习的稀疏颜色传感器图像重建方法

Publications (2)

Publication Number Publication Date
CN111598789A CN111598789A (zh) 2020-08-28
CN111598789B true CN111598789B (zh) 2023-04-07

Family

ID=72185203

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010270361.3A Active CN111598789B (zh) 2020-04-08 2020-04-08 一种基于深度学习的稀疏颜色传感器图像重建方法

Country Status (1)

Country Link
CN (1) CN111598789B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112488956A (zh) * 2020-12-14 2021-03-12 南京信息工程大学 一种基于wgan网络进行图像修复的方法
CN113129352A (zh) * 2021-04-30 2021-07-16 清华大学 一种稀疏光场重建方法及装置
CN113435474A (zh) * 2021-05-25 2021-09-24 中国地质大学(武汉) 一种基于双生成对抗网络的遥感图像融合方法
CN113870109A (zh) * 2021-09-07 2021-12-31 西安理工大学 一种基于光谱反投影残差的逐步式光谱超分辨率方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018000752A1 (zh) * 2016-06-27 2018-01-04 浙江工商大学 一种基于多尺度cnn和连续crf的单目图像深度估计方法
CN108492265A (zh) * 2018-03-16 2018-09-04 西安电子科技大学 基于gan的cfa图像去马赛克联合去噪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3043621C (en) * 2018-05-18 2020-03-24 The Governing Council Of The University Of Toronto Method and system for color representation generation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018000752A1 (zh) * 2016-06-27 2018-01-04 浙江工商大学 一种基于多尺度cnn和连续crf的单目图像深度估计方法
CN108492265A (zh) * 2018-03-16 2018-09-04 西安电子科技大学 基于gan的cfa图像去马赛克联合去噪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于密集连接生成对抗网络的图像颜色迁移;王晓宇等;《液晶与显示》(第03期);全文 *

Also Published As

Publication number Publication date
CN111598789A (zh) 2020-08-28

Similar Documents

Publication Publication Date Title
CN111598789B (zh) 一种基于深度学习的稀疏颜色传感器图像重建方法
Brooks et al. Unprocessing images for learned raw denoising
CN109671023B (zh) 一种人脸图像超分辨率二次重建方法
CN107123089B (zh) 基于深度卷积网络的遥感图像超分辨重建方法及系统
US20210073957A1 (en) Image processor and method
CN104639923B (zh) 一种对图像数据进行处理的方法、装置和终端
CN109584170B (zh) 基于卷积神经网络的水下图像复原方法
CN109785252B (zh) 基于多尺度残差密集网络夜间图像增强方法
CN102982520B (zh) 一种基于轮廓先验的鲁棒性人脸超分辨率处理方法
CN108269244B (zh) 一种基于深度学习和先验约束的图像去雾系统
CN111402145B (zh) 一种基于深度学习的自监督低照度图像增强方法
CN112308803B (zh) 一种基于深度学习的自监督低照度图像增强及去噪方法
CN113129391B (zh) 基于多曝光图像特征分布权重的多曝光融合方法
CN113822830B (zh) 基于深度感知增强的多曝光图像融合方法
CN112508812A (zh) 图像色偏校正方法、模型训练方法、装置及设备
CN111383200A (zh) 基于生成式对抗神经网络的cfa图像去马赛克方法
CN116757988A (zh) 基于语义丰富和分割任务的红外与可见光图像融合方法
CN114862698A (zh) 一种基于通道引导的真实过曝光图像校正方法与装置
CN117372564B (zh) 一种重构多光谱图像的方法、系统及存储介质
CN113935916A (zh) 基于环境光感知的端到端水下图像复原方法
CN110493493A (zh) 全景细节摄像机及获取图像信号的方法
CN113554568A (zh) 一种基于自监督约束和不成对数据的无监督循环去雨网络方法
CN115601240A (zh) 一种基于SwinTransformer的去马赛克重建彩色图像的方法
CN115760638A (zh) 一种基于深度学习的端到端去模糊超分辨率的方法
CN115841523A (zh) 一种基于Raw域的双支路HDR视频重建算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant