CN115272119A - 一种图像阴影去除方法、装置、计算机设备和存储介质 - Google Patents
一种图像阴影去除方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN115272119A CN115272119A CN202210892755.1A CN202210892755A CN115272119A CN 115272119 A CN115272119 A CN 115272119A CN 202210892755 A CN202210892755 A CN 202210892755A CN 115272119 A CN115272119 A CN 115272119A
- Authority
- CN
- China
- Prior art keywords
- image
- shadow
- loss function
- predicted
- removal method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000012549 training Methods 0.000 claims abstract description 22
- 238000004364 calculation method Methods 0.000 claims abstract description 21
- 230000008569 process Effects 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims description 43
- 238000013527 convolutional neural network Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 18
- 238000005070 sampling Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000013459 approach Methods 0.000 claims description 5
- 238000003709 image segmentation Methods 0.000 abstract description 11
- 238000001514 detection method Methods 0.000 abstract description 5
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000012360 testing method Methods 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 9
- 238000011068 loading method Methods 0.000 description 7
- 230000004927 fusion Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- LQERIDTXQFOHKA-UHFFFAOYSA-N nonadecane Chemical compound CCCCCCCCCCCCCCCCCCC LQERIDTXQFOHKA-UHFFFAOYSA-N 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 238000011049 filling Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种图像阴影去除方法、装置、计算机设备和存储介质,该方法采用了UNet网络结构作为图像阴影去除模型,利用UNet网络的图像分割功能实现阴影检测,利用UNet网络的自编解码结构实现图像还原,再结合本发明设计的独特的损失函数,在训练过程中同时使用了多层次和单层次、多通道与单通道的预测图像与标签图像做损失计算,将检测到具有阴影图像的特征向没有阴影图像的特征靠拢然后再还原,这样就可以一次性完成图像阴影去除,且去除阴影之后的图像纹理清晰、细节表现佳。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种图像阴影去除方法、装置、计算机设备和存储介质。
背景技术
图像阴影去除在计算机视觉和计算机图形学中有着重要应用。目前,卷积神经网络技术高速发展,因此通过卷积神经网络端到端的处理过程实现图像阴影的去除已经成为主流方案。
但是,目前的基于卷积神经网络进行图像阴影去除的方案多采用VGG网络机构,由于VGG网络数据特征提取能力有限,以及使用少量的深浅层特征融合,因此在图像阴影去除方面效果不佳。
发明内容
发明目的:为克服现有技术的缺陷,本发明提出了一种图像阴影去除方法、装置、计算机设备和存储介质。本发明采用了基于像素级语义分割的卷积图像分割网络UNet,使用了大量多层的深浅层特征融合和改进的损失函数,使得整个网络模型有着强大的特征提取和图像还原能力,在图像阴影去除方面达到了更加出色的效果。
技术方案:为实现上述目的,本发明提出了一种图像阴影去除方案,该方案基于UNet实现,UNet是一种自编码结构的图像分割神经网络,自编解码结构意味着它有图像还原能力,而图像分割意味着他有阴影检测能力。如果将检测到具有阴影图像的特征向没有阴影图像的特征靠拢然后再还原,这样就可以一次性完成图像阴影去除。
基于上述原理,本发明提出了以下方案:
第一方面,本发明提出一种图像阴影去除方法,包括以下步骤:
(1)构建训练样本:获取多对样本图像,每对样本图像包括一幅只有背景的无阴影图像和一幅相同背景下只带有阴影的阴影图像;
(2)构建基于UNet的阴影图像去除模型;
(3)将每对样本中的阴影图像作为输入图像,将阴影图像作为标签图像,训练所述模型;在训练过程中,使用损失函数对预测图像和相应的标签图像做损失计算,再梯度更新所述UNet网络每一层的权重,使得所述UNet网络中每层卷积神经网络的上采样部分输出的预测图像和由所述预测图像融合成的单幅预测图像分别逼近所述标签图像,同时,使得每个预测图像的颜色空间通道图像及所有颜色空间通道图像融合成的整体预测图像逼近所述标签图像;
(4)所述阴影图像去除模型训练完成后,通过所述阴影图像去除模型对输入的带阴影图像进行阴影去除。
针对所述图像阴影去除方法,以下还提供了若干可选方式,但并不作为对上述总体方案的额外限定,仅仅是进一步的增补或优选,在没有技术或逻辑矛盾的前提下,各可选方式可单独针对上述总体方案进行组合,还可以是多个可选方式之间进行组合。
可选的,在所述图像阴影去除方法中,所采用的损失函数为:
其中,L表示整体损失,N表示所述UNet网络中卷积神经网络的层数,C表示所述预测图像的RGB颜色空间通道总数,表示对第n层卷积神经网络输出的预测图像的第i个颜色空间通道图像做损失计算的损失函数,表示对第n层卷积神经网络输出的预测图像做损失计算的损失函数,Ffuse表示对所述整体预测图像做损失计算的损失函数, 和wfuse为权重系数。
其中,Ψboe表示二值交叉熵损失函数,Φmse表示均方误差损失函数,wboe和wmse均为权重系数;H和W分别表示图像的高和宽,(i,j)表示图像中的像素坐标,PG(i,j)和PS(i,j)分别表示在标签图像和预测图像中坐标为(i,j)处的像素点的颜色值。
可选的,所述阴影图像去除模型采用U2Net网络实现。
第二方面,本发明提出一种图像阴影去除装置,包括:图像输入模块、图像处理模块和图像输出模块;其中,
所述图像输入模块用于采集输入图像并进行图像预处理,然后将预处理之后的图像输入所述图像处理模块;
所述图像处理模块用于基于权利要求1至4任意一项所述的图像阴影去除方法,对输入的图像进行阴影去除;
所述图像输出模块用于对所述图像处理模块输出的图像进行格式处理,以符合预设的输出图像格式要求。
针对所述图像阴影去除装置,以下还提供了若干可选方式,但并不作为对上述总体方案的额外限定,仅仅是进一步的增补或优选,在没有技术或逻辑矛盾的前提下,各可选方式可单独针对上述总体方案进行组合,还可以是多个可选方式之间进行组合。
可选的,所述装置还包括图像显示模块,所述图像显示模块用于显示取出阴影之后的图像。
第三方面,本发明提出一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被执行时,实现所述的图像阴影去除方法。
第四方面,本发明提出一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,实现所述的图像阴影去除方法。
有益效果:
相比于现有的基于卷积神经网络去除图像阴影的技术方案,本发明采用了UNet网络结构作为图像阴影去除模型,利用UNet网络的图像分割功能实现阴影检测,利用UNet网络的自编解码结构实现图像还原,再结合本发明设计的独特的损失函数,在训练过程中同时使用了多层次和单层次、多通道与单通道的预测图像与标签图像做损失计算,将检测到具有阴影图像的特征向没有阴影图像的特征靠拢然后再还原,这样就可以一次性完成图像阴影去除,且去除阴影之后的图像纹理清晰、细节表现佳。
附图说明
图1为实施例1涉及的流程图;
图2为实施例1涉及的U2Net网络结构图;
图3为实施例2涉及的装置结构图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
实施例1:
本实施例提出一种图像阴影去除方法,具体流程如图1所示,主要包括:
步骤1:样本采集;
步骤2:样本数据的预处理和扩充;
步骤3:构建基于图像分割的卷积神经网络模型;
步骤4:设计损失函数;
步骤5:数据集划分成训练集和测试集;
步骤6:加载数据到卷积神经网络模型进行训练和测试;
步骤7:推理和应用。
下面对每一个步骤进行具体阐述。
一、样本采集。
样本的采集分为线上公开数据集的收集和线下人工实景拍照采集。
线上公开阴影去除数据集基本都包含带阴影的图像A、阴影的掩码图B和和无阴影的图像C,如ISTD,DESOBA等。
线下人工实景拍照采集使用固定三脚架将相机固定,保证所拍有和无阴影照片使用相同的参数(如:位置、角度、尺寸、焦距、曝光度、色调等)和相同的区域,并且不作为阴影目标的区域内是不能有阴影的,要么丢弃该类场景拍摄区域,要么将所有有阴影的区域都作为目标再经过处理后得到对应的无阴影图像C。由于阴影的产生受到天气影响,在光照弱时可以使用可调节流明的强光手电筒代替。根据拍摄阴影目标的不同,含阴影照片可分为以下四种类型:
1、可移动无阴影源物体的含阴影照片(如不含人的人影照片);
2、可移动含阴影源物体的含阴影照片(如含人和人影的照片);
3、不可移动无阴影源物体的含阴影照片(如不含建筑物的建筑物阴影照片);
4、不可移动含阴影源物体的含阴影照片(如含建筑物和建筑物阴影的照片)。
对于类型一(可移动无阴影源物体的含阴影照片)的采集方法比较简单,设定好相机参数后,实景拍摄中含阴影部分(通常在地面)的照片A,由于阴影的源物体是可移动的,然后移开阴影源物体并使用同样的相机参数对相同的拍摄区域再次拍摄,这样可得到无阴影的照片C。网上公开的阴影数据集ISTD属于此类类型。
对于类型二(可移动含阴影源物体的含阴影照片)的采集方法相对于类型一而言略为复杂,区别在于拍摄的区域不仅含实景部分、阴影部分还包含阴影源物体部分,可以先拍下该区域后得到照片A,然后移开阴影源物体并使用同样的相机参数对相同的拍摄区域再次拍摄从而得到无阴影照片C。由于无阴影照片C中并不包含阴影源物体,可以先通过人工标注出阴影区域或使用现有的人工神经网络自动检测/分割出阴影区域得到对应的阴影掩码图B,再通过图形矩阵中的位运算将含阴影源物体的阴影图像中的阴影源物体合成到无阴影图像C中(数据预处理部分将具体描述合成过程)。网上公开的阴影数据集DESOBA中大部分样本属于此类型。
对于类型三(不可移动无阴影源物体的含阴影照片)的采集方法主要采用模拟真实场景和光照方法实现。模拟真实场景是将要拍摄的真实场景进行缩小做成一个模型(例如一个可拆卸的楼盘模型),将不可移动的阴影源物体变得可移动。如果模拟的真实场景模型是在室内或在光线较弱的地方,这需要额外模拟光照,通过使用可调节流明的强光手电筒模拟太阳光实现。后续的样本采集/拍摄步骤可使用类型一方法。
对于类型四(不可移动含阴影源物体的含阴影照片),可以使用类型三的方法先模拟真实场景和光照,然后使用类型二的方法进行样本采集/拍摄。
二、样本数据的预处理和扩充
1、样本的检查和匹配。线下实景拍摄采集到的样本根据照片描述的内容进行匹配,将含阴影照片存放到目录X,无阴影的照片存放到目录Z,使用相同的文件名来保持匹配关系,将匹配不到的照片丢弃处理。而线上收集的样本也同样需要对每一组样本进行检查。检查和匹配的标准为:有阴影照片A和无阴影照片C在完全相同的场景区域,它们的拍摄位置、角度、尺寸和焦距也完全相同,而他们的曝光度和色调可以有小范围偏差(在后续流程中有修正操作)。
2、样本的标注。对于通过线下实景拍摄采集的样本,为了后续的修正和扩充操作,将对样本的阴影部分进行标注。标注可以使用标注软件进行人工标注也可以使用现有的人工神经网络自动检测/分割出阴影区域,其目的是生成阴影的掩码图B(即描述阴影所在区域的遮罩图,尺寸和含阴影图A相同,A中的阴影区域在B中对应区域的像素值为255,非阴影区域的像素值为0)然后放入目录Y。对于网上收集的样本如ISTD和DESOBA,由于已经包含了图像阴影掩码图B,所以直接放入目录Y中即可。
3、样本的修正。由于采集的图像样本无论是线上收集还是线下人工实景拍摄,由于通过拍摄得到的两张照片(有阴影图A和无阴影图C)存在时差,那么就很有可能出现光线和色调的误差,只要误差不是很大,就可以进行修正。其原理是通过图像矩阵的位运算用阴影图像A中的阴影部分去覆盖无阴影图C对应的部分合成新的有阴影图像A′。使用集合运算表示为:
其中,A′为合成后的含阴影图像矩阵,A为含阴影图像矩阵,B为阴影掩码图像矩阵,C为无阴影图像矩阵,i和j为矩阵下标,m和n为图像宽和高或矩阵的行数和列数。
4、样本的缩放旋转扩充。为了提高卷积神经网络的鲁棒性,可以将样本进行缩放成不同尺寸和旋转成不同角度来扩充样本,这种操作也叫数据增强。通常图片缩放的尺寸是8的倍数且宽高相同,而旋转的度数可以每5度保存一次旋转结果。
三、构建基于图像分割的卷积神经网络模型
UNet是一种自编码结构的图像分割神经网络,自编解码结构意味着它有图像还原能力,而图像分割意味着他有阴影检测能力。如果将检测到具有阴影图像的特征向没有阴影图像的特征靠拢然后再还原,这样就可以一次性完成图像阴影去除。
UNet系列有:UNet,UNet++,U2Net,UNet+++,AttUnet,TransUnet,SwinUnet等。
这里示例性地选择了U2Net,它是一种显著性目标检测的图像分割卷积神经网络,能达到像素级语义分割,通过对数据集的采集、预处理、网络和损失函数的少量修改,将数据集加载到该网络训练和测试后,达到了我们期待的效果,纹理清晰、细节表现佳。
如图2所示,U2Net一共使用了6层对称的卷积神经网络,每层包含对称的下采样和上采样两个子卷积神经网络,第6层是高维特征的提取和上采样过渡层(只有一个子卷积神经网络)。每层的子卷积神经网络与外层结构类似,同样是U形结构,这就是U2Net名字由来,U的平方Net。
在U2Net模型中使用多层次的深浅特征通道融合1次,对称性深浅特征通道融合共计29次,批归一化BatchNorm共计112次,卷积层Conv2d共计130次,非线性激活函数LeakyReLU共计112次,使用残差网络11次,最大池化MaxPool共计33次,下采样32次,上采样32次。
下采样是做特征提取得到的是更深层的语义特征;而上采样是做特征恢复得到的是更浅层的轮廓特征来进行图像还原。将每层对应的下采样和上采样得到的深层和浅层特征进行通道融合能够增强特征对图像的表达能力,轮廓和细节纹理更加完善。每一个下采样过程都包含一个嵌套的卷积神经子网络和一个最大池化层;而上采样过程是与下采样过程相逆的过程,同样包含一个嵌套卷积神经子网络和一个基于线性插值法的上采样函数。
各层的子卷积神经网络的层数根据特征状态有所不同,当特征比较浅时子网络的层数较多,随着特征的不断提取而变得越来越深时,网络的层数逐渐变少。每个子网络都是一个U形结构的残差网络,增强了特征的流动性,解决了梯度消失问题;也同样在对称子层使用了深浅层通道融合来增强特征的表达能力;每一个子层使用了卷积、批归一化、非线性激活、最大池化操作和对应非线性插值函数进行上采样操作。
四、设计损失函数
本实施例使用了两种比较常见的损失函数:交叉熵和均方误差,需要说明的是这里同时使用了多层次和单层次、多通道与单通道的预测图像与标签图像做损失计算。在训练过程中先使用损失函数做损失计算再梯度更新每一层的权重使得6层卷积神经网络各层上采样部分输出的预测图像靠着真实的标签图像逼近,并把这6个预测图像进行通道融合成单张预测图再靠着真实的标签图像逼近;同时也将预测图的RGB颜色空间各通道图像和融合后的图像靠着标签图像逼近。
整体损失L定义为:
其中,N=6,表示对6层预测图像做损失计算,C=3,表示对预测图的RGB颜色空间的每一个通道图像做损失计算;和Ffuse为三个子损失函数,其中,表示对第n层卷积神经网络输出的预测图像的第i个颜色空间通道图像做损失计算的损失函数,表示对每层预测图(RGB三通道合成后的图像)做损失计算的损失函数,Ffuse表示将6层预测图通道融合后的整体预测图做损失计算的损失函数,而和wfuse表示对应损失函数的权重。
每个子损失函数F由两种损失函数组合而成,定义为:
其中,Ψboe表示二值交叉熵损失函数,Φmse表示均方误差损失函数,wboe和wmse均为权重系数;H和W分别表示图像的高和宽,(i,j)表示图像中的像素坐标,PG(i,j)和PS(i,j)分别表示在标签图像和预测图像中坐标为(i,j)处的像素点的颜色值
通过对预测图像与真实标签图像损失计算和梯度计算,让神经网络知道了当前的学习状态和未来的学习方向并朝着这个方向不断优化网络各层权重,再经过不断的迭代训练学习,让预测出来的无阴影图像与标签无阴影图像越来越相似,最终达到图像去阴影效果。
五、数据集划分成训练集和测试集
在采集到的数据集中,以目录X中文件名为准,在X、Y、Z目录中随机抽取20%的样本作为测试集,剩下的80%样本作为训练集。其中,目录X的内容为输入样本/带阴影图像,目录Y的内容为阴影掩码图(暂时不用),目录Z的内容(无阴影图像)为样本标签图像。
分别将训练集样本打乱顺序再分批,每一批样本数量根据显卡内存容量设置,对批内图像样本利用线性插值法和黑边填充法统一等比压缩成高H等于宽W的方形图(方便做矩阵运算),它的大小根据实际需求和显存容量而定,通常是8的倍数,如512x512。如果要去除阴影的图像是高清图像且所占空间超过了显卡最大存储容量,可以使用显存可容纳的最大方形尺寸作为样本的载入尺寸,每批样本数量设为1,在最后的推理阶段可使用超分辨率技术进行还原。
为了避免数值过大造成的计算问题或溢出问题,还需对样本数据进行归一化处理将数据映射到0-1之间,这里使用Min-Max归一法:
其中,x′表示归一化后的样本值,x是原始样本值。
六、加载数据到卷积神经网络模型进行训练和测试
将训练集样本逐批载入基于图像分割的卷积神经网络U2Net进行训练,优化器使用Adam,学习率使用0.0005并以0.000001进行衰减,损失函数指明了模型学习的方向,通过不断地学习和权重更新,模型输出的图像与无阴影图像逐渐相似。
可根据需要每隔N次迭代训练进行一次测试和权重保存。测试过程与训练过程类似,测试集的加载方式和训练集完全相同,但不需要计算损失和权重更新,只需要将网络输出图像反归一化再保存到文件中即可。
七、推理和应用
当损失下降趋于平稳且测试输出的图像集已几乎没有阴影时,可先停止训练,将训练好的权重数据加载到神经网络进行推理。
推理过程和测试过程类似,过程为:
1、初始化神经网络;
2、加载训练好的权重;
3、阴影图像分批、缩放成方形并归一化;
4、逐批将阴影图像加载到神经网络;
5、神经网络进行预测输出;
6、将输出图像反归一化和缩放成原始尺寸得到高质量的无阴影图像。
这里需要注意的是:
1、加载到神经网络的图像只有带阴影的图像(即需要去除阴影的图像),无需加载标签图像;
2、对输出图像缩放成原始尺寸需要先去除去之前填充的黑边;
3、如果输入图像是经过上采样缩放载入的神经网络,那么只需对输出图像下采样缩放还原尺寸,反之则需要超分辨率技术将输出图像上采样缩放还原尺寸。
实施例2:
本实施例示例性地提出一种图像阴影去除装置,其结构如图3所示,包括:图像输入模块、图像处理模块、图像输出模块和图像显示模块;其中,
所述图像输入模块用于采集输入图像并进行图像预处理,然后将预处理之后的图像输入所述图像处理模块;
所述图像处理模块用于基于所述的图像阴影去除方法,对输入的图像进行阴影去除;
所述图像输出模块用于对所述图像处理模块输出的图像进行格式处理,以符合预设的输出图像格式要求;
所述图像显示模块用于显示取出阴影之后的图像。
实施例3:
本实施例提出一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被执行时,实现所述的图像阴影去除方法。
实施例4:
本实施例提出一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,实现所述的图像阴影去除方法。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (8)
1.一种图像阴影去除方法,其特征在于,所述方法包括以下步骤:
(1)构建训练样本:获取多对样本图像,每对样本图像包括一幅只有背景的无阴影图像和一幅相同背景下只带有阴影的阴影图像;
(2)构建基于UNet的阴影图像去除模型;
(3)将每对样本中的阴影图像作为输入图像,将阴影图像作为标签图像,训练所述模型;在训练过程中,使用损失函数对预测图像和相应的标签图像做损失计算,再梯度更新所述UNet网络每一层的权重,使得所述UNet网络中每层卷积神经网络的上采样部分输出的预测图像和由所述预测图像融合成的单幅预测图像分别逼近所述标签图像,同时,使得每个预测图像的颜色空间通道图像及所有颜色空间通道图像融合成的整体预测图像逼近所述标签图像;
(4)所述阴影图像去除模型训练完成后,通过所述阴影图像去除模型对输入的带阴影图像进行阴影去除。
4.根据权利要求1至3任意一项所述的图像阴影去除方法,其特征在于,所述阴影图像去除模型采用U2Net网络实现。
5.一种图像阴影装置,其特征在于,包括:图像输入模块、图像处理模块和图像输出模块;其中,
所述图像输入模块用于采集输入图像并进行图像预处理,然后将预处理之后的图像输入所述图像处理模块;
所述图像处理模块用于基于权利要求1至4任意一项所述的图像阴影去除方法,对输入的图像进行阴影去除;
所述图像输出模块用于对所述图像处理模块输出的图像进行格式处理,以符合预设的输出图像格式要求。
6.根据权利要求5所述的图像阴影装置,其特征在于,所述装置还包括图像显示模块,所述图像显示模块用于显示取出阴影之后的图像。
7.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被执行时,实现权利要求1至4任意一项所述的图像阴影去除方法。
8.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述计算机程序被所述处理器执行时,实现权利要求1至4任意一项所述的图像阴影去除方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210892755.1A CN115272119A (zh) | 2022-07-27 | 2022-07-27 | 一种图像阴影去除方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210892755.1A CN115272119A (zh) | 2022-07-27 | 2022-07-27 | 一种图像阴影去除方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115272119A true CN115272119A (zh) | 2022-11-01 |
Family
ID=83771514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210892755.1A Pending CN115272119A (zh) | 2022-07-27 | 2022-07-27 | 一种图像阴影去除方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115272119A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115546073A (zh) * | 2022-11-29 | 2022-12-30 | 昆明理工大学 | 地砖图像阴影去除方法、装置、计算机设备及存储介质 |
CN117575976A (zh) * | 2024-01-12 | 2024-02-20 | 腾讯科技(深圳)有限公司 | 图像阴影的处理方法、装置、设备及存储介质 |
-
2022
- 2022-07-27 CN CN202210892755.1A patent/CN115272119A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115546073A (zh) * | 2022-11-29 | 2022-12-30 | 昆明理工大学 | 地砖图像阴影去除方法、装置、计算机设备及存储介质 |
CN117575976A (zh) * | 2024-01-12 | 2024-02-20 | 腾讯科技(深圳)有限公司 | 图像阴影的处理方法、装置、设备及存储介质 |
CN117575976B (zh) * | 2024-01-12 | 2024-04-19 | 腾讯科技(深圳)有限公司 | 图像阴影的处理方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111311629B (zh) | 图像处理方法、图像处理装置及设备 | |
CN108647639B (zh) | 实时人体骨骼关节点检测方法 | |
CN111915530B (zh) | 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法 | |
CN115272119A (zh) | 一种图像阴影去除方法、装置、计算机设备和存储介质 | |
CN111368846B (zh) | 一种基于边界语义分割的道路积水识别方法 | |
Cheng et al. | Zero-shot image super-resolution with depth guided internal degradation learning | |
CN113052210A (zh) | 一种基于卷积神经网络的快速低光照目标检测方法 | |
CN110443763B (zh) | 一种基于卷积神经网络的图像阴影去除方法 | |
CN112084859B (zh) | 一种基于稠密边界块和注意力机制的建筑物分割方法 | |
CN109255758A (zh) | 基于全1*1卷积神经网络的图像增强方法 | |
CN110349087B (zh) | 基于适应性卷积的rgb-d图像高质量网格生成方法 | |
CN112801904B (zh) | 一种基于卷积神经网络的混合退化图像增强方法 | |
CN111640116B (zh) | 基于深层卷积残差网络的航拍图建筑物分割方法及装置 | |
CN113160062A (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
CN109472752B (zh) | 基于航拍图像的多曝光融合系统 | |
WO2023066173A1 (zh) | 图像处理方法、装置及存储介质、电子设备 | |
CN114048822A (zh) | 一种图像的注意力机制特征融合分割方法 | |
CN110853049A (zh) | 一种腹部超声图像分割方法 | |
CN111654621B (zh) | 一种基于卷积神经网络模型的双焦相机连续数字变焦方法 | |
CN108401104B (zh) | 基于频带修复和超分辨的双焦相机数字变焦方法 | |
Lv et al. | Low-light image enhancement via deep Retinex decomposition and bilateral learning | |
CN116452511B (zh) | 钻爆法隧道掌子面围岩级别智能判识方法、装置及介质 | |
CN113269672A (zh) | 一种超分辨率的细胞图像构建方法和系统 | |
CN112132923A (zh) | 一种基于风格小图高清化的两阶段数字图像风格变换方法及系统 | |
CN111696167A (zh) | 自范例学习引导的单张影像超分辨率重构方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |