CN116363027A - 一种利用红外图去除屏下rgb图像彩虹状眩光方法、设备及存储介质 - Google Patents
一种利用红外图去除屏下rgb图像彩虹状眩光方法、设备及存储介质 Download PDFInfo
- Publication number
- CN116363027A CN116363027A CN202211703961.XA CN202211703961A CN116363027A CN 116363027 A CN116363027 A CN 116363027A CN 202211703961 A CN202211703961 A CN 202211703961A CN 116363027 A CN116363027 A CN 116363027A
- Authority
- CN
- China
- Prior art keywords
- rgb image
- image
- glare
- rainbow
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004313 glare Effects 0.000 title claims abstract description 98
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000003860 storage Methods 0.000 title claims description 23
- 238000003062 neural network model Methods 0.000 claims abstract description 22
- 230000007547 defect Effects 0.000 claims abstract description 10
- 238000001559 infrared map Methods 0.000 claims description 20
- 230000004927 fusion Effects 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 17
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 230000007704 transition Effects 0.000 claims description 5
- 238000013434 data augmentation Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 239000011521 glass Substances 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 238000009792 diffusion process Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008485 antagonism Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000003090 exacerbative effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004660 morphological change Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
一种利用红外图去除屏下RGB图像彩虹状眩光方法,包括如下步骤:步骤S1:获取第一RGB图像和对应的第一红外图,将所述第一红外图与所述第一RGB图像对齐得到第二红外图;步骤S2:基于所述第一RGB图像和所述第二红外图,利用深度神经网络模型去除所述第一RGB图像中的所述至少两个相连的光源及其彩虹状眩光,得到第二RGB图像;步骤S3:将所述第一RGB图像中的所述至少两个相连的光源不均匀地与所述第二RGB图像融合生成第三RGB图像;步骤S4:利用神经网络模型消除所述第三RGB图像中的阶梯式缺陷。本发明针对多光源情况,既能有效去除彩虹状眩光,又能恢复因去除光源而丢失的信息,保证去除光源后的图像更加真实全面。
Description
技术领域
本发明涉及图像处理领域,具体地,涉及一种利用红外图去除屏下RGB图像彩虹状眩光方法、设备及存储介质。
背景技术
近年来,随着手机全面屏理念的快速发展,不少手机厂商都在尝试将前置摄像头放在显示屏后面,以实现真正全面屏的效果。但是,将前置摄像头放在显示屏后面会带来新的问题,即屏下摄像头成像质量严重下降。特别地,当视野内出现较强光源时,屏下摄像头拍摄的RGB彩色图像会出现严重的彩虹状眩光,这种眩光一圈一圈围绕在光源周边,遮盖了背景信息,带给人的体验很不好。
目前人们开始针对屏下摄像头带来的质量问题进行研究,但彩虹状眩光问题目前还没有针对性的解决方案。之前也有人研究如何去除RGB图像眩光,但针对的均是非屏下摄像头拍摄的图像,其眩光模式和屏下摄像头拍摄的图像中彩虹状眩光区别很大。
传统的眩光由于强光在传感器内光学元件的作用下经过散射和反射形成。而屏下摄像头中的眩光不仅由传感器内的光学元件的特性造成,还由于显示屏的影响而造成光路的改变。屏下的相机,因为距离屏幕有一定的距离,同时终端用户可能会贴有保护膜,进一步加剧了光在进入相机前的各种光学形态变化,从而使得其最终的成像与传统的成像具有较大区别。
屏下的图像中,彩虹眩光相比于传统眩光,其范围更广,呈现封闭的扩散状,并且光强也呈逐渐变化,与传统彩虹存在显著不同,因此传统的解决方案无法有效解决屏下彩虹眩光的问题。
该问题的难点在于:
1.如何在去除光源周边彩虹状眩光的同时保留光源;
2.保证去除眩光之后光源边缘和周围背景自然过渡,即保证整体上的自然效果;
3.如何恢复由于RGB图像中过强的眩光导致被遮盖的信息。
发明内容
为解决上述问题或至少解决上述问题中的一种,本发明针对多个强光源,尤其是至少两个相连的光源情景,根据红外图中不存在眩光的特点,利用红外图中光源区域的特征,融合转换之后得到没有光源的眩光的第二RGB图像,再与第一RGB图像融合得到第三RGB图像,既能有效去除彩虹状眩光,又能恢复因去除光源而丢失的信息,保证去除光源后的图像更加真实全面。
第一方面,本发明提供一种利用红外图去除屏下RGB图像彩虹状眩光方法,其特征在于,包括如下步骤:
步骤S1:获取第一RGB图像和对应的第一红外图,将所述第一红外图与所述第一RGB图像对齐得到第二红外图;其中,所述第一RGB图像至少包含至少两个相连的光源及其彩虹状眩光,所述第一红外图至少包含两个相连的光源;
步骤S2:基于所述第一RGB图像和所述第二红外图,利用深度神经网络模型去除所述第一RGB图像中的所述至少两个相连的光源及其彩虹状眩光,得到第二RGB图像;
步骤S3:将所述第一RGB图像中的所述至少两个相连的光源不均匀地与所述第二RGB图像融合生成第三RGB图像;
步骤S4:利用神经网络模型消除所述第三RGB图像中的阶梯式缺陷。
可选地,所述的一种利用红外图去除屏下RGB图像彩虹状眩光方法,其特征在于,在步骤S1中,对所述第二红外图周边进行padding以使得所述第二红外图的分辨率和所述第一RGB图一致。
可选地,所述的一种利用红外图去除屏下RGB图像彩虹状眩光方法,其特征在于,所述深度神经网络模型分别提取所述第一RGB图像的信息和所述第二红外图的信息,经过特征融合转换之后得到没有光源和眩光的所述第二RGB图像,以有效去除眩光和恢复所述所述第二RGB图像中丢失的信息。
可选地,所述的一种利用红外图去除屏下RGB图像彩虹状眩光方法,其特征在于,所述深度神经网络模型在训练时,通过数据增广拟合出多个光源
可选地,所述的一种利用红外图去除屏下RGB图像彩虹状眩光方法,其特征在于,所述步骤S3包括:
步骤S31:在所述第一RGB图像中将光源分割,生成掩膜;
步骤S32:对所述掩膜进行不均匀膨胀,每膨胀一圈就设置一个权重,则从光源边缘扩散到有效边缘的过程中,权重从1逐渐衰减到0,从而得到一张单通道的权重alpha图;
步骤S33:将所述权重alpha图与所述第一RGB图像中的光源边缘扩散到有效边缘的相乘,再与所述第二RGB图像融合生成第三RGB图像。
可选地,所述的一种利用红外图去除屏下RGB图像彩虹状眩光方法,其特征在于,在步骤S33中,根据融合公式output=input_1*mask+input_2*(1-mask)计算得到所述第三RGB图像,其中,所述input_1是所述第一RGB图像中像素点的RGB值;所述input_2是所述第二RGB图像中像素点的RGB值,所述mask是权重。
可选地,所述的一种利用红外图去除屏下RGB图像彩虹状眩光方法,其特征在于,在所述步骤S4中,所述神经网络模型为生成式对抗网络模型,所述生成式对抗网络包括生成器和判别器;在训练集中,真实图像的标签为真,融合后图像的标签为假,以此来交叉训练所述判别器和所述生成器;最后利用训练的生成器来调节所述第三RGB图像,使得过渡区域的细节更加平滑。
第二方面,本发明提供一种用户验证设备,其特征在于,包括:
处理器;
存储器模块,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述任一项所述的用户注册方法的步骤。
第三方面,本发明提供一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被执行时实现上述任一项所述的一种利用红外图去除屏下RGB图像彩虹状眩光方法的步骤。
与现有技术相比,本发明具有如下的有益效果:
本发明利用红外图没有彩虹状眩光的特点,将红外图中光源区域的特征,融合转换之后得到没有光源的眩光的第二RGB图像,再与第一RGB图像融合得到第三RGB图像,既能有效去除彩虹状眩光,又能恢复因去除光源而丢失的信息,保证去除光源后的图像更加真实全面。
本发明针对至少两个光源相连的情况,采用红外图中的光源特性,更容易识别出光源的数量和位置关系,提高识别效果。
本发明对于融合后的图像进一步处理,消除屏下眩光中的阶梯式缺陷,使得图像更加自然与真实。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明实施例中一种利用红外图去除屏下RGB图像彩虹状眩光方法的步骤流程图;
图2为本发明实施例中一个第二红外图;
图3为本发明实施例中光源相连示意图;
图4为本发明实施例中一个屏下摄像头拍摄的第一RGB图像;
图5为本发明实施例中一个第二RGB图像;
图6为本发明实施例中一个第三RGB图像;
图7为本发明实施例中一个放大的第三RGB图像;
图8为本发明实施例中一个最终图像;
图9为本发明实施例中一种生成第三RGB图像的步骤流程图;
图10为本发明实施例中一种用户验证设备的结构示意图;
图11为本发明实施例中一种计算机可读存储介质示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例,例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
本发明实施例提供的一种利用红外图去除屏下RGB图像彩虹状眩光方法,旨在解决现有技术中存在的问题。
下面以具体地实施例对本发明的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本发明的实施例进行描述。
本发明根据红外图中不存在眩光的特点,利用红外图中光源区域的特征,融合转换之后得到没有光源的眩光的第二RGB图像,再与第一RGB图像融合得到第三RGB图像,既能有效去除彩虹状眩光,又能恢复因去除光源而丢失的信息,保证去除光源后的图像更加真实全面。
图1为本发明实施例中一种利用红外图去除屏下RGB图像彩虹状眩光方法的步骤流程图。如图1所示,本发明实施例中一种利用红外图去除屏下RGB图像彩虹状眩光方法包括如下步骤。
步骤S1:获取第一RGB图像和对应的第一红外图,将所述第一红外图与所述第一RGB图像对齐得到第二红外图。
在本步骤中,所述第一RGB图像至少包含至少两个相连的光源及其彩虹状眩光,所述第一红外图至少包含两个相连的光源。本步骤利用红外摄像头和RGB摄像头同时拍摄获得第一RGB图像和第一红外图。红外摄像头和RGB摄像头通常由属于同一个相机,比如同一深度相机。红外摄像头和RGB摄像头位置相临,视场接近,可以获得可以匹配的第一RGB图像和第一红外图。至少两个相连的光源是指在RGB图像中,光源区域相连或存在重叠,而非指光源本身是相连或存在重叠的。比如,与深度相机具有不同距离的两个光源,处于深度相机同一角度或非常相近的角度,则在第一RGB图像中,仍可被认为是相连的光源。当光源足够强时,位于屏下的深度相机则会获得光源及位于其周边的彩虹状眩光的RGB图像。由于红外图的波长通常在850nm以上,如图2所示,强光源带来的眩光在红外图中完全不可见,因此可以利用红外图中的信息复原被强眩光遮盖的背景信息。
图3是红外图中多个光源相连的方式示意图。如图3所示,当存在多个光源时,光源可以存在多种组合形式。第一红外图和第二红外图中的多个光源连接方式相同。由于第二红外图用于深度神经网络模型的处理,以第二红外图为例说明。由于第二红外图与第一RGB图是对齐的,可以通过第二红外图中光源的位置和形状得到第一RGB图中的光源位置和形状。需要说明的是,由于红外摄像头与RGB摄像头接收的光线的波长不同,在镜片中的反射、折射等因素作用下,第一RGB图像中光源的范围比第二红外图中的光源范围略大,但第二红外图上的光源仍可以基本确定第一RGB图像中光源的位置和形状。根据第二红外图上光源的位置和形状,在第一RGB图上相同的位置和形状,对边缘周围进行处理即可得到第一RGB图上的光源范围。当光源数量为两个时,光源可以相连,也可以有重合部分。当光源的数量为三个时,则存在相交、相连的多种组合。当光源的大小不同时,光源的顺序也会影响最终效果,使得组合更加多样。当三个光源相切时,中间区域出现中空;当三个光源重合时,中间可能不存在中空区域,而是完全成为光源部分。在图像上看,光源部分均为白色。为使本说明书的效果更加明显地体现,本说明书后续部分以单个光源的效果进行示例。
如图4所示,与RGB摄像头直接拍摄强光时的眩光不同,屏下摄像头拍摄的图像,由于光通过屏后再入射摄像头,图像上的眩光呈现出更大范围的连续泛射状,并且随着半径的增大颜色出现变化,类似彩虹。进一步地,在图4中的外围区域,眩光呈现出更弱的形态,并且可以看清楚其他物品的信息,相当于为其他物体加上了一层蒙版,与传统眩光中无法看清其他物品不同。本实施例中,第一RGB图像是摄像头或相机在屏下拍摄获得,所述屏通常为玻璃屏。摄像头或相机距离玻璃屏有一定的距离,通常为0.1mm-5mm之间,视不同的应用场景而调整。比如,在手机前置摄像头中的距离小于在机器人中相应的距离。
在部分实施例中,对所述第二红外图周边进行padding以使得所述第二红外图的分辨率和所述第一RGB图一致。在对第一红外图与第一RGB图对齐时,第一红外图的图像会发生扭曲、变形,尤其是边缘区域会出现数据缺失,通过padding,使得红外图中的像素点补全,但不能超过第一红外图中的像素点的数量。通过padding使得对第二红外图进行深度神经网络模型处理成为可能。
在部分实施例中,红外摄像头的视场包含RGB摄像头的视场,以保证RGB图像中的每个像素均在红外图像中具有相对应的唯一像素点。在相机的有效探测距离内,红外摄像头的视场包含了RGB摄像头的视场。红外摄像头的视场角大于RGB摄像头的视场角。红外摄像头的分辨率高于RGB摄像头的分辨率,以使得RGB图像中的每个像素点在第二红外图中存在至少一个像素点与其对应。当RGB图像中的每个像素点在第二红外图中均存在一个像素点与其对应时,在后续计算中,采用红外图上对应的像素点还原RGB图像中的信息。当RGB图像中的每个像素点在第二红外图中存在存在两个像素点与其对应时,在后续的计算中,采用对应的至少两个像素点均值还原RGB图像中的信息。
在部分实施例中,所述深度神经网络为卷积神经网络。对于输入2维图像的CNN来说,一个维度是图像的尺度空间,即长宽,另一个维度就是通道。通道注意力机制在正常的卷积操作后分出了一个旁路分支,首先进行Squeeze操作以将空间维度进行特征压缩,即每个二维的特征图变成一个实数,相当于具有全局感受野的池化操作,特征通道数不变。然后是Excitation操作,通过参数w为每个特征通道生成权重,w被学习用来显式地建模特征通道间的相关性。得到了每一个特征通道的权重之后,就将该权重应用于原来的每个特征通道,基于特定的任务,就可以学习到不同通道的重要性。
在部分实施例中,深度神经网络模型在训练时,通过数据增广拟合出多个光源。本实施例通过对光源的复制、切割、重叠与噪声添加得到多光源的图像。当训练集中只有单个光源的数据时,本实施例可以模拟出多光源的效果,从而可以获得多个光源情况下的图像效果,实现较少的训练集下对多光源的有效识别。
步骤S2:基于所述第一RGB图像和所述第二红外图,利用深度神经网络模型去除所述第一RGB图像中的所述至少两个相连的光源及其彩虹状眩光,得到第二RGB图像。
在本步骤中,所述深度神经网络模型分别提取所述第一RGB图像的信息和所述第二红外图的信息,经过特征融合转换之后得到没有光源和眩光的所述第二RGB图像,以有效去除眩光和恢复所述所述第二RGB图像中丢失的信息。如图5所示,虽然利用红外图可以恢复被眩光遮盖的背景信息,同时去除彩虹状眩光,但恢复后的光源中心颜色有些失真。
在部分实施例中,所述深度神经网络模型由一个光源打开/关闭的一一对应的数据集训练获得。在训练时,由每组为光源打开/关闭的RGB图像和红外图一一对应的数据对组成训练集,每组图像的数量为4个。训练集的样本数量可以是1万、2万、3万、4万、5万、6万中的任意一个,也可以是未列出的任意数值。训练集中的数据均为屏下拍摄的数据样本。训练集中的数据样本可以由不同的摄像头或相机在与玻璃屏在不同的距离下拍摄获得,但都需要出现彩虹状眩光。不同的摄像头或相机由于参数不同,拍摄的图像的大小、范围都会不同。摄像头或相机在与玻璃屏不同的距离下,会产生不同大小的彩虹状眩光,也会造成图像上的不同。强光源与玻璃屏的距离不同时,也会导致彩虹状眩光在图像上的大小不同。训练集由上述多种条件下拍摄到的带有彩虹状眩光的图像对组成,可以增加深度神经网络模型的鲁棒性。每一个数据对均由光源打开时的带有彩虹状眩光的图像和光源关闭时不带光源的背景图像组成。深度神经网络模型可以是任一种类型,包括但不限于卷积神经网络、循环神经网络、生成式对抗网络等。
步骤S3:将所述第一RGB图像中的所述至少两个相连的光源不均匀地与所述第二RGB图像融合生成第三RGB图像。
在本步骤中,所述光源及周边信息比步骤S1中识别出的区域小,仅指光源较强的部分,而将外部的彩虹状眩光部分去除。在本步骤中可以采用多种分割方式对第一RGB图像中的光源及周边信息进行分割,包括但不限于:基于阈值的分割方法、基于区域的分割方法、基于边缘的分割方法以及基于特定理论的分割方法等。本实施例对于分割方式不限制,只要能对光源及周边信息进行分割即可。如图6所示,经过本步骤融合之后,可以看到失真的光源中心被光源覆盖,且光源和周边信息能自然过渡。
步骤S4:利用神经网络模型消除所述第三RGB图像中的阶梯式缺陷。
在本步骤中,对第三RGB图像进一步处理,以消除第三RGB图像中的阶梯式缺陷。如图7所示,彩虹状眩光和放射状眩光掺杂在一起时,在过渡区存在着一圈一圈的阶梯式缺陷,颗粒感较强,并且仍存在着部分彩虹状眩光。本步骤利用深度学习模型对阶梯式缺陷进行学习处理,在去除掉阶梯式缺陷的同时,也可以进一步去除彩虹状眩光。
在部分实施例中,所述神经网络模型为生成式对抗网络模型。生成式对抗网络用反向传播进行训练。在训练或生成样本期间,不需要任何马尔可夫链或展开的近似推理网络。所述生成式对抗网络包括生成器和判别器;在训练集中,真实图像的标签为真,融合后图像的标签为假,以此来交叉训练所述判别器和所述生成器;最后利用训练的生成器来调节所述第三RGB图像,使得过渡区域的细节更加平滑。图8为经本实施例调节后的图像,可以看出阶梯式缺陷已被消除,并且彩虹状眩光进一步减少,整体看起来更加自然。
下面是训练生成式对抗网络时的优化目标,其中x和y分别是融合图像和真实图像,DY和G分别是判别器和生成器,生成式对抗网络模型训练的目标就是使得LGAN值最大:
图9为本发明实施例中一种生成第三RGB图像的步骤流程图。如图9所示,本发明实施例中一种生成第三RGB图像的方法包括:
步骤S31:在所述第一RGB图像中将光源分割,生成掩膜。
在本步骤中,在获取光源时,可以采用阈值分割的方法,将亮度较高的区域进行分割,得到光源区域。在RGB图像上,白色为(255,255,255),即R通道、G通道和B通道均为255。在进行阈值判断时,分别对R、G、B三个通道进行判断,当三个通道的值均大于预设阈值时,判断为光源区域。预设阈值为固定的值,包括但不限于255、254、253、252、251等多个任意可设值。预设阈值通常大于250。R通道、G通道和B通道的阈值可以不同。阈值越高,得到的光源区域的范围越小。阈值越低,得到的光源区域的范围越大。对识别出的光源生成掩膜。
步骤S32:对所述掩膜进行不均匀膨胀,每膨胀一圈就设置一个权重,则从光源边缘扩散到有效边缘的过程中,权重从1逐渐衰减到0,从而得到一张单通道的权重alpha图。
在本步骤中,掩膜逐圈向外膨胀,每圈设置唯一的权重。光源边缘的权重值为1,扩散末端的权重值为0。不同圈的权重不同,并且越远离光源的权重越小。权重的衰减是非线性的。由于光源形状的不规则,膨胀时也是不规则的,并且不均匀的膨胀。根据权重分布,可以得到一张表示权重的单通道权重alpha图,可用于图像融合计算。强光源在第一RGB图像上形成的部分由内向外依次定义为光源、光源周边、眩光部分。光源为亮度接近白光的强区域,为光源本身所在的区域。光源周边为光源向外照射时形成的自然区域,而非由于镜头、玻璃片等扩散形成的光线。眩光部分为由于镜头、玻璃片等扩散形成的眩光部分,主要表现为彩虹状眩光。三者可以通过亮度值进行区分。
在部分实施例中,权重其中,d是图像上像素点和光源边界之间的最短距离,dmax是扩散最外边缘和光源边界之间的最短距离。随着像素点的变化,d的值在[0,dmax]之间变化。当d=0时,a=1。当d=dmax时,a=0。本实施例可以保证权重的变化更加适应人眼对光线的感知,使得融合效果更加真实。
在部分实施例中,根据所述光源的角度确定所述膨胀不同方向的速度。当光源与相机或摄像头垂直时,本步骤中各个方向的膨胀速度相同。当光源与相机或摄像头不垂直时,光源在图像上不呈圆形,而是呈现椭圆或其他形状,而本实施例可以根据光源的角度调整不同方向的膨胀速度,使得膨胀更加均匀。
在部分实施例中,根据所述光源的角度确定所述膨胀时不同位置的线条宽度。当光源与相机或摄像头垂直时,本步骤中各个方向的膨胀时的线条宽度相同。当光源与相机或摄像头不垂直时,光源在图像上不呈圆形,而是呈现椭圆或其他形状,而本实施例可以根据光源的角度调整不同方向的膨胀时的线条宽度,使得膨胀更加均匀。
在部分实施例中,根据所述光源中心距离光源边缘的距离确定所述膨胀时不同位置的线条宽度。当光源与相机或摄像头垂直时,本步骤中各个方向的膨胀时的线条宽度相同。当光源中心距离光源边缘越近时,膨胀时的线条越细;当光源中心距离光源边缘越远时,膨胀时的线条越宽,以使各个线条同时到达光源周边的边缘。
步骤S33:将所述权重alpha图与所述第一RGB图像中的光源边缘扩散到有效边缘的相乘,再与所述第二RGB图像融合生成第三RGB图像。
在本步骤中,根据融合公式output=input_1*mask+input_2*(1-mask)计算得到所述第三RGB图像,其中,所述input_1是所述第一RGB图像中像素点的RGB值;所述input_2是所述第二RGB图像中像素点的RGB值,所述mask是权重。本步骤将前述步骤中得到的数据进行计算融合以生成第三RGB图像。在计算第三RGB图像时,根据alpha图中像素点的位置和顺序进行计算。比如,在alpha图中,按从上至下,从左至右的顺序依次对所有像素点进行计算;或都按排或列一次对多个像素点进行计算,得到所有alpha图对应的融合后的像素值,再与alpha图外的第一RGB图对应的像素点接接成第三RGB图像。
本实施例通过将光源分割,得到腌膜,将腌膜向外逐步膨胀,得到权重alpha图,再进行融合的方案,保留了光源较强的区域,去除了彩虹状眩光,并且可以针对不同的光源角度进行调整,具有广泛的适用性。
本发明实施例中还提供一种用户验证设备,包括处理器。存储器,其中存储有处理器的可执行指令。其中,处理器配置为经由执行可执行指令来执行的用户注册方法的步骤。
如上,本发明针对多个强光源,尤其是至少两个相连的光源情景,根据红外图中不存在眩光的特点,利用红外图中光源区域的特征,融合转换之后得到没有光源的眩光的第二RGB图像,再与第一RGB图像融合得到第三RGB图像,既能有效去除彩虹状眩光,又能恢复因去除光源而丢失的信息,保证去除光源后的图像更加真实全面。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
图10是本发明实施例中的一种用户验证设备的结构示意图。下面参照图10来描述根据本发明的这种实施方式的电子设备600。图10显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图10所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述用户注册方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图1中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图10中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例中还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现的用户注册方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述用户注册方法部分中描述的根据本发明各种示例性实施方式的步骤。
如上所示,该实施例的计算机可读存储介质的程序在执行时,针对多个强光源,尤其是至少两个相连的光源情景,根据红外图中不存在眩光的特点,利用红外图中光源区域的特征,融合转换之后得到没有光源的眩光的第二RGB图像,再与第一RGB图像融合得到第三RGB图像,既能有效去除彩虹状眩光,又能恢复因去除光源而丢失的信息,保证去除光源后的图像更加真实全面。
图11是本发明实施例中的计算机可读存储介质的结构示意图。参考图11所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本发明实施例中,针对多个强光源,尤其是至少两个相连的光源情景,根据红外图中不存在眩光的特点,利用红外图中光源区域的特征,融合转换之后得到没有光源的眩光的第二RGB图像,再与第一RGB图像融合得到第三RGB图像,既能有效去除彩虹状眩光,又能恢复因去除光源而丢失的信息,保证去除光源后的图像更加真实全面。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (10)
1.一种利用红外图去除屏下RGB图像彩虹状眩光方法,其特征在于,包括如下步骤:
步骤S1:获取第一RGB图像和对应的第一红外图,将所述第一红外图与所述第一RGB图像对齐得到第二红外图;其中,所述第一RGB图像至少包含至少两个相连的光源及其彩虹状眩光,所述第一红外图至少包含两个相连的光源;
步骤S2:基于所述第一RGB图像和所述第二红外图,利用深度神经网络模型去除所述第一RGB图像中的所述至少两个相连的光源及其彩虹状眩光,得到第二RGB图像;
步骤S3:将所述第一RGB图像中的所述至少两个相连的光源不均匀地与所述第二RGB图像融合生成第三RGB图像;
步骤S4:利用神经网络模型消除所述第三RGB图像中的阶梯式缺陷。
2.根据权利要求1所述的一种利用红外图去除屏下RGB图像彩虹状眩光方法,其特征在于,在步骤S1中,对所述第二红外图周边进行padding以使得所述第二红外图的分辨率和所述第一RGB图一致。
3.根据权利要求1所述的一种利用红外图去除屏下RGB图像彩虹状眩光方法,其特征在于,所述深度神经网络模型分别提取所述第一RGB图像的信息和所述第二红外图的信息,经过特征融合转换之后得到没有光源和眩光的所述第二RGB图像,以有效去除眩光和恢复所述所述第二RGB图像中丢失的信息。
4.根据权利要求1所述的一种利用红外图去除屏下RGB图像彩虹状眩光方法,其特征在于,所述深度神经网络模型在训练时,通过数据增广拟合出多个光源。
5.根据权利要求1所述的一种利用红外图去除屏下RGB图像彩虹状眩光方法,其特征在于,所述步骤S3包括:
步骤S31:在所述第一RGB图像中将光源分割,生成掩膜;
步骤S32:对所述掩膜进行不均匀膨胀,每膨胀一圈就设置一个权重,则从光源边缘扩散到有效边缘的过程中,权重从1逐渐衰减到0,从而得到一张单通道的权重alpha图;
步骤S33:将所述权重alpha图与所述第一RGB图像中的光源边缘扩散到有效边缘的相乘,再与所述第二RGB图像融合生成第三RGB图像。
7.根据权利要求5所述的一种利用红外图去除屏下RGB图像彩虹状眩光方法,其特征在于,在步骤S33中,根据融合公式output=input_1*mask+input_2*(1-mask)计算得到所述第三RGB图像,其中,所述input_1是所述第一RGB图像中像素点的RGB值;所述input_2是所述第二RGB图像中像素点的RGB值,所述mask是权重。
8.根据权利要求1所述的一种利用红外图去除屏下RGB图像彩虹状眩光方法,其特征在于,在所述步骤S4中,所述神经网络模型为生成式对抗网络模型,所述生成式对抗网络包括生成器和判别器;在训练集中,真实图像的标签为真,融合后图像的标签为假,以此来交叉训练所述判别器和所述生成器;最后利用训练的生成器来调节所述第三RGB图像,使得过渡区域的细节更加平滑。
9.一种用户验证设备,其特征在于,包括:
处理器;
存储器模块,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至8任一项所述的用户注册方法的步骤。
10.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被执行时实现权利要求1至8任一项所述的一种利用红外图去除屏下RGB图像彩虹状眩光方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211703961.XA CN116363027A (zh) | 2022-12-29 | 2022-12-29 | 一种利用红外图去除屏下rgb图像彩虹状眩光方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211703961.XA CN116363027A (zh) | 2022-12-29 | 2022-12-29 | 一种利用红外图去除屏下rgb图像彩虹状眩光方法、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116363027A true CN116363027A (zh) | 2023-06-30 |
Family
ID=86926299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211703961.XA Pending CN116363027A (zh) | 2022-12-29 | 2022-12-29 | 一种利用红外图去除屏下rgb图像彩虹状眩光方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116363027A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117523644A (zh) * | 2024-01-04 | 2024-02-06 | 深圳星和动力科技有限公司 | 一种公共交通身份认证方法及系统 |
-
2022
- 2022-12-29 CN CN202211703961.XA patent/CN116363027A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117523644A (zh) * | 2024-01-04 | 2024-02-06 | 深圳星和动力科技有限公司 | 一种公共交通身份认证方法及系统 |
CN117523644B (zh) * | 2024-01-04 | 2024-03-12 | 深圳星和动力科技有限公司 | 一种公共交通身份认证方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200380279A1 (en) | Method and apparatus for liveness detection, electronic device, and storage medium | |
Yang et al. | Single image haze removal via region detection network | |
US10708525B2 (en) | Systems and methods for processing low light images | |
CN108230245B (zh) | 图像拼接方法、图像拼接装置及电子设备 | |
EP3816929A1 (en) | Method and apparatus for restoring image | |
CN116051439A (zh) | 一种利用红外图去除屏下rgb图像彩虹状眩光方法、设备及存储介质 | |
CN109815843A (zh) | 目标检测方法及相关产品 | |
CN103455984A (zh) | 一种Kinect深度图像获取方法与装置 | |
US20230076026A1 (en) | Image processing method and apparatus | |
CN110705353A (zh) | 基于注意力机制的遮挡人脸的识别方法和装置 | |
CN111325698A (zh) | 图像处理方法、装置及系统、电子设备 | |
KR102628115B1 (ko) | 영상 처리 방법, 장치, 기록 매체 및 전자 장치 | |
CN111598065A (zh) | 深度图像获取方法及活体识别方法、设备、电路和介质 | |
US20210390667A1 (en) | Model generation | |
CN113205586A (zh) | 图像处理方法及装置、电子设备、计算机可读存储介质 | |
CN116363027A (zh) | 一种利用红外图去除屏下rgb图像彩虹状眩光方法、设备及存储介质 | |
CN112802081A (zh) | 一种深度检测方法、装置、电子设备及存储介质 | |
CN111626086A (zh) | 活体检测方法、装置及系统、电子设备和存储介质 | |
CN116612015A (zh) | 模型训练方法、图像去摩尔纹方法、装置及电子设备 | |
CN105592271A (zh) | 一种图像处理的方法及终端 | |
US20220156889A1 (en) | Saliency map generation method and image processing system using the same | |
CN116170658A (zh) | 一种屏下深度相机 | |
CN117274383A (zh) | 视点预测方法及装置、电子设备和存储介质 | |
CN114418897B (zh) | 眼部光斑图像的修复方法、装置、终端设备及存储介质 | |
CN114387443A (zh) | 一种图像处理方法、存储介质及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |