CN115587950B - 一种微光增强色彩恢复方法 - Google Patents
一种微光增强色彩恢复方法 Download PDFInfo
- Publication number
- CN115587950B CN115587950B CN202211369107.4A CN202211369107A CN115587950B CN 115587950 B CN115587950 B CN 115587950B CN 202211369107 A CN202211369107 A CN 202211369107A CN 115587950 B CN115587950 B CN 115587950B
- Authority
- CN
- China
- Prior art keywords
- semantic
- sub
- area
- clustering
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000011084 recovery Methods 0.000 title claims abstract description 33
- 238000005259 measurement Methods 0.000 claims abstract description 63
- 239000013598 vector Substances 0.000 claims abstract description 33
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 7
- 238000012545 processing Methods 0.000 abstract description 6
- 238000005286 illumination Methods 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 241000220225 Malus Species 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 241001464837 Viridiplantae Species 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 235000021016 apples Nutrition 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- NRNCYVBFPDDJNE-UHFFFAOYSA-N pemoline Chemical compound O1C(N)=NC(=O)C1C1=CC=CC=C1 NRNCYVBFPDDJNE-UHFFFAOYSA-N 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20028—Bilateral filtering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像处理技术领域,具体涉及一种微光增强色彩恢复方法;该方法包括:在不同场景下获取不同角度的标准图像以及微光图像;将微光图像划分为至少两个子区域,以每个子区域中任意像素点为目标点构建语义区域,获取语义区域与目标点对应子区域的交集,进而得到目标点的语义度量指数;基于子区域中每个像素点对应的语义度量指数进行聚类得到至少一个聚类区域,将每个聚类区域划分为至少两个子块,根据每个子块中每个像素点的语义度量指数获取子块的语义度量向量,进而构成聚类区域的语义描述子;基于语义描述子的相似程度得到每个聚类区域的匹配图像,基于每个聚类区域的匹配图像对聚类区域进行色彩恢复,色彩恢复的效果更好。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种微光增强色彩恢复方法。
背景技术
微光图像是在夜间等低照明条件下利用数字相机、智能手表等摄像装备获取的图像,微光图像的特点是图像整体的亮度较低,且图像区域之间、同类图像之间的对比度较低;随着微光图像的数量与日俱增,简单的图像处理技术难以对此类微光图像进行信息的有效提取,因此需要对微光图像进行图像增强,改变微光图像的质量,以便于利用常规的方法提取微光图像中的信息或者进行检测,而对微光图像的图像增强实际便是为微光图像的色彩恢复,色彩恢复是指将摄像装置获取的图像进行颜色矫正,目的是为了平衡色彩与真实场景中的物体颜色。
传统的图像增强和色彩恢复主要是利用图像的外部信息进行实现,经常利用特征描述子进行局部信息的表征,例如SIFT描述子等,但描述子的获取需要较强的图像信息才能获取,而微光图像中的图像信息较难直接获取,因此利用传统方法进行色彩恢复的效果较差,不能很好的将微光图像还原成真实场景。
发明内容
为了解决上述技术问题,本发明的目的在于提供一种微光增强色彩恢复方法,所采用的技术方案具体如下:
本发明一个实施例提供了一种微光增强色彩恢复方法,该方法包括以下步骤:
在不同场景下获取不同角度的标准图像以及微光图像;
将所述微光图像划分为至少两个子区域,以每个子区域中任意像素点为目标点,以所述目标点为中心构建语义区域,获取所述语义区域与所述目标点对应子区域的交集,根据所述交集内每个像素点的像素值得到所述目标点的语义度量指数;
基于子区域中每个像素点对应的语义度量指数进行聚类得到至少一个聚类区域,将每个所述聚类区域划分为至少两个子块,根据每个所述子块中每个像素点的语义度量指数获取所述子块的语义度量向量,所有所述子块的语义度量向量构成所述聚类区域的语义描述子;
获取每个所述聚类区域的语义描述子与每张标准图像的语义描述子的相似程度,以得到每个所述聚类区域的匹配图像,基于每个所述聚类区域的匹配图像对所述聚类区域进行色彩恢复。
优选的,所述根据所述交集内每个像素点的像素值得到所述目标点的语义度量指数的步骤,包括:
获取子区域内所有像素点的像素值的均值,计算所述交集内每个像素点的像素值与子区域内的像素值的均值的差值绝对值,以所述交集内所有像素点对应的差值绝对值的和作为分母,以交集内所有像素点的数量作为分子得到比值,根据所述比值得到交集对应像素点的语义度量指数,所述语义度量指数与所述比值呈正相关关系。
优选的,所述根据每个所述子块中每个像素点的语义度量指数获取所述子块的语义度量向量的步骤,包括:
获取聚类区域的参考方向;
选取所述子块中语义度量指数的最大值,并统计在每个参考方向上所述最大值出现的数量,以所述最大值与参考方向上所述最大值出现的数量的乘积作为第一乘积结果;选取所述子块中出现次数最多的语义度量指数,并统计在每个参考方向上出现次数最多的语义度量指数的出现数量,以所述子块内出现次数最多的语义度量指数与其在参考方向上出现数量的乘积作为第二乘积结果,根据所述第一乘积结果与所述第二乘积结果得到所述子块在每个参考方向上的语义元素,所述语义元素与所述第一乘积结果和所述第二乘积结果分别呈正相关关系;
将所述子块对应的所有参考方向上的语义元素依次排列得到所述子块的语义度量向量。
优选的,所述获取聚类区域的参考方向的步骤,包括:
获取聚类区域中每个像素点的梯度,以梯度变化最大的方向作为主方向,所述主方向为x轴的正方向,基于x轴的正方向得到对应的负方向,并基于x轴的垂直方向得到y轴的正方向和负方向;所述参考方向包括x轴的正方向、x轴的负方向、y轴的正方向以及y轴的负方向。
优选的,所述基于子区域中每个像素点对应的语义度量指数进行聚类得到至少一个聚类区域的步骤,包括:
计算相邻两个像素点对应的语义度量指数的差值,若所述差值小于预设的阈值,则对应的相邻两个像素点为同一类;将子区域中所有的像素点划分为至少一个聚类簇,每个聚类簇对应一个聚类区域。
优选的,所述以所述目标点为中心构建语义区域的步骤,包括:
获取所有标准图像中的语义类型,并统计每个语义类型在对应标准图像中的面积占比,选取所有标准图像中语义类型的面积占比的最小值,以面积占比的最小值设定参考面积,所述参考面积与面积占比的最小值呈正相关关系;
以目标点为中心构建圆形区域,所述圆形区域的面积等于或最接近于所述参考面积;所述圆形区域为所述目标点的语义区域。
优选的,所述所有所述子块的语义度量向量构成所述聚类区域的语义描述子的步骤,包括:
将所述聚类区域中所有子块对应的语义度量向量进行横向拼接得到拼接向量,所述拼接向量为所述聚类区域的语义描述子。
优选的,所述获取每个所述聚类区域的语义描述子与每张标准图像的语义描述子的相似程度的步骤,包括:
计算所述聚类区域的语义描述子与每张标准图像的语义描述子之间的余弦相似度,所述余弦相似度为对应的相似程度。
优选的,每个所述聚类区域的匹配图像的获取方法为:
选取与所述聚类区域的语义描述子的相似程度最大的标准图像为对应的匹配图像。
优选的,所述基于每个所述聚类区域的匹配图像对所述聚类区域进行色彩恢复的步骤,包括:
根据每个聚类区域的匹配图像在匹配库中对应标准先验颜色图像,以得到所述微光图像对应的所有的标准先验颜色图像,将所述微光图像与所有的标准先验颜色图像输入训练完成的神经网络,输出所述微光图像色彩恢复后的恢复图像。
本发明具有如下有益效果:本发明实施例通过获取标准图像作为微光图像色彩恢复的依据,确保了微光图像色彩恢复参照标准的可靠性;然后对微光图像中的语义信息进行提取,首先将微光图像划分为多个子区域,以每个子区域为基准进行分析,局部分析的更加细节准确,通过构建子区域内每个像素点对应的语义区域得到与该子区域的交集,以交集区域中的像素点的像素值获取像素点的语义度量指数,以尽可能的保证在对每个像素点的语义度量指数获取时,所依据的交集区域中的像素点是同类型的像素点,使得语义度量指数所表征语义信息的代表性更强;然后根据每个像素点对应的语义度量指数将每个子区域划分为多个聚类区域,以同类型的聚类区域中像素点进行后续分析并匹配图像进行色彩恢复,效果更好;聚类区域在进行匹配图像的获取时,将聚类区域再次细分为多个子块进行处理,根据每个子块内像素点的语义度量指数获取对应的语义度量向量,进而根据所有子块的语义度量向量构成聚类区域的语义描述子,确保了语义描述子所代表的语义信息的全面性,并基于语义描述子之间的相似程度进行匹配图像的获取,通过量化的相似程度指标得到最为匹配的匹配图像,进而进行微光图像的色彩恢复,结果更加可靠准确且微光图像的色彩恢复的效果更好。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明一个实施例所提供的一种微光增强色彩恢复方法流程图;
图2为本发明一个实施例所提供的一种聚类区域划分16个子块的示意图;
图3为本发明一个实施例所提供的一种子块内像素点对应语义度量指数的示意图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种微光增强色彩恢复方法,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构、或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的一种微光增强色彩恢复方法的具体方案。
请参阅图1,其示出了本发明一个实施例提供的一种微光增强色彩恢复方法流程图,该方法包括以下步骤:
步骤S100,在不同场景下获取不同角度的标准图像以及微光图像。
具体的,在目标场景处安装相机用于获取当前场景的图像,首先是在光照充足的条件下,采集目标场景的不同角度的光照图像,应使得采集得到的光照图像的分辨率尽可能的高,本发明实施例中设置在不同目标场景中分别采集100张光照图像作为后续辅助微光图像色彩恢复的标准图像;为了确保获取的微光图像色彩恢复的对比更加可靠,在获取微光图像时,以相同的角度进行拍摄得到夜间的微光图像,以采集到的微光图像作为需要色彩恢复处理的图像,且微光图像与标准图像均是RGB图像。
为了减少在图像采集过程中环境噪声的影响,对标准图像以及微光图像分别进行去噪处理,去噪的方法为现有公知技术,本发明实施例中采用双边滤波技术进行去噪处理,在其他实施例中可采用高斯滤波或者中值滤波等常用手段,具体不再赘述;对去噪处理后的标准图像以及微光图像进行分析。
步骤S200,将微光图像划分为至少两个子区域,以每个子区域中任意像素点为目标点,以目标点为中心构建语义区域,获取语义区域与目标点对应子区域的交集,根据交集内每个像素点的像素值得到目标点的语义度量指数。
由于标准图像中包含的图像信息较为清晰,例如图像中的天空、绿植以及人物等不同的区域都可以准确的识别出来,而微光图像中包含的图像信息相较于标准图像而言,其中的天空、绿植以及人物等区域较难辨认,但对于相同角度的天空或者绿植而言,其对应的位置是固定不变的,只是在微光图像中由于光照条件较差,使得微光图像中呈现出黑色或者是灰色,难以提取其中有用的图像信息,因此需要对微光图像进行图像增强,也即是进行色彩恢复,以方便进行图像信息的分析。
对微光图像进行色彩恢复是将微光图像变为标准图像的主要技术手段,本发明实施例中的微光图像以及标准图像是多个目标场景下包含相同语义信息的图像,虽然微光图像与标准图像实际表现出来的图像内容存在较大差异,但主要原因是由于微光图像的光照过弱,具体语义信息无法被识别,但同一目标场景下的同一个语义类型的颜色应该是非常接近的,例如目标场景中对应在标准图像中存在一个红苹果,那么对于对应的微光图像而言,其中的红苹果应该恢复为标准图像中红苹果的颜色,也即是微光图像和标准图像中语义类型相同的物体在色彩恢复后的颜色是非常相似的。
因此本发明实施例中采集光照充足下的不同角度的标准图像,目的是为了建立一个标准的匹配库,利用语义分割网络对采集得到的标准图像进行语义分割,得到每张标准图像中包括的语义类型,语义分割网络为常用手段,具体过程不再赘述;本发明实施例中设置语义类型包括:天空、土地、道路、房屋、树木以及其他共六种类型,然后提取标准图像中不同语义类型的色彩信息,输入至匹配库中与对应的语义类型共同保存,统计匹配库中所有光照图像包含的语义类型种类以及每种语义类型对应的色彩信息,进而得到每种语义类型对应的色彩图像,作为后续对微光图像中不同语义类型进行色彩恢复的标准先验颜色图像,例如对于红苹果而言,其对应的颜色是红色,则该红苹果类型对应的色彩图像即为一张红色的图像。
进一步的,为确保微光图像色彩恢复的更加准确,对微光图像进行分区域分析,本发明实施例中以8*8大小为基准,将微光图像划分为多个8*8大小的子区域,对每个子区域的语义信息进行判断,通过每个子区域的语义信息决定色彩恢复的情况。以子区域中任意一个像素点为目标点进行分析,判断该目标点在所在子区域中语义信息的重要性,若该目标点在子区域中相同类型的像素点数量较多且较为集中,则该目标点在子区域中的重要性较大,本发明实施例中通过获取每个像素点对应的语义度量指数,用于表征该像素点在子区域中的重要性,以目标点为例,获取目标点对应的语义度量指数的方法为:
首先,统计每张标准图像中所有语义类型对应的面积占比,选取匹配库中所有标准图像上语义类型的面积占比最小值,面积占比最小值表示了语义类型可能出现的最小区域的面积情况,因此以面积最小值对微光图像中的语义区域进行获取,设置语义区域的参考面积为δmin*64,δmin表示匹配库中所有标准图像上语义类型的面积占比最小值。
然后,以目标点为中心,构建面积大小等于或者最接近参考面积δmin*64的圆形区域作为目标点对应的语义区域,获取该语义区域与目标点所在子区域之间的交集区域,该交集区域内的像素点用于对目标点的语义度量指数进行分析,尽可能的使得对目标点的语义度量指数分析时,所参考的像素点都是目标点同类型的像素点。
基于目标点对应的交集区域进行分析,计算目标点所在子区域内所有像素点对应像素值的均值,根据交集区域中每个像素点的像素值与该均值之间的差异得到目标点的语义度量指数,语义度量指数的具体计算为:
其中,SI表示目标点对应的语义度量指数;Sr表示交集区域中所有像素点的数量;Ii表示交集区域r中第i个像素点的像素值;表示目标点所在子区域中所有像素点的像素值的均值。
当目标点对应的交集区域中像素点的像素值与目标点所在子区域的像素值均值差异较小时,表明目标点对应的区域内的颜色信息与目标点所在子区域的颜色信息较为接近,也即是目标点所对应的语义信息与子区域的语义信息接近,目标点的重要性越大,对应的语义度量指数越大。
以此类推,获取子区域中每个像素点对应的语义度量指数,语义度量指数越大,说明像素点与子区域的语义信息越接近,重要性越大。
步骤S300,基于子区域中每个像素点对应的语义度量指数进行聚类得到至少一个聚类区域,将每个聚类区域划分为至少两个子块,根据每个子块中每个像素点的语义度量指数获取子块的语义度量向量,所有子块的语义度量向量构成聚类区域的语义描述子。
由步骤S200中得到每个子区域中每个像素点对应的语义度量指数;基于每个像素点的语义度量指数对子区域进行再次划分,本发明实施例中采用DBSCAN聚类算法对子区域中所有的像素点进行聚类分割,设定DBSCAN聚类算法中的聚类度量条件是相邻两个像素点之间的语义度量指数的差值小于阈值,设置阈值的原因是因为即使是同一语义类型的像素点,其对应的像素值之间也会存在细微的差异,因此其对应的语义度量指标之间也会存在一定的差异,但差异较小,由此进行聚类以便于将同类型的像素点归为一类进行分析;当相邻两个像素点之间的语义度量指数的差值小于阈值时,将像素点划分为同一类;当相邻两个像素点之间的语义度量指数的差值不小于阈值时,对下一个像素点进行处理,也即是利用阈值代替DBSCAN聚类算法中设置的半径,作为一个优选实施例,设置阈值取经验值3,以每个像素点的四邻域进行遍历寻找,将子区域中所有像素点遍历完成即可得到子区域内多个聚类簇,每个聚类簇对应一个聚类区域。
以相似的语义度量指数构建的聚类区域进行后续分析,尽可能保证同类型的语义信息一同进行分析处理,提高后续检测的准确性;对于任意一个聚类区域而言,找到该聚类区域对应的标准图像后,即可根据标准图像中对应的语义信息的色彩对该聚类区域进行色彩恢复,因此需要对每个聚类区域对应的语义信息进行获取。语义分割结果将标准图像划分了不同语义类型,因此对于任意一张标准图像,假设语义分割后存在K种语义类型,K种语义类型对应了P张标准图像,语义类型的数量与标准图像的数量应满足P≥K,因为一种语义类型可能包括多个区域,假设标准图像B中存在某一块区域是第k种语义类型,如果子区域中存在与标准图像B的语义类型相同的聚类区域,则该聚类区域在色彩恢复后的色彩信息应该与标准图像B的色彩信息近似。
本发明实施例中以每个聚类区域的语义描述子表征该聚类区域的语义信息,以聚类区域E为例,聚类区域E的语义描述子的具体获取方法如下:
首先,获取聚类区域E中每个像素点对应的梯度,选取梯度变化方向最大的方向为主方向,主方向作为x轴的正方向得到其他三个方向,分别为x轴的负方向,垂直于x轴的y轴的正方向和y轴的负方向,以此得到4个参考方向。
然后,将聚类区域E均分为16个子块,在其他实施例中实施者可根据实际情况自行设定划分数量,根据每个子块内像素点的语义度量指数获取不同参考方向下的语义元素,根据每个子块内像素点在4个参考方向下的语义元素构建对应的语义度量向量;根据聚类区域E中所有子块对应的语义度量向量依次横向拼接得到对应的聚类区域E的语义描述子,即语义描述子为64维的向量。
其中,每个子块对应的语义度量向量的获取方法为:选取子块中语义度量指数的最大值,并统计在每个参考方向上最大值出现的数量,以最大值与参考方向上最大值出现的数量的乘积作为第一乘积结果;选取子块中出现次数最多的语义度量指数,并统计在每个参考方向上出现次数最多的语义度量指数的出现数量,以子块内出现次数最多的语义度量指数与其在参考方向上出现数量的乘积作为第二乘积结果,根据第一乘积结果与第二乘积结果得到子块在每个参考方向上的语义元素,语义元素与第一乘积结果和第二乘积结果分别呈正相关关系;将子块对应的所有参考方向上的语义元素依次排列得到子块的语义度量向量。
具体的,获取该子块中语义度量指数的最大值,以及该子块内所有像素点对应的语义度量指数的众数,也即是出现数量最多的语义度量指数,统计不同参考方向上子块内语义度量指数最大的像素点的数量,以及参考方向上子块内出现数量最多的语义度量指数的出现数量,以此获取该子块在每个参考方向上的语义元素,以参考方向1为例,参考方向1即为主方向,计算该子块的语义元素为:
其中,h1表示子块在参考方向1的语义元素;n1表示参考方向1上子块内的语义度量指数最大的像素点的数量;n2表示参考方向1上子块内出现数量最多的语义度量指数的出现数量;SImax表示子块内语义度量指数的最大值;SILn表示子块内出现最多次的语义度量指数;SIj表示子块内第j个像素点的语义度量指数;J表示子块内像素点的数量。
语义元素用于度量子块在不同参考方向上的语义信息,由于子块的面积是不变的,也即是子块内像素点的数量固定不变,且在参考方向1上像素点数量也是固定不变的,因此当子块内语义度量指数的最大值越大,并在该最大值在参考方向1上出现的数量越多时,该参考方向下的像素点的语义信息代表性越强,对应的语义元素越大;当子块内出现次数最多的语义度量指数在参考方向1上的出现次数也越多时,重要性越大,对应的语义元素取值越大。
作为一个优选示例,请参阅图2和图3,其分别示出一种聚类区域划分16个子块的示意图以及一种子块内像素点对应语义度量指数的示意图,图2中的小块即代表的为子块,4个方向代表了4个参考方向,即x轴和y轴分别代表了4个参考方向,x轴正方向为参考方向1、x轴负方向为参考方向3、y轴正方向为参考方向4、y轴负方向为参考方向2,则通过图3所示的子块内每个像素点的语义度量指数获取该子块在参考方向1的语义元素:
由图3可知,子块为9*9大小,其中语义度量指数主要为6,7,8以及9;统计该子块内每个语义度量指数出现的次数,对于语义度量指数6,子块内出现27次;对于语义度量指数7以及语义度量指数8,分别出现了17次;对于语义度量指数9,子块内出现了22次;因此该子块内出现的语义度量指数的最大值为9,子块内出现最多次的语义度量指数为6。
然后统计参考方向1上子块内出现的语义度量指数的最大值出现的数量,针对图3所示的子块,参考方向1上的像素点分别为9、7、8、6、6,子块内出现的语义度量指数的最大值为9,则参考方向1上子块内出现的语义度量指数的最大值9的出现数量为1,也即是n1=1;子块出现次数最多的语义度量指数为6,参考方向1上子块出现次数最多的语义度量指数6的出现次数为2,也即是n2=2;对应的像素点的数量为1,;那么在参考方向1上计算该子块对应的语义元素的计算为:
基于上述获取每个子块在参考方向1的语义元素,对应获取子块在参考方向2、参考方向3以及参考方向4上的语义元素,将每个参考方向对应的语义元素依次排列得到该子块对应的语义度量向量H=(h1,h2,h3,h4);h1表示子块在参考方向1的语义元素;h2表示子块在参考方向2的语义元素;则聚类区域E中每个子块均对应一个4维的语义度量向量,将聚类区域E中所有子块对应的语义度量向量依次拼接得到聚类区域的语义描述子,该语义描述子为64维的向量。
步骤S400,获取每个聚类区域的语义描述子与每张标准图像的语义描述子的相似程度,以得到每个聚类区域的匹配图像,基于每个聚类区域的匹配图像对聚类区域进行色彩恢复。
由步骤S300中得到每个聚类区域的语义描述子,基于获取每个聚类区域的语义描述子的相同方法,获取每张标准图像的语义描述子,也即是获取每张标准图像中每个像素点对应的语义度量指数,根据每个像素点对应的语义度量指数获取标准图像对应的语义描述子,语义描述子表征了对应聚类区域或者是对应标准图像的语义信息,当两个语义描述子较为相似时,说明两个语义描述子对应的区域或者图像之间也较为相似,因此本发明实施例中通过语义描述子之间的相似程度对聚类区域的匹配图像进行获取。
由于每个语义描述子的本质是向量,因此采用余弦相似度进行语义描述子之间相似程度的获取,获取聚类区域与每张标准图像之间语义描述子的相似程度,相似程度的计算为:
其中,CEB表示聚类区域E与标准图像B之间的相似程度;dEm表示聚类区域E对应语义描述子中的第m个元素;dBm表示标准图像B对应语义描述子中的第m个元素;M表示语义描述子中元素的总数量,也即是语义描述子的维度,本发明实施例中M=64。
相似程度也即是两个语义描述子之间的余弦相似度,余弦相似度的获取手段为现有公知技术,不再详细说明;相似程度的取值越接近于1,说明聚类区域E与标准图像B之间的语义信息越相似;基于获取相似程度相同的方法,计算聚类区域E与匹配库中所有标准图像之间语义描述子的相似程度,选取相似程度最大时对应的标准图像为与聚类区域E的语义信息最接近的图像,因此将相似程度最大时对应的标准图像记为聚类区域E对应的匹配图像。
基于获取聚类区域E的匹配图像相同的方法,获取微光图像中每个聚类区域对应的匹配图像,根据微光图像中每个聚类区域对应的匹配图像进行色彩恢复。
对于任意微光图像以及标准图像,其中相同语义类型区域的色彩应该是一致的,因此通过语义分割网络同样获取微光图像中每个聚类区域对应的语义类型;将匹配库中所有的标准图像作为神经网络的训练数据,数据标签中包含不同语义类型对应的色彩信息,标签文件的格式为xml,目的是为了使得神经网络能够学习到不同语义类型对应的色彩信息,本发明实施例神经网络选用U-Net,神经网络的优化算法利用adam算法,损失函数采用L2损失函数,网络的具体训练过程为公知手段,不再赘述;由于步骤S200中构建的匹配库中存储了每个标准图像中语义类型对应的标准先验颜色图像,则在完成神经网络的训练之后,将微光图像与其对应的所有匹配图像的标准先验颜色图像作为神经网络的输入,网络的输出即为根据微光图像中不同聚类区域根据语义类型和标准先验颜色图像进行色彩恢复后的微光图像的恢复图像。
综上所述,本发明实施例中在不同场景下获取不同角度的标准图像以及微光图像;将微光图像划分为至少两个子区域,以每个子区域中任意像素点为目标点,以目标点为中心构建语义区域,获取语义区域与目标点对应子区域的交集,根据交集内每个像素点的像素值得到目标点的语义度量指数;基于子区域中每个像素点对应的语义度量指数进行聚类得到至少一个聚类区域,将每个聚类区域划分为至少两个子块,根据每个子块中每个像素点的语义度量指数获取子块的语义度量向量,所有子块的语义度量向量构成聚类区域的语义描述子;获取每个聚类区域的语义描述子与每张标准图像的语义描述子的相似程度,以得到每个聚类区域的匹配图像,基于每个聚类区域的匹配图像对聚类区域进行色彩恢复,以得到微光图像的恢复图像;使得微光图像色彩恢复的效果更好。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种微光增强色彩恢复方法,其特征在于,该方法包括以下步骤:
在不同场景下获取不同角度的标准图像以及微光图像;
将所述微光图像划分为至少两个子区域,以每个子区域中任意像素点为目标点,以所述目标点为中心构建语义区域,获取所述语义区域与所述目标点对应子区域的交集,根据所述交集内每个像素点的像素值得到所述目标点的语义度量指数;
基于子区域中每个像素点对应的语义度量指数进行聚类得到至少一个聚类区域,将每个所述聚类区域划分为至少两个子块,根据每个所述子块中每个像素点的语义度量指数获取所述子块的语义度量向量,所有所述子块的语义度量向量构成所述聚类区域的语义描述子;
获取每个所述聚类区域的语义描述子与每张标准图像的语义描述子的相似程度,以得到每个所述聚类区域的匹配图像,基于每个所述聚类区域的匹配图像对所述聚类区域进行色彩恢复;
所述根据所述交集内每个像素点的像素值得到所述目标点的语义度量指数的步骤,包括:
获取子区域内所有像素点的像素值的均值,计算所述交集内每个像素点的像素值与子区域内的像素值的均值的差值绝对值,以所述交集内所有像素点对应的差值绝对值的和作为分母,以交集内所有像素点的数量作为分子得到比值,根据所述比值得到交集对应像素点的语义度量指数,所述语义度量指数与所述比值呈正相关关系;
所述根据每个所述子块中每个像素点的语义度量指数获取所述子块的语义度量向量的步骤,包括:
获取聚类区域的参考方向;
选取所述子块中语义度量指数的最大值,并统计在每个参考方向上所述最大值出现的数量,以所述最大值与参考方向上所述最大值出现的数量的乘积作为第一乘积结果;选取所述子块中出现次数最多的语义度量指数,并统计在每个参考方向上出现次数最多的语义度量指数的出现数量,以所述子块内出现次数最多的语义度量指数与其在参考方向上出现数量的乘积作为第二乘积结果,根据所述第一乘积结果与所述第二乘积结果得到所述子块在每个参考方向上的语义元素,所述语义元素与所述第一乘积结果和所述第二乘积结果分别呈正相关关系;
将所述子块对应的所有参考方向上的语义元素依次排列得到所述子块的语义度量向量。
2.根据权利要求1所述的一种微光增强色彩恢复方法,其特征在于,所述获取聚类区域的参考方向的步骤,包括:
获取聚类区域中每个像素点的梯度,以梯度变化最大的方向作为主方向,所述主方向为x轴的正方向,基于x轴的正方向得到对应的负方向,并基于x轴的垂直方向得到y轴的正方向和负方向;所述参考方向包括x轴的正方向、x轴的负方向、y轴的正方向以及y轴的负方向。
3.根据权利要求1所述的一种微光增强色彩恢复方法,其特征在于,所述基于子区域中每个像素点对应的语义度量指数进行聚类得到至少一个聚类区域的步骤,包括:
计算相邻两个像素点对应的语义度量指数的差值,若所述差值小于预设的阈值,则对应的相邻两个像素点为同一类;将子区域中所有的像素点划分为至少一个聚类簇,每个聚类簇对应一个聚类区域。
4.根据权利要求1所述的一种微光增强色彩恢复方法,其特征在于,所述以所述目标点为中心构建语义区域的步骤,包括:
获取所有标准图像中的语义类型,并统计每个语义类型在对应标准图像中的面积占比,选取所有标准图像中语义类型的面积占比的最小值,以面积占比的最小值设定参考面积,所述参考面积与面积占比的最小值呈正相关关系;
以目标点为中心构建圆形区域,所述圆形区域的面积等于或最接近于所述参考面积;所述圆形区域为所述目标点的语义区域。
5.根据权利要求1所述的一种微光增强色彩恢复方法,其特征在于,所述所有所述子块的语义度量向量构成所述聚类区域的语义描述子的步骤,包括:
将所述聚类区域中所有子块对应的语义度量向量进行横向拼接得到拼接向量,所述拼接向量为所述聚类区域的语义描述子。
6.根据权利要求1所述的一种微光增强色彩恢复方法,其特征在于,所述获取每个所述聚类区域的语义描述子与每张标准图像的语义描述子的相似程度的步骤,包括:
计算所述聚类区域的语义描述子与每张标准图像的语义描述子之间的余弦相似度,所述余弦相似度为对应的相似程度。
7.根据权利要求1所述的一种微光增强色彩恢复方法,其特征在于,每个所述聚类区域的匹配图像的获取方法为:
选取与所述聚类区域的语义描述子的相似程度最大的标准图像为对应的匹配图像。
8.根据权利要求1所述的一种微光增强色彩恢复方法,其特征在于,所述基于每个所述聚类区域的匹配图像对所述聚类区域进行色彩恢复的步骤,包括:
根据每个聚类区域的匹配图像在匹配库中对应标准先验颜色图像,以得到所述微光图像对应的所有的标准先验颜色图像,将所述微光图像与所有的标准先验颜色图像输入训练完成的神经网络,输出所述微光图像色彩恢复后的恢复图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211369107.4A CN115587950B (zh) | 2022-11-03 | 2022-11-03 | 一种微光增强色彩恢复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211369107.4A CN115587950B (zh) | 2022-11-03 | 2022-11-03 | 一种微光增强色彩恢复方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115587950A CN115587950A (zh) | 2023-01-10 |
CN115587950B true CN115587950B (zh) | 2023-09-26 |
Family
ID=84782671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211369107.4A Active CN115587950B (zh) | 2022-11-03 | 2022-11-03 | 一种微光增强色彩恢复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115587950B (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853492A (zh) * | 2010-05-05 | 2010-10-06 | 浙江理工大学 | 一种夜视微光图像与红外图像融合方法 |
CN102054178A (zh) * | 2011-01-20 | 2011-05-11 | 北京联合大学 | 一种基于局部语义概念的国画图像识别方法 |
US9414037B1 (en) * | 2014-09-26 | 2016-08-09 | Amazon Technologies, Inc. | Low light image registration |
CN106204476A (zh) * | 2016-06-27 | 2016-12-07 | 中国矿业大学 | 一种低照度彩色图像增强方法 |
CN107045713A (zh) * | 2017-04-12 | 2017-08-15 | 湖南源信光电科技股份有限公司 | 基于census立体匹配的低照度图像增强方法 |
KR20170137489A (ko) * | 2016-06-03 | 2017-12-13 | 현대자동차주식회사 | 저조도 영상의 시인성 개선 방법 |
US9894298B1 (en) * | 2014-09-26 | 2018-02-13 | Amazon Technologies, Inc. | Low light image processing |
CN110389390A (zh) * | 2019-05-31 | 2019-10-29 | 中国人民解放军陆军工程大学 | 一种大视场红外微光自然感彩色融合系统 |
CN110807742A (zh) * | 2019-11-21 | 2020-02-18 | 西安工业大学 | 一种基于一体式网络的微光图像增强方法 |
CN112200848A (zh) * | 2020-10-30 | 2021-01-08 | 中国科学院自动化研究所 | 低光照弱对比复杂环境下的深度相机视觉增强方法及系统 |
KR20210053052A (ko) * | 2019-11-01 | 2021-05-11 | 엘지전자 주식회사 | 컬러 복원방법 및 장치 |
CN113344804A (zh) * | 2021-05-11 | 2021-09-03 | 湖北工业大学 | 一种弱光图像增强模型的训练方法和弱光图像增强方法 |
CN113379861A (zh) * | 2021-05-24 | 2021-09-10 | 南京理工大学 | 基于色彩恢复块的彩色微光图像重建方法 |
WO2022011504A1 (en) * | 2020-07-13 | 2022-01-20 | Qualcomm Incorporated | Correction of color tinted pixels captured in low-light conditions |
CN114897710A (zh) * | 2022-04-06 | 2022-08-12 | 四川大学 | 一种低照度环境下的视频增强方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8698924B2 (en) * | 2007-03-05 | 2014-04-15 | DigitalOptics Corporation Europe Limited | Tone mapping for low-light video frame enhancement |
WO2020093792A1 (en) * | 2018-11-08 | 2020-05-14 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method, system, and computer-readable medium for improving color quality of images |
-
2022
- 2022-11-03 CN CN202211369107.4A patent/CN115587950B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853492A (zh) * | 2010-05-05 | 2010-10-06 | 浙江理工大学 | 一种夜视微光图像与红外图像融合方法 |
CN102054178A (zh) * | 2011-01-20 | 2011-05-11 | 北京联合大学 | 一种基于局部语义概念的国画图像识别方法 |
US9414037B1 (en) * | 2014-09-26 | 2016-08-09 | Amazon Technologies, Inc. | Low light image registration |
US9894298B1 (en) * | 2014-09-26 | 2018-02-13 | Amazon Technologies, Inc. | Low light image processing |
KR20170137489A (ko) * | 2016-06-03 | 2017-12-13 | 현대자동차주식회사 | 저조도 영상의 시인성 개선 방법 |
CN106204476A (zh) * | 2016-06-27 | 2016-12-07 | 中国矿业大学 | 一种低照度彩色图像增强方法 |
CN107045713A (zh) * | 2017-04-12 | 2017-08-15 | 湖南源信光电科技股份有限公司 | 基于census立体匹配的低照度图像增强方法 |
CN110389390A (zh) * | 2019-05-31 | 2019-10-29 | 中国人民解放军陆军工程大学 | 一种大视场红外微光自然感彩色融合系统 |
KR20210053052A (ko) * | 2019-11-01 | 2021-05-11 | 엘지전자 주식회사 | 컬러 복원방법 및 장치 |
CN110807742A (zh) * | 2019-11-21 | 2020-02-18 | 西安工业大学 | 一种基于一体式网络的微光图像增强方法 |
WO2022011504A1 (en) * | 2020-07-13 | 2022-01-20 | Qualcomm Incorporated | Correction of color tinted pixels captured in low-light conditions |
CN112200848A (zh) * | 2020-10-30 | 2021-01-08 | 中国科学院自动化研究所 | 低光照弱对比复杂环境下的深度相机视觉增强方法及系统 |
CN113344804A (zh) * | 2021-05-11 | 2021-09-03 | 湖北工业大学 | 一种弱光图像增强模型的训练方法和弱光图像增强方法 |
CN113379861A (zh) * | 2021-05-24 | 2021-09-10 | 南京理工大学 | 基于色彩恢复块的彩色微光图像重建方法 |
CN114897710A (zh) * | 2022-04-06 | 2022-08-12 | 四川大学 | 一种低照度环境下的视频增强方法 |
Non-Patent Citations (4)
Title |
---|
Directed color transfer for low-light image enhancement;LauraFlorea 等;《Digital Signal Processing》;1-12 * |
微光彩色图像增强算法研究;宋喜娟;《中国优秀硕士学位论文全文数据库 信息科技辑》;I138-1060 * |
自适应夜视图像处理技术研究;朱莹;《中国优秀硕士学位论文全文数据库 信息科技辑》;I136-37 * |
超广角红外与微光视频图像校正与配准;鹿文双;《中国优秀硕士学位论文全文数据库 信息科技辑》;I138-1793 * |
Also Published As
Publication number | Publication date |
---|---|
CN115587950A (zh) | 2023-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109151501B (zh) | 一种视频关键帧提取方法、装置、终端设备及存储介质 | |
CN111104867B (zh) | 基于部件分割的识别模型训练、车辆重识别方法及装置 | |
CN107133569B (zh) | 基于泛化多标记学习的监控视频多粒度标注方法 | |
KR20160143494A (ko) | 현저성 정보 취득 장치 및 현저성 정보 취득 방법 | |
CN112150493B (zh) | 一种基于语义指导的自然场景下屏幕区域检测方法 | |
CN106683119B (zh) | 基于航拍视频图像的运动车辆检测方法 | |
CN107273832B (zh) | 基于积分通道特征与卷积神经网络的车牌识别方法及系统 | |
CN112365462B (zh) | 一种基于图像的变化检测方法 | |
CN111460936A (zh) | 基于U-Net网络的遥感影像建筑物提取方法、系统、电子设备 | |
CN111768388A (zh) | 一种基于正样本参考的产品表面缺陷检测方法及系统 | |
Zhang et al. | License plate localization in unconstrained scenes using a two-stage CNN-RNN | |
CN113052170B (zh) | 一种无约束场景下的小目标车牌识别方法 | |
CN110852327A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN112668426A (zh) | 一种基于三种色彩模式的火灾图像偏色度量化方法 | |
CN110910497B (zh) | 实现增强现实地图的方法和系统 | |
CN115587950B (zh) | 一种微光增强色彩恢复方法 | |
CN112418262A (zh) | 车辆再识别的方法、客户端及系统 | |
CN117315578A (zh) | 一种结合分类网络的锈斑面积扩大的监测方法与系统 | |
Mortezaie et al. | A color-based re-ranking process for people re-identification: Paper ID 21 | |
CN116385477A (zh) | 一种基于图像分割的杆塔图像配准方法 | |
CN116109849A (zh) | 基于surf特征匹配的高压隔离开关定位与状态识别方法 | |
CN114743257A (zh) | 图像目标行为的检测识别方法 | |
CN114419489A (zh) | 特征提取网络的训练方法、装置、终端设备和介质 | |
Wang et al. | Fast loop closure detection via binary content | |
CN117496160B (zh) | 一种面向室内场景的无人机拍摄低光照图像语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |