CN113112418B - 一种低照度图像迭代增强的方法 - Google Patents
一种低照度图像迭代增强的方法 Download PDFInfo
- Publication number
- CN113112418B CN113112418B CN202110326774.3A CN202110326774A CN113112418B CN 113112418 B CN113112418 B CN 113112418B CN 202110326774 A CN202110326774 A CN 202110326774A CN 113112418 B CN113112418 B CN 113112418B
- Authority
- CN
- China
- Prior art keywords
- image
- pixel point
- value
- low
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005286 illumination Methods 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000013528 artificial neural network Methods 0.000 claims abstract description 13
- 238000004364 calculation method Methods 0.000 claims abstract description 12
- 238000012937 correction Methods 0.000 claims abstract description 7
- 230000002708 enhancing effect Effects 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 abstract description 15
- 238000012545 processing Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 229920002430 Fibre-reinforced plastic Polymers 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000011151 fibre-reinforced plastic Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种低照度图像迭代增强的方法,属于计算机视觉图像处理领域。包括:S1:将监控图像读入图像库,建立空间模型。S2:将低照度图像与图像库中图像进行匹配。S3:依据匹配结果修改目标RGB值。S4:更新图像。S5:继续迭代,若达到阈值,输出处理图像。本发明通过利用监控图像场景相似、色调灰度趋势相同等特点,建立空间模型后通过整体匹配与色彩匹配,对每一个像素点赋予不同的信任度值,并以此利用BP神经网络进行RGB值的矫正,然后进行迭代增强。本发明提出的低照度图像迭代增强的方法较少了模型的计算复杂度,提高了运算效率。
Description
技术领域
本发明涉及计算机视觉图像处理领域,特别涉及一种低照度图像迭代增强的技术方法。
背景技术
视频监控技术已作为一种成熟的技术广泛的应用于社会的生产生活当中,在维护社会安全与秩序、提高生产效率等方面都发挥着重要作用。在实际应用中,无可避免的会出现诸如夜晚、暗室、阴天等低照度环境,其拍摄的照片可能会出现清晰度与对比度低、噪点高、阴影重等现象,进而会影响人或计算机对目标的识别与判断。所以如何快速高效地处理低照度监控图像是亟待解决的问题。
针对低照度监控图像处理目前主要有两类方法,其一是在摄像机上添加白光源或红外光源,以及针对监控进行了优化的自定义图像传感器,从而可以利用对光子更加敏感或可以将灵敏度范围扩展至红外部分的摄像机进行拍摄;其二是利用计算机图像预处理技术,利用算法来提高低照度图像的亮度,增强对比度,降低噪声影响和增加图像信号。显然方法一无论是添加光源,还是用更高灵敏度的摄像机都需要增加较大成本,且如果利用白光源则摄像范围有限,如果利用红外光源则图像为各种灰色。相较而言方法二却拥有成本较低,增强效果较好等优点。
对于具体应用在智能监控领域的图像预处理来说,现有算法没有很好贴切监控环境,更多的是将图像预处理算法直接套用在监控图像处理上,也因此会存在算法冗余、计算复杂度大、效率低等现象。如果可以利用监控图像的特点,例如场景相似、色调灰度趋势相同等,同时结合神经网络等方式进行匹配计算,便可以在较大程度上减少计算量,提高图像亮度,同时还可以避免图像的色彩失真等问题。
发明内容
本发明利用了监控图像的特点,改进了低照度图像的增强技术,提出了一种低照度图像迭代增强的方法,使之可以减少算法的复杂度,从而更适用于智能监控领域,加快运算效率。
为实现上述目的,本发明所采用的技术方案是:
一种低照度图像迭代增强的方法,包括以下步骤:
S10,根据正常照度图像,建立空间模型;所述的空间模型包括一组正常照度图像,以及由该组图像训练得到的R通道模型、G通道模型、B通道模型;
S20,将低照度目标图像与空间模型中的当前组正常照度图像进行匹配,筛选出整体匹配度最高的图像,并计算整体匹配度最高的图像中每一个像素点的信任度值;
S30,将低照度目标图像中每一个像素点的RGB值、整体匹配度最高的图像中该像素点的RGB值以及该像素点的信任度值构成三元组,分别利用R通道模型、G通道模型、B通道模型获取低照度目标图像中矫正后的RGB值;
S40,利用矫正后的RGB值更新低照度目标图像;
S50,重复步骤S20至S40,直至更新后的低照度目标图像与空间模型中的当前组正常照度图像的匹配结果满足预设条件,输出增强后的目标图像。
与现有技术相比,本发明具备以下有益效果:
效果1:本发明结合监控图像特点建立空间模型,改进已有图像处理算法,使之可以更加适用于监控场景,减少图像分析处理的计算量,提高效率。
效果2:本发明采用整体匹配与色彩匹配相结合的方式,对不同的匹配度部分赋予不同的权重,细化至R、G、B三通道进行修改,在较大幅度上提高图像的亮度与清晰度的同时避免了因图像处理而导致的色差等问题。
效果3:本发明利用BP神经网络进行直方图函数推导,提高了算法的精确度与运算速度,使低照度图像处理结果更加接近当前场景下正常照度的情景。
效果4:本发明可以由用户自定义设置取样时间,取样数量和主动取样等,使其可以适用于不同的场景,例如夜晚、暗室、阴天等环境中,具有普适性。
附图说明
图1是本方法的步骤图;
图2是建立当前场景空间模型的流程图;
图3是图像整体匹配与色彩匹配的流程图;
图4是利用BP神经网络训练流程图;
图5是本发明实施例中采用5张正常照度图像迭代修正低照度目标图像的效果;
图6是本实施例中与目标像素点距离不大于2的邻近像素点示意图。
具体实施方式
以下结合附图和具体实施对本发明进行详细描述,但不作为对本发明的限定。
如图1,本方法的实现步骤如下:
A:将监控图像读入图像库,建立空间模型:
根据正常照度图像,建立空间模型;所述的空间模型包括一组正常照度图像,以及由该组图像训练得到的R通道模型、G通道模型、B通道模型。本实施例中,如图2所示,正常照度图像根据预设的拍摄时间及更新时间,进行自动拍摄和更新,更新后的一组正常照度图像会覆盖更新前的图像;所述的R通道模型、G通道模型、B通道模型均由更新后的一组正常照度图像训练得到。
所述的R通道模型、G通道模型、B通道模型的训练过程为:
利用BP神经网络,其中隐含层按照经验公式进行选取:
h=log2m
其中m为输入层结点数目,取值为3;采用sigmoid函数作为激活函数。
采用批量学习模式进行训练,流程如图4所示。
以正常照度图像M1与M2的像素点的R通道数值以及信任度作为输入层,训练神经网络,得到相应映射值。G通道与B通道同理。通过矫正度判断是否训练完毕。
本实施例中,利用摄像头自动拍摄或主动输入一组正常照度图像,分别获取每张图像每个像素点的R、G、B通道数值;
以R通道模型的训练为例,输入正常照度图像M1的像素点的R通道数值r1,输入正常照度图像M2的同一位置像素点的R通道数值r2,输入信任度t,计算公式为:
舍弃t小于等于0.85的像素点,进行BP神经网络模型训练,以矫正后的R通道数值r3作为输出;在训练过程中,循环输入M1和M2的所有像素点数值进行训练,训练后将矫正值赋给M1相应像素点;
再输入正常照度图像M3,与图像M1重复执行以上步骤;
以矫正度c作为训练标准,计算公式为:
当c大于等于0.95时,标记该像素点训练完毕,当图像M1的98%的像素点训练完毕时,标记该神经网络训练完毕,得到训练好的R通道模型;
训练G通道的BP神经网络和训练B通道的BP神经网络的过程同上。
B:将低照度图像与空间模型中的正常照度图像进行匹配:
将低照度目标图像与空间模型中的当前组正常照度图像进行匹配,筛选出整体匹配度最高的图像,并计算整体匹配度最高的图像中每一个像素点的信任度值;具体为:
如图3所示,首先将低照度目标图像与当前组正常照度图像进行整体匹配,以二者的R、G、B像素差之和作为整体匹配度,计算公式为:
D(i)=|Ri-ri|+|Gi-gi|+|Bi-bi|
其中,D(i)为两张图像在同一位置的像素点i的差值,Ri、Gi、Bi分别为低照度目标图像像素点i的R、G、B数值,ri、gi、bi分别为正常照度图像相同位置像素点i的R、G、B数值;m为有效像素点的个数,本实施例中m取值为2000;M1为整体匹配度,M1值越小,整体匹配度越高,因此将M1值最小的图像作为整体匹配度最高的图像。本实施例中,计算得到每一个像素点的D(i)值之后,剔除150个最大的D(i)值对应的像素点,以及150个最小的D(i)值对应的像素点,将留下的2000个像素点作为有效像素点。
其次,针对低照度目标图像中的任一像素点i,获取像素点i的邻近像素点集合Qi,所述邻近像素点集合中的所有像素点与该像素点i的距离均不大于阈值d*,将像素点i的邻近像素点集合Qi中的像素点个数记为|Qi|。像素点之间的距离计算公式为:
D=|x-s|+|y-t|
其中,(x,y)为目标像素点位置,(s,t)为邻近像素点位置。本实施中,阈值d*的取值为2,以图6为例,标记为0的点表示目标像素点,标记为1的点为与目标像素点的距离为1的邻近像素点,标记为2的点为与目标像素点的距离为2的邻近像素点。本实施例中,以图6为例,|Qi|取值为12。
之后,将图像由RGB通道转换至HSI颜色空间,得到图像中每一个像素点的H值;转换公式为:
其中,Ri、Gi、Bi分别为像素点i的R、G、B数值,θi为像素点i对应的转换参数,Hi为像素点i对应的H值。
计算该像素点i的色彩匹配度方差,公式为:
其中,Si2表示低照度目标图像和整体匹配度最高的图像中的像素点i的色彩匹配度方差,Hi表示低照度目标图像中的像素点i的H值,hi表示整体匹配度最高的图像中相对应像素点i的H值。
最后,计算整体匹配度最高的图像中的每一个像素点的信任度值,计算公式为:
其中,Ti表示像素点i的信任度值。
C:按照匹配结果得到低照度目标图像每一个像素点矫正后的RGB值:
将低照度目标图像中每一个像素点的RGB值、整体匹配度最高的图像中该像素点的RGB值以及该像素点的信任度值构成三元组,分别利用R通道模型、G通道模型、B通道模型获取低照度目标图像中矫正后的RGB值。具体为:
将低照度目标图像中每一个像素点的Ri值,以及与该像素点对应的标准图像的ri值,以及该像素点i对应的信任度Ti值构成三元组(Ri,ri,Ti);
将三元组作为R通道模型的输入,输出矫正后的Ri值;
重复步骤S31-步骤S32,分别将三元组(Gi,gi,Ti)作为G通道模型的输入,输出矫正后的Gi值;将三元组(Bi,bi,Ti)作为B通道模型的输入,输出矫正后的Bi值;
遍历低照度目标图像中的所有像素点,获取每一个像素点矫正后的RGB值。
D:利用矫正后的RGB值更新低照度目标图像:
E:重复步骤A至D,直至更新后的低照度目标图像与空间模型中的当前组正常照度图像的匹配结果满足预设条件,输出增强后的目标图像。即:在一次低照度图像处理后,以处理后的图像为目标再次进行匹配,选取匹配度最高的图像后再次进行调整,进行迭代增强。
本实施例中采用的预设条件为:当更新后的低照度目标图像与空间模型中的当前组正常照度图像经过S21中的整体匹配步骤后,匹配结果M1低于阈值。
图5展示了本实施例中经迭代增强之后的效果图,五张正常照度图像为基准,进行低照度图像迭代增强,显示其三次迭代效果与五次迭代效果。
以上列举的仅是本发明的具体实施例。显然,本发明不限于以上实施例,还可以有许多变形。本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。
Claims (7)
1.一种低照度图像迭代增强的方法,其特征在于,包括以下步骤:
S10,根据正常照度图像,建立空间模型;所述的空间模型包括一组正常照度图像,以及由该组图像训练得到的R通道模型、G通道模型、B通道模型;
所述的步骤S10包括:
S11,利用摄像头自动拍摄或主动输入一组正常照度图像,分别获取每张图像每个像素点的R、G、B通道数值;
S12,分别利用图像的R、G、B数值训练三个BP神经网络模型:
训练R通道的BP神经网络时,输入正常照度图像M1的像素点的R通道数值r1,输入正常照度图像M2的同一位置像素点的R通道数值r2,输入信任度t,计算公式为:
舍弃t小于等于0.85的像素点,进行BP神经网络模型训练,以矫正后的R通道数值r3作为输出;在训练过程中,循环输入M1和M2的所有像素点数值进行训练,训练后将矫正值赋给M1相应像素点;
再输入正常照度图像M3,与图像M1重复执行以上步骤;
以矫正度c作为训练标准,计算公式为:
当c大于等于0.95时,标记该像素点训练完毕,当图像M1的98%的像素点训练完毕时,标记该神经网络训练完毕,得到训练好的R通道模型;
训练G通道的BP神经网络和训练B通道的BP神经网络的过程同上;
S20,将低照度目标图像与空间模型中的当前组正常照度图像进行匹配,筛选出整体匹配度最高的图像,并计算整体匹配度最高的图像中每一个像素点的信任度值;
所述的步骤S20包括:
S21,将低照度目标图像与当前空间模型中的一组正常照度图像进行整体匹配,以二者的R、G、B像素差之和作为整体匹配度,计算公式为:
D(i)=|Ri-ri|+|Gi-gi|+|Bi-bi|
其中,D(i)为两张图像在同一位置的像素点i的差值,Ri、Gi、Bi分别为低照度目标图像像素点i的R、G、B数值,ri、gi、bi分别为正常照度图像相同位置像素点i的R、G、B数值;m为有效像素点的个数;M1为整体匹配度,M1值越小,整体匹配度越高,因此将M1值最小的图像作为整体匹配度最高的图像;
S22,针对低照度目标图像中的任一像素点i,获取像素点i的邻近像素点集合Qi,所述邻近像素点集合中的所有像素点与该像素点i的距离均不大于d*,将像素点i的邻近像素点集合Qi中的像素点个数记为|Qi|;
S23,将图像由RGB通道转换至HSI颜色空间,得到图像中每一个像素点的H值;计算该像素点i的色彩匹配度方差,公式为:
其中,Si2表示低照度目标图像和整体匹配度最高的图像中的像素点i的色彩匹配度方差,Hi表示低照度目标图像中的像素点i的H值,hi表示整体匹配度最高的图像中相对应像素点i的H值;
S24,计算整体匹配度最高的图像中的每一个像素点的信任度值,计算公式为:
其中,Ti表示像素点i的信任度值;
S30,将低照度目标图像中每一个像素点的RGB值、整体匹配度最高的图像中该像素点的RGB值以及该像素点的信任度值构成三元组,分别利用R通道模型、G通道模型、B通道模型获取低照度目标图像中矫正后的RGB值;
S40,利用矫正后的RGB值更新低照度目标图像;
S50,重复步骤S20至S40,直至更新后的低照度目标图像与空间模型中的当前组正常照度图像的匹配结果满足预设条件,输出增强后的目标图像。
2.根据权利要求1所述的低照度图像迭代增强的方法,其特征在于,步骤S10中所述的正常照度图像根据预设的拍摄时间及更新时间,进行自动拍摄和更新,更新后的一组正常照度图像会覆盖更新前的图像;所述的R通道模型、G通道模型、B通道模型均由更新后的一组正常照度图像训练得到。
3.根据权利要求1所述的低照度图像迭代增强的方法,其特征在于,步骤S21中计算得到每一个像素点的D(i)值之后,剔除p个最大的D(i)值对应的像素点,以及p个最小的D(i)值对应的像素点,将留下的像素点作为有效像素点。
4.根据权利要求1所述的低照度图像迭代增强的方法,其特征在于,步骤S50所述的预设条件为:当更新后的低照度目标图像与空间模型中的当前组正常照度图像经过S21中的整体匹配步骤后,匹配结果M1低于阈值。
5.根据权利要求1所述的低照度图像迭代增强的方法,其特征在于,步骤S23所述的将图像由RGB通道转换至HSI颜色空间,转换公式为:
其中,Ri、Gi、Bi分别为像素点i的R、G、B数值,θi为像素点i对应的转换参数,Hi为像素点i对应的H值。
6.根据权利要求1所述的低照度图像迭代增强的方法,其特征在于,步骤S22中像素点之间的距离计算公式为:
D=|x-s|+|y-t
其中,(x,y)为目标像素点位置,(s,t)为邻近像素点位置。
7.根据权利要求1所述的低照度图像迭代增强的方法,其特征在于,步骤S30包括:
S31,将低照度目标图像中每一个像素点的Ri值,以及与该像素点对应的标准图像的ri值,以及该像素点i对应的信任度Ti值构成三元组(Ri,ri,Ti);
S32,将三元组作为R通道模型的输入,输出矫正后的Ri值;
S33,重复步骤S31-步骤S32,分别将三元组(Gi,gi,Ti)作为G通道模型的输入,输出矫正后的Gi值;将三元组(Bi,bi,Ti)作为B通道模型的输入,输出矫正后的Bi值;
S34,遍历低照度目标图像中的所有像素点,获取每一个像素点矫正后的RGB值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110326774.3A CN113112418B (zh) | 2021-03-26 | 2021-03-26 | 一种低照度图像迭代增强的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110326774.3A CN113112418B (zh) | 2021-03-26 | 2021-03-26 | 一种低照度图像迭代增强的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113112418A CN113112418A (zh) | 2021-07-13 |
CN113112418B true CN113112418B (zh) | 2023-10-10 |
Family
ID=76712485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110326774.3A Active CN113112418B (zh) | 2021-03-26 | 2021-03-26 | 一种低照度图像迭代增强的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113112418B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102665034A (zh) * | 2012-03-16 | 2012-09-12 | 江苏华枫物联网科技有限公司 | 一种针对摄像机采集视频的夜间效果去除方法 |
CN103020924A (zh) * | 2012-12-13 | 2013-04-03 | 武汉大学 | 基于相似场景的低照度监控图像增强方法 |
CN111163268A (zh) * | 2020-01-09 | 2020-05-15 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置以及计算机存储介质 |
CN111741211A (zh) * | 2019-03-25 | 2020-10-02 | 华为技术有限公司 | 图像显示方法和设备 |
CN112365425A (zh) * | 2020-11-24 | 2021-02-12 | 中国人民解放军陆军炮兵防空兵学院 | 一种低照度图像增强方法和系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10424054B2 (en) * | 2015-06-26 | 2019-09-24 | Peking University Shenzhen Graduate School | Low-illumination image processing method and device |
WO2019019086A1 (zh) * | 2017-07-27 | 2019-01-31 | 深圳市大疆创新科技有限公司 | 增强图像对比度的方法、设备及存储介质 |
-
2021
- 2021-03-26 CN CN202110326774.3A patent/CN113112418B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102665034A (zh) * | 2012-03-16 | 2012-09-12 | 江苏华枫物联网科技有限公司 | 一种针对摄像机采集视频的夜间效果去除方法 |
CN103020924A (zh) * | 2012-12-13 | 2013-04-03 | 武汉大学 | 基于相似场景的低照度监控图像增强方法 |
CN111741211A (zh) * | 2019-03-25 | 2020-10-02 | 华为技术有限公司 | 图像显示方法和设备 |
CN111163268A (zh) * | 2020-01-09 | 2020-05-15 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置以及计算机存储介质 |
CN112365425A (zh) * | 2020-11-24 | 2021-02-12 | 中国人民解放军陆军炮兵防空兵学院 | 一种低照度图像增强方法和系统 |
Non-Patent Citations (2)
Title |
---|
Retinex based low-light image enhancement using guided filtering and variational framework;ZHANG Shi等;《OPTOELECTRONICS LETTERS》;论文第0156-0160页 * |
基于色调映射的快速低照度图像增强;陈迎春;《计算机工程与应用》;论文第234-239页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113112418A (zh) | 2021-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11995800B2 (en) | Artificial intelligence techniques for image enhancement | |
CN111292264A (zh) | 一种基于深度学习的图像高动态范围重建方法 | |
CN110197463B (zh) | 基于深度学习的高动态范围图像色调映射方法及其系统 | |
CN107909562B (zh) | 一种基于像素级的快速图像融合算法 | |
KR20210139450A (ko) | 이미지 디스플레이 방법 및 디바이스 | |
CN107016647B (zh) | 全景图像色调一致性纠正方法及系统 | |
CN114972085B (zh) | 一种基于对比学习的细粒度噪声估计方法和系统 | |
CN113538223B (zh) | 噪声图像生成方法、装置、电子设备及存储介质 | |
WO2023086194A1 (en) | High dynamic range view synthesis from noisy raw images | |
CN114240767A (zh) | 一种基于曝光融合的图像宽动态范围处理方法及装置 | |
CN113228621B (zh) | 一种成像控制方法、系统和非暂时性计算机可读介质 | |
CN111311509A (zh) | 一种非正常曝光图像自适应校正方法 | |
CN111724447A (zh) | 一种图像处理方法、系统及电子设备和存储介质 | |
CN113112418B (zh) | 一种低照度图像迭代增强的方法 | |
US20210125318A1 (en) | Image processing method and apparatus | |
WO2022006556A1 (en) | Systems and methods of nonlinear image intensity transformation for denoising and low-precision image processing | |
CN112365425A (zh) | 一种低照度图像增强方法和系统 | |
CN116996781A (zh) | 一种相机参数调整方法及系统 | |
CN117115612A (zh) | 基于多传感器图像增强优化的多通道图像融合方法及系统 | |
CN107295261A (zh) | 图像去雾处理方法、装置、存储介质和移动终端 | |
CN114549386A (zh) | 一种基于自适应光照一致性的多曝光图像融合方法 | |
CN113409225A (zh) | 基于Retinex的无人机拍摄图像增强算法 | |
TW201804434A (zh) | 適應性高動態範圍影像合成演算法 | |
CN110827362A (zh) | 一种基于多项式相机响应函数与渐晕效应补偿的光度标定方法 | |
CN111899201B (zh) | 一种基于条件重增强网络的低照度图像增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |