CN107045713A - 基于census立体匹配的低照度图像增强方法 - Google Patents

基于census立体匹配的低照度图像增强方法 Download PDF

Info

Publication number
CN107045713A
CN107045713A CN201710236529.7A CN201710236529A CN107045713A CN 107045713 A CN107045713 A CN 107045713A CN 201710236529 A CN201710236529 A CN 201710236529A CN 107045713 A CN107045713 A CN 107045713A
Authority
CN
China
Prior art keywords
mrow
mtd
msub
mtr
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710236529.7A
Other languages
English (en)
Inventor
陈蓉
马昊辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Source Letter Photoelectric Polytron Technologies Inc
Original Assignee
Hunan Source Letter Photoelectric Polytron Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Source Letter Photoelectric Polytron Technologies Inc filed Critical Hunan Source Letter Photoelectric Polytron Technologies Inc
Priority to CN201710236529.7A priority Critical patent/CN107045713A/zh
Publication of CN107045713A publication Critical patent/CN107045713A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于census立体匹配的低照度图像增强方法。首先利用自适应权值的census变换和左右一致性检测准则获进行立体匹配获得视差图像;再针对原始图像的亮度图像,根据反映物体本身特性的视差图以及广义的双边滤波,估算出亮度图像的照度分量,从而结合Retinex原理求得亮度图像的反射分量,最后通过增强反射分量来突出图像的细节信息和对比度。本发明能处理效率高且效果良好,提高了低照度图像的对比度和细节信息,能有效提高后续图像分析工作的效率。

Description

基于census立体匹配的低照度图像增强方法
技术领域
本发明涉及计算机视觉领域,特指一种基于census立体匹配的低照度图像增强方法。
背景技术
图像在采集过程中,容易受到低照度等因素的影响,使得图像的视觉效果较差,不利于图像的后续处理。因此,在图像进行分割和识别之前,进行增强处理以获得满意的视觉效果是非常必要的。
图像增强技术就是把图像中对观测者有用的信息加以增强,是图像对比度更高,视觉效果更好。具有代表性的图像增强方法有灰度变换法、同态滤波、梯度域增强等方法。其中,灰度变换法运算速度块,有很好的实时性,但是往往没有考虑图像的频率以及细节信息,容易出现过增强现象;同态滤波法虽然可以很好地保持图像的原始面貌,但是没有充分考虑图像的局部特性,在增强图像某一部分像素时,导致另一部分过增强,而且实时性差。普通的采用单幅图像的图像增强算法,这类方法对图像全局进行统一处理,由于没有考虑场景物体的景深信息,不能充分校正不同景深区域的对比度和颜色。立体匹配是一种能够获取场景物体深度信息的可靠方法。在低照度情况下,很多经典的立体匹配算法进行立体匹配时会产生很多误匹配的现象,因为大多数立体匹配算法的相似测度都是基于像素的灰度值,即两幅图像中的统一特征点在理想光照条件下应该具有相同的灰度值。
发明内容:
针对上述现有技术存在的问题,面向低照度图像增强的问题,本发明提出一种基于census立体匹配的低照度图像增强方法。该方法将双目立体匹配原理引入到低照度的图像增强过程中,增强过程中考虑到场景物体的景深信息,充分校正不同景深区域的对比度和细节信息。该方法首先利用自适应权值的census变换进行双目立体匹配获得视差图像;再针对低照度原始图像的亮度图像,根据反映物体自身特性的视差结果以及广义双边滤波,估算出亮度图像的照度分量,从而结合Retinex原理求得亮度图像的反射分量;最后通过增强反射分量来突出图像的细节信息和对比度,实现了图像的增强。
为解决上述技术问题,本发明的技术方案是:
一种基于census立体匹配的低照度图像增强方法,包括以下步骤:
S1利用基于自适应权值的census变换进行立体匹配获得图像的视差信息;
S1.1求解census变换窗口内所有像素的灰度平均值,将平均值作为变换窗口中心像素的灰度值,根据新的中心像素值,得到census变换码;
S1.2采用自适应权值的方法获得窗口中心像素新的census变换码;
S1.3利用灰度差绝对值和方法进行匹配代价计算和匹配代价聚类,再通过赢者通吃算法获得图像全部像素点的视差;
S2结合S1中的视差信息和Retinex模型进行低照度图像增强;
S2.1将RGB空间转换到YCrCb空间,并提取亮度分量Y;
S2.2根据Retinex模型和视差信息,结合双边滤波器,提取亮度图像的照度分量和反射分量;
S2.3结合反射分量R(x)和S型函数进行图像局部特征增强;
S2.4结合S2.3处理后得到的亮度图像,将YCrCb空间转换到RGB颜色空间,获得最终增强后的图像。
进一步地,本发明步骤S1中还包括分步骤S1.4,利用左右一致性检测来优化步骤S1.3中视差结果。
本发明步骤S1.1通过以下方法实现:
假设census变换窗口中心像素为p(x,y),N(p)表示以p(x,y)为中心像素、大小为n×n的矩形变换窗口内的像素集合。为变换窗口所有像素灰度值的平均值,利用公式(1)求得,如下:
作为变换窗口中心像素点p(x,y)的新的像素值。
其中census变换映射关系为:
其中,p为p(x,y)的简称,p为变换窗口的中心像素,I(p)为其像素值,其值的大小为q表示以为p中心像素、大小为n×n的矩形变换窗口内的像素,I(q)为其像素值。
根据公式(2)可知:分别将n×n的矩形变换窗口内的像素与中心像素进行比较,可获得n×n的矩形变换窗口内中心像素点p(x,y)的census变换码str(p),此census变换码中码元都是由-1或是1组成。
本发明步骤S1.2通过以下方法实现:
自适应权值的计算公式为:
其中,Δcpq=|Ip-Iq| (5)
式中,Ip为像素点p的像素值,此处的Ip相等;点q是以点p为中心像素,大小为n×n的矩形变换窗口内的像素,Iq是点q的像素值;Δcpq为n×n的矩形变换窗口的中心像素p与n×n的矩形变换窗口内像素点q的色度差异值;常数C=65;γc为色差因子,γc=16。
因此,根据公式(4)的自适应权值的方法,公式(2)的census变换映射关系可写成:
根据公式(6)可知:分别将n×n的矩形变换窗口内的像素与中心像素进行比较,可获得n×n的矩形变换窗口内中心像素点p(x,y)的census变换码str'(p),此变换码中码元都是由w(p,q)或是-w(p,q)组成,其中w(p,q)的值可由公式(4)和(5)求得。
本发明步骤S1.3通过以下方法实现:
a.采用灰度差绝对值和作为进行立体匹配时两图像像素点的相似性测度,则两图像像素点的匹配代价为:
式中,str'(g)i为立体匹配过程中左图像中坐标为(x,y)的点g的Census变换码串的第i个值,str'(gd)i为立体匹配过程中位于右图像内与点g相匹配的坐标为(x-d,y)的点的gd的Census变换码串的第i个值。
b.采用基于临近点梯度判断法来确定匹配代价聚合时的聚合窗口的大小,其中采用的临近点梯度为:
式中,I(e1),I(e2)分别为最靠近匹配代价聚合窗口中心像素点e的左右两像素点的灰度值。
通过比较H(e)与设定阈值Th,确定匹配代价聚合窗口的大小,选取Th=3;如果公式(8)的临近点梯度值小于阈值Th,则可认为此时的中心像素不处于图像的边缘附近,匹配代价聚合窗口选择较大窗口13×13;否则匹配代价聚合窗口选择较小窗口5×5。
c.根据已经确定好的匹配代价聚合窗口,匹配代价的聚合公式如下:
式中,U为立体匹配过程中左图像中某一匹配代价聚合窗口中的中心像素点;V为以U为中心像素点的匹配代价聚合窗口内的其他像素点。N(U)表示匹配代价聚合窗口内的像素点,其匹配代价聚合窗口的大小采用公式(8)表示的方法确定。Ud表示立体匹配过程中位于右图像内与点U相匹配且视差结果为d的像素点。Vd为以Ud为中心像素的匹配代价聚合窗口内与点V相匹配的某像素点。N(Ud)表示匹配代价聚合窗口内的像素点,其匹配代价聚合窗口的大小采用公式(8)表示的方法确定。C'(V,Vd)表示两点V和Vd之间的匹配代价。
d.完成匹配代价聚合之后,通过赢者通吃算法获得视差图像
本发明S1.4中的左右一致性检测方法包括两个步骤,
第一步,遮挡检测。
若左图像中的一个像素点m,其视差为d1,点m在右图像中对应的视差为d2,当|d1-d2|>T时,则点m被标记为遮挡点。
第二步,遮挡过滤,即为对遮挡点重新赋值的过程。
以m点为起始点,分别从m点处水平向左和水平向右的方向找到第一个非遮挡点的视差值,分别记为ml、mr,则点m处的视差值被重新赋值成d(m):
d(m)=min(d(ml,mr)) (10)
通过左右一致性检测方法获得优化后的视差结果图D。
本发明步骤S2.1通过以下方法实现:
RGB与YCrCb之间的对应矩阵关系为:
由公式(11)可提取亮度分量Y。
步骤S2.2通过以下方法实现:
Retinex理论认为一幅图像I可分为两部分,即可表示为反射分量和照度分量的乘积,则亮度图像可表示为:
IY(x)=R(x)L(x) (12)
式中,IY(x)为亮度图像,亮度图像由步骤S2.1中提取的亮度分量组成;R(x)为反射分量;L(x)为照度分量;
获取反射分量的过程在对数域上进行:
log(R(x))=log(I(x))-log(L(x)) (13)
则可通过公式(12)对照度分量的准确估计来进行反射分量求解。采用结合图像像素视差值相似度和像素值相似度进行平滑操作,则照度分量的估算公式为:
其中,W为归一化系数:
式中,n是以像素m为中心像素的邻域像素点,邻域像素集合记为S。D(m)和D(n)分别表示像素点m和n处的视差值,其值由步骤S1中的方法求得。为高斯函数,表示随着视差值差异以及像素差值的增大,图像像素的权值逐渐减小。
则利用公式(12)-(14)可求得亮度图像的反射分量R(x)。
本发明步骤S2.3通过以下方法实现:
利用S型函数处理对亮度图像IY(x)进行非线性拉伸,即:
Rout=R×Is (17)
其中,IY是亮度函数IY(x)的简称;Is为亮度图像进行S型函数非线性拉伸的结果;R为步骤S2.2中求得的反射分量;Rout为增强后的反射分量。
本发明步骤S2.4中,YCrCb空间转换到RGB颜色空间的关系式为:
本发明步骤S1中将census变换窗口内的像素的平均值作为census变换的中心像素,再结合自适应权值方法获得窗口中心像素census变换码;再根据利用灰度差绝对值和方法进行匹配代价计算;在匹配代价聚类过程中,采用基于临近点梯度判断法来确定匹配代价聚合时的聚合窗口的大小,使匹配宽口内含有更多的“有用点”;最后利用左右一致性检测准则优化匹配结果,获得更加精确的视差图。
本发明步骤S2中针对原始图像的亮度图像,利用反映物体景深信息的视差图以及广义双边滤波,估算出亮度图像的照度分量,从而结合Retinex原理求得亮度图像的反射分量;最后通过增强反射分量来突出图像的对比度和细节信息,实现了图像的增强。增强过程中考虑到场景物体的景深信息,充分校正不同景深区域的对比度和细节信息。
附图说明:
图1是本发明第一步(利用基于自适应权值的census变换进行立体匹配获得图像的视差信息)的流程图;
图2是本发明第二步(结合S1中的视差信息和Retinex模型进行低照度图像增强)的流程图。
具体实施方式:
结合附图对本发明做进一步详细说明。
本发明提供了一种基于census立体匹配的低照度图像增强方法,其包括两大步骤。参照图1,是本发明第一步(利用基于自适应权值的census变换进行立体匹配获得图像的视差信息)的流程图,具体步骤如下:
在双目立体视觉系统中,通过对左右两幅图像进行特征匹配,可获得视差信息,视差信息可有效地反映图像物体的深度信息,则结合视差信息进行图像增强,可以有效地校正不同景深区域的对比度和颜色。绝大部分立体匹配算法的相似性测度过分依赖于图像灰度统计特性,使得在非理想的光照条件下并不能获得准确的视差结果。本实施案例中采用一种对光照变化不敏感的census变换进行立体匹配得到图像的视差信息。
S1.1求解census变换窗口内所有像素的灰度平均值,将平均值作为变换窗口中心像素的灰度值,根据新的中心像素值,得到census变换码;
census变换以某一个像素点为中心像素选择一个矩形变换窗口,再将矩形变换窗口内各邻域像素的灰度值分别与中心像素灰度值进行比较,获得相应的census变换码。传统的census变换过度依赖于变换窗口的中心像素点,为了避免中心像素点受到干扰时,census变换码会发生显著变化的现象,从而降低匹配精度,影响视差结果。本发明中求解census变换窗口所有像素的平均值作为变换窗口的中心像素点的像素值,方法如下:
假设census变换窗口中心像素为p(x,y),N(p)表示以p(x,y)为中心像素、大小为n×n的矩形变换窗口内的像素集合;为变换窗口所有像素灰度值的平均值,利用公式(1)求得。
作为变换窗口中心像素点p(x,y)的新的像素值。
本发明中census变换映射关系为:
其中,p为p(x,y)的简称,p为变换窗口的中心像素,I(p)为其像素值,其值的大小为q表示以p为中心像素、大小为n×n的矩形变换窗口内的像素,I(q)为其像素值。
利用公式(2)可获得n×n的矩形变换窗口内中心像素点p(x,y)的census变换码str(p),此变换码中码元都是由-1或是1组成。
S1.2采用自适应权值的方法获得窗口中心像素新的census变换码;
当变换窗口中心点处在深度连续区域时,窗口内其他点与中心点处于相似深度,色度差异小,即窗口中所有点为“有用点”,当窗口中心点处在深度不连续区域时,窗口内的某些点与中心点处在不同的深度,色度差异大,即窗口内所有点为“无用点”。为了使census变换窗口内的“有用点”和“无用点”对中心像素的支持权重不同,从而减少与中心像素点视差差异较大的像素对匹配质量的影响。本实施例中在census变换中引入自适应权重,根据相似性原则,聚合窗口内与待匹配像素颜色信息越接近的像素点分配越大的权重;根据接近性原则,变换窗口内与中心像素点空间距离越接近的像素点分配的权重越大。根据所述的两个原则,传统的自适应权值的计算公式为:
w(p,q)=f(Δcpq)×f(Δgpq) (3)
其中,f(Δcpq)为由颜色相似性而产生的权值分配函数;f(Δgpq)为由空间距离产生的权值分配函数。
由于census变换窗口一般较小,窗口邻域内的像素与窗口中心像素点的几何距离相差不大,因此由空间接近程度对census变换中的权重大小分配影响较小,所以可以采用常数C代替f(Δgpq),这样可以简化计算过程使得算法便于硬件实现。同样为了降低算法的复杂度,仅仅通过灰度颜色相似性来确定窗口的聚类强度,即仅通过灰度颜色相似性来确定f(Δcpq)。因此,本实施例中自适应权值的计算公式为:
其中,Δcpq=|Ip-Iq| (5)
式中,Ip为像素点p的像素值,此处的Ip相等;点q是以点p为中心像素,大小为n×n的矩形变换窗口内的像素,Iq是点q的像素值;Δcpq为窗口中心像素点p与窗口内像素点q的色度差异值;常数C=65;γc为色差因子,γc=16,其控制着灰度颜色相似程度对权值大小的影响。
因此,根据公式(4)的自适应权值的方法,公式(2)的census变换映射关系可写成:
利用公式(6)可获得n×n的矩形变换窗口内中心像素点p(x,y)的census变换码str'(p),此变换码中码元都是由w(p,q)或是-w(p,q)组成。
S1.3利用灰度差绝对值和方法进行匹配代价计算和匹配代价聚类,再通过赢者通吃算法获得图像全部像素点的视差;
本发明采用灰度差绝对值和作为进行立体匹配时两图像像素点的相似性测度,则两图像像素点的匹配代价为:
式中,str'(g)i为立体匹配过程中左图中坐标为(x,y)的点g的Census变换码串的第i个值,str'(pd)i为位于右图内与点g相匹配的坐标为(x-d,y)的点的gd的Census变换码串的第i个值。
当中心点变换窗口包含越多“有用点”时,该点的匹配精度越高;反之,该中心像素点容易发生误匹配。深度不连续区域往往出现在目标的边缘位置,与边缘垂直的,颜色相差明显,梯度较大。因此深度不连续区域往往有较大的梯度值。为了使聚合窗口内包含较少的“无用点”,进一步提高深度不连续区域的精度,采用基于临近点梯度判断法来确定匹配代价聚合时的聚合窗口的大小。本发明采用的临近点梯度为:
式中,I(e1),I(e2)分别为最靠近匹配代价聚合窗口中心点e的左右两像素点的灰度值。
通过比较H(e)与设定阈值Th,确定匹配代价聚合窗口的大小,选取Th=3。如果公式(8)的梯度值小于阈值Th,则可认为此时的中心像素不处于图像的边缘附近,选择较大窗口13×13;否则选择较小窗口5×5。
根据已经确定好的匹配代价聚合窗口,匹配代价的聚合公式如下:
式中,U为立体匹配过程中左图像中某一匹配代价聚合窗口中的中心像素点;V为以U为中心像素点的匹配代价聚合窗口内的其他像素点;N(U)表示匹配代价聚合窗口内的像素点,其窗口的大小采用公式(8)表示的方法确定;Ud表示立体匹配过程中位于右图像内与点U相匹配且视差结果为d的像素点;Vd为以Ud为中心像素的匹配代价聚合窗口内与点V相匹配的某像素点;N(Ud)表示匹配代价聚合窗口内的像素点,其窗口的大小采用公式(8)表示的方法确定;C'(V,Vd)表示两点V和Vd之间的匹配代价。
完成匹配代价聚合之后,通过赢者通吃算法获得视差图像
S1.4利用左右一致性检测来优化步骤S1.3中视差结果。
左右一致性校验主要目的是实现遮挡检测(LRC),遮挡是指只出现在一个图像上,而不出现在另外一幅图像上点。通过左右一致性校验来提高初始视差的精度主要分为两步,即遮挡检测和遮挡过滤。
第一步,遮挡检测。
若左图像中的一个像素点m,其视差为d1,点m在右图像中对应的视差为d2,当|d1-d2|>T时,则点m被标记为遮挡点。
第二步,遮挡过滤就是对遮挡点重新赋值的过程,即以m点为起始点,分别从m点处从水平向左和向右的方向找到第一个非遮挡点的视差值,记为ml、mr,则点m处的视差值被重新赋值成d(m):
d(m)=min(d(ml,mr)) (10)
通过左右一致性检测的优化方法获得更加理想的优化后的视差结果图D。
参照图2,是本发明第二步(结合S1中的视差信息和Retinex模型进行低照度图像增强)的流程图,具体步骤如下:
S2.1将RGB空间转换到YCrCb空间,并提取亮度分量Y;
RGB与YCrCb之间的对应矩阵关系为:
由公式(11)可提取亮度分量Y。
S2.2根据Retinex模型和视差信息,结合双边滤波器,提取亮度图像的照度分量和反射分量;
Retinex理论认为一幅图像I可分为两部分,即可表示为反射分量和照度分量的乘积,则亮度图像可表示为:
IY(x)=R(x)L(x) (12)
式中,IY(x)为亮度图像,亮度图像由步骤S2.1中提取的亮度分量组成;R(x)为反射分量;L(x)为照度分量。
其中,反射分量包含图像的大量细节,对获取的反射分量进行后续增强处理可以使增强后的图像更为清晰。Retinex原理的思想实际上就是去除或减少照度分量的影响,获得包含较多细节信息的反射分量。获取反射分量的过程在对数域上进行:
log(R(x))=log(I(x))-log(L(x)) (13)
则可通过公式(12)对照度分量的准确估计来进行反射分量求解。由于照度分量具有局部平滑的性质,因此对其的估计可以看作为平滑问题,本发明采用结合图像像素视差值相似度和像素值相似度进行平滑操作,则照度分量的估算公式为:
其中,W为归一化系数:
式中,n是以像素m为中心像素的邻域像素点,邻域像素集合记为S;D(m)和D(n)分别表示像素点m和n处的视差值,其值有步骤S1中的方法求得;为高斯函数,表示随着视差值差异以及像素差值的增大,图像像素的权值逐渐减小。
则利用公式(12)-(14)可求得亮度图像的反射分量R(x)。
S2.3结合反射分量R(x)和S型函数进行图像局部特征增强;
反射分量反映了图像的本质,对获取反射分量进行后续增强处理可以是增强图像的细节信息和边缘信息,提高图像可视化效果。
利用S型函数处理对亮度图像IY(x)进行非线性拉伸,即:
Rout=R×Is (17)
其中,IY是亮度函数IY(x)的简称,Is为亮度图像进行S型函数非线性拉伸的结果;R为步骤S2.2中求得的反射分量;Rout为增强后的反射分量。
S2.4结合处理后的亮度分量,将YCrCb空间转换到RGB颜色空间,获得最终增强后的图像。
YCrCb空间转换到RGB颜色空间的关系式为:
本发明在低照度图像增强过程中引入双目立体视觉匹配原理,将匹配得到的视差结果作为场景深度的先验信息,为构建广义双边滤波估算照度分量过程中,提供了反映物体本身特性的约束条件。该方法在增强低照度图像过程中考虑了场景的深度情况,充分校正了不同景深区域的对比度和图像的细节信息,增强了图像清晰度。
本发明中提出的方法实际上可嵌入FPGA实现,开发具有图像增强功能的相机或摄像机。
以上实施例仅起到解释本发明技术方案的作用,本发明所要求的保护范围并不局限于上述实施例所述的实现系统和具体实施步骤。因此,仅对上述实施例中具体的公式及算法进行简单替换,但其实质内容仍与本发明所述方法相一致的技术方案,均应属于本发明的保护范围。

Claims (10)

1.一种基于census立体匹配的低照度图像增强方法,其特征在于,包括以下步骤:
S1利用基于自适应权值的census变换进行立体匹配获得图像的视差信息;
S1.1求解census变换窗口内所有像素的灰度平均值,将平均值作为变换窗口中心像素的灰度值,根据新的中心像素值,得到census变换码;
S1.2采用自适应权值的方法获得窗口中心像素新的census变换码;
S1.3利用灰度差绝对值和方法进行匹配代价计算和匹配代价聚类,再通过赢者通吃算法获得图像全部像素点的视差;
S2结合S1中的视差信息和Retinex模型进行低照度图像增强;
S2.1将RGB空间转换到YCrCb空间,并提取亮度分量Y;
S2.2根据Retinex模型和视差信息,结合双边滤波器,提取亮度图像的照度分量和反射分量;
S2.3结合反射分量R(x)和S型函数进行图像局部特征增强;
S2.4结合S2.3处理后得到的亮度图像,将YCrCb空间转换到RGB颜色空间,获得最终增强后的图像。
2.根据权利要求1所述的基于census立体匹配的低照度图像增强方法,其特征在于,步骤S1.1通过以下方法实现:
假设census变换窗口中心像素为p(x,y),N(p)表示以p(x,y)为中心像素、大小为n×n的矩形变换窗口内的像素集合;为变换窗口所有像素灰度值的平均值,利用公式(1)求得,如下:
<mrow> <mover> <mi>I</mi> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <msup> <mi>n</mi> <mn>2</mn> </msup> </mfrac> <munder> <mo>&amp;Sigma;</mo> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> <mo>&amp;Element;</mo> <mi>N</mi> <mo>(</mo> <mi>P</mi> <mo>)</mo> </mrow> </munder> <mi>I</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>+</mo> <mi>i</mi> <mo>,</mo> <mi>y</mi> <mo>+</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
作为变换窗口中心像素点p(x,y)的新的像素值;
其中census变换映射关系为:
<mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>,</mo> <mi>q</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </mtd> <mtd> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>&amp;le;</mo> <mi>I</mi> <mrow> <mo>(</mo> <mi>q</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>&gt;</mo> <mi>I</mi> <mrow> <mo>(</mo> <mi>q</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
其中,p为p(x,y)的简称,p为变换窗口的中心像素,I(p)为其像素值,其值的大小为q表示以p为中心像素、大小为n×n的矩形变换窗口内的像素,I(q)为其像素值;
利用公式(2)可获得n×n的矩形变换窗口内中心像素点p(x,y)的census变换码str(p),此变换码中码元都是由-1或是1组成。
3.根据权利要求2所述的基于census立体匹配的低照度图像增强方法,其特征在于,步骤S1.2通过以下方法实现:
自适应权值的计算公式为:
<mrow> <mi>w</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>,</mo> <mi>q</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>C</mi> <mo>&amp;times;</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <msub> <mi>&amp;Delta;c</mi> <mrow> <mi>p</mi> <mi>q</mi> </mrow> </msub> </mrow> <msub> <mi>&amp;gamma;</mi> <mi>c</mi> </msub> </mfrac> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
其中,Δcpq=|Ip-Iq| (5)
式中,Ip为像素点p的像素值,此处的Ip相等;点q是以点p为中心像素,大小为n×n的矩形变换窗口内的像素,Iq是点q的像素值;Δcpq为n×n的矩形变换窗口的中心像素p与n×n的矩形变换窗口内像素点q的色度差异值;常数C=65;γc为色差因子,γc=16;
因此,根据公式(4)的自适应权值的方法,公式(2)的census变换映射关系可写成:
<mrow> <msup> <mi>f</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>p</mi> <mo>,</mo> <mi>q</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mo>-</mo> <mi>w</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>,</mo> <mi>q</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>&amp;le;</mo> <mi>I</mi> <mrow> <mo>(</mo> <mi>q</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>w</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>,</mo> <mi>q</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>&gt;</mo> <mi>I</mi> <mrow> <mo>(</mo> <mi>q</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>
利用公式(6)可获得n×n的矩形变换窗口内中心像素点p(x,y)的census变换码str'(p),此变换码中码元都是由w(p,q)或是-w(p,q)组成。
4.根据权利要求3所述的基于census立体匹配的低照度图像增强方法,其特征在于,步骤S1.3通过以下方法实现:
a.采用灰度差绝对值和作为进行立体匹配时两图像像素点的相似性测度,则两图像像素点的匹配代价为:
<mrow> <msup> <mi>C</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>g</mi> <mo>,</mo> <msub> <mi>g</mi> <mi>d</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <mo>|</mo> <mrow> <msup> <mi>str</mi> <mo>&amp;prime;</mo> </msup> <msub> <mrow> <mo>(</mo> <mi>g</mi> <mo>)</mo> </mrow> <mi>i</mi> </msub> <mo>-</mo> <msup> <mi>str</mi> <mo>&amp;prime;</mo> </msup> <msub> <mrow> <mo>(</mo> <msub> <mi>g</mi> <mi>d</mi> </msub> <mo>)</mo> </mrow> <mi>i</mi> </msub> </mrow> <mo>|</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
式中,str'(g)i为立体匹配过程中左图像中坐标为(x,y)的点g的Census变换码串的第i个值,str'(gd)i为立体匹配过程中位于右图像内与点g相匹配的坐标为(x-d,y)的点的gd的Census变换码串的第i个值;
b.采用基于临近点梯度判断法来确定匹配代价聚合时的聚合窗口的大小,其中采用的临近点梯度为:
<mrow> <mi>H</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mrow> <mo>(</mo> <mo>|</mo> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>I</mi> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> <mo>|</mo> <mo>,</mo> <mo>|</mo> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <mi>e</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>I</mi> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> </mrow> <mo>|</mo> <mo>)</mo> </mrow> </mrow> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <mo>|</mo> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>I</mi> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> <mo>|</mo> <mo>,</mo> <mo>|</mo> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <mi>e</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>I</mi> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> </mrow> <mo>|</mo> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
式中,I(e1),I(e2)分别为最靠近匹配代价聚合窗口中心像素点e的左右两像素点的灰度值;通过比较H(e)与设定阈值Th,确定匹配代价聚合窗口的大小,选取Th=3;如果公式(8)的临近点梯度值小于阈值Th,则可认为此时的中心像素不处于图像的边缘附近,匹配代价聚合窗口选择较大窗口13×13;否则匹配代价聚合窗口选择较小窗口5×5;
c.根据已经确定好的匹配代价聚合窗口,匹配代价的聚合公式如下:
<mrow> <msubsup> <mi>C</mi> <mi>s</mi> <mo>&amp;prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>U</mi> <mo>,</mo> <msub> <mi>U</mi> <mi>d</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>V</mi> <mo>&amp;Element;</mo> <mi>N</mi> <mrow> <mo>(</mo> <mi>U</mi> <mo>)</mo> </mrow> <mo>,</mo> <msub> <mi>V</mi> <mi>d</mi> </msub> <mo>&amp;Element;</mo> <mi>N</mi> <mrow> <mo>(</mo> <msub> <mi>U</mi> <mi>d</mi> </msub> <mo>)</mo> </mrow> </mrow> </munder> <msup> <mi>C</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>V</mi> <mo>,</mo> <msub> <mi>V</mi> <mi>d</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
式中,U为立体匹配过程中左图像中某一匹配代价聚合窗口中的中心像素点;V为以U为中心像素点的匹配代价聚合窗口内的其他像素点;N(U)表示匹配代价聚合窗口内的像素点,其匹配代价聚合窗口的大小采用公式(8)表示的方法确定;Ud表示立体匹配过程中位于右图像内与点U相匹配且视差结果为d的像素点;Vd为以Ud为中心像素的匹配代价聚合窗口内与点V相匹配的某像素点;N(Ud)表示匹配代价聚合窗口内的像素点,其匹配代价聚合窗口的大小采用公式(8)表示的方法确定;C'(V,Vd)表示两点V和Vd之间的匹配代价;
d.完成匹配代价聚合之后,通过赢者通吃算法获得视差图像
5.根据权利要求4所述的基于census立体匹配的低照度图像增强方法,其特征在于,步骤S1中还包括分步骤S1.4,利用左右一致性检测来优化步骤S1.3中视差结果。
6.根据权利要求5所述的基于census立体匹配的低照度图像增强方法,其特征在于,S1.4中的左右一致性检测方法包括两个步骤,
第一步,遮挡检测;
若左图像中的一个像素点m,其视差为d1,点m在右图像中对应的视差为d2,当|d1-d2|>T时,则点m被标记为遮挡点。
第二步,遮挡过滤,即为对遮挡点重新赋值的过程;
以m点为起始点,分别从m点处水平向左和水平向右的方向找到第一个非遮挡点的视差值,分别记为ml、mr,则点m处的视差值被重新赋值成d(m):
d(m)=min(d(ml,mr)) (10)
通过左右一致性检测方法获得优化后的视差结果图D。
7.根据权利要求1至6中任一权利要求所述的基于census立体匹配的低照度图像增强方法,其特征在于,步骤S2.1通过以下方法实现:
RGB与YCrCb之间的对应矩阵关系为:
<mrow> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>Y</mi> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>C</mi> <mi>r</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>C</mi> <mi>b</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mn>0.275</mn> </mtd> <mtd> <mn>0.504</mn> </mtd> <mtd> <mn>0.098</mn> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mn>0.148</mn> </mrow> </mtd> <mtd> <mrow> <mo>-</mo> <mn>0.291</mn> </mrow> </mtd> <mtd> <mn>0.439</mn> </mtd> </mtr> <mtr> <mtd> <mn>0.439</mn> </mtd> <mtd> <mrow> <mo>-</mo> <mn>0.368</mn> </mrow> </mtd> <mtd> <mrow> <mo>-</mo> <mn>0.071</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>&amp;times;</mo> <mo>(</mo> <mrow> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>R</mi> </mtd> </mtr> <mtr> <mtd> <mi>G</mi> </mtd> </mtr> <mtr> <mtd> <mi>B</mi> </mtd> </mtr> </mtable> </mfenced> <mo>+</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mn>16</mn> </mtd> </mtr> <mtr> <mtd> <mn>128</mn> </mtd> </mtr> <mtr> <mtd> <mn>128</mn> </mtd> </mtr> </mtable> </mfenced> </mrow> <mo>)</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> </mrow>
由公式(11)可提取亮度分量Y。
8.根据权利要求7所述的基于census立体匹配的低照度图像增强方法,其特征在于,步骤S2.2通过以下方法实现:
Retinex理论认为一幅图像I可分为两部分,即可表示为反射分量和照度分量的乘积,则亮度图像可表示为:
IY(x)=R(x)L(x) (12)
式中,IY(x)为亮度图像,亮度图像由步骤S2.1中提取的亮度分量组成;R(x)为反射分量;L(x)为照度分量;
获取反射分量的过程在对数域上进行:
log(R(x))=log(I(x))-log(L(x)) (13)
则可通过公式(13)对照度分量的准确估计来进行反射分量求解;采用结合图像像素视差值相似度和像素值相似度进行平滑操作,则照度分量的估算公式为:
<mrow> <mi>L</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mi>W</mi> </mfrac> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>n</mi> <mo>&amp;Element;</mo> <mi>S</mi> </mrow> </munder> <msub> <mi>G</mi> <msub> <mi>&amp;sigma;</mi> <mi>d</mi> </msub> </msub> <mrow> <mo>(</mo> <mo>|</mo> <mrow> <mi>D</mi> <mrow> <mo>(</mo> <mi>m</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>D</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mo>|</mo> <mo>)</mo> </mrow> <msub> <mi>G</mi> <msub> <mi>&amp;sigma;</mi> <mi>r</mi> </msub> </msub> <mrow> <mo>(</mo> <mo>|</mo> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <mi>m</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>I</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mo>|</mo> <mo>)</mo> </mrow> <mi>I</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>14</mn> <mo>)</mo> </mrow> </mrow>
其中,W为归一化系数:
<mrow> <mi>W</mi> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>n</mi> <mo>&amp;Element;</mo> <mi>S</mi> </mrow> </munder> <msub> <mi>G</mi> <msub> <mi>&amp;sigma;</mi> <mi>d</mi> </msub> </msub> <mrow> <mo>(</mo> <mo>|</mo> <mrow> <mi>D</mi> <mrow> <mo>(</mo> <mi>m</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>D</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mo>|</mo> <mo>)</mo> </mrow> <msub> <mi>G</mi> <msub> <mi>&amp;sigma;</mi> <mi>r</mi> </msub> </msub> <mrow> <mo>(</mo> <mo>|</mo> <mrow> <mi>D</mi> <mrow> <mo>(</mo> <mi>m</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>D</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mo>|</mo> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>15</mn> <mo>)</mo> </mrow> </mrow>
式中,n是以像素m为中心像素的邻域像素点,邻域像素集合记为S;D(m)和D(n)分别表示像素点m和n处的视差值,其值由步骤S1中的方法求得;为高斯函数,表示随着视差值差异以及像素差值的增大,图像像素的权值逐渐减小;
则利用公式(12)-(14)可求得亮度图像的反射分量R(x)。
9.根据权利要求8所述的基于census立体匹配的低照度图像增强方法,其特征在于,步骤S2.3通过以下方法实现:
利用S型函数处理对亮度图像IY(x)进行非线性拉伸,即:
<mrow> <msub> <mi>I</mi> <mi>s</mi> </msub> <mo>=</mo> <msub> <mi>I</mi> <mi>Y</mi> </msub> <mo>+</mo> <msub> <mi>I</mi> <mi>Y</mi> </msub> <mo>&amp;times;</mo> <mfrac> <mn>1</mn> <mrow> <mo>(</mo> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mo>(</mo> <mrow> <mo>-</mo> <msub> <mi>I</mi> <mi>Y</mi> </msub> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>16</mn> <mo>)</mo> </mrow> </mrow> 3
Rout=R×Is (17)
其中,IY是亮度函数IY(x)的简称;Is为亮度图像进行S型函数非线性拉伸的结果;R为步骤S2.2中求得的反射分量;Rout为增强后的反射分量。
10.根据权利要求9所述的基于census立体匹配的低照度图像增强方法,其特征在于,步骤S2.4中YCrCb空间转换到RGB颜色空间的关系式为:
<mrow> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>R</mi> </mtd> </mtr> <mtr> <mtd> <mi>G</mi> </mtd> </mtr> <mtr> <mtd> <mi>B</mi> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <mo>-</mo> <mn>0.001</mn> </mrow> </mtd> <mtd> <mn>1.402</mn> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <mo>-</mo> <mn>0.3441</mn> </mrow> </mtd> <mtd> <mrow> <mo>-</mo> <mn>0.7141</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mn>1.772</mn> </mtd> <mtd> <mn>0.001</mn> </mtd> </mtr> </mtable> </mfenced> <mo>&amp;times;</mo> <mo>(</mo> <mrow> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>Y</mi> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>C</mi> <mi>r</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>C</mi> <mi>b</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mn>16</mn> </mtd> </mtr> <mtr> <mtd> <mn>128</mn> </mtd> </mtr> <mtr> <mtd> <mn>128</mn> </mtd> </mtr> </mtable> </mfenced> </mrow> <mo>)</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>18</mn> <mo>)</mo> </mrow> <mo>.</mo> </mrow> 4
CN201710236529.7A 2017-04-12 2017-04-12 基于census立体匹配的低照度图像增强方法 Pending CN107045713A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710236529.7A CN107045713A (zh) 2017-04-12 2017-04-12 基于census立体匹配的低照度图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710236529.7A CN107045713A (zh) 2017-04-12 2017-04-12 基于census立体匹配的低照度图像增强方法

Publications (1)

Publication Number Publication Date
CN107045713A true CN107045713A (zh) 2017-08-15

Family

ID=59544900

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710236529.7A Pending CN107045713A (zh) 2017-04-12 2017-04-12 基于census立体匹配的低照度图像增强方法

Country Status (1)

Country Link
CN (1) CN107045713A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785240A (zh) * 2017-11-13 2019-05-21 中国移动通信有限公司研究院 一种低照度图像增强方法、装置及图像处理设备
CN114119422A (zh) * 2021-12-03 2022-03-01 深圳大学 无参考低照度内窥镜图像质量增强方法、系统及相关组件
CN115587950A (zh) * 2022-11-03 2023-01-10 昆山腾云达信息咨询技术服务中心(有限合伙) 一种微光增强色彩恢复方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103366354A (zh) * 2012-03-27 2013-10-23 富士通株式会社 用于立体匹配的方法和系统
CN103646396A (zh) * 2013-11-29 2014-03-19 清华大学深圳研究生院 双目立体匹配算法的匹配代价算法和非局部立体匹配算法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103366354A (zh) * 2012-03-27 2013-10-23 富士通株式会社 用于立体匹配的方法和系统
CN103366354B (zh) * 2012-03-27 2016-09-07 富士通株式会社 用于立体匹配的方法和系统
CN103646396A (zh) * 2013-11-29 2014-03-19 清华大学深圳研究生院 双目立体匹配算法的匹配代价算法和非局部立体匹配算法
CN103646396B (zh) * 2013-11-29 2016-08-17 清华大学深圳研究生院 双目立体匹配算法的匹配代价算法和非局部立体匹配算法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
TENGTENG: "色彩空间转换原理介绍", 《HTTPS://WWW.DOCIN.COM/P-223967524.HTML?_T_T_T=0.47613724337057295》 *
周旺尉: "基于自适应权重Census变换的立体匹配算法的研究及FPGA实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
宋菲菲 等: "基于双目立体视觉的图像增强", 《图像与多媒体》 *
朴燕 等: "低照度环境下视频增强技术", 《红外与激光工程》 *
赵杰 等: "基于改进 Census 变换的局部立体匹配算法", 《电视技术》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785240A (zh) * 2017-11-13 2019-05-21 中国移动通信有限公司研究院 一种低照度图像增强方法、装置及图像处理设备
CN114119422A (zh) * 2021-12-03 2022-03-01 深圳大学 无参考低照度内窥镜图像质量增强方法、系统及相关组件
CN114119422B (zh) * 2021-12-03 2022-07-15 深圳大学 无参考低照度内窥镜图像质量增强方法、系统及相关组件
CN115587950A (zh) * 2022-11-03 2023-01-10 昆山腾云达信息咨询技术服务中心(有限合伙) 一种微光增强色彩恢复方法
CN115587950B (zh) * 2022-11-03 2023-09-26 昆山腾云达信息咨询技术服务中心(有限合伙) 一种微光增强色彩恢复方法

Similar Documents

Publication Publication Date Title
CN107767413B (zh) 一种基于卷积神经网络的图像深度估计方法
CN107154023B (zh) 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法
Nalpantidis et al. Biologically and psychophysically inspired adaptive support weights algorithm for stereo correspondence
CN108875935B (zh) 基于生成对抗网络的自然图像目标材质视觉特征映射方法
CN104867135B (zh) 一种基于指导图像引导的高精度立体匹配方法
WO2018000752A1 (zh) 一种基于多尺度cnn和连续crf的单目图像深度估计方法
CN101635859B (zh) 一种实现平面视频转立体视频的方法和装置
CN110148181A (zh) 一种通用双目立体匹配方法
CN111798400A (zh) 基于生成对抗网络的无参考低光照图像增强方法及系统
CN108648161A (zh) 非对称核卷积神经网络的双目视觉障碍物检测系统及方法
CN106651853B (zh) 基于先验知识和深度权重的3d显著性模型的建立方法
CN109255358B (zh) 一种基于视觉显著性和深度图的3d图像质量评价方法
CN105374039B (zh) 基于轮廓锐度的单目图像深度信息估计方法
CN102098528B (zh) 一种平面图像的立体转换方法及装置
CN106355608B (zh) 基于可变权重代价计算与S-census变换的立体匹配方法
CN110070574B (zh) 一种基于改进PSMNet的双目视觉立体匹配方法
KR20110014067A (ko) 스테레오 컨텐트의 변환 방법 및 시스템
CN103325120A (zh) 一种快速自适应支持权值双目视觉立体匹配方法
CN107045713A (zh) 基于census立体匹配的低照度图像增强方法
CN102223545B (zh) 一种快速多视点视频颜色校正方法
CN117576402A (zh) 一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法
CN110889868A (zh) 一种结合梯度和纹理特征的单目图像深度估计方法
CN104143203A (zh) 一种图像编辑传播方法
Guo et al. Adaptive estimation of depth map for two-dimensional to three-dimensional stereoscopic conversion
CN105528772B (zh) 一种基于指导性滤波的图像融合方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170815