CN112053394A - 图像处理方法、装置、电子设备及存储介质 - Google Patents
图像处理方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112053394A CN112053394A CN202010676768.6A CN202010676768A CN112053394A CN 112053394 A CN112053394 A CN 112053394A CN 202010676768 A CN202010676768 A CN 202010676768A CN 112053394 A CN112053394 A CN 112053394A
- Authority
- CN
- China
- Prior art keywords
- region
- optimized
- target
- disparity map
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 16
- 238000003672 processing method Methods 0.000 title claims abstract description 10
- 238000000034 method Methods 0.000 claims abstract description 17
- 238000005457 optimization Methods 0.000 claims abstract description 13
- 238000001514 detection method Methods 0.000 claims description 38
- 238000004891 communication Methods 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000001914 filtration Methods 0.000 claims description 12
- 238000009499 grossing Methods 0.000 claims description 8
- 230000000877 morphologic effect Effects 0.000 claims description 8
- 230000002146 bilateral effect Effects 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 3
- 238000013527 convolutional neural network Methods 0.000 description 17
- 238000012549 training Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/155—Segmentation; Edge detection involving morphological operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20028—Bilateral filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
Abstract
本申请实施例提供了图像处理方法、装置、电子设备及存储介质,该方法包括:确定所有用于确定待优化区域的区域,所有用于确定待优化区域的区域包括以下项中的至少一项:至少一个低置信度区域、至少一个与弱纹理区域相对应的区域、至少一个与重复纹理区域相对应的区域;基于所有用于确定待优化区域的区域,确定视差图中的待优化区域;对待优化区域中的像素的视差值进行优化,得到经过优化的视差图。实现了准确地确定视差图中的待优化区域,对视差图中的待优化区域中的像素的视差值进行优化,以对视差图进行准确地优化,得到具有较好的优化效果的经过优化的视差图。
Description
技术领域
本申请涉及计算机领域,具体涉及图像处理方法、装置、电子设备及存储介质。
背景技术
双目立体视觉在工业检测、航空航天、机器人导航等领域均得到了广泛的运用。双目立体视觉通过计算同一场景下空间点在两个图像上的视差来恢复场景的三维深度信息。
立体匹配是双目立体视觉中的关键环节,立体匹配的结果直接影响三维重构效果,立体匹配依赖于视差图。
在通过立体匹配算法对用于生成视差图的两个图像进行立体匹配得到的视差图中,经常出现在视差图中的与用于生成视差图的图像中的一些区域例如弱纹理区域相对应的区域中的视差值不准确的情况。因此,在计算出视差图之后,如何准确地确定视差图中的需要优化的待优化区域,对视差图中的待优化区域中的像素的视差值进行优化成为一个需要解决的问题。
发明内容
本申请实施例提供一种图像处理方法、装置、电子设备及存储介质。
本申请实施例提供一种图像处理方法,包括:
确定视差图中的所有用于确定待优化区域的区域,所有用于确定待优化区域的区域包括以下项中的至少一项:至少一个低置信度区域、至少一个与弱纹理区域相对应的区域、至少一个与重复纹理区域相对应的区域,其中,低置信度区域通过用于生成所述视差图的立体匹配算法输出的视差图的置信度矩阵而确定,弱纹理区域、重复纹理区域通过对用于生成所述视差图的图像分别进行弱纹理区域检测、重复纹理区域检测而确定;
基于所有用于确定待优化区域的区域,确定视差图中的待优化区域;
对所述待优化区域中的像素的视差值进行优化,得到经过优化的视差图。
在一些实施例中,基于所有用于确定待优化区域的区域,确定所述视差图中的待优化区域包括:
确定所有用于确定待优化区域的区域的并集;
将确定的并集确定为待优化区域。
在一些实施例中,对所述待优化区域中的像素的视差值进行优化,得到经过优化的视差图包括:
利用连通域提取算法确定所述待优化区域中的所有连通区域;
确定所有连通区域中的目标连通区域;
对于每一个目标连通区域,对所述目标连通区域进行形态学梯度提取,以确定所述目标连通区域的边缘;基于所述目标连通区域的边缘占据的区域中的像素的原始视差值,计算所述目标连通区域中的每一个像素的目标视差值;将所述目标连通区域中的每一个像素的视差值修改为每一个像素的目标视差值。
在一些实施例中,确定所有连通区域中的目标连通区域包括:
将所有连通区域中的面积大于面积阈值的连通区域确定为目标连通区域。
在一些实施例中,基于所述目标连通区域的边缘占据的区域中的像素的原始视差值,计算所述目标连通区域中的每一个像素的目标视差值包括:
基于所述目标连通区域的边缘占据的区域中的所有目标像素的原始视差值,计算所述目标连通区域中的每一个像素的目标视差值,其中,目标像素为具有的原始视差值处于预设合理区间内的像素。
在一些实施例中,基于所述目标连通区域的边缘占据的区域中的所有目标像素的原始视差值,计算所述目标连通区域中的每一个像素的目标视差值包括:
计算所述目标连通区域的边缘占据的区域中的所有目标像素的原始视差值的平均值;将所述平均值作为所述目标连通区域中的每一个像素的目标视差值。
在一些实施例中,所述方法还包括:
获取用于生成视差图的图像中的与经过优化的视差图中的待平滑区域相对应的区域的特征信息;
基于所述特征信息,利用引导滤波算法和快速双边滤波算法对经过优化的视差图中的待平滑区域进行平滑处理。
本申请实施例提供一种图像处理装置,包括:
关联区域确定单元,被配置为确定所有用于确定待优化区域的区域,所有用于确定待优化区域的区域包括以下项中的至少一项:至少一个低置信度区域、至少一个与弱纹理区域相对应的区域、至少一个与重复纹理区域相对应的区域,其中,低置信度区域基于用于生成所述视差图的立体匹配算法输出的所述视差图的置信度矩阵而确定,弱纹理区域、重复纹理区域通过对用于生成所述视差图的图像分别进行弱纹理区域检测、重复纹理区域检测而确定;
待优化区域确定单元,被配置为基于所有用于确定待优化区域的区域,确定视差图中的待优化区域;
视差图优化单元,被配置为对所述待优化区域中的像素的视差值进行优化,得到经过优化的视差图。
在一些实施例中,待优化区域确定单元进一步被配置为确定所有用于确定待优化区域的区域的并集;将确定的并集确定为待优化区域。
在一些实施例中,视差图优化单元包括:
连通区域优化子单元,被配置为利用连通域提取算法确定所述待优化区域中的所有连通区域;确定所有连通区域中的目标连通区域;对于每一个目标连通区域,对所述目标连通区域进行形态学梯度提取,以确定所述目标连通区域的边缘;基于所述目标连通区域的边缘占据的区域中的像素的原始视差值,计算所述目标连通区域中的每一个像素的目标视差值;将所述目标连通区域中的每一个像素的视差值修改为每一个像素的目标视差值。
在一些实施例中,连通区域优化子单元进一步被配置为将所有连通区域中的面积大于面积阈值的连通区域确定为目标连通区域。
在一些实施例中,连通区域优化子单元进一步被配置为基于所述目标连通区域的边缘占据的区域中的所有目标像素的原始视差值,计算所述目标连通区域中的每一个像素的目标视差值,其中,目标像素为具有的原始视差值处于预设合理区间内的像素。
在一些实施例中,连通区域优化子单元进一步被配置为计算所述目标连通区域的边缘占据的区域中的所有目标像素的原始视差值的平均值;将所述平均值作为所述目标连通区域中的每一个像素的目标视差值。
在一些实施例中,图像处理装置还包括:
平滑单元,被配置为获取用于生成视差图的图像中的与经过优化的视差图中的待平滑区域相对应的区域的特征信息;
基于所述特征信息,利用引导滤波算法和快速双边滤波算法对经过优化的视差图中的待平滑区域进行平滑处理。
本申请实施例提供的图像处理方法、装置,实现了考虑了视差图中的低置信度区域、视差图中的与弱纹理区域相对应的区域、视差图中的与重复纹理区域相对应的区域与待处理区域的关联性,基于包括以下项中的至少一项的所有用于确定待优化区域的区域:至少一个低置信度区域、至少一个与弱纹理区域相对应的区域、至少一个与重复纹理区域相对应的区域,准确地确定视差图中的待优化区域,对待优化区域中的像素的视差值进行优化,以对视差图进行准确地优化,得到具有较好的优化效果的经过优化的视差图。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1示出了本申请实施例提供的图像处理方法的流程图;
图2示出了确定视差图中的待优化区域的流程示意图;
图3示出了对视差图中的待优化区域中的像素的视差值进行优化的流程示意图;
图4示出了本申请实施例提供的图像处理装置的结构框图;
图5示出了本申请实施例提供的电子设备的结构框图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了本申请实施例提供的图像处理方法的流程图,该方法包括:
步骤101,确定视差图中的所有用于确定待优化区域的区域。
在本申请中,所有用于确定待优化区域的区域包括以下项中的至少一项:至少一个低置信度区域、至少一个与弱纹理区域相对应的区域、至少一个与重复纹理区域相对应的区域。
在本申请中,若视差图包括低置信度区域,则视差图中的低置信度区域可以作为用于确定用于确定待优化区域的区域。若用于生成视差图的图像包括弱纹理区域,相应的,视差图包括与弱纹理区域相对应的区域,则视差图中的与弱纹理区域相对应的区域可以作为用于确定待优化区域的区域。若用于生成视差图的图像包括重复纹理区域,相应的,视差图包括与重复纹理区域相对应的区域,则视差图中的与重复纹理区域相对应的区域可以作为用于确定待优化区域的区域。
视差图通过立体匹配算法对用于生成该视差图的左侧RGB图像和用于生成该视差图的右侧RGB图像进行立体匹配而生成。视差图中的每一个像素的像素值各自为一个视差值,因此,可以将视差图中的像素的像素值称之为像素的视差值。
立体匹配算法可以为SGBM、BM等传统的立体匹配算法,也可以为基于卷积神经网络的立体匹配算法。
立体匹配算法的输出结果包括视差图和视差图的置信度矩阵。
置信度矩阵中的置信度矩阵元素与视差图中的像素的视差值一一对应。置信度矩阵中的置信度矩阵元素的取值为置信度矩阵元素对应的视差图中的像素的视差值的置信度。
对于视差图中的每一个像素,该像素的视差值在视差图中的位置与该像素对应的置信度矩阵元素在置信度矩阵中的位置相同,该像素对应的置信度矩阵元素的取值为该像素的视差值的置信度。
视差图中的低置信度区域为视差图中的包括的像素的置信度均小于置信度阈值的区域。视差图中的低置信度区域的数量可以为一个或多个。
可以根据在置信度矩阵描述的视差图中的每一个像素的置信度、置信度阈值,确定视差图中的所有具有的视差值的置信度小于置信度阈值的像素。根据视差图中的所有具有的视差值的置信度小于置信度阈值的像素的位置,确定出视差图中的至少一个低置信度区域。
在本申请中,弱纹理区域可以是指用于生成视差图的左侧RGB图像中的弱纹理区域。重复纹理区域可以是指用于生成视差图的左侧RGB图像中的重复纹理区域。
在本申请中,可以对用于生成视差图的左侧RGB图像进行弱纹理区域检测,以确定用于生成视差图的左侧RGB图像中的弱纹理区域。可以对用于生成视差图的左侧RGB图像进行重复纹理区域检测,以确定用于生成该视差图的左侧RGB图像中的重复纹理区域。
在用于生成视差图的左侧RGB图像包括弱纹理区域时,确定出的弱纹理区域的数量可以为一个或多个,换言之,用于生成视差图的左侧RGB图像可以包括一个或多个弱纹理区域。在用于生成视差图的左侧RGB图像包括重复纹理区域时,确定出的重复纹理区域的数量可以为一个或多个,换言之,用于生成视差图的左侧RGB图像可以包括一个或多个重复纹理区域。
在弱纹理区域的数量为多个时,每一个弱纹理区域各自对应视差图中的一个区域。在重复纹理区域的数量为多个时,每一个重复纹理区域各自对应视差图中的一个区域。
视差图中的每一个像素各自对应用于生成该视差图的左侧RGB图像中的一个像素。
对于每一个弱纹理区域,视差图中的与该弱纹理区域相对应的区域中的所有像素由该弱纹理区域中的每一个像素各自对应的视差图中的像素组成,视差图中的与该弱纹理区域相对应的区域为所有该弱纹理区域中的每一个像素各自对应的像素占据的区域组成。因此,对于每一个弱纹理区域,在通过弱纹理区域检测来确定该弱纹理区域之后,可以确定视差图中的与该弱纹理区域相对应的区域。
对于每一个重复纹理区域,视差图中的与该重复纹理区域相对应的区域中的所有像素由该重复纹理区域中的每一个像素各自对应的视差图中的像素组成。因此,对于每一个重复纹理区域,在在通过重复纹理区域检测来确定该重复纹理区域之后,可以确定视差图中的与该重复纹理区域相对应的区域。
在本申请中,可以利用第一像素级检测卷积神经网络对用于生成视差图的图像进行弱纹理区域检测,以确定用于生成视差图的图像中的弱纹理区域。可以利用第二像素级检测卷积神经网络对用于生成视差图的图像进行重复纹理区域检测,以确定用于生成视差图的图像中的重复纹理区域。
第一像素级检测卷积神经网络、第二像素级检测卷积神经网络均为用于语义分割的神经网络,第一像素级检测卷积神经网络、第二像素级检测卷积神经网络的结构相同。
在本申请中,可以利用第一像素级检测卷积神经网络对用于生成该视差图的左侧RGB图像进行弱纹理区域检测,以确定用于生成该视差图的左侧RGB图像中的弱纹理区域。
预先利用训练图像对第一像素级检测卷积神经网络进行训练。对第一像素级检测卷积神经网络进行训练所利用的训练图像中的每一个弱纹理区域被标注。
将用于生成该视差图的左侧RGB图像输入到第一像素级检测卷积神经网络,第一像素级检测卷积神经网络输出的检测结果可以为指示用于生成该视差图的左侧RGB图像中的每一个像素是否属于弱纹理区域的图像。从而,根据该检测结果,可以确定至少一个弱纹理区域。
在本申请中,可以利用第二像素级检测卷积神经网络对用于生成该视差图的左侧RGB图像进行重复纹理区域检测,以确定用于生成该视差图的左侧RGB图像中的重复纹理区域。
预先利用训练对第二像素级检测卷积神经网络进行训练。对第二像素级检测卷积神经网络进行训练所利用的训练图像中的重复纹理区域被标注。
将用于生成该视差图的左侧RGB图像输入到第二像素级检测卷积神经网络,第二像素级检测卷积神经网络输出的检测结果可以为指示用于生成该视差图的左侧RGB图像中的每一个像素是否属于重复纹理区域的图像。从而,根据该检测结果,可以确定至少一个重复纹理区域。
步骤102,基于所有用于确定待优化区域的区域,确定视差图中的待优化区域。
在本申请中,在基于所有用于确定待优化区域的区域,确定视差图中的待优化区域时,可以对于所有用于确定待优化区域的区域中的每一个独立区域,将该独立区域作为视差图中的待优化区域的一个子区域。
当弱纹理区域的数量为多个时,每一个与弱纹理区域相对应的区域各自对应一个弱纹理区域。
当重复纹理区域的数量为多个时,每一个与重复纹理区域相对应的区域各自对应一个重复纹理区域。
独立区域可以是指所有用于确定待优化区域中的、不与所有用于确定待优化区域中的任意一个其他的区域具有重叠部分的区域。
非独立区域可以是指所有用于确定待优化区域中的、与所有用于确定待优化区域中的至少一个其他的区域具有重叠部分的区域。
在所有用于确定待优化区域的区域中的任意两个区域均无重叠的情况下,所有用于确定待优化区域的区域中的每一个区域均为独立区域,视差图中的待优化区域由所有用于确定待优化区域的区域组成,即视差图中的待优化区域包括所有用于确定待优化区域的区域。
例如,所有用于确定待优化区域的区域包括:至少一个低置信度区域、至少一个与弱纹理区域相对应的区域、至少一个与重复纹理区域相对应的区域。在所有用于确定待优化区域的区域中的任意两个区域均无重叠的情况下,每一个低置信度区域均为独立区域、视差图中的每一个与弱纹理区域相对应的区域均为独立区域、视差图中的每一个与重复纹理区域相对应的区域均为独立区域,则视差图中的待优化区域由视差图中的每一个低置信度区域、视差图中的每一个与弱纹理区域相对应的区域、视差图中的每一个与重复纹理区域相对应的区域组成。
在所有用于确定待优化区域的区域包括至少两个非独立区域的情况下,可以将每一个同时属于至少两个非独立区域的重叠部分各自作为视差图中的待优化区域的一个子区域。
在所有用于确定待优化区域的区域包括至少两个非独立区域的情况下,视差图中的待优化区域可以由每一个独立区域、每一个同时属于至少两个非独立区域的重叠部分组成。视差图中的待优化区域可以包括:每一个独立区域、每一个同时属于至少两个非独立区域的重叠部分。
在一些实施例中,基于视差图中的所有用于确定待优化区域的区域,确定该视差图中的待优化区域包括:确定所有用于确定待优化区域的区域的并集;将确定的并集确定为视差图中的待优化区域。
在所有用于确定待优化区域的区域中的任意两个区域均无重叠的情况下,所有用于确定待优化区域的区域的并集即为所有用于确定待优化区域的区域,可以将所有用于确定待优化区域的区域的并集作为待优化区域,换言之,待优化区域由所有用于确定待优化区域的区域组成。
例如,所有用于确定待优化区域的区域包括:至少一个低置信度区域、至少一个与弱纹理区域相对应的区域、至少一个与重复纹理区域相对应的区域。在所有用于确定待优化区域的区域中的任意两个区域均无重叠的情况下,所有用于确定待优化区域的区域的并集由视差图中的每一个低置信度区域、视差图中的每一个与弱纹理区域相对应的区域、视差图中的每一个与重复纹理区域相对应的区域组成,则视差图中的待优化区域包括:视差图中的每一个低置信度区域、视差图中的每一个与弱纹理区域相对应的区域、视差图中的每一个与重复纹理区域相对应的区域。
在所有用于确定待优化区域的区域包括至少两个非独立区域的情况下,所有用于确定待优化区域的区域的并集由每一个独立区域、每一个同时属于至少两个非独立区域的重叠部分、每一个仅属于一个非独立区域并且不是重叠部分的部分组成。则视差图中的待优化区域包括:每一个独立区域、每一个同时属于至少两个非独立区域的重叠部分、每一个仅属于一个非独立区域并且不是重叠部分的部分。
请参考图2,其示出了确定待优化区域的流程示意图。
待优化区域也可称之为视差不准确区域。可以根据置信度矩阵、置信度阈值确定视差图中的低置信度区域。
可以首先生成低置信度mask。低置信度mask中的每一个像素各自对应视差图中的一个像素。
在低置信度mask中,对于每一个与属于低置信度区域的像素相对应的像素,该像素像素值为指示其对应的像素属于低置信度区域的数值1。对于除了所有与属于低置信度区域的像素相对应的像素之外的每一个像素,该像素像素值为指示其对应的像素不属于低置信度区域的数值0。
在低置信度mask中,对于每一个像素值为0并且其对应的视差图中的像素属于与弱纹理区域相对应的区域或与重复纹理区域相对应的区域的像素,将该像素的像素值修改为1,以得到待优化区域掩码图像。
待优化区域掩码图像可以称之为待优化区域mask。
待优化区域mask中的每一个像素各自对应视差图中的一个像素。
在待优化区域mask中,与待优化区域中的像素相对应的像素的像素值为指示其对应的像素属于待优化区域的数值1,与非待优化区域中的像素相对应的像素的像素值为指示其对应的像素不属于待优化区域的数值0。
视差图中的待优化区域中的所有像素由待优化区域mask中的每一个具有的像素值为1的像素各自对应的像素组成。因此,在得到待优化区域mask之后,可以确定视差图中的待优化区域。
步骤103,对待优化区域中的像素的视差值进行优化,得到经过优化的视差图。
在本申请中,在确定视差图中的待优化区域之后,对待优化区域中的像素的视差值进行优化。
视差图中的每一个像素各自具有一个原始视差值。在对待优化区域中的像素的视差值进行优化时,可以对于待优化区域中的每一个像素,确定该像素的目标视差值,将该像素的视差值修改为目标视差值。从而,该像素的视差值由该像素的原始视差值变成该像素的目标视差值。
在将视差图的待优化区域中的每一个像素的像素值分别修改为相应的目标视差值之后,得到经过优化的视差图。
在对于待优化区域中的每一个像素,确定该像素的目标视差值时,可以对于待优化区域中的每一个像素,查找视差图中的与该像素距离最近并且不属于待优化区域的有效视差像素,可以将该查找出的有效视差像素的视差值作为该像素的目标像素值。
在一些实施例中,还包括:获取用于生成视差图的图像中的与经过优化的视差图中的待平滑区域相对应的区域的特征信息;基于该特征信息,利用引导滤波算法和快速双边滤波算法对经过优化的视差图中的待平滑区域进行平滑处理。
与经过优化的视差图中的待平滑区域相对应的区域可以为用于生成该视差图的左侧RGB图像中的拍摄主体占据的区域。
例如,在人像模式下,与经过优化的视差图中的待平滑区域相对应的区域可以为用于生成该视差图的左侧RGB图像中的人像占据人像区域。换言之,经过优化的视差图中的待平滑区域对应用于生成该视差图的左侧RGB图像中的人像区域。
用于生成视差图的图像中的与经过优化的视差图中的待平滑区域相对应的区域的特征信息为在对经过优化的视差图中的待平滑区域进行平滑处理时所基于的信息。
例如,与经过优化的视差图中的待平滑区域相对应的区域为用于生成该视差图的左侧RGB图像中的人像区域,特征信息可以为用于生成该视差图的左侧RGB图像中的人像区域中的每一个像素的梯度。
可以基于用于生成视差图的图像中的与经过优化的视差图中的待平滑区域相对应的区域的特征信息,利用引导滤波算法和快速双边滤波算法对经过优化的视差图中的待平滑区域进行平滑处理。从而,使得经过优化的视差图更加平滑,尤其在边缘区域变化不突兀并且保持良好的一致性。
在一些实施例中,对待优化区域中的像素的视差值进行优化,得到经过优化的视差图包括:利用连通域提取算法确定待优化区域中的所有连通区域;确定所有连通区域中的目标连通区域;对于每一个目标连通区域,对该目标连通区域进行形态学梯度提取,以确定该目标连通区域的边缘;基于该目标连通区域的边缘占据的区域中的像素的原始视差值,计算该目标连通区域中的每一个像素的目标视差值;将目标连通区域中的每一个像素的视差值修改为每一个像素的目标视差值。
在利用连通域提取算法确定待优化区域中的每一个连通区域时,可以利用连通域提取算法基于视差图对应的待优化区域掩码图像即待优化区域mask,确定待优化掩码区域中的每一个连通区域。待优化区域中的每一个像素各自对应的待优化区域掩码图像中的像素的像素值均为1,通过待优化区域掩码图像,可以快速地定位视差图中的待优化区域。然后,可以利用连通域提取算法对视差图中的待优化区域进行连通区域提取,确定视差图中的待优化区域中的每一个连通区域。
在本申请中,在确定待优化区域中的每一个连通区域之后,可以确定待优化区域中的目标连通区域。
在本申请中,每一个连通区域可以各自作为一个目标连通区域。
在一些实施例中,确定所有连通区域中的目标连通区域包括:将所有连通区域中的面积大于面积阈值的连通区域确定为目标连通区域。
通过将所有连通区域中的面积大于面积阈值的连通区域确定为目标连通区域,可以剔除面积较小的连通区域,被剔除的连通区域可以称之为非有效区域。
在本申请中,在确定所有连通区域中的目标连通区域之后,对于每一个目标连通区域,可以对该目标连通区域进行形态学梯度提取,以确定该目标连通区域的边缘;基于该目标连通区域的边缘占据的区域中的像素的原始视差值,计算该目标连通区域中的每一个像素的目标视差值;将该目标连通区域中的每一个像素的视差值修改为每一个像素的目标视差值。
对于每一个目标连通区域,对该目标连通区域进行形态学梯度提取,来计算该目标连通区域的膨胀图与该连通区域的腐蚀图之差,以确定该目标连通区域的边缘。
在确定每一个目标连通区域的边缘之后,可以对于每一个目标连通区域,基于该目标连通区域的边缘占据的区域中的像素的原始视差值,计算该目标连通区域中的每一个像素的目标视差值。
例如,对于每一个目标连通区域,可以确定该目标连通区域的边缘占据的区域中的所有像素的原始视差值中的中位数或该目标连通区域的边缘占据的区域中的所有像素的平均值,将该中位数或该平均值作为该目标连通区域中的每一个像素的目标视差值,该目标连通区域中的每一个像素的目标视差值均为该中位数或该平均值。
在对于每一个目标连通区域,计算该目标连通区域中的每一个像素的目标视差值之后,可以对于每一个目标连通区域,将该目标连通区域中的每一个像素的视差值修改为每一个像素的目标视差值,即对于每一个目标连通区域分别进行视差值填充,将该目标连通区域中的每一个像素的目标视差值填充到该像素的位置。对于任意一个目标连通区域中的每一个像素,该像素的视差值由原始的视差值变为目标视差值。
从而,对每一个目标连通区域中的像素的视差值进行优化,得到经过优化的视差图。
在一些实施例中,对于每一个目标连通区域,基于该目标连通区域的边缘占据的区域中的像素的原始视差值,计算该目标连通区域中的每一个像素的目标视差值包括:基于该目标连通区域的边缘占据的区域中的所有目标像素的原始视差值,计算该目标连通区域中的每一个像素的目标视差值,其中,目标像素为具有的原始视差值处于预设合理区间内的像素。
在本申请中,对于每一个目标连通区域,可以基于该目标连通区域的边缘占据的区域中的所有目标像素的原始视差值,计算连通区域中的每一个像素的目标视差值。
对于每一个目标连通区域,可以确定该目标连通区域的边缘占据的区域中的所有目标像素的原始视差值中的中位数,将该中位数作为该目标连通区域中的每一个像素的目标视差值,该目标连通区域中的每一个像素的目标视差值均为该中位数。
在一些实施例中,对于每一个目标连通区域,基于该目标连通区域的边缘占据的区域中的所有目标像素的原始视差值,计算该目标连通区域中的每一个像素的目标视差值包括:计算该目标连通区域的边缘占据的区域中的所有目标像素的原始视差值的平均值;将该平均值作为该目标连通区域中的每一个像素的目标视差值。
在本申请中,对于每一个目标连通区域,可以将该目标连通区域的边缘占据的区域中的所有目标像素的原始视差值的平均值作为该目标连通区域中的每一个像素的目标视差值,该目标连通区域中的每一个像素的目标视差值均为该目标连通区域的边缘占据的区域中的所有目标像素的原始视差值的平均值。
从而,对于每一个目标连通区域,在将目标连通区域中的每一个像素的视差值修改为每一个像素的目标视差值之后,该目标连通区域中的每一个像素的视差值由原始视差值变为该目标连通区域的边缘占据的区域中的所有目标像素的原始视差值的平均值。
请参考图3,其示出了对视差图中的待优化区域中的像素的视差值进行优化的流程示意图。
对视差图中的待优化区域中的像素的视差值进行优化也可称之为局部补偿算法。
首先利用连通域提取算法基于视差图对应的待优化区域掩码图像即待优化区域mask,确定待优化区域中的每一个连通区域。待优化区域中的每一个像素各自对应的待优化区域mask中的像素的像素值均为1,通过待优化区域mask,可以快速地定位待优化区域。然后,可以利用连通域提取算法对待优化区域进行连通区域提取,确定待优化区域中的每一个连通区域。
将所有连通区域中的面积大于面积阈值的连通区域确定为目标连通区域,从而,剔除面积较小的连通区域即非有效区域。
对于每一个目标连通区域,对该目标连通区域进行形态学梯度提取,以确定该目标连通区域的边缘。
对于每一个目标连通区域,可以将该目标连通区域的边缘占据的区域中的所有目标像素的原始视差值的平均值作为该目标连通区域中的每一个像素的目标视差值。
对每一个目标连通区域进行视差填充,即对于每一个目标连通区域,将该目标连通区域中的每一个像素的目标视差值填充到该像素的位置。对于每一个目标连通区域,该目标连通区域中的每一个像素的视差值由原始视差值变为该目标连通区域的边缘占据的区域中的所有目标像素的原始视差值的平均值。
请参考图4,其示出了本申请实施例提供的图像处理装置的结构框图。图像处理装置包括:关联区域确定单元401,待优化区域确定单元402,视差图优化单元403。
关联区域确定单元,被配置为确定视差图中的所有用于确定待优化区域的区域,所有用于确定待优化区域的区域包括以下项中的至少一项:至少一个低置信度区域、至少一个与弱纹理区域相对应的区域、至少一个与重复纹理区域相对应的区域,其中,低置信度区域基于用于生成所述视差图的立体匹配算法输出的所述视差图的置信度矩阵而确定,弱纹理区域、重复纹理区域通过对用于生成所述视差图的图像分别进行弱纹理区域检测、重复纹理区域检测而确定;
待优化区域确定单元,被配置为基于所有用于确定待优化区域的区域,确定视差图中的待优化区域;
视差图优化单元,被配置为对所述待优化区域中的像素的视差值进行优化,得到经过优化的视差图。
在一些实施例中,待优化区域确定单元进一步被配置为确定所有用于确定待优化区域的区域的并集;将确定的并集确定为所述视差图中的待优化区域。
在一些实施例中,视差图优化单元包括:
连通区域优化子单元,被配置为利用连通域提取算法确定所述待优化区域中的所有连通区域;确定所有连通区域中的目标连通区域;对于每一个目标连通区域,对所述目标连通区域进行形态学梯度提取,以确定所述目标连通区域的边缘;基于所述目标连通区域的边缘占据的区域中的像素的原始视差值,计算所述目标连通区域中的每一个像素的目标视差值;将所述目标连通区域中的每一个像素的视差值修改为每一个像素的目标视差值。
在一些实施例中,连通区域优化子单元进一步被配置为将所有连通区域中的面积大于面积阈值的连通区域确定为目标连通区域。
在一些实施例中,连通区域优化子单元进一步被配置为基于所述目标连通区域的边缘占据的区域中的所有目标像素的原始视差值,计算所述目标连通区域中的每一个像素的目标视差值,其中,目标像素为具有的原始视差值处于预设合理区间内的像素。
在一些实施例中,连通区域优化子单元进一步被配置为计算所述目标连通区域的边缘占据的区域中的所有目标像素的原始视差值的平均值;将所述平均值作为所述目标连通区域中的每一个像素的目标视差值。
在一些实施例中,图像处理装置还包括:
平滑单元,被配置为获取用于生成视差图的图像中的与经过优化的视差图中的待平滑区域相对应的区域的特征信息;
基于所述特征信息,利用引导滤波算法和快速双边滤波算法对经过优化的视差图中的待平滑区域进行平滑处理。
图5是本实施例提供的一种电子设备的结构框图。电子设备包括处理组件522,其进一步包括一个或多个处理器,以及由存储器532所代表的存储器资源,用于存储可由处理组件522执行的指令,例如应用程序。存储器532中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件522被配置为执行指令,以执行上述方法。
电子设备还可以包括一个电源组件526被配置为执行电子设备的电源管理,一个有线或无线网络接口550被配置为将电子设备连接到网络,和一个输入输出(I/O)接口558。电子设备可以操作基于存储在存储器532的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种包括指令的存储介质,例如包括指令的存储器,上述指令可由电子设备执行以完成上述方法。可选地,存储介质可以是非临时性计算机可读存储介质,例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (10)
1.一种图像处理方法,其特征在于,所述方法包括:
确定视差图中的所有用于确定待优化区域的区域,所有用于确定待优化区域的区域包括以下项中的至少一项:至少一个低置信度区域、至少一个与弱纹理区域相对应的区域、至少一个与重复纹理区域相对应的区域,其中,低置信度区域基于用于生成所述视差图的立体匹配算法输出的所述视差图的置信度矩阵而确定,弱纹理区域、重复纹理区域通过对用于生成所述视差图的图像分别进行弱纹理区域检测、重复纹理区域检测而确定;
基于所有用于确定待优化区域的区域,确定所述视差图中的待优化区域;
对所述待优化区域中的像素的视差值进行优化,得到经过优化的视差图。
2.根据权利要求1所述的方法,其特征在于,基于所有用于确定待优化区域的区域,确定所述视差图中的待优化区域包括:
确定所有用于确定待优化区域的区域的并集;
将确定的并集确定为所述视差图中的待优化区域。
3.根据权利要求1所述的方法,其特征在于,对所述待优化区域中的像素的视差值进行优化,得到经过优化的视差图包括:
利用连通域提取算法确定所述待优化区域中的所有连通区域;
确定所有连通区域中的目标连通区域;
对于每一个目标连通区域,对所述目标连通区域进行形态学梯度提取,以确定所述目标连通区域的边缘;基于所述目标连通区域的边缘占据的区域中的像素的原始视差值,计算所述目标连通区域中的每一个像素的目标视差值;将所述目标连通区域中的每一个像素的视差值修改为每一个像素的目标视差值。
4.根据权利要求3所述的方法,其特征在于,确定所有连通区域中的目标连通区域包括:
将所有连通区域中的面积大于面积阈值的连通区域确定为目标连通区域。
5.根据权利要求4所述的方法,其特征在于,基于所述目标连通区域的边缘占据的区域中的像素的原始视差值,计算所述目标连通区域中的每一个像素的目标视差值包括:
基于所述目标连通区域的边缘占据的区域中的所有目标像素的原始视差值,计算所述目标连通区域中的每一个像素的目标视差值,其中,目标像素为具有的原始视差值处于预设合理区间内的像素。
6.根据权利要求5所述的方法,其特征在于,基于所述目标连通区域的边缘占据的区域中的所有目标像素的原始视差值,计算所述目标连通区域中的每一个像素的目标视差值包括:
计算所述目标连通区域的边缘占据的区域中的所有目标像素的原始视差值的平均值;
将所述平均值作为所述目标连通区域中的每一个像素的目标视差值。
7.根据权利要求1-6之一所述的方法,其特征在于,所述方法还包括:
获取所述用于生成所述视差图的图像中的与经过优化的视差图中的待平滑区域相对应的区域的特征信息;
基于所述特征信息,利用引导滤波算法和快速双边滤波算法对经过优化的视差图中的待平滑区域进行平滑处理。
8.一种图像处理装置,其特征在于,所述装置包括:
关联区域确定单元,被配置为确定视差图中的所有用于确定待优化区域的区域,所有用于确定待优化区域的区域包括以下项中的至少一项:至少一个低置信度区域、至少一个与弱纹理区域相对应的区域、至少一个与重复纹理区域相对应的区域,其中,低置信度区域基于用于生成所述视差图的立体匹配算法输出的所述视差图的置信度矩阵而确定,弱纹理区域、重复纹理区域通过对用于生成所述视差图的图像分别进行弱纹理区域检测、重复纹理区域检测而确定;
待优化区域确定单元,被配置为基于所有用于确定待优化区域的区域,确定所述视差图中的待优化区域;
视差图优化单元,被配置为对所述待优化区域中的像素的视差值进行优化,得到经过优化的视差图。
9.一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至7中任一项所述的方法。
10.一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如权利要求1至7中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010676768.6A CN112053394A (zh) | 2020-07-14 | 2020-07-14 | 图像处理方法、装置、电子设备及存储介质 |
PCT/CN2021/075111 WO2022012034A1 (zh) | 2020-07-14 | 2021-02-03 | 图像处理方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010676768.6A CN112053394A (zh) | 2020-07-14 | 2020-07-14 | 图像处理方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112053394A true CN112053394A (zh) | 2020-12-08 |
Family
ID=73602728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010676768.6A Pending CN112053394A (zh) | 2020-07-14 | 2020-07-14 | 图像处理方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112053394A (zh) |
WO (1) | WO2022012034A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022012034A1 (zh) * | 2020-07-14 | 2022-01-20 | 北京迈格威科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN116563186A (zh) * | 2023-05-12 | 2023-08-08 | 中山大学 | 一种基于专用ai感知芯片的实时全景感知系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120206573A1 (en) * | 2010-09-02 | 2012-08-16 | Edge 3 Technologies, Inc. | Method and apparatus for determining disparity of texture |
CN103226821A (zh) * | 2013-04-27 | 2013-07-31 | 山西大学 | 基于视差图像素分类校正优化的立体匹配方法 |
CN104915927A (zh) * | 2014-03-11 | 2015-09-16 | 株式会社理光 | 视差图像优化方法及装置 |
WO2016176840A1 (zh) * | 2015-05-06 | 2016-11-10 | 北京大学深圳研究生院 | 深度图/视差图的后处理方法和装置 |
CN108596975A (zh) * | 2018-04-25 | 2018-09-28 | 华南理工大学 | 一种针对弱纹理区域的立体匹配算法 |
CN111402152A (zh) * | 2020-03-10 | 2020-07-10 | 北京迈格威科技有限公司 | 视差图的处理方法、装置、计算机设备和存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7561732B1 (en) * | 2005-02-04 | 2009-07-14 | Hrl Laboratories, Llc | Method and apparatus for three-dimensional shape estimation using constrained disparity propagation |
CN110443186B (zh) * | 2019-07-31 | 2022-04-15 | 深圳市道通智能航空技术股份有限公司 | 立体匹配方法、图像处理芯片及移动载具 |
CN112053394A (zh) * | 2020-07-14 | 2020-12-08 | 北京迈格威科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
-
2020
- 2020-07-14 CN CN202010676768.6A patent/CN112053394A/zh active Pending
-
2021
- 2021-02-03 WO PCT/CN2021/075111 patent/WO2022012034A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120206573A1 (en) * | 2010-09-02 | 2012-08-16 | Edge 3 Technologies, Inc. | Method and apparatus for determining disparity of texture |
CN103226821A (zh) * | 2013-04-27 | 2013-07-31 | 山西大学 | 基于视差图像素分类校正优化的立体匹配方法 |
CN104915927A (zh) * | 2014-03-11 | 2015-09-16 | 株式会社理光 | 视差图像优化方法及装置 |
WO2016176840A1 (zh) * | 2015-05-06 | 2016-11-10 | 北京大学深圳研究生院 | 深度图/视差图的后处理方法和装置 |
CN108596975A (zh) * | 2018-04-25 | 2018-09-28 | 华南理工大学 | 一种针对弱纹理区域的立体匹配算法 |
CN111402152A (zh) * | 2020-03-10 | 2020-07-10 | 北京迈格威科技有限公司 | 视差图的处理方法、装置、计算机设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
何树成;张丽红;: "基于像素分类校正优化的立体匹配算法", 测试技术学报, no. 05 * |
周自维;樊继壮;赵杰;刘晓丽;: "基于置信传播的立体匹配并行算法", 光学精密工程, no. 11 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022012034A1 (zh) * | 2020-07-14 | 2022-01-20 | 北京迈格威科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN116563186A (zh) * | 2023-05-12 | 2023-08-08 | 中山大学 | 一种基于专用ai感知芯片的实时全景感知系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2022012034A1 (zh) | 2022-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102319177B1 (ko) | 이미지 내의 객체 자세를 결정하는 방법 및 장치, 장비, 및 저장 매체 | |
Bui et al. | Single image dehazing using color ellipsoid prior | |
Feng et al. | Local background enclosure for RGB-D salient object detection | |
CN108197618B (zh) | 用于生成人脸检测模型的方法和装置 | |
CN108830780B (zh) | 图像处理方法及装置、电子设备、存储介质 | |
CN111340749B (zh) | 图像质量的检测方法、装置、设备及存储介质 | |
CN109377508B (zh) | 图像处理方法和装置 | |
EP2897101A1 (en) | Visual perception matching cost on binocular stereo images | |
US9386266B2 (en) | Method and apparatus for increasing frame rate of an image stream using at least one higher frame rate image stream | |
CN114359665B (zh) | 全任务人脸识别模型的训练方法及装置、人脸识别方法 | |
CN112053394A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN115984307A (zh) | 视频对象分割方法、装置、电子设备及存储介质 | |
CN113902932A (zh) | 特征提取方法、视觉定位方法及装置、介质和电子设备 | |
Srikakulapu et al. | Depth estimation from single image using defocus and texture cues | |
CN112991419B (zh) | 视差数据生成方法、装置、计算机设备及存储介质 | |
CN115731442A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN115330803A (zh) | 一种表面缺陷数据增强方法、装置、电子设备及存储介质 | |
CN114140320A (zh) | 图像迁移方法和图像迁移模型的训练方法、装置 | |
Mun et al. | Guided image filtering based disparity range control in stereo vision | |
US9361540B2 (en) | Fast image processing for recognition objectives system | |
KR101220003B1 (ko) | 시차 맵 생성 방법 | |
CN112184733A (zh) | 一种宫颈异常细胞检测装置及方法 | |
CN112233161B (zh) | 手部图像深度确定方法、装置、电子设备及存储介质 | |
CN111476821B (zh) | 基于在线学习的目标跟踪方法 | |
CN111630569A (zh) | 双目匹配的方法、视觉成像装置及具有存储功能的装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |