CN110223257B - 获取视差图的方法、装置、计算机设备和存储介质 - Google Patents
获取视差图的方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN110223257B CN110223257B CN201910500284.3A CN201910500284A CN110223257B CN 110223257 B CN110223257 B CN 110223257B CN 201910500284 A CN201910500284 A CN 201910500284A CN 110223257 B CN110223257 B CN 110223257B
- Authority
- CN
- China
- Prior art keywords
- point
- disparity map
- main
- map
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 113
- 238000012937 correction Methods 0.000 claims abstract description 27
- 238000004590 computer program Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000002715 modification method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种获取视差图的方法、装置、计算机设备和存储介质。该方法包括通过获取主视差图和副视差图,再确定主视差图中的不可信点所处的区域,并根据不可信点所处的区域,在副视差图中确定对应区域的边缘点;然后根据边缘点对主视差图中的不可信点进行修正,得到校正后的主视差图。在上述过程中,由于在主视差图的不可信点所处的区域范围内,副视差图中对应区域范围内的边缘点为可信点,因此,本申请提出的利用副视差图中的边缘点对主视差图中的不可信点进行修正的方法可以提高修正的准确性,又由于不可信点多为视差图中表示边缘信息的点,因此,本方案提高了获取主视差图中边缘信息的准确性,进而提高了获取视差图的准确性。
Description
技术领域
本申请涉及计算机视觉技术领域,尤其涉及一种获取视差图的方法、装置、计算机设备和存储介质。
背景技术
随着双目视觉技术的发展,利用立体匹配技术获取视差图,从而根据视差图上的信息构建物体的三维立体图的方法得到了普及应用。但是,在实际应用中,根据双目图像获取到的视差图中往往因遮挡或误匹配等因素,会产生视差图中的边缘信息的准确性不高的问题。
目前,优化视差图中边缘信息的方法主要是通过左右校对的方法,即具体包括:首先在视差图中找出不可信点,再在该视差图上搜索视差值最小的点或颜色最近的点对不可信点进行修正,从而得到优化后的视差图。
但是,利用上述优化方法得到的视差图中的边缘信息的准确性较低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够有效提高视差图中边缘信息准确性的获取视差图的方法、装置、计算机设备和存储介质。
第一方面,一种获取视差图的方法,所述方法包括:
获取主视差图和副视差图;
确定所述主视差图中的不可信点所处的区域;
根据所述不可信点所处的区域,在所述副视差图中确定对应区域的边缘点;
根据所述边缘点对所述主视差图中的不可信点进行修正,得到校正后的主视差图。
在其中一个实施例中,若所述主视差图为左视差图,所述副视差图为右视差图,
所述根据所述不可信点所处的区域,在所述副视差图中确定对应区域的边缘点,包括:根据所述不可信点所处的区域,在所述副视差图中确定对应区域的左边缘点。
在其中一个实施例中,若所述主视差图为右视差图,所述副视差图为左视差图,
所述根据所述不可信点所处的区域,在所述副视差图中确定对应区域的边缘点,包括:根据所述不可信点所处的区域,在所述副视差图中确定对应区域的右边缘点。
在其中一个实施例中,所述根据所述边缘点对所述主视差图中的不可信点进行修正,得到校正后的主视差图,包括:
使用所述边缘点的视差值替代所述主视差图中的不可信点的视差值,得到所述校正后的主视差图。
在其中一个实施例中,所述根据所述边缘点对所述主视差图中的不可信点进行修正,得到校正后的主视差图,包括:
将所述边缘点插值到所述主视差图中的不可信点所处的区域中,得到所述校正后的主视差图。
在其中一个实施例中,所述确定所述主视差图中的不可信点所处的区域,包括:
标记出所述主视差图中的不可信点;
根据所述不可信点所在位置,确定所述不可信点所处的区域。
在其中一个实施例中,所述标记出所述主视差图中的不可信点,包括:
对所述主视差图和所述副视差图的一致性进行检测,得到所述主视差图中的不一致点;
将所述不一致点确定为所述不可信点。
在其中一个实施例中,所述对所述主视差图和所述副视差图的一致性进行检测,得到所述主视差图中的不一致点,包括:
将所述视差图和所述副视差图中的各点的视差值进行比较,得到视差值不相同的点;
将所述视差值不相同的点作为所述不一致点。
在其中一个实施例中,所述方法还包括:
获取主图和副图;
采用立体匹配方法对所述主图和所述副图进行匹配处理,得到所述主视差图和所述副视差图。
在其中一个实施例中,所述采用立体匹配方法对所述主图和所述副图进行匹配处理,得到所述主视差图和所述副视差图,包括:
对所述主图和所述副图进行行校正处理,得到校正主图和校正副图;
采用所述立体匹配方法对所述校正主图和所述校正副图进行匹配处理,得到所述主视差图和所述副视差图。
第二方面,一种获取视差图的装置,所述装置包括:
获取模块,用于获取主视差图和副视差图;
第一确定模块,用于确定所述主视差图中的不可信点所处的区域;
第二确定模块,根据所述不可信点所处的区域,在所述副视差图中确定对应区域的边缘点;
修正模块,用于根据所述边缘点对所述主视差图中的不可信点进行修正,得到校正后的主视差图。
第三方面,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现第一方面任一实施例所述的获取视差图的方法。
第四方面,一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面任一实施例所述的获取视差图的方法。
本申请提供的一种获取视差图的方法、装置、计算机设备和存储介质,通过获取主视差图和副视差图,再确定主视差图中的不可信点所处的区域,并根据不可信点所处的区域,在副视差图中确定对应区域的边缘点;然后根据边缘点对主视差图中的不可信点所处的区域的边缘区域进行修正,得到校正后的主视差图。在上述获取视差图的过程中,由公知常识可知,在主视差图的不可信点所处区域范围内,副视差图中对应区域范围内的边缘点为可信点,因此,本申请提出的利用副视差图中的边缘点对主视差图中的不可信点进行修正的方法可以提高修正的准确性,又由于不可信点多为视差图中表示边缘信息的点,因此,本方案提高了获取主视差图中边缘信息的准确性。
附图说明
图1为一个实施例提供的一种计算机设备的内部结构示意图;
图2为一个实施例提供的一种获取视差图的方法的流程图;
图3为图2实施例中S102的另一种实现方式的流程图;
图4为图3实施例中S201的另一种实现方式的流程图;
图5为图4实施例中S301的另一种实现方式的流程图;
图6为一个实施例提供的一种获取视差图的方法的流程图;
图7为图6实施例中S502的另一种实现方式的流程图;
图8为一个实施例提供的一种获取视差图的方法的流程图;
图9为一个实施例提供的一种获取视差图的装置的结构示意图;
图10为一个实施例提供的一种获取视差图的装置的结构示意图;
图11为一个实施例提供的一种获取视差图的装置的结构示意图;
图12为一个实施例提供的一种获取视差图的装置的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请提供的获取视差图的方法,可以应用于如图1所示的计算机设备中。该计算机设备可以是终端,其内部结构图可以如图1所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种获取视差图的方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在现有的获取视差图的方法中,存在获取到的视差图中的边缘信息不准确的问题,基于这种情况,现有技术中存在对视差图中的边缘信息进行优化的方法,即具体包括:首先在视差图中标记出不可信点(若不可信点包括遮挡点和误匹配点),具体使用不同的标签标记出遮挡点和误匹配点,再对不可信点进行填充处理。其中,当填充遮挡点时,具体包括在遮挡点邻近区域中搜索找到视差值最小的点,再使用该视差值最小的点对遮挡点进行填充;当填充误匹配点时,具体包括在误匹配点邻近区域中搜索找到与该误匹配点颜色最近的点,再使用该颜色最近的点在误匹配点处进行填充,在完成上述填充操作后即可得到优化后的视差图。由上述过程可以看出,现有的对视差图的优化方法存在因过分依赖待优化视差图中的点的视差值信息和颜色信息,导致优化出的视差图中的边缘信息也不是很准确,因此,针对这一技术问题,本申请提供了一种能够克服该技术问题的获取视差图的方法、装置、计算机设备和存储介质。
下面将通过实施例并结合附图具体地对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
图2为一个实施例提供的一种获取视差图的方法的流程图,该方法的执行主体为图1中的计算机设备,该方法涉及的是计算机设备对主视差图中的边缘信息进行修正的具体过程。如图2所示,该方法具体包括:
S101、获取主视差图和副视差图。
其中,主视差图用于表示需要被修正的视差图,副视差图用于表示在对主视差图进行修正时使用的视差图。本实施例中,计算机设备可以通过两个摄像头或同一设备的两个摄像头对同一物体或环境进行拍摄得到两个拍摄图像,在对这两个拍摄图像进行图像匹配后得到关于物体或环境的主视差图和副视差图。可选的,计算机设备也可以通过一个摄像头在不同位置上对同一物体或环境进行拍摄得到两个拍摄图像,在对这两个拍摄图像进行图像匹配后得到关于物体或环境的主视差图和副视差图。可选的,计算机设备还可以直接从互联网上或数据库中获取同一物体或环境的主视差图和副视差图。本实施例对此不做限制。
S102、确定主视差图中的不可信点所处的区域。
其中,不可信点也可以被称被遮挡点,视差图中的多个物体之间的交界处通常会存在被遮挡点。本实施例中,当计算机设备获取到主视差图时,可以进一步的根据视差值在主视差图中找到不可信点,再根据不可信点的坐标位置确定出不可信点所处的区域,该区域可以是由多个不可信点连接成的曲线,也可以是由多个不可信点连接成的曲线形成的曲面。
S103、根据不可信点所处的区域,在副视差图中确定对应区域的边缘点。
其中,边缘点可以包括左边缘点和右边缘点。当计算机设备确定了主视差图上不可信点所处的区域后,可以进一步的根据该区域指示的位置,在副视差图中相应位置上找到对应区域的边缘点。若上述区域为一条曲线,则边缘点即为该条曲线上的点;若上述区域为一个曲面,则边缘点即为该曲面边界线上的点,具体的左边缘点可以是该曲面左边界线上的点,而右边缘点可以是该曲面右边界线上的点。
S104、根据边缘点对主视差图中的不可信点进行修正,得到校正后的主视差图。
当计算机设备按照S102确定了主视差图中的不可信点,以及按照S103找到了副视差图中的边缘点时,可以进一步的利用在副视差图中找到的边缘点对主视差图中的不可信点进行修正,具体的修正方法可以包括多种,例如,计算机设备可以直接将在副视差图中找到的边缘点的视差值插值到主视差图中不可信点所处位置上,或插值到主视差图中不可信点所处的区域中,或插值到主视差图中不可信点所处的区域的边缘区域中,从而得到校正后的视差图。可选的,计算机设备也可以对在副视差图中找到的边缘点的视差值进行数值加权处理后,再将加权处理后的边缘点的视差值相应的插值到主视差图中不可信点所处位置,或插值到主视差图中不可信点所处的区域中,或插值到主视差图中不可信点所处的区域的边缘区域中,从而得到校正后的视差图。上述修正方法可以根据实际应用需求确定,对此本实施例不做限定。
上述实施例提供的获取视差图的方法,通过获取主视差图和副视差图,再确定主视差图中的不可信点所处的区域,并根据不可信点所处的区域,在副视差图中确定对应区域的边缘点;然后根据边缘点对主视差图中的不可信点进行修正,得到校正后的主视差图。在上述获取视差图的过程中,由公知常识可知,在主视差图的不可信点所处的区域范围内,副视差图中对应区域范围内的边缘点为可信点,因此,本申请提出的利用副视差图中的边缘点对主视差图中的不可信点进行修正的方法可以提高修正的准确性,又由于不可信点多为视差图中表示边缘信息的点,因此,本方案提高了获取主视差图中边缘信息的准确性,进而提高了获取视差图的准确性。
基于上述实施例所描述的方案,在实际应用中存在针对两种应用场景的获取视差图的方法,接下来具体分别根据两种应用场景对获取视差图的方法进行说明:
第一种应用场景为:计算机设备获取到的主视差图为左视差图,副视差图为右视差图,在该种情况下,上述S103“根据不可信点所处的区域,在副视差图中确定对应区域的边缘点”,具体包括:根据不可信点所处的区域,在副视差图中确定对应区域的左边缘点。
相应的,上述S104“根据边缘点对主视差图中的不可信点所处的区域的边缘区域进行修正,得到校正后的主视差图”,具体包括:根据左边缘点对主视差图中的不可信点进行修正,得到校正后的主视差图。
上述左视差图表示左视角成像图像得到的视差图,右视差图表示右视角成像图像得到的视差图,且由公知常识可知,不同视角下得到的视差图在表示同一物体的视差值时存在一定的视觉差异,在实际应用中,相对于左视差图,右视差图中存在的描述物体的左边缘点是可信点,相对于右视差图,左视差图中存在的描述物体的右边缘点是可信点。
基于上述原理,本实施例在涉及计算机设备获取到的主视差图为左视差图,副视差图为右视差图的情况时,计算机设备可以采用副视差图中的左边缘点对主视差图中的不可信点进行修正。具体的实施方式为:当计算机设备确定了主视差图上不可信点所处的区域后,可以进一步的根据该区域指示的位置,在副视差图中相应位置上找到对应区域的左边缘点,相当于对应区域的左边界线上的点。在确定了副视差图中的左边缘点后,计算机设备可以利用在副视差图中找到的左边缘点对主视差图中的不可信点进行修正,具体的修正方法可以包括多种,例如,计算机设备可以直接将在副视差图中找到的左边缘点的视差值插值到主视差图中不可信点所处位置上,或插值到主视差图中不可信点所处的区域中,或插值到主视差图中不可信点所处的区域的左边缘区域中,从而得到校正后的视差图。可选的,计算机设备也可以对在副视差图中找到的左边缘点的视差值进行数值加权处理后,再将加权处理后的左边缘点的视差值相应的插值到主视差图中不可信点所处位置,或插值到主视差图中不可信点所处的区域中,或插值到主视差图中不可信点所处的区域的左边缘区域中,从而得到校正后的视差图。上述修正方法可以根据实际应用需求确定,对此本实施例不做限定。
第二种应用场景为:计算机设备获取到主视差图为右视差图,副视差图为左视差图,在该种情况下,上述S103“根据不可信点所处的区域,在副视差图中确定对应区域的边缘点”,具体包括:根据不可信点所处的区域,在副视差图中确定对应区域的右边缘点;
相应的,上述S104“根据边缘点对主视差图中的不可信点所处的区域的边缘区域进行修正,得到校正后的主视差图”,具体包括:根据右边缘点对主视差图中的不可信点所处的区域的右边缘区域进行修正,得到校正后的主视差图。
基于第一种应用场景描述的原理,本实施例在涉及计算机设备获取到的主视差图为右视差图,副视差图为左视差图的情况时,计算机设备可以采用副视差图中的右边缘点对主视差图中的不可信点进行修正。具体的实施方式为:当计算机设备确定了主视差图上不可信点所处的区域后,可以进一步的根据该区域指示的位置,在副视差图中相应位置上找到对应区域的右边缘点,相当于对应区域的右边界线上的点。在确定了副视差图中的右边缘点后,计算机设备可以利用在副视差图中找到的右边缘点对主视差图中的不可信点进行修正,具体的修正方法可以包括多种,例如,计算机设备可以直接将在副视差图中找到的右边缘点的视差值插值到主视差图中不可信点所处位置上,或插值到主视差图中不可信点所处的区域中,或插值到主视差图中不可信点所处的区域的右边缘区域中,从而得到校正后的视差图。可选的,计算机设备也可以对在副视差图中找到的右边缘点的视差值进行数值加权处理后,再将加权处理后的右边缘点的视差值相应的插值到主视差图中不可信点所处位置,或插值到主视差图中不可信点所处区域中,或插值到主视差图中不可信点所处的区域的右边缘区域中,从而得到校正后的视差图。上述修正方法可以根据实际应用需求确定,对此本实施例不做限定。
上述实施例中,无论是上述那种应用场景,计算机设备在对主视差图进行修正时,均采用了副视差图中的边缘点对主视差图中的不可信点进行修正。这样的方法基于不同视角得到的视差图中存在的视差值的视角差异性,充分利用了副视差图中的可靠视差值信息,极大的提高了对主视差图的修正的准确性,进而提高了获取视差图的准确性
在一个实施例中,本申请还提供了一种计算机设备对主视差图进行修正的一种具体方法,即上述S104“根据边缘点对主视差图中的不可信点进行修正,得到校正后的主视差图”,具体包括:使用边缘点的视差值替代主视差图中的不可信点的视差值,得到校正后的主视差图。
本实施例采用的修正方法为直接替代法,即,计算机设备直接将副视差图中的边缘点的视差值替代主视差图中的不可信点的视差值,以去除主视差图中的不可信点,完成对主视差图的修正,以得到校正后的主视差图。可选的,计算机设备也可以直接将副视差图中的边缘点的视差值替代主视差图中的不可信点所处的区域中的点的视差值,得到校正后的主视差图;可选的,计算机设备还可以直接将副视差图中的边缘点的视差值替代主视差图中的不可信点所处的区域的边缘区域中的点的视差值,得到校正后的主视差图。
可选的,本申请还提供了一种计算机设备对主视差图进行修正的另一种具体方法,即上述S104“根据边缘点对主视差图中的不可信点进行修正,得到校正后的主视差图”,还可以具体包括:将边缘点插值到主视差图中的不可信点所处的区域中,得到校正后的主视差图。
本实施例采用的修正方法为插值法,具体的包括:计算机设备获取副视差图中的边缘点的视差值,然后将该边缘点的视差值插值到主视差图中的不可信点所处的区域中的任意位置上,可选的,计算机设备也可以将获取到的边缘点的视差值插值到主视差图中的不可信点所处的区域的边缘区域中的任意位置上,以得到校正后的主视差图。
图3为图2实施例中S102的另一种实现方式的流程图,如图3所示,上述S102“确定主视差图中的不可信点所处的区域”,包括:
S201、标记出主视差图中的不可信点。
当计算机设备获取到主视差图时,主视差图中存在一个或多个不可信点,此时,计算机设备可以获取这些不可信点在主视差图中的具体坐标位置,从而标记出主视差图中的不可信点。
S202、根据不可信点所在位置,确定不可信点所处的区域。
本实施例涉及的具体方法与前述S102描述的方法一致,具体请参见S102的内容,在此不重复说明。
基于上述实施例,图4为图3实施例中S201的另一种实现方式的流程图,如图4所示,上述S201“标记出主视差图中的不可信点”,包括:
S301、对主视差图和副视差图的一致性进行检测,得到主视差图中的不一致点。
理论上,对于一个物体或环境的主视差图和副视差图中的视差值是一致的,但是,当在实际应用中,存在多个物体的交界产生遮挡或误匹配等因素影响视差值时,主视差图和副视差图中会存在视差值不一致的点,且这些不一致的点即为不可信点,因此,计算机设备在需要检测主视差图中的不可信点时,可以通过检测主视差图和副视差图的一致性得到不可信点。
S302、将不一致点确定为不可信点。
计算机设备在通过S301的方法检测到主视差图中的不一致点时,将这些不一致点作为不可信点,以便计算机设备进行下一步的操作。
基于上述实施例,图5为图4实施例中S301的另一种实现方式的流程图,如图5所示,上述S301“对主视差图和所述副视差图的一致性进行检测,得到主视差图中的不一致点”,包括:
S401、将主视差图和副视差图中的各点的视差值进行比较,得到视差值不相同的点。
本实施例涉及计算机设备在对主视差图和副视差图的一致性检测时采用的具体方法,具体包括:将主视差图和副视差图中的同一位置上的各点的视差值进行比较,将视差值不相同的点找出来。
S402、将视差值不相同的点作为不一致点。
在计算机设备按照S401的方法找出视差值不相同的点时,直接将这些点作为不一致的点,使计算机设备可以将这些不一致的点作为不可信点进行修正。
在一个实施例中,本申请还提供了一种获取主视差图和副视差图的方法,如图6所示,该方法包括:
S501、获取主图和副图。
其中,主图和副图为计算机设备通过两个不同的摄像头或其它拍摄图像设备获取到的两个视角下的拍摄图像;可选的,主图和副图也可以为计算机设备通过同一摄像头或其它拍摄图像设备获取到的在两个视角下的拍摄图像。需要说明的是,在使用一个摄像头获取主图,另一个摄像头获取副图时,两个摄像头的拍摄位置在同一水平线上的不同位置上,相应的,采用同一个摄像头获取主图和副图时也需要在同一水平线上的不同位置上拍摄。
S502、采用立体匹配方法对主图和副图进行匹配处理,得到主视差图和副视差图。
其中,立体匹配为一种匹配两个图像得到视差图的技术方法。本实施例中,当计算机设备采用立体匹配方法对主图和副图进行匹配处理时,具体的可以利用主图和副图之间的匹配值对主图进行匹配,得到主图的主视差图,以及利用主图和副图之间的匹配值对副图进行匹配,得到副图的副视差图。当计算机设备采用上述方法获取到主视差图和副视差图时,就可以返回执行S101之后的步骤,实现对主视差图的修正,从而获取到准确的视差图。
基于上述实施例,图7为图6实施例中S502的另一种实现方式的流程图,如图7所示,上述S502“采用立体匹配方法对主图和副图进行匹配处理,得到主视差图和副视差图”,包括:
S601、对主图和副图进行行校正处理,得到校正主图和校正副图。
在实际应用中,计算机设备在利用不同的摄像头获取到主图和副图后,由于摄像头、目标物体所在位置等存在的差异性,使获取到的两幅图之间存在一定的行差异,而这种差异会导致后期的匹配不准确,因此,为了避免这种问题,在每次计算机设备对主图和副图进行匹配之前,有必要对获取到的主图和副图进行行校正,因此,在本实施例中,计算机设备对主图和副图进行了行校正处理,得到校正主图和校正副图,使校正主图和校正副图中的各行位置保持一致,以使后期计算机设备可以对校正主图和校正副图进行准确的匹配处理,进而提高视差图的修正精度。
S602、采用立体匹配方法对校正主图和校正副图进行匹配处理,得到主视差图和副视差图。
本实施例涉及计算机设备对校正主图和校正副图进行匹配的过程,具体过程与前述S502中涉及到的匹配方法一致,具体请参见前述说明,在此不做重复说明。
综上所有实施例,本申请还提供了一种获取视差图的方法,如图8所示,该方法包括:
S701、获取主图和副图。
S702、对主图和副图进行行校正,得到主图校正图和副图校正图。
S703、采用立体匹配方法对主图校正图和副图校正图进行匹配,分别得到主初始视差图和副初始视差图。
S704、对主初始视差图和副初始视差图进行一致性检测,得到不一致点。
S705、将不一致点作为不可信点在主初始视差图中标记出,并确定不可信点所处的区域。
S706、根据不可信点所处的区域,在副初始视差图中确定对应区域的边缘点。
S707、将边缘点的视差值插值到主初始视差图中的不可信点所处的区域,或所处的区域的边缘区域,得到校正后的主视差图。
上述实施例中,使用副初始视差图中的边缘点对主初始视差图中的不可信点所处的区域中的点,或所处的区域的边缘区域中的点进行修正的方法不仅修正了不可信点,且同时修正了不可信点所在区域或所在区域的边缘区域,这样的修正方法可以提高修正视差图的准确性,进而提高获取主视差图的准确性。
应该理解的是,虽然图2-8的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-8中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行。
在一个实施例中,如图9所示,提供了一种获取视差图的装置,包括:获取模块11、第一确定模块12、第二确定模块13、和修正模块14,其中:
获取模块11,用于获取主视差图和副视差图;
第一确定模块12,用于确定所述主视差图中的不可信点所处的区域;
第二确定模块13,用于根据所述不可信点所处的区域,在所述副视差图中确定对应区域的边缘点;
修正模块14,用于根据所述边缘点对所述主视差图中的不可信点进行修正,得到校正后的主视差图。
在一个实施例中,若所述主视差图为左视差图,所述副视差图为右视差图,则上述第二确定模块13具体用于根据所述不可信点所处的区域,在所述副视差图中确定对应区域的左边缘点;上述修正模块14具体用于根据所述左边缘点对所述主视差图中的不可信点进行修正,得到所述校正后的主视差图。
在一个实施例中,若所述主视差图为右视差图,所述副视差图为左视差图,则上述第二确定模块13具体用于根据所述不可信点所处的区域,在所述副视差图中确定对应区域的右边缘点;上述修正模块14具体用于根据所述右边缘点对所述主视差图中的不可信点进行修正,得到所述校正后的主视差图。
在一个实施例中,上述修正模块14还具体用于使用所述边缘点替代所述主视差图中的不可信点,得到所述校正后的主视差图。
在一个实施例中,上述修正模块14还具体用于将所述边缘点插值到所述主视差图中的不可信点所处的区域中,得到所述校正后的主视差图。
上述第一确定模块12,如图10所示,包括:标记单元121和确定单元122,其中:
标记单元121,用于标记出所述主视差图中的不可信点;
确定单元122,用于根据所述不可信点所在位置,确定所述不可信点所处的区域。
在一个实施例中,上述标记单元121具体用于对所述主视差图和所述副视差图的一致性进行检测,得到所述主视差图中的不一致点;将所述不一致点确定为所述不可信点。
在一个实施例中,上述确定单元122具体用于将所述视差图和所述副视差图中的各点的视差值进行比较,得到视差值不相同的点;将所述视差值不相同的点作为所述不一致点。
在一个实施例中,上述获取视差图的装置,如图11所示,还包括:
第二获取模块15,用于获取主图和副图;
匹配模块16,用于采用立体匹配方法对所述主图和所述副图进行匹配处理,得到所述主视差图和所述副视差图。
在一个实施例中,上述匹配模块16,如图12所示,包括:
校正单元161,用于对所述主图和所述副图进行行校正处理,得到校正主图和校正副图;
匹配单元162,用于采用所述立体匹配方法对所述校正主图和所述校正副图进行匹配处理,得到所述主视差图和所述副视差图。
关于获取视差图的装置的具体限定可以参见上文中对于一种获取视差图的方法的限定,在此不再赘述。上述获取视差图的装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取主视差图和副视差图;
确定所述主视差图中的不可信点所处的区域;
根据所述不可信点所处的区域,在所述副视差图中确定对应区域的边缘点;
根据所述边缘点对所述主视差图中的不可信点进行修正,得到校正后的主视差图。
上述实施例提供的一种计算机设备,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时还实现以下步骤:
获取主视差图和副视差图;
确定所述主视差图中的不可信点所处的区域;
根据所述不可信点所处的区域,在所述副视差图中确定对应区域的边缘点;
根据所述边缘点对所述主视差图中的不可信点进行修正,得到校正后的主视差图。
上述实施例提供的一种计算机可读存储介质,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双倍数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (13)
1.一种获取视差图的方法,其特征在于,所述方法包括:
获取主视差图和副视差图;
确定所述主视差图中的不可信点所处的区域;
根据所述不可信点所处的区域,在所述副视差图中确定对应区域的边缘点,若所述对应区域为一条曲线,则所述边缘点即为该条曲线上的点;若所述对应区域为一个曲面,则边缘点即为该曲面边界线上的点;
根据所述边缘点对所述主视差图中的不可信点进行修正,得到校正后的主视差图;
所述根据所述边缘点对所述主视差图中的不可信点进行修正,得到校正后的主视差图,包括:
根据所述副视差图中的边缘点的视差值,对所述主视差图中的不可信点所处的区域中的点的视差值进行修正,得到校正后的主视差图;或,
根据所述副视差图中的边缘点的视差值,对所述主视差图中的不可信点所处的区域中边缘区域中的点的视差值进行修正,得到校正后的主视差图。
2.根据权利要求1所述的方法,其特征在于,若所述主视差图为左视差图,所述副视差图为右视差图,
所述根据所述不可信点所处的区域,在所述副视差图中确定对应区域的边缘点,包括:根据所述不可信点所处的区域,在所述副视差图中确定对应区域的左边缘点。
3.根据权利要求1所述的方法,其特征在于,若所述主视差图为右视差图,所述副视差图为左视差图,
所述根据所述不可信点所处的区域,在所述副视差图中确定对应区域的边缘点,包括:根据所述不可信点所处的区域,在所述副视差图中确定对应区域的右边缘点。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述根据所述边缘点对所述主视差图中的不可信点进行修正,得到校正后的主视差图,包括:
使用所述边缘点的视差值替代所述主视差图中的不可信点所处的区域中的点的视差值,得到所述校正后的主视差图;或,
使用所述边缘点的视差值替代所述主视差图中的不可信点所处的区域中边缘区域中的点的视差值,得到所述校正后的主视差图。
5.根据权利要求1-3任一项所述的方法,其特征在于,所述根据所述边缘点对所述主视差图中的不可信点进行修正,得到校正后的主视差图,包括:
将所述副视差图中边缘点的视差值插值到所述主视差图中的不可信点所处的区域中的点,或插值到所述主视差图中的不可信点所处的区域中的边缘区域中的点,得到校正后的主视差图;或,
对所述副视差图中的边缘点的视差值进行数值加权处理,将加权处理后的边缘点的视差值相应的插值到所述主视差图中不可信点所处位置,或插值到所述主视差图中不可信点所处的区域中的点,或插值到所述主视差图中不可信点所处的区域的边缘区域中的点,得到校正后的视差图。
6.根据权利要求1所述的方法,其特征在于,所述确定所述主视差图中的不可信点所处的区域,包括:
标记出所述主视差图中的不可信点;
根据所述不可信点所在位置,确定所述不可信点所处的区域。
7.根据权利要求6所述的方法,其特征在于,所述标记出所述主视差图中的不可信点,包括:
对所述主视差图和所述副视差图的一致性进行检测,得到所述主视差图中的不一致点;
将所述不一致点确定为所述不可信点。
8.根据权利要求7所述的方法,其特征在于,所述对所述主视差图和所述副视差图的一致性进行检测,得到所述主视差图中的不一致点,包括:
将所述视差图和所述副视差图中的各点的视差值进行比较,得到视差值不相同的点;
将所述视差值不相同的点作为所述不一致点。
9.根据权利要求1或8所述的方法,其特征在于,所述方法还包括:
获取主图和副图;
采用立体匹配方法对所述主图和所述副图进行匹配处理,得到所述主视差图和所述副视差图。
10.根据权利要求9所述的方法,其特征在于,所述采用立体匹配方法对所述主图和所述副图进行匹配处理,得到所述主视差图和所述副视差图,包括:
对所述主图和所述副图进行校正处理,得到校正主图和校正副图;
采用所述立体匹配方法对所述校正主图和所述校正副图进行匹配处理,得到所述主视差图和所述副视差图。
11.一种获取视差图的装置,其特征在于,所述装置包括:
第一获取模块,用于获取主视差图和副视差图;
第一确定模块,用于确定所述主视差图中的不可信点所处的区域;
第二确定模块,用于根据所述不可信点所处的区域,在所述副视差图中确定对应区域的边缘点,若所述对应区域为一条曲线,则所述边缘点即为该条曲线上的点;若所述对应区域为一个曲面,则边缘点即为该曲面边界线上的点;
修正模块,用于根据所述边缘点对所述主视差图中的不可信点进行修正,得到校正后的主视差图;
所述修正模块,还用于根据所述副视差图中的边缘点的视差值,对所述主视差图中的不可信点所处的区域中的点的视差值进行修正,得到校正后的主视差图;或,
根据所述副视差图中的边缘点的视差值,对所述主视差图中的不可信点所处的区域中边缘区域中的点的视差值进行修正,得到校正后的主视差图。
12.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至10中任一项所述方法的步骤。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至10中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910500284.3A CN110223257B (zh) | 2019-06-11 | 2019-06-11 | 获取视差图的方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910500284.3A CN110223257B (zh) | 2019-06-11 | 2019-06-11 | 获取视差图的方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110223257A CN110223257A (zh) | 2019-09-10 |
CN110223257B true CN110223257B (zh) | 2021-07-09 |
Family
ID=67816294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910500284.3A Active CN110223257B (zh) | 2019-06-11 | 2019-06-11 | 获取视差图的方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110223257B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102999913A (zh) * | 2012-11-29 | 2013-03-27 | 清华大学深圳研究生院 | 一种基于可信点传播的局部立体匹配方法 |
CN104680510A (zh) * | 2013-12-18 | 2015-06-03 | 北京大学深圳研究生院 | Radar视差图优化方法、立体匹配视差图优化方法及系统 |
CN105869122A (zh) * | 2015-11-24 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 图像处理方法和装置 |
CN107578430A (zh) * | 2017-07-26 | 2018-01-12 | 昆明理工大学 | 一种基于自适应权值和局部熵的立体匹配方法 |
CN108510529A (zh) * | 2018-03-14 | 2018-09-07 | 昆明理工大学 | 一种基于自适应权值的图割立体匹配方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104252701B (zh) * | 2013-06-28 | 2017-08-29 | 株式会社理光 | 校正视差图的方法和系统 |
JP6361313B2 (ja) * | 2013-07-01 | 2018-07-25 | 株式会社リコー | 車両検出方法及び装置 |
CN103778632A (zh) * | 2014-01-18 | 2014-05-07 | 南京理工大学 | 一种基于fpga的立体匹配方法 |
CN103945207B (zh) * | 2014-04-24 | 2015-09-02 | 浙江大学 | 一种基于视点合成的立体图像垂直视差消除方法 |
CN105277169B (zh) * | 2015-09-25 | 2017-12-22 | 安霸半导体技术(上海)有限公司 | 基于图像分割的双目测距方法 |
CN105894499B (zh) * | 2016-03-25 | 2018-09-14 | 华南理工大学 | 一种基于双目视觉的空间物体三维信息快速检测方法 |
CN106408596B (zh) * | 2016-09-06 | 2019-06-21 | 电子科技大学 | 基于边缘的局部立体匹配方法 |
US10701334B2 (en) * | 2017-10-11 | 2020-06-30 | Adobe Inc. | Virtual reality parallax correction |
-
2019
- 2019-06-11 CN CN201910500284.3A patent/CN110223257B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102999913A (zh) * | 2012-11-29 | 2013-03-27 | 清华大学深圳研究生院 | 一种基于可信点传播的局部立体匹配方法 |
CN104680510A (zh) * | 2013-12-18 | 2015-06-03 | 北京大学深圳研究生院 | Radar视差图优化方法、立体匹配视差图优化方法及系统 |
CN105869122A (zh) * | 2015-11-24 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 图像处理方法和装置 |
CN107578430A (zh) * | 2017-07-26 | 2018-01-12 | 昆明理工大学 | 一种基于自适应权值和局部熵的立体匹配方法 |
CN108510529A (zh) * | 2018-03-14 | 2018-09-07 | 昆明理工大学 | 一种基于自适应权值的图割立体匹配方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110223257A (zh) | 2019-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109902637B (zh) | 车道线检测方法、装置、计算机设备和存储介质 | |
US9866818B2 (en) | Image processing apparatus and method, image processing system and program | |
CN111402152B (zh) | 视差图的处理方法、装置、计算机设备和存储介质 | |
CN110223222B (zh) | 图像拼接方法、图像拼接装置和计算机可读存储介质 | |
US20170077586A1 (en) | Method and Device for Obtaining Antenna Engineering Parameter and System | |
JP6464938B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP5412092B2 (ja) | 配筋情報取得装置及び配筋情報取得方法 | |
US20080297502A1 (en) | Method and System for Detecting and Evaluating 3D Changes from Images and a 3D Reference Model | |
CN110675440B (zh) | 三维深度数据的置信度评估方法、装置和计算机设备 | |
CN111161202A (zh) | 车辆行为信息获取方法、装置、计算机设备和存储介质 | |
CN109102524B (zh) | 图像特征点的跟踪方法和跟踪装置 | |
JP2022541977A (ja) | 画像のラベリング方法、装置、電子機器及び記憶媒体 | |
CN111225155A (zh) | 视频防抖方法、装置、电子设备、计算机设备和存储介质 | |
CN112017215A (zh) | 图像处理方法、装置、计算机可读存储介质及计算机设备 | |
CN111178126A (zh) | 目标检测方法、装置、计算机设备和存储介质 | |
CN111915681A (zh) | 多组3d相机群的外参标定方法、装置、存储介质及设备 | |
CN110223257B (zh) | 获取视差图的方法、装置、计算机设备和存储介质 | |
US20230379422A1 (en) | Method for vehicle hinge point calibration and corresponding calibration apparatus, computer device, and storage medium | |
CN110176035B (zh) | 标志点的定位方法、装置、计算机设备和存储介质 | |
CN110866535B (zh) | 视差图的获取方法、装置、计算机设备和存储介质 | |
CN110838138A (zh) | 重复纹理检测方法、装置、计算机设备和存储介质 | |
CN115272470A (zh) | 相机定位方法、装置、计算机设备和存储介质 | |
WO2021238499A1 (zh) | 双目图像快速处理方法、装置及对应的存储介质 | |
CN111539964B (zh) | 基于深度图像的植株冠层表面积获取方法、装置、计算机设备和存储介质 | |
CN111311731B (zh) | 基于数字投影的随机灰度图生成方法、装置和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |