CN110213558A - 亚像素视差获取方法 - Google Patents

亚像素视差获取方法 Download PDF

Info

Publication number
CN110213558A
CN110213558A CN201910347161.0A CN201910347161A CN110213558A CN 110213558 A CN110213558 A CN 110213558A CN 201910347161 A CN201910347161 A CN 201910347161A CN 110213558 A CN110213558 A CN 110213558A
Authority
CN
China
Prior art keywords
parallax
sub
pix
point
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910347161.0A
Other languages
English (en)
Inventor
陈曾沁
何志成
尚继辉
张韶越
裘泽锋
孟繁冲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Spaceflight (shanghai) Science And Technology Co Ltd
Original Assignee
Spaceflight (shanghai) Science And Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spaceflight (shanghai) Science And Technology Co Ltd filed Critical Spaceflight (shanghai) Science And Technology Co Ltd
Priority to CN201910347161.0A priority Critical patent/CN110213558A/zh
Publication of CN110213558A publication Critical patent/CN110213558A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种亚像素视差获取方法,通过进行条纹图像的亚像素视差获取;在亚像素视差获取的基础上,通过视差滤波器进行视差过滤,以获得精确的视差;获得精确的视差后,通过标定参数计算三维点云,能够使点云的表面更加平滑。

Description

亚像素视差获取方法
技术领域
本发明涉及一种亚像素视差获取方法
背景技术
近年来光学三维测量技术发展迅速。立体匹配是保证测量系统精度的重要环节。基于特征的立体匹配、基于区域的立体匹配、基于相位的立体匹配等方法很多。
随着DLP投影机的发展,相位测量轮廓术(PMP)成为应用最广泛的技术之一,具有测量精度高、测量速度快的优点。传统的基于相位的匹配用于全局搜索或极性方程。然而,这些方法费时且精度低。
发明内容
本发明的目的在于提供一种亚像素视差获取方法。
为解决上述问题,本发明提供一种亚像素视差获取方法,包括:
进行条纹图像的亚像素视差获取;
在亚像素视差获取的基础上,通过视差滤波器进行视差过滤,以获得精确的视差;
获得精确的视差后,通过标定参数计算三维点云。
进一步的,在上述方法中,在所述目标区域提取的基础上,进行亚像素视差获取,包括:
立体校正后,左右两行相位图像平行于极外线;
当在左行相位图像中选取一个点(xL,yL),对应的右行相位图像的点为(xR,yR),因为立体校正的原因,yR等于yL,在这种情况下,yR是固定一个像素,如果左行相位图像中选取的点(xL,yL)的相位值是对应的右相位图像的点的相位值满足方程(7):
基于方程(7),获取关键点(i,j)和(i+1,j),相应的横坐标由式(8)求得:
另一种颜色的环绕点用于计算坐标,这两个因素被定义为:
相应的纵坐标通过方程(11)得到:
亚像素视差通过方程(12)得到:
para_x=xR-i′;para_y=yR-j (12)。
进一步的,在上述方法中,在亚像素视差获取的基础上,通过视差滤波器进行视差过滤,以获得精确的视差,包括:
第一,用一个5×5的模板来判断孤立点,其中,从有效的对象区域中选择一个点(i,j),像素点((i-2,j-2),(i-1,j-2),…(i+1,j+2),(i+2,j+2))确定点(i,j)的特性,如果点((i+m,j+n))是有效的,累计值增加1,然后对这些点的有效视差进行累积,得到视差的平均值,如果累计值大于10,且所选点的视差和平均值之间的差小于2,则保留该点,否则删除该点;
第二,采用线性插值来消除视差。提取间距,将视差线分割成不同的部分,当断面长度小于10时,采用线性插值法,假设截面长度为n,两个端点的值为para(0)和para(n-1),这个间隔的视差值定义为:
进一步的,在上述方法中,获得精确的视差后,通过标定参数计算三维点云,包括:
采用高斯平滑滤波器对点云进行平滑处理,得到了将匹配线划分为不同区段的区间,在每个区间中,从三个方向使用尺寸为5像素、标准偏差为0.8像素的一维高斯滤波器计算三维点云。
与现有技术相比,本发明通过进行条纹图像的目标区域提取;在所述目标区域提取的基础上,进行亚像素视差获取;在亚像素视差获取的基础上,通过视差滤波器进行视差过滤,以获得精确的视差;获得精确的视差后,通过标定参数计算三维点云,能够使点云的表面更加平滑。
附图说明
图1是本发明一实施例的基于环境光调制的共生矩阵图;
图2a是本发明一实施例的目标区域的提取中的条纹图案的图像;
图2b是本发明一实施例的目标区域的提取中的包裹相位图像;
图2c是本发明一实施例的目标区域的提取中的图像强度图;
图2d是本发明一实施例的目标区域的提取中的共生掩码图;
图2e是本发明一实施例的目标区域的提取中的强度掩码图;
图2f是本发明一实施例的目标区域的提取中的分割的前景区域图;
图3是本发明一实施例的获得亚像素坐标图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供一种亚像素视差获取方法,包括:
步骤S2,在所述目标区域提取的基础上,进行条纹图像的亚像素视差获取;
在此,步骤S1,进行条纹图像的亚像素视差获取之前,还包括:进行条纹图像的目标区域提取,具体包括:
在此,本发明采用四步相移法,条纹图像的强度可以写为:
I1(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y))
I2(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y)+π/2)
I3(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y)+π)
I4(x,y)=Ia(x,y)+Im(x,y)cos(φ(x,y)+3π/2) (1)
Ia(x,y)表示环境光的强度,Im(x,y)表示调制强度,φ(x,y)是展开相位。从公式(1)中,Ia(x,y)和Im(x,y)可描述为:
Ia(x,y)=(I1+I2+I3+I4)/4
Im(x,y)=(((I4-I2)^2+(I1-I3)^2)^0.5)/2 (2);
共生矩阵定义为:
其中,Cij表示在Im中具有i值以及在Ia中具有j值的像素总数,Pij是概率值。共生矩阵如图1所示。(s,t)是将矩阵分为四个象限的阈值(R1,R2,R3和R4)。在较大的调制和环境光照强度下,相位值更精确。为了获得最佳阈值,应确保方程(4)的最小值。
QR1,QR2,QR3和QR4定义如下:
QR1(s,t)=PR1/(s+1)(t+1)0≤i≤s,0≤j≤t
QR2(s,t)=PR2/(t+1)(L1-s-1)s+1≤i≤L1-1,0≤j≤t
QR3(s,t)=PR3/(L2-t-1)(s+1)0≤i≤s,t+1≤j≤L2-1
QR4(s,t)=PR2/(L1-s-1)(L2-t-1)s+1≤i≤L1-1,t+1≤j≤L2-1 (5)
当阈值(s,t)求取时,可以建立一个共生掩模用于图像分割。
OTSU算法应用在强度图像Ia(x,y)中获取强度掩码值Maskia。如果共生矩阵和强度掩码都为真,则对象区域有效。这个过程如图2(a)~(f)所示。相机拍摄的条纹图像如图2(a)所示。采用四步相移法得到包裹相,如图2(b)所示。图2(c)中显示的强度图像可以用方程(2)计算。共现掩模可以通过方程(6)得到,如图2(d)所示。在强度图像上采用OTSU方法得到强度掩模,如图2(e)所示。该方法结合了两种掩模的优点,提供了一个精确的目标区域,如图2(f)所示。
本发明提出了一种新的加权插值方法来获得亚像素视差。立体校正后,左右两行图像平行于极外线。当在左边相位图中选取一个点(xL,yL),对应的右边相位图的点为(xR,yR)。因为立体校正的原因,yR等于yL。在这种情况下,yR是固定一个像素。下面的模板用于获得亚像素坐标,如图3所示。如果左边的相位值是对应的右边相位值满足方程(7)。
基于这个方程,可以获取关键点(i,j)和(i+1,j)。相应的横坐标可由式(8)求得。
另一种颜色的环绕点可用于计算坐标。这两个因素被定义为:
相应的纵坐标可通过方程(11)得到。
亚像素视差可以通过方程(12)得到。
para_x=xR-i′;para_y=yR-j (12)。
步骤S2,可以包括:在所述目标区域提取的基础上,进行亚像素视差获取
步骤S3,在亚像素视差获取的基础上,通过视差滤波器进行视差过滤,以获得精确的视差;
在此,过滤视差有两个步骤。一种是去除孤立点,另一种是平滑视差。
首先,用一个5×5的模板来判断孤立点。从有效的对象区域中选择一个点(i,j)。像素点((i-2,j-2),(i-1,j-2),…(i+1,j+2),(i+2,j+2))确定点(i,j)的特性。如果点((i+m,j+n))是有效的,累计值增加1。然后对这些点的有效视差进行累积。我们可以得到视差的平均值。如果累计值大于10,且所选点的视差和平均值之间的差小于2,则保留该点,否则删除该点。
第二,采用线性插值来消除视差。提取间距,将视差线分割成不同的部分。当断面长度小于10时,采用线性插值法。假设截面长度为n,两个端点的值为para(0)和para(n-1),这个间隔的视差值定义为:
经过这个操作,去除视差上的毛刺和孤立点。
步骤S4,获得精确的视差后,通过标定参数计算三维点云。
在此,在获得精确的视差后,可以通过标定参数计算三维点云。采用高斯平滑滤波器对点云进行平滑处理。得到了将匹配线划分为不同区段的区间。在每个间隔中,从三个方向使用尺寸为5像素、标准偏差为0.8像素的一维高斯滤波器。在那之后,点云的表面更加平滑。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
显然,本领域的技术人员可以对发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包括这些改动和变型在内。

Claims (4)

1.一种亚像素视差获取方法,其特征在于,包括:
进行条纹图像的亚像素视差获取;
在亚像素视差获取的基础上,通过视差滤波器进行视差过滤,以获得精确的视差;
获得精确的视差后,通过标定参数计算三维点云。
2.如权利要求1所述的亚像素视差获取方法,其特征在于,在所述目标区域提取的基础上,进行亚像素视差获取,包括:
立体校正后,左右两行相位图像平行于极外线;
当在左行相位图像中选取一个点(xL,yL),对应的右行相位图像的点为(xR,yR),因为立体校正的原因,yR等于yL,在这种情况下,yR是固定一个像素,如果左行相位图像中选取的点(xL,yL)的相位值是对应的右相位图像的点的相位值满足方程(7):
基于方程(7),获取关键点(i,j)和(i+1,j),相应的横坐标由式(8)求得:
另一种颜色的环绕点用于计算坐标,这两个因素被定义为:
相应的纵坐标通过方程(11)得到:
亚像素视差通过方程(12)得到:
para_x=xR-i′;para_y=yR-j (12)。
3.如权利要求1所述的亚像素视差获取方法,其特征在于,在亚像素视差获取的基础上,通过视差滤波器进行视差过滤,以获得精确的视差,包括:
第一,用一个5×5的模板来判断孤立点,其中,从有效的对象区域中选择一个点(i,j),像素点((i-2,j-2),(i-1,j-2),…(i+1,j+2),(i+2,j+2))确定点(i,j)的特性,如果点((i+m,j+n))是有效的,累计值增加1,然后对这些点的有效视差进行累积,得到视差的平均值,如果累计值大于10,且所选点的视差和平均值之间的差小于2,则保留该点,否则删除该点;
第二,采用线性插值来消除视差。提取间距,将视差线分割成不同的部分,当断面长度小于10时,采用线性插值法,假设截面长度为n,两个端点的值为para(0)和para(n-1),这个间隔的视差值定义为:
4.如权利要求1所述的亚像素视差获取方法,其特征在于,获得精确的视差后,通过标定参数计算三维点云,包括:
采用高斯平滑滤波器对点云进行平滑处理,得到了将匹配线划分为不同区段的区间,在每个区间中,从三个方向使用尺寸为5像素、标准偏差为0.8像素的一维高斯滤波器计算三维点云。
CN201910347161.0A 2019-04-28 2019-04-28 亚像素视差获取方法 Pending CN110213558A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910347161.0A CN110213558A (zh) 2019-04-28 2019-04-28 亚像素视差获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910347161.0A CN110213558A (zh) 2019-04-28 2019-04-28 亚像素视差获取方法

Publications (1)

Publication Number Publication Date
CN110213558A true CN110213558A (zh) 2019-09-06

Family

ID=67786523

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910347161.0A Pending CN110213558A (zh) 2019-04-28 2019-04-28 亚像素视差获取方法

Country Status (1)

Country Link
CN (1) CN110213558A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101325725A (zh) * 2008-07-24 2008-12-17 四川大学 一种基于亚像素的立体图像的视差提取方法
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN105043298A (zh) * 2015-08-21 2015-11-11 东北大学 基于傅里叶变换无需相位展开的快速三维形貌测量方法
CN105956597A (zh) * 2016-05-04 2016-09-21 浙江大学 一种基于卷积神经网络的双目立体匹配方法
WO2017039844A1 (en) * 2015-08-28 2017-03-09 Intel Corporation Range image generation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101325725A (zh) * 2008-07-24 2008-12-17 四川大学 一种基于亚像素的立体图像的视差提取方法
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN105043298A (zh) * 2015-08-21 2015-11-11 东北大学 基于傅里叶变换无需相位展开的快速三维形貌测量方法
WO2017039844A1 (en) * 2015-08-28 2017-03-09 Intel Corporation Range image generation
CN105956597A (zh) * 2016-05-04 2016-09-21 浙江大学 一种基于卷积神经网络的双目立体匹配方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
肖志涛等: "《基于极线校正的亚像素相位立体匹配方法》", 《红外与激光工程》 *

Similar Documents

Publication Publication Date Title
CN109166077B (zh) 图像对齐方法、装置、可读存储介质及计算机设备
US10559090B2 (en) Method and apparatus for calculating dual-camera relative position, and device
CN104680496B (zh) 一种基于彩色图像分割的Kinect深度图修复方法
JP5306652B2 (ja) 集積された画像プロセッサ
WO2017054589A1 (zh) 一种多深度图融合方法及装置
CN109636732A (zh) 一种深度图像的空洞修复方法以及图像处理装置
TWI398158B (zh) 產生立體影像之影像深度的方法
CN105488791B (zh) 自然背景中图像边缘的定位方法及装置
CN103968782A (zh) 一种基于彩色正弦结构光编码的实时三维测量方法
CN112669280B (zh) 一种基于lsd算法的无人机倾斜航拍直角像控点目标检测方法
CN104299220A (zh) 一种对Kinect深度图像中的空洞进行实时填充的方法
CN104111038A (zh) 利用相位融合算法修复饱和产生的相位误差的方法
JP2018195084A (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
CN105335968A (zh) 一种基于置信度传播算法的深度图提取方法及装置
CN111415314B (zh) 一种基于亚像素级视觉定位技术的分辨率修正方法及装置
JP2015171143A (ja) カラーコード化された構造によるカメラ較正の方法及び装置、並びにコンピュータ可読記憶媒体
CN109003308A (zh) 一种基于相位编码的特殊成像范围相机标定系统及方法
CN110111339A (zh) 条纹图像目标区域提取方法
CN110223356A (zh) 一种基于能量生长的单目相机全自动标定方法
KR102023087B1 (ko) 카메라 캘리브레이션 방법
CN109587463A (zh) 投影仪的校准方法、投影仪及校准系统
CN110213558A (zh) 亚像素视差获取方法
CN111429534B (zh) 一种图像偏色矫正方法及装置
CN110211053A (zh) 用于三维测量的快速精确相位匹配方法
WO2015140484A1 (en) A method, apparatus, system, and computer readable medium for enhancing differences between two images of a structure

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190906