CN103810700B - 基于深度图像利用遮挡信息确定下一最佳观测方位的方法 - Google Patents

基于深度图像利用遮挡信息确定下一最佳观测方位的方法 Download PDF

Info

Publication number
CN103810700B
CN103810700B CN201410015961.XA CN201410015961A CN103810700B CN 103810700 B CN103810700 B CN 103810700B CN 201410015961 A CN201410015961 A CN 201410015961A CN 103810700 B CN103810700 B CN 103810700B
Authority
CN
China
Prior art keywords
depth image
point
observation
project
candidate reference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410015961.XA
Other languages
English (en)
Other versions
CN103810700A (zh
Inventor
张世辉
刘建新
桑榆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN201410015961.XA priority Critical patent/CN103810700B/zh
Publication of CN103810700A publication Critical patent/CN103810700A/zh
Application granted granted Critical
Publication of CN103810700B publication Critical patent/CN103810700B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

本发明公开了一种利用深度图像中的遮挡信息确定下一最佳观测方位的方法,属于计算机视觉领域,包括以下步骤:获取视觉目标的一幅深度图像及其遮挡边界和摄像机内外参数;根据已获得的深度图像中的遮挡边界信息确定出每个遮挡边界点对应的最大深度差相邻点;利用深度图像中的遮挡边界点及其对应的最大深度差相邻点的三维坐标以及摄像机的当前观测方位计算遮挡区域外接表面上各小平面对应的候选参考观测方向及观测中心点;基于投影降维思想确定遮挡区域外接表面最佳小平面集合并基于该最佳小平面集合的信息计算下一最佳观测方位。本发明无需预先获取视觉目标的先验知识及将摄像机的观测位置限定在固定表面上,适用于具有不同型面的视觉目标。

Description

基于深度图像利用遮挡信息确定下一最佳观测方位的方法
技术领域
本发明涉及计算机视觉领域,尤其是涉及一种下一最佳观测方位的确定方法。
背景技术
下一最佳观测方位的确定一直是三维重建、机器人导航、自动装配、目标识别等领域重要且困难的研究课题之一,它根据当前观测到的信息,确定出摄像机(传感器)的下一观测方向和位置,使得从该方向和位置能够最大量地获取场景或视觉目标的未知信息。
目前下一最佳观测方位确定算法所基于的图像信息类型主要有两种:图像亮度信息和图像深度信息。基于图像亮度信息的下一最佳观测方位确定算法相对较少,并且同2D的亮度图像相比,2.5D的深度图像更利于获得场景的三维信息,因此,现有的下一最佳观测方位确定算法一般都基于深度图像实现。然而,既基于深度图像又仅利用遮挡信息确定下一最佳观测方位的文献较少。同时,少数几个既基于深度图像又利用遮挡信息确定下一最佳观测方位的方法在求解方式、适用范围等方面存在一些不足。Maver J和Bajcsy R在文章“Occlusion as a guide for planning the next view.IEEE Transactions on PatternAnalysis and Machine Intelligence,1993,15(5):417-432”所提方法针对于特定的设备。Banta J E和Wong L M等在文章“Next-best-view system for autonomous3-D objectreconstruction.IEEE Transactions on Systems,Man,and Cybernetics,Part A:Systems and Humans,2000,30(5):589-598”所提方法确定出的观测位置被限定在一个固定的表面(如球体表面、圆柱体表面等),因此方法的通用性受到了限制。Chen S Y和Li Y F在文章“Automatic sensor placement for model-based robot vision.IEEETransactions on Systems,Man,and Cybernetics,Part B:Cybernetics,2004,34(1):393-408”中所提方法需要预先获取场景的先验知识,如场景中视觉目标的尺寸等,因此不适用于未知场景。
发明内容
针对上述存在问题,为了基于遮挡信息确定出下一最佳观测方位,本发明旨在提出一种基于深度图像利用遮挡信息确定下一最佳观测方位的方法,本发明避免了对摄像机观测方位的限制,通过综合考虑最佳小平面集合中每个小平面的影响,确定出合理的下一最佳观测方位。
本发明通过下述技术方案来实现:一种基于深度图像利用遮挡信息确定下一最佳观测方位的方法,该方法包含以下步骤:
(1)获取深度图像及其遮挡边界和摄像机内外参数;
(2)提取深度图像最大深度差相邻点:
2a)计算深度图像中各像素点的最大深度差值,记录下该最大深度差值对应的邻域点的像素坐标,
2b)结合拍摄深度图像时摄像机的内外参数信息,对深度图像进行反投影变换,重建深度图像中每个像素点的三维坐标;
(3)利用深度图像中的遮挡边界点及其对应的最大深度差相邻点的三维坐标以及摄像机的当前观测方位计算遮挡区域外接表面上各小平面对应的候选参考观测方向及观测中心点;
(4)基于投影降维思想确定遮挡区域外接表面最佳小平面集合并根据该最佳小平面集合的信息计算下一最佳观测方位:
4a)计算每个候选参考观测方向所对应的遮挡边界点和最大深度差相邻点的欧氏距离,即每个小平面所对应的遮挡线段的长度,
4b)计算每个候选参考观测方向在指定的坐标系xoy平面内的投影与该坐标系x轴正方向的夹角α,
4c)根据已计算出的每个候选参考观测方向对应投影向量的夹角α,基于积分原理,计算由指定角度φ起始,固定角度γ范围内对应的遮挡区域外接表面面积Sφ,其中0°≤φ<360°;记录计算最大观测面积Smax及其对应的角度范围[φbeginend],其中φendbegin+γ,Smax对应的φ值为φbegin;对每个对应夹角值在[φbeginend]范围内的候选参考观测方向计算其对应的权值wi
4d)根据上述计算出的信息,计算下一最佳观测方向及观测中心点,如果Smax小于遮挡区域外接表面面积阈值St,则进行步骤4d1)及4d2),如果Smax大于或等于遮挡区域外接表面面积阈值St,则进行步骤4d3)至4d6):
4d1)计算摄像机当前观测方向的反方向并将其作为下一最佳观测方向,
4d2)计算当前观测方位下获取到的视觉目标三维坐标的中心点并将其作为下一最佳观测中心点,
4d3)获得夹角α在[φii+γ]范围内的所有投影向量对应的候选参考观测方向,
4d4)获取上述候选参考观测方向对应的观测中心点和权值ωi
4d5)对获取的所有候选参考观测方向加权求和得到下一最佳观测方向,
4d6)对获取的所有观测中心点加权求和得到下一最佳观测中心点,
4e)依据计算出的下一最佳观测方向和观测中心点计算摄像机的观测位置,
4f)输出计算出的下一最佳观测方位。
本发明首先从某一观测方位获取视觉目标的一幅深度图像,然后根据已获得的深度图像中的遮挡信息确定出下一最佳观测方位,从而使摄像机在所求观测方位下能够最大量地观测到当前观测方位下视觉目标上的被遮挡区域。本发明从遮挡区域出发展开研究,避免了对摄像机观测方位的限制,通过综合考虑最佳小平面集合中每个小平面的影响,确定出合理的下一最佳观测方位。
本发明较之现有技术的优势在于:
(1)所需输入数据为深度图像、该图像中的遮挡边界以及获取该幅深度图像时摄像机的内外参数,无需预先获取视觉目标的先验知识。
(2)基于分治思想,依据深度图像中的遮挡边界点及其最大深度差相邻点的信息确定下一最佳观测方位,对视觉目标表面形状无依赖关系,适用于具有不同型面的视觉目标。
(3)以遮挡区域为研究对象,利用遮挡区域外接表面最佳小平面集合实现了对下一最佳观测方位简便、高效的求解,整个过程未对摄像机位置做特殊限制。
附图说明
图1是本发明基于深度图像利用遮挡信息确定下一最佳观测方位的方法的流程图;
图2是本发明不同情形下候选参考观测方向及观测中心点示意图;
图3是本发明不同情形下Q点在深度图像平面的投影点位置示意图;
图4是本发明摄像机观测遮挡区域外接表面时的可视空间及候选参考观测方向投影示意图;
图5是本发明投影向量的分布情况示意图;
图6是本发明候选参考观测方向在指定坐标系xoy平面的投影示意图;
图7是本发明下一最佳观测方向和观测中心点与摄像机观测位置之间的关系;
图8是基于本发明的部分实验结果。
具体实施方式
以下结合附图对本发明做出更加详细的说明,但该实施过程不应理解为对本发明的限制。
如图1所示,所述基于深度图像利用遮挡信息确定下一最佳观测方位包括以下步骤:
步骤1:获取深度图像及其遮挡边界和摄像机内外参数。
利用已有深度图像或深度图像获取设备(如Kinect)获取深度图像同时记录下获取深度图像时的摄像机内外参数,在此基础上利用已有的遮挡检测方法对深度图像进行遮挡检测得到遮挡信息。
步骤2:提取深度图像最大深度差相邻点。
2.1)设深度图像中某点的坐标为(i,j),深度值为depth(i,j),则其8个邻域点的坐标分别为(i-1,j-1)、(i,j-1)、(i+1,j-1)、(i-1,j)、(i+1,j)、(i-1,j+1)、(i,j+1)和(i+1,j+1),深度值分别为depth(i-1,j-1)、depth(i,j-1)、depth(i+1,j-1)、depth(i-1,j)、depth(i+1,j)、depth(i-1,j+1)、depth(i,j+1)和depth(i+1,j+1)。定义点(i,j)的最大深度差值为
max depth ( i - 1 , j - 1 ) - depth ( i , j ) depth ( i , j - 1 ) - depth ( i , j ) depth ( i + 1 , j - 1 ) - depth ( i , j ) depth ( i - 1 , j ) - depth ( i , j ) 0 depth ( i + 1 , j ) - depth ( i , j ) depth ( i - 1 , j + 1 ) - depth ( i , j ) depth ( i , j + 1 ) - depth ( i , j ) depth ( i + 1 , j + 1 ) - depth ( i , j ) - - - ( 1 )
提取一幅深度图像的最大深度差相邻点的具体方法为:遍历整幅深度图像中的各点,按公式(1)计算该点的最大深度差值,记录下该最大深度差值对应的邻域点的像素坐标。遍历完整幅图像后,即可得到每个像素点的最大深度差相邻点的像素坐标。
2.2)获取深度图像中每个像素点的三维坐标,对于已获取的单幅深度图像,可以利用拍摄该幅深度图像时摄像机的内外参数信息,依据投影变换原理,对该幅深度图像进行反投影变换,从而重建出深度图像中每个像素点在世界坐标系中的三维坐标。
步骤3:利用深度图像中的遮挡边界点及其对应的最大深度差相邻点的三维坐标以及摄像机的当前观测方位计算遮挡区域外接表面上各小平面对应的候选参考观测方向及观测中心点。
设摄像机当前的观测方向为Vcamera,在当前观测方位下,任取一个遮挡边界点A,坐标为(xA,yA,zA),其对应的最大深度差相邻点F的坐标为(xF,yF,zF),记由点A和点F确定的遮挡线段为lAF,由lAF表示的小平面为PatchAF,则该小平面的候选参考观测中心点和观测方向的计算方法如下:
3.1)计算候选参考观测中心点P。设其坐标为(xP,yP,zP),计算公式为
x P = ( x A + x F ) / 2 y P = ( y A + y F ) / 2 z P = ( z A + z F ) / 2 - - - ( 2 )
3.2)计算候选参考观测方向Vcandidate。对于小平面PatchAF由其对应的遮挡线段lAF近似表示,PatchAF的候选参考观测方向Vcandidate(PatchAF法向量的反方向)应垂直指向lAF且过其中点。因此,确定Vcandidate至少需要PatchAF上的两个方向向量,而目前PatchAF上可利用的方向向量只有VAF(点A和点F确定的向量),因此需要利用Vcamera与VAF计算出PatchAF上另一个方向向量Vx(Vx为Vcamera与VAF的叉积),然后再利用Vx与VAF进一步求得Vcandidate。分析发现,摄像机与遮挡区域空间位置关系有两种情形,其中,情形1为摄像机主光轴穿过遮挡区域,与遮挡区域相交;情形2为摄像机主光轴未穿过遮挡区域,与遮挡区域不相交。由于同一视觉目标中可能存在多处遮挡现象,因此,这两种情形可能会在摄像机的某一观测方位下同时出现。为了区别这两种情形,图2(a)和图2(b)分别给出了这两种情形对应的遮挡边界点A及其最大深度差相邻点F确定出的候选参考观测方向及观测中心点的示意图。
3.2a)计算Vx和Vtemp,并将Vtemp作为临时候选参考观测方向。Vx和Vtemp的计算公式分别为
Vx=Vcamera×VAF (3)和
Vtemp=VAF×Vx (4)
3.2b)将Vtemp单位化,得到其对应的单位向量vtemp,将式(2)中计算出的观测中心点P作为vtemp的终点,计算vtemp的起点Q的坐标(xQ,yQ,zQ)。此处使用vtemp而不直接使用Vtemp来确定Q点的坐标是为了保证后续对Q点进行投影变换时,其所对应的投影点位于深度图像的平面内。
3.2c)利用已得到的摄像机内外参数,对Q点进行投影变换,可以获得Q点在深度图像平面内的投影点Qproject。图3(a)和图3(b)分别给出了图2(a)和图2(b)所示两种情形下Qproject相对于遮挡边界点A及其最大深度差相邻点F的投影点Aproject和Fproject的位置关系。其中,图3(a)所示情形为摄像机主光轴与遮挡区域相交时点Qproject、点Aproject和点Fproject的位置关系,而图3(b)所示情形为摄像机主光轴与遮挡区域不相交时点Qproject、点Aproject和点Fproject的位置关系。
3.2d)记Aproject和Qproject所形成的向量与Aproject和Fproject所形成的向量的夹角为θ。由图2(a)分析可知,当摄像机主光轴与遮挡区域相交时,θ角小于90°,而由图2(b)分析可知,当摄像机主光轴与遮挡区域不相交时,θ角大于90°。因此,可以根据θ角的大小来确定Vcandidate的方向。分别记Qproject、Aproject和Fproject的坐标为(iQ,jQ),(iA,jA)和(iF,jF),记Aproject和Qproject形成的向量为记Aproject和Fproject形成的向量为则θ角的计算公式为:
&theta; = arccos ( V A * Q * &CenterDot; V A * F * | | V A * Q * | | &times; | | V A * F * | | ) = arccos ( ( i Q - i A ) &times; ( i F - i A ) + ( j Q - j A ) &times; ( j F - j A ) ( i Q - i A ) 2 + ( j Q - j A ) 2 &times; ( i F - i A ) 2 + ( j F - j A ) 2 ) - - - ( 5 )
3.2e)根据计算出的θ角的值确定出候选参考观测方向Vcandidate,方法为:
步骤4:基于投影降维思想确定遮挡区域外接表面最佳小平面集合并根据该最佳小平面集合的信息计算下一最佳观测方位。
4.1)计算每个候选参考观测方向所对应的遮挡边界点和最大深度差相邻点的欧氏距离,即每个小平面所对应的遮挡线段的长度。
4.2)计算每个候选参考观测方向在指定的坐标系(要求该坐标系的z轴正方向为摄像机当前的观测方向)xoy平面内的投影与该坐标系x轴正方向的夹角α。
4.2a)确定指定坐标系的x轴、y轴和z轴正方向的单位向量。任取一个遮挡边界点A及其最大深度差相邻点F的三维坐标,二者可以确定一个向量VAF,应用步骤3中公式(3)可计算出摄像机当前观测方向Vcamera与向量VAF的叉积Vx,将Vx的方向作为x轴的正方向,同时,将其单位化可得到x轴正方向的单位向量ex,然后,将Vcamera的方向作为z轴的正方向,将其单位化可得到z轴正方向的单位向量ez,则根据右手螺旋定则,y轴正方向单位向量ey即为ez与ex的叉积。
4.2b)获取所有候选参考观测方向对应的投影向量。摄像机对遮挡区域外接表面进行观测时,其可视空间(视野)及候选参考观测方向在指定平面内的梯形投影区域如图4所示,通过该区域可以确定出一个有意义的投影向量集合。该集合中任意两个投影向量的夹角应小于等于一个固定角度γ,以便保证该集合中所有投影向量对应的小平面(遮挡线段)可见。分析图4可知,若摄像机可视空间对应的梯形投影区域两个腰的夹角为β,则γ应为π-β。一般情况下,β取为摄像机的水平视场角。基于该投影方式,将所有候选参考观测方向向指定坐标系的xoy平面进行投影,并将所有投影向量的起点都移到指定坐标系xoy平面的原点,则平移前的投影向量分布情况如图5(a)所示,平移后的投影向量分布如图5(b)所示。
4.2c)计算每个候选参考观测方向在指定坐标系xoy平面的投影向量。在世界坐标系下,对任意候选参考观测方向Vcandidate,记其坐标为(xc,yc,zc)。记ex、ey和ez的坐标分别为则Vcandidate在指定坐标系的坐标(x′c,y′c,z′c)的计算公式为
x c &prime; y c &prime; z c &prime; = x e x x e y x e z y e x y e y y e z z e x z e y z e z - 1 x c y c z c - - - ( 7 )
设Vcandidate在指定坐标系xoy平面的投影向量为Vproject,坐标为(xproject,yproject),则其坐标值xproject和yproject应分别为Vcandidate在指定坐标系x轴和y轴的坐标值x′c和y′c,即
(xproject,yproject)=(x′c,y′c) (8)
4.2d)计算每个投影向量与x轴正方向的夹角α。任取一个候选参考观测方向Vcandidate,其在指定坐标系xoy平面的投影Vproject的位置如图6所示,夹角α为x轴正方向沿箭头所示方向与Vproject的夹角,其中α∈[0°,360°)。对任意投影向量Vproject,坐标为(xproject,yproject),其与x轴正方向的夹角α的计算公式为
4.3)对于每组由遮挡边界点及其最大深度差相邻点组成的点对,其都与一个候选参考观测方向和一个观测中心点相对应,根据已计算出的每个候选参考观测方向对应投影向量的夹角α的值,基于积分原理,计算由指定角度φ起始,固定角度γ范围内对应的遮挡区域外接表面面积Sφ,计算公式为
S &phi; = &Sigma; l i &Element; { L } &phi; area ( l i ) - - - ( 10 )
其中,{L}φ为遮挡线段的集合,该集合中每条遮挡线段对应的候选参考观测方向的投影向量的夹角α均在[φ,φ+γ]范围内,φ∈[0°,360°),area(li)为集合{L}φ中第i条遮挡线段li所代表的小平面的面积。在此基础上,设定φ的初始值为0°,以某一设定步长遍历φ所有可能的取值(遍历方向如图5(b)所示),即可计算出不同φ值所对应的遮挡区域外接表面面积Sφ
4.4)依据公式(11)计算出Smax,公式如下:
同时,记录下Smax对应的φ值,记为φbegin,从而得到Smax对应的角度范围[φbeginend],其中φendbegin+γ。
4.5)根据上述已计算出的信息,计算下一最佳观测方向VNBV及观测中心点Pview。设VNBV的坐标为(xNBV,yNBV,zNBV),Pview的坐标为(xview,yview,zview),遮挡区域外接表面面积阈值为St。根据Smax与St的大小关系,分两种情况进行讨论。
①当0≤Smax<St时,即当前观测方位不存在遮挡区域或者外接表面面积小于给定阈值St时,按如下方法计算VNBV和Pview。设摄像机当前的观测方向为Vcamera,坐标为(xcamera,ycamera,zcamera),当前观测方位下获得的视觉目标点总数为Nmodel,当前观测方位下观测到的任意视觉目标点Mi的坐标为则VNBV的计算公式为
x NBV = - x camera y NBV = - y camera z NBV = - z camera - - - ( 12 )
Pview的计算公式为
x view = ( &Sigma; x M i ) / N mode l y view = ( &Sigma; y M i ) / N mode l z view = ( &Sigma; z M i ) / N mode l - - - ( 13 )
②当Smax≥St时,即遮挡区域外接表面面积大于给定阈值St时,VNBV和Pview计算方法如下所述。设Vi为任意对应夹角值在[φbeginend]范围内的候选参考观测方向,Vi对应的观测中心点为Pi,Vi和Pi的坐标分别为(xi,yi,zi)和则VNBV的计算公式为
x NBV = &Sigma; &omega; i &CenterDot; x i y NBV = &Sigma; &omega; i &CenterDot; y i z NBV = &Sigma; &omega; i &CenterDot; z i - - - ( 14 )
Pview的计算公式为
x view = &Sigma; &omega; i &CenterDot; x P i y view = &Sigma; &omega; i &CenterDot; y P i z view = &Sigma; &omega; i &CenterDot; z P i - - - ( 15 )
式(14)和(15)中,ωi为Vi对应的权值,设Vi对应的遮挡线段为li,则ωi的计算公式为
&omega; i = area ( l i ) S max - - - ( 16 )
4.6)根据计算出的下一最佳观测方向和观测中心点计算摄像机的观测位置Pcamera。图7给出了下一最佳观测方向和观测中心点与摄像机观测位置之间的关系。
记Pcamera的坐标为摄像机相对于观测中心点的观测距离为dcamera。设由点Pcamera和点Pview确定的向量为V′NBV,Pcamera为V′NBV的起点,Pview为V′NBV的终点。由图6可知,||V′NBV||=dcamera,V′NBV是VNBV的平行向量,且方向相同,记V′NBV的坐标为(x′NBV,yNBV,z′NBV),由平行向量的性质可得
( x NBV &prime; , y NBV &prime; , z NBV &prime; ) = | | V NBV &prime; | | | | V NBV | | ( x NBV , y NBV , z NBV ) = d camera | | V NBV | | ( x NBV , y NBV , z NBV ) - - - ( 17 )
又由于
( x NBV &prime; , y NBV &prime; , z NBV &prime; ) = ( x view - x P camera , y view - y P camera , z view - z P camera ) - - - ( 18 )
因此,通过公式(17)和公式(18)可得Pcamera的计算公式为
x P camera = x view - x NBV &CenterDot; d camera | | V NBV | | y P camera = y view - y NBV &CenterDot; d camera | | V NBV | | z P camera = z view - z NBV &CenterDot; d camera | | V NBV | | - - - ( 19 )
至此,已确定出下一最佳观测方位(VNBV,Pcamera)。
图8给出了基于本发明的部分实验结果,从上到下6种不同复杂程度的视觉目标名称分别为Bunny,Duck,Mole,Rocker,Dragon,Banana。此6个视觉目标图像来自于http://range.informatik.uni-stuttgart.de/htdocs/html上的Stuttgart Range ImageDatabase。图8中,第1列为摄像机在当前观测方位下拍摄到的视觉目标的深度图像,第2列为视觉目标深度图像中的遮挡边界点(黄色像素点)及其最大深度差相邻点(红色像素点),第3列为计算出的所有候选参考观测方向(绿色向量,方向指向物体)及最终的下一最佳观测方向(黄色向量,方向指向物体),第4列为所求下一最佳观测方位对应的遮挡线段(红色线段)及观测中心点(绿色像素点),第5列为摄像机移动到下一最佳观测方位时获取到的深度图像。

Claims (10)

1.一种基于深度图像利用遮挡信息确定下一最佳观测方位的方法,其特征在于,该方法包含以下步骤:
(1)获取深度图像及其遮挡边界和摄像机内外参数;
(2)提取深度图像最大深度差相邻点:
2a)计算深度图像中各像素点的最大深度差值,记录下该最大深度差值对应的邻域点的像素坐标,
2b)结合拍摄深度图像时摄像机的内外参数信息,对深度图像进行反投影变换,重建深度图像中每个像素点的三维坐标,
(3)计算遮挡区域外接表面上各小平面的观测中心点和候选参考观测方向:
3a)利用深度图像中的遮挡边界点及其对应的最大深度差相邻点的三维坐标的中点来表示外接表面上各小平面的观测中心点P,
3b)计算候选参考观测方向,首先,通过Vtemp=VAF×Vx确定临时候选参考观测方向Vtemp,其中公式中的Vx通过Vx=Vcamera×VAF计算得到,其次,将Vtemp单位化,并设定P为该单位向量的终点,并计算其起点Q并将Q点进行投影变换,最后,利用点A在深度图像平面内的投影点Aproject与Q点在深度图像平面内的投影点Qproject所形成的向量点A在深度图像平面内的投影点Aproject与F点在深度图像平面内的投影点Fproject所形成的向量这两个向量的夹角θ和临时候选参考观测方向Vtemp来确定各小平面候选参考观测方向,
(4)基于投影降维思想确定遮挡区域外接表面最佳小平面集合并根据该最佳小平面集合的信息计算下一最佳观测方位:
4a)计算每个候选参考观测方向所对应的遮挡边界点和最大深度差相邻点的欧氏距离,即每个小平面所对应的遮挡线段的长度,
4b)计算每个候选参考观测方向在指定的坐标系xoy平面内的投影与该坐标系x轴正方向的夹角α,
4c)根据已计算出的每个候选参考观测方向对应投影向量的夹角α,基于积分原理,计算由指定角度φ起始,固定角度γ范围内对应的遮挡区域外接表面面积Sφ,其中0°≤φ<360°;记录计算最大观测面积Smax及其对应的角度范围[φbeginend],其中φend=φbegin+γ,Smax对应的φ值为φbegin;对每个对应夹角值在[φbeginend]范围内的候选参考观测方向计算其对应的权值ωi
4d)根据上述计算出的信息,计算下一最佳观测方向及观测中心点,如果Smax小于遮挡区域外接表面面积阈值St,则进行步骤4d1)及4d2),如果Smax大于或等于遮挡区域外接表面面积阈值St,则进行步骤4d3)至4d6):
4d1)计算摄像机当前观测方向的反方向并将其作为下一最佳观测方向,
4d2)计算当前观测方位下获取到的视觉目标三维坐标的中心点并将其作为下一最佳观测中心点,
4d3)获得夹角α在[φii+γ]范围内的所有投影向量对应的候选参考观测方向,
4d4)获取上述候选参考观测方向对应的观测中心点和权值ωi
4d5)对获取的所有候选参考观测方向加权求和得到下一最佳观测方向,
4d6)对获取的所有观测中心点加权求和得到下一最佳观测中心点,
4e)依据计算出的下一最佳观测方向和观测中心点计算摄像机的观测位置;
4f)输出计算出下一最佳观测方位。
2.根据权利要求1所述的一种基于深度图像利用遮挡信息确定下一最佳观测方位的方法,其中步骤2a)所述的计算深度图像中各像素点的最大深度差值,按如下公式计算:
M a x d e p t h ( i - 1 , j - 1 ) - d e p t h ( i , j ) d e p t h ( i , j - 1 ) - d e p t h ( i , j ) d e p t h ( i + 1 , j - 1 ) - d e p t h ( i , j ) d e p t h ( i - 1 , j ) - d e p t h ( i , j ) 0 d e p t h ( i + 1 , j ) - d e p t h ( i , j ) d e p t h ( i - 1 , j + 1 ) - d e p t h ( i , j ) d e p t h ( i , j + 1 ) - d e p t h ( i , j ) d e p t h ( i + 1 , j + 1 ) - d e p t h ( i , j )
其中(i,j)和depth(i,j)分别为深度图像中某点的坐标和深度值。
3.根据权利要求1所述的一种基于深度图像利用遮挡信息确定下一最佳观测方位的方法,其中步骤(3)所述的计算遮挡区域外接表面上各小平面对应的候选参考观测方向及观测中心点,按如下步骤进行:
3a)计算候选参考观测中心点P,设其坐标为(xP,yP,zP),计算公式如下:
x P = ( x A + x F ) / 2 y P = ( y A + y F ) / 2 z P = ( z A + z F ) / 2
其中(xA,yA,zA)为在当前观测方位下,任取一个遮挡边界点A的三维坐标,(xF,yF,zF)为A点对应的最大深度差相邻点F点的三维坐标,
3b)计算候选参考观测方向Vcandidate,按如下步骤进行:
3b1)计算Vx和Vtemp,并将Vtemp作为临时候选参考观测方向,按如下公式计算:
Vx=Vcamera×VAF
Vtemp=VAF×Vx
其中Vx为Vcamera与VAF的叉积,Vcamera为摄像机当前的观测方向,VAF为点A和点F确定的向量,
3b2)将Vtemp单位化,得到其对应的单位向量vtemp,将上述计算出的观测中心点P作为vtemp的终点,计算vtemp的起点Q的坐标(xQ,yQ,zQ),
3b3)利用摄像机内外参数,对Q点进行投影变换,获得Q点在深度图像平面内的投影点Qproject
3b4)计算由A点在深度图像平面内的投影点Aproject和Q点在深度图像平面内的投影点Qproject所形成的向量与Aproject和F点在深度图像平面内的投影点Fproject所形成的向量的夹角θ,按如下公式计算:
&theta; = arccos ( V A * Q * &CenterDot; V A * F * | | V A * Q * | | &times; | | V A * F * | | ) = arccos ( ( i Q - i A ) &times; ( i F - i A ) + ( j Q - j A ) &times; ( j F - j A ) ( i Q - i A ) 2 + ( j Q - j A ) 2 &times; ( i F - i A ) 2 + ( j F - j A ) 2 )
其中(iQ,jQ),(iA,jA)和(iF,jF)为Qproject、Aproject和Fproject的坐标,为Aproject和Qproject形成的向量,为Aproject和Fproject形成的向量,
3b5)根据计算出的θ角值确定候选参考观测方向Vcandidate,按如下方法:
其中Vtemp为临时候选参考观测方向。
4.根据权利要求1所述的一种基于深度图像利用遮挡信息确定下一最佳观测方位的方法,其中步骤4b)所述的计算每个候选参考观测方向在指定的坐标系xoy平面内的投影与该坐标系x轴正方向的夹角α,按如下步骤进行:
4b1)确定指定坐标系的x轴、y轴和z轴正方向的单位向量,
4b2)获取所有候选参考观测方向对应的投影向量,
4b3)计算每个候选参考观测方向在指定坐标系xoy平面的投影向量,
4b4)计算每个投影向量与x轴正方向的夹角α,按下式计算:
其中xproject,yproject为任一候选参考观测方向Vcandidate在指定的坐标系xoy平面内的投影向量Vproject的坐标。
5.根据权利要求1所述的一种基于深度图像利用遮挡信息确定下一最佳观测方位的方法,其中步骤4c)中
所述的遮挡区域外接表面面积Sφ,按下式计算:
S &phi; = &Sigma; l i &Element; { L } &phi; a r e a ( l i )
其中{L}φ为遮挡线段的集合,该集合由对应的候选参考观测方向投影向量夹角α在[φ,φ+γ]范围内的所有遮挡线段组成,φ∈[0°,360°),area(li)为集合{L}φ中第i条遮挡线段li所代表的小平面的面积,
所述的最大观测面积Smax,按下式计算:
6.根据权利要求1所述的一种基于深度图像利用遮挡信息确定下一最佳观测方位的方法,其中步骤4d1)所述的下一最佳观测方向VNBV,按下式计算:
x N B V = - x c a m e r a y N B V = - y c a m e r a z N B V = - z c a m e r a
其中xNBV,yNBV,zNBV为VNBV的坐标,xcamera,ycamera,zcamera为摄像机当前的观测方向Vcamera的坐标。
7.根据权利要求1所述的一种基于深度图像利用遮挡信息确定下一最佳观测方位的方法,其中步骤4d2)所述的下一最佳观测中心点Pview,按下式计算:
x v i e w = ( &Sigma;x M i ) / N mod e l y v i e w = ( &Sigma;y M i ) / N mod e l z v i e w = ( &Sigma;z M i ) / N mod e l
其中xview,yview,zview为Pview的坐标,Nmodel为当前观测方位下获得的视觉目标点总数,为当前观测方位下观测到的任意视觉目标点Mi的坐标。
8.根据权利要求1所述的一种基于深度图像利用遮挡信息确定下一最佳观测方位的方法,其中步骤4d5)所述的下一最佳观测方向VNBV,按下式计算:
x N B V = &Sigma;&omega; i &CenterDot; x i y N B V = &Sigma;&omega; i &CenterDot; y i z N B V = &Sigma;&omega; i &CenterDot; z i
其中xNBV,yNBV,zNBV为VNBV的坐标,xi,yi,zi为Vi的坐标,Vi为任意对应夹角值在(φbeginend)范围内的候选参考观测方向,ωi为每个对应夹角值在[φbeginend]范围内的候选参考观测方向对应的权值,按下式计算:
&omega; i = a r e a ( l i ) S m a x .
9.根据权利要求1所述的一种基于深度图像利用遮挡信息确定下一最佳观测方位的方法,其中步骤4d6)所述的下一最佳观测中心点Pview,按下式计算:
x v i e w = &Sigma;&omega; i &CenterDot; x P i y v i e w = &Sigma;&omega; i &CenterDot; y P i z v i e w = &Sigma;&omega; i &CenterDot; z P i
其中Pi为Vi对应的观测中心点,为Pi的坐标。
10.根据权利要求1所述的一种基于深度图像利用遮挡信息确定下一最佳观测方位的方法,其中步骤4e)所述的摄像机的观测位置Pcamera,按下式计算:
x P c a m e r a = x v i e w - x N B V &CenterDot; d c a m e r a | | V N B V | | y P c a m e r a = y v i e w - y N B V &CenterDot; d c a m e r a | | V N B V | | z P c a m e r a = z v i e w - z N B V &CenterDot; d c a m e r a | | V N B V | |
其中为Pcamera的坐标,dcamera为摄像机相对于观测中心点的观测距离。
CN201410015961.XA 2014-01-14 2014-01-14 基于深度图像利用遮挡信息确定下一最佳观测方位的方法 Expired - Fee Related CN103810700B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410015961.XA CN103810700B (zh) 2014-01-14 2014-01-14 基于深度图像利用遮挡信息确定下一最佳观测方位的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410015961.XA CN103810700B (zh) 2014-01-14 2014-01-14 基于深度图像利用遮挡信息确定下一最佳观测方位的方法

Publications (2)

Publication Number Publication Date
CN103810700A CN103810700A (zh) 2014-05-21
CN103810700B true CN103810700B (zh) 2017-01-11

Family

ID=50707421

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410015961.XA Expired - Fee Related CN103810700B (zh) 2014-01-14 2014-01-14 基于深度图像利用遮挡信息确定下一最佳观测方位的方法

Country Status (1)

Country Link
CN (1) CN103810700B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104657985B (zh) * 2015-02-02 2018-07-03 燕山大学 基于深度图像遮挡信息的静态视觉目标遮挡规避方法
CN110415294A (zh) * 2018-04-28 2019-11-05 中移(苏州)软件技术有限公司 一种确定下一最佳观测方位的方法及装置
CN109900272B (zh) * 2019-02-25 2021-07-13 浙江大学 视觉定位与建图方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101122800A (zh) * 2007-08-24 2008-02-13 北京航空航天大学 一种复合式视觉导航方法与装置
CN102059703A (zh) * 2010-11-22 2011-05-18 北京理工大学 基于自适应粒子滤波的机器人视觉伺服控制方法
CN102782723A (zh) * 2010-02-25 2012-11-14 佳能株式会社 位置和方位估计方法及其设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060017720A1 (en) * 2004-07-15 2006-01-26 Li You F System and method for 3D measurement and surface reconstruction
EP2249292A1 (en) * 2009-04-03 2010-11-10 Siemens Aktiengesellschaft Decision making mechanism, method, module, and robot configured to decide on at least one prospective action of the robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101122800A (zh) * 2007-08-24 2008-02-13 北京航空航天大学 一种复合式视觉导航方法与装置
CN102782723A (zh) * 2010-02-25 2012-11-14 佳能株式会社 位置和方位估计方法及其设备
CN102059703A (zh) * 2010-11-22 2011-05-18 北京理工大学 基于自适应粒子滤波的机器人视觉伺服控制方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
A Next-Best-View System for Autonomous 3-D Object Reconstruction;Joseph E. Banta等;《IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS—PART A: SYSTEMS AND HUMANS》;20000930;第30卷(第5期);第589-598页 *
A Self-Occlusion Detection Approach Based on Depth Image Using SVM;Zhang Shihui等;《International Journal of Advanced Robotic Systems》;20121231;第9卷;第1-8页 *
Autonomous Generation of Complete 3D Object Models Using Next Best View Manipulation Planning;Michael Krainin等;《2011 IEEE International Conference on Robotics and Automation》;20110513;第5031-5037页 *
一种基于深度图像的自遮挡检测方法;张世辉等;《小型微型计算机系统》;20100531;第31卷(第5期);第964-968页 *
自动 3 维重构中确定下一最优视点的方法研究;姚兴田等;《江西师范大学学报(自然科学版)》;20131130;第37卷(第6期);第569-573页 *

Also Published As

Publication number Publication date
CN103810700A (zh) 2014-05-21

Similar Documents

Publication Publication Date Title
CN103252778B (zh) 用于估计机器人位置的设备及其方法
CN103994765B (zh) 一种惯性传感器的定位方法
CN103093479B (zh) 一种基于双目视觉的目标定位方法
Bansal et al. Geometric urban geo-localization
CN105608421B (zh) 一种人体动作的识别方法及装置
CN105528785A (zh) 一种双目视觉图像立体匹配方法
CN104809456B (zh) 一种基于二值描述符的三维目标识别方法
CN107833249A (zh) 一种基于视觉引导的舰载机着陆过程姿态预估方法
CN105551020B (zh) 一种检测目标物尺寸的方法及装置
CN104463899A (zh) 一种目标对象检测、监控方法及其装置
CN104751465A (zh) 一种基于lk光流约束的orb图像特征配准方法
CN109523595A (zh) 一种建筑工程直线棱角间距视觉测量方法
CN104035557B (zh) 一种基于关节活跃度的Kinect动作识别方法
CN101996416B (zh) 3d人脸捕获方法和设备
CN105335955A (zh) 对象检测方法和对象检测装置
CN103646396A (zh) 双目立体匹配算法的匹配代价算法和非局部立体匹配算法
CN110044374A (zh) 一种基于图像特征的单目视觉测量里程的方法及里程计
CN104850857B (zh) 基于视觉空间显著性约束的跨摄像机行人目标匹配方法
CN105631872B (zh) 基于多特征点的遥感图像配准方法
CN104517317A (zh) 一种车载红外图像三维重建方法
CN107816942A (zh) 一种基于十字结构光视觉系统的平面二维尺寸测量方法
CN103810700B (zh) 基于深度图像利用遮挡信息确定下一最佳观测方位的方法
CN107133986A (zh) 一种基于二维标定物的相机标定方法
CN105184786A (zh) 一种浮点型三角形特征描述方法
CN106570883A (zh) 一种基于rgb‑d相机的人数统计方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170111