CN105701821B - 立体图像表面探测匹配方法及装置 - Google Patents
立体图像表面探测匹配方法及装置 Download PDFInfo
- Publication number
- CN105701821B CN105701821B CN201610023697.3A CN201610023697A CN105701821B CN 105701821 B CN105701821 B CN 105701821B CN 201610023697 A CN201610023697 A CN 201610023697A CN 105701821 B CN105701821 B CN 105701821B
- Authority
- CN
- China
- Prior art keywords
- information
- crack
- directional
- new
- stereoscopic parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
一种立体图像表面探测匹配方法及装置,其中方法包括如下步骤,利用立体摄像机探测第一立体视差图,将所述第一立体视差图反投射成三维点云,根据三维点云生成不定向图,识别所述不定向图中的裂缝信息;重复在新的位姿探测新的立体视差图,根据新的立体视差图生成新的不定向图,将多个不定向图合并、消除裂缝信息直到所述裂缝信息在不定向图中的占比低于预设的阈值。上述技术方案通过单次测量确定立体视差图中的不明区域有针对性地设计新的探测位姿对裂缝进行再度探测,将多个探测点的信息合并,完成位置空间地图的探索。上述方法显著提高了效率,解决了未知空间构型探测的效果。
Description
技术领域
本发明涉及3D图像构建领域,尤其涉及一种立体图像表面探测与匹配的方法及装置。
背景技术
现有的3D摄像机能够大致探测空间中的三维影像,但仍然存在视野盲区,需要通过多机位多摄像机才能够对空间中物体的完整构型进行探测,多个摄像机的影像数据便需要通过特定方法进行精确匹配,因此,在本文中,我们要解决的是利用感应式立体摄影机来进行环境表面探测与匹配的问题,我们的目标是能产生一系列控制输入(类似一个伺服控制系统),用来控制我们的摄像机,以保证摄像机可以拍摄到环境空间中所有物体的表面上的每一个点。有了这样一个全面的覆盖后,我们就可以为整个环境空间构建一个统一的覆盖面S。这样做的动机来自于我们想要构建关于未知环境空间的完整详细的地图-在自动化感应式检测中非常重要的一项任务。在本文中,我们特地采用了立体摄像机来采集对任意复杂的环境空间的表面覆盖。
发明内容
为此,需要提供一种探测匹配方法,解决未知空间的探测构型问题。
为实现上述目的,发明人提供了一种立体图像表面探测匹配方法,包括如下步骤,利用立体摄像机探测第一立体视差图,将所述第一立体视差图反投射成三维点云,根据三维点云生成不定向图,识别所述不定向图中的裂缝信息;
重复在新的位姿探测新的立体视差图,根据新的立体视差图生成新的不定向图,将多个不定向图合并、消除裂缝信息直到所述裂缝信息在不定向图中的占比低于预设的阈值。
具体地,所述裂缝信息包括边信息和端点信息,所述步骤在新的位姿探测新的立体视差图包括步骤,根据边信息计算裂缝的优先探测顺序,根据端信息匹配最优探测裂缝的表面法线,确定新的位姿为正对所述表面法线的位置。
具体地,所述消除裂缝信息包括步骤,若在总不定向图中存在一条边满足大于一定阈值的信息不被遮挡,则在裂缝信息中消除该条边的边信息。
一种立体图像表面探测匹配装置,包括探测模块、不定向模块、识别模块、合并模块,
所述探测模块用于利用立体摄像机探测第一立体视差图,
所述不定向模块用于将所述第一立体视差图反投射成三维点云,根据三维点云生成不定向图;
所述识别模块用于识别所述立体视差图中的裂缝信息,
所述探测模块还用于在新的位姿探测新的立体视差图,
所述不定向模块还用于根据新的立体视差图生成新的不定向图,
所述合并模块用于将多个不定向图合并、消除裂缝信息直到所述裂缝信息在不定向图中的占比低于预设的阈值。
具体地,所述裂缝信息包括边信息和端点信息,还包括新位姿确定模块,所述新位姿确定模块用于,根据边信息计算裂缝的优先探测顺序,根据端信息匹配最优探测裂缝的表面法线,确定新的位姿为正对所述表面法线的位置。
具体地,所述合并模块还用于,若在新的立体视差图中存在一条边满足大于一定阈值的信息不被遮挡,则在裂缝信息中消除该条边的边信息。
区别于现有技术,上述技术方案通过单次测量确定立体视差图中的不明区域(裂缝)有针对性地设计新的探测位姿对裂缝进行再度探测,将多个探测点的信息合并,完成位置空间地图的探索。上述方法显著提高了效率,解决了未知空间构型探测的效果。
附图说明
图1为本发明具体实施方式所述的立体图像表面探测匹配方法流程图;
图2为本发明具体实施方式所述的立体像素对和视差影像构建图结构的结果示意图;
图3为本发明具体实施方式所述的裂缝的生成示意图;
图4为本发明具体实施方式所述的两个图结构的合并过程示意图;
图5为本发明具体实施方式所述的能见度测试示意图;
图6为本发明具体实施方式所述的立体图像表面探测匹配装置模块图。
附图标记说明:
600、探测模块;
602、识别模块;
604、不定向模块;
606、合并模块;
608、新位姿确定模块。
具体实施方式
为详细说明技术方案的技术内容、构造特征、所实现目的及效果,以下结合具体实施例并配合附图详予说明。
1、技术背景
本文所采取的方法建立在了几个明确的假设之上:
假设我们拥有关于摄像机每时每刻的位姿的精确信息-基于立体像对的使用以及即时定位与地图构建技术(SLAM)和运动中恢复结构技术(structure from motion)的发展现状,这是一个合理的假设。
尽管覆盖面S是非常复杂的,并有自相交的可能性,我们对环境空间只有两项限制条件:1)我们要求环境空间在拓扑上是连贯的(topologically connected),也就是说没有流动物体。2)从实用性角度出发,我们要求对于每一个覆盖面S中的点p来说都存在一个摄像机位姿,使得p在被投射进立体视差地图后是四相连的(four-connected)。
2、总体思路
本文所采取的方法总体思路如下:
首先利用所观察到的像素点,我们构建一个以这些像素点为端点的非平面图,也就是一个立体视差地图。根据相邻端点间在空间中的欧几里德距离,我们在立体视差地图中会将所有相邻端点用(与欧几里德距离成比例)加过权的边相连起来-将立体像素三角网格化形成空间中的相应位置。当摄像机拍摄了新的影像后,我们会将新的信息囊括进立体视差地图,使得更新过的地图在任何时候任意两个节间的边都与相应像素点间的最小欧几里德距离是一致的。同时,通过探测和排列图中一维“裂缝”(近距离中大权重边的集合)的“开裂”严重程度,计划出一条空间中连续的轨迹,来指导摄像机移动调整到一个新的位姿从而能得到“裂缝”中之前被隐藏的绝大部分信息影像,以将“裂缝”填补起来。这样一个位姿调整的过程会一直持续直到图中再没有显著的“裂缝”后才会停下来。
图1阐释了由典型的立体像素对和视差影像构建图结构的结果。(a)是输入的左侧影像(对应的右侧影像没有展示出来)。(b)展示了对和应用立体处理后得到的视差影像越暗的像素点离摄像机越远。(c)则是通过将有效的视差值三角网格立体化得到的点云。(d)展示了图像结构的细节-边的颜色由其权重决定:绿色代表了低权重边(即连接欧几里德距离相对小的像素点的边),而红色则代表了高权重边(即连接欧几里德距离相对大的像素点的边)。
3、具体方法
3.1符号规范
本文使用的符号规范如下。
在时间i时一个六自由度摄像机位姿(6 DoF camera pose)是
而在空间的点则是
p=[px,py,pz]T
立体像素相机拍到的左侧与右侧影像由和来表示。一个左侧影像中,对应行列为[r,c]T的像素点由表示,左侧影像中的像素点同理。从摄像机位姿ci拍摄到的左侧影像由来表示。
接下来请参阅图1,为本发明的一种立体图像表面探测匹配方法流程图。以下将结合具体的小节对本发明方法进行说明。
3.2立体视差地图的构建
3.2.1从感应式立体摄影机得到视差影像
在具体的实施例中,如图1所示,本发明方法开始于步骤S100利用立体摄像机探测第一立体视差图。由于感应式立体摄影机能够高速率地提供高密度点云和高分辨率的影像,本文选用了感应式立体摄影机作为感应器模型。感应式立体摄影机会同时提供左侧影像和右侧影像而我们可以使用一种局部的基于窗口的匹配技术来识别相应的像素点,得到视差影像
视差影像中的每个像素点都存有了一个浮点数据(floating point value)也就是的视差。这个视差就是像素点和(中同一个点分别左侧图像和右侧图像的影像)间的水平位移。
有一些像素点,由于匹配可信度太低或在图像中受到了遮挡,会被分配到一个错误值(也就是没有有效的视差值)。我们会用符号来指代在中那些存有有效视差值的像素点的集合
图2(a)和(b)展示了左侧影像的一个例子(Left image)和其对应得到的视差影像(Disparity image)。不属于的像素点在视差影像被用白色标记了出来。
3.2.2从视差影像生成点云
进一步地,请参照图1,还包括步骤S102将视差图反投射成三维点云,根据三维点云生成不定向图。在已知摄像机参数(其中最重要的是焦距f和基准线b)的情况下,我们能够将中的像素点反投射进并将其在对应的位置三角化。在摄像机位姿ci的反投射方程是:
对所有的像素点应用这个方程我们就得到一个点云:
这样得到的点云的缺乏组织性的-它仅仅只是空间中的一系列的(图2(c)展示了一个例子(Point cloud))。然而,我们用来生成这个点云的原始影像包含了大量关于像素点间的关系的信息,而我们的目标就是将这些信息包含到我们的图像结构的构建中。
两个相邻像素点如果具有相似的视差值,就意味着这两个像素点是环境中某个表面上的两个相邻点的影像。在视差图中,具有平滑梯度的区域象征着环境中的平滑表面,而那些不连续的区域(视差图中的边)则象征着环境中的不连续的物理结构。
一个不定向图(undirected graph),包含了以一系列端点,V,以及一系列描述端点间的连接性的边,E。在从摄像机位姿ci生成的单一视差图中,每一个像素点p∈P在不定向图中都是一个端点v。
每一个端点v,包含一个三维位置vx,一个曲面法线(surface normal)vn,和一个颜色vr,g,b。接着,我们通过考虑在中包围在v附近的像素点来构建与v相连接的边。如果我们在观察到了v,那么我们就考虑它附近的像素点如果这些像素点中,有一个或者以上的像素点是拥有有效的视差值(这同时也就意味着这个像素点在中有对应的端点u)的话,我们就在v和u中创建一条边e。每一条边e都有一个相关联的权重ew-在这个例子中这个权重ew也就是这两个端点在中的欧几里德距离:
ew=||vx-ux||2
图2就展示了从一对典型的立体影像中生成这样一个不定向图的各个步骤。
3.2.3识别图中一维“裂缝”(一定距离中大权重边的集合)
在某些实施例中,为了来解决如何识别图中的“裂缝”,即一段相对近的距离中存在的大权重边的集合,也就是我们需要标记收集更多信息的区域。在图3中我们可以清楚地看到大权重边在近距离内的集合象征了环境中(从我们现有的视角出发)的不连续物理结构。因此本方法还包括步骤S104识别不定向图中的裂缝信息。我们在图中识别这些裂缝的算法如下:
算法1:在图中识别“裂缝”
输入值:种子边es
边权重阀值δ
输出值:裂缝R
ToVisit=[es]
当时,进行操作
e=pop(ToVisit)
对每一个n∈临近点([eu,ev]),进行操作
对每一个d∈边(n),进行操作
如果dw>δ,那么
ToVisit=ToVisitUd
结束
结束
结束
结束
从一个高权重边e开始,我们递回地爬找跟其端点以及端点的临近端点相连的边中的高权重边。这样爬找出来的每一条高权重边,都会意义被加入到裂缝R中,包括这个边所连接的两个端点。最终,我们就成功地在识别除了裂缝R,并可以在组成裂缝R的这些端点的几何中心创立一个裂缝端点。
在图3的实施例中显示了裂缝的生成。从一条高权重边开始(由(a)中粗体深色的线表示),我们递回地爬找跟其端点以及端点的临近端点相连的边中的高权重边。被爬找过的边在图3(a)中用剪头标记了出来。最终识别生成出来的裂缝在图3(b)中展示了出来。
具体地,图3用一个包含着一条裂缝的简单图阐释了算法1运行的这个过程。从一条高权重边开始(由(a)中粗体红色的线表示),我们递回地爬找跟其端点以及端点的临近端点相连的边中的高权重边。被爬找过的边在图(a)中用剪头标记了出来。最终识别生成出来的裂缝在图(b)中展示了出来。裂缝端点在(b)中处在裂缝R的几何中心,由蓝线将其跟连接到一起。通过对中的每一条足够高权重的边应用算法1,我们能得到一系列裂缝
R=[R0,R1,...,Rn]。
3.2.4图的整合
进一步的实施例中,包括步骤S106,新的位姿探测新的立体视差图,生成新的不定向图,步骤S108将多个不定向图合并。在有了分别与摄像机位姿ci和位姿ci+1相关联的图和后,我们想要将两个图合并成形成一个新的图为什么呢?因为首先在中的任意一条裂缝,在都可能是观察不到的。而为了保证完整的表面覆盖,在某个点我们必须能够探测到所有既存的裂缝,所以我们并不想在转换位姿后就抛弃掉就的图结构。因此合并是一个必要的过程,而我们的合并的目标就是将和中那些表达的是中同一个点的端点合并起来。
算法2:图的合并操作
输入值:
最小距离阀值γ
输出值:
对每一个v∈Vi+1,进行操作
[,]T=π-1(vx)
距离=‖πi+1(r,c)-vx‖2
如果有效像素点&&距离<γ,那么
对每一个[u,v]∈边(n),进行操作
结束
结束
否则
Vm=VmUV
结束
结束
首先我们定义一个从点p到影像坐标[r,c]T的映射方程:
每一个端点都会被映射进视差图中。如果v被投射到了一个有效像素点上,也就是说这个像素点的坐标那么我们就能够计算v和πi+1(r,c)之间的距离。如果这个距离比最小距离阀值γ(可根据需要灵活定义,通常是1cm左右)小的话,我们就将从v伸出咋在中的边加到中的中对应的端点上,然后将v抛弃掉。否则,就将v加到中。这个操作的伪代码在算法2中给出来了,图4展示了操作的具体的图示过程。图4所示的实施例中,展示了两个图结构的合并过程。每一个在中的端点v都被投射进了中。如果v被投射到了一个有效像素点上,那么从v发出的边则会比被加进中相应的端点上,接着v就被抛弃了。否则就将v当作一个新的端点加到中。
3.2.5边的能见度测试
接下来要解决的问题就是要如何决定什么时候一个裂缝问题被真正解决了,也就是说这个裂缝所代表的环境中未知领域什么时候被充分的探索了。进一步地,还包括步骤,若在总不定向图中存在一条边满足大于一定阈值的信息不被遮挡,则在裂缝信息中消除该条边的边信息。我们先来考虑从摄像机位姿ci和新位姿ci+1看到的一条边e(如图5)。
如果中存在这样一个端点v,它和边e的一个端点以及摄像机位姿ci+1是在一条直线上的,那么我们就要对它进行一个能见度测试。首先,我们将边e的这个端点Pe投射进中:
如果我们可以检索找回v在中的位置:
Pr,c=vx
由于它们投射在同一个像素点上,这两个点Pe和Pr,c和摄像机位姿ci+1是共线的。所谓的能见度测试就是将两个点到摄像机位姿ci+1的中心的距离做一个比较:
如果那么Pr,c在Pe的遮挡下仍然是可见的。边e的终端点被投射进中后,我们通过布雷森汉姆直线算法(Bresenham line drawing algorithm)将需要测试的像素点集合筛选出来。然后通过对这些像素点进行能见度测试,如果有阀值(通常来说是75%)以上的像素点通过了测试,则将e从中删除。
图5所示的实施例展示了一个图形化的例子。在摄像机位姿ci两条红色的边e和e’被创建了出来。现在摄像机转移到了位姿ci+1,然后我们就需要对边e和e’进行能见度测试,看看它们是否能“存活”下来。由于摄像机现在在边e所有点后面都能看到像素点Pr,c,边将会被删除。而由于所有点P’e都会被像素点P’r,c遮挡住,所以边e’将会通过能见度测试并存活下来。
通过上述方法,边信息的能见度测试,进行步骤S110消除裂缝信息直到图中看不出明显裂缝,具体可以设定个阈值,表示裂缝信息在不定向图中的占比,消除裂缝信息直到所述裂缝信息在不定向图中的占比低于预设的阈值。达到消除不定向图中的裂缝信息,完善不定向图,构建立体图像表面探测构型的目的。
3.2.6计划下一个摄像机位姿(视角)
在优选的实施例中,新的位姿需要能够完整的反应裂缝信息,节约方法的步骤提高效率,因此还需要进行确定新的位姿。
在优选的实施例中,还包括步骤:根据边信息计算裂缝的优先探测顺序,根据端信息匹配最优探测裂缝的表面法线,确定新的位姿为正对所述表面法线的位置。
想要构建关于未知环境空间的完整详细的地图,我们就需要对摄像机的移动,每一次从位姿ci到位姿ci+1的连续移动轨迹进行计划。从位姿ci+1出发的观察视角应该要基于去除裂缝的目的,以增加对环境表面的覆盖度。
要达到这个目的,其中一个先决条件就是找到一个估计表面法线的方法-除了在摄像机移动时,我们要将摄像机的视角调至对准表面的方向之外,更重要的是每一个裂缝端点都要有一个相关联的取景方向。
A.表面法线的估计
对一个给定的端点v,我们通过考虑它在图中的邻近区域并将这个点集匹配进一个平面,来计算它的局部表面法线。这个方法的固有性质使得我们需要在数据平滑程度和噪音敏感度之间做一个权衡-如果选择较大的区域,那么在拥有高抗噪音能力的同时也会带来低分辨率的问题,反之则反。根据经验,我们发现选用在v周围一个边距内的端点,能给出可以接受的结果。
一个典型的端点会有四个一个边距内的邻近点(端点是四相连的),但在图合并(如3.2.4)之后可能会有更多这样的邻近点。加上这个其实端点,我们可以得到一个有k个点的集合:
然后运用奇异值分解(singular value decomposition)(在各种表面法线估计方法中,SVD在可靠度,质量和速度上总体来说是个好选择)来进行表面法线估计。
接着,通过对矩阵进行置中平减(mean-centering)然后解出下面的表达式来得到平面:
在这里n是平面法线[a,b,c]T而 +则是经过置中平减的矩阵:
是通过首先求得的UΣVT的奇异值分解。V中与Σ中最小的奇异值对应的向量就是平面的法线。
B.裂缝的选择
当我们面对一系列的裂缝R时,我们需要根据裂缝的开裂严重程度及裂缝距离摄像机位姿ci的远近程度来决定解决它们的顺序,每个裂缝对应的成本方程如下:
Δ代表来从ci开始穿过到达Ri的距离。而则代表来裂缝的开裂严重程度,这个“严重程度”时通过裂缝的大小,也就是裂缝中的边的数量来决定的。α和β则代表了距离和开裂严重程度分别占考量的权重,我们是根据具体的应用情况和图的大小来对α和β进行具体选择的。我们将对应成本最高的裂缝选为首要目标裂缝,Rd。而摄像机则会相应地移动到对准Rd的法线的位姿ci+1。通过在图中规划一条从位姿ci到位姿ci+1的轨道,我们就能找到摄像机应该遵循的移动轨迹。利用A星图像搜索算法(A star graph searchalgorithm),我们可以找到这条轨道,然后返回一系列有序的图端点,v=[vs…vg],以及连接这些端点的对应边-这些边一一相连就形成我们要找的这条从起始端点vs到目标端点vg的轨道。通过对中两个端点间的欧几里德距离运用可接受的启发性算法(admissibleheuristic),保证了A星图像搜索算法能够返回最短的轨道。
在这条轨道上的每一个端点v都有一个法线vn,所以最终的摄像机轨道包含的是一系列有序的位姿cpatj=[cs,…,cg],每一个位姿的摄像机视角都被校对到和表面法线平行的方向,并与表面见得距离维持在一个固定的距离上(通常来说是1米)。此外,我们将组成一个裂缝所有的端点的法线取期待值,来得到这个裂缝的法线。
到了下一个新的摄像机位姿后,开始重复3.2中的步骤,直到在观察不到明显的裂缝为止。这样,我们最终就得到了一张关于未知环境空间完整的详细的地图。解决了立体图像表面探测匹配的问题,达到了未知环境空间构型的技术效果。
这里请看图6,为本发明的一种立体图像表面探测匹配装置模块图,包括探测模块600、不定向模块602、识别模块604、合并模块606,
所述探测模块600用于利用立体摄像机探测第一立体视差图,
所述不定向模块602用于将所述第一立体视差图反投射成三维点云,根据三维点云生成不定向图;
所述识别模块604用于识别所述立体视差图中的裂缝信息,
所述探测模块602还用于在新的位姿探测新的立体视差图,
所述不定向模块602还用于根据新的立体视差图生成新的不定向图,
所述合并模块606用于将多个不定向图合并、消除裂缝信息直到所述裂缝信息在不定向图中的占比低于预设的阈值。通过上述模块设计,达到了对三维空间进行探测并构建不定向图,通过不断优化裂缝信息达到三维空间构型的技术效果,解决了立体图像表面探测匹配的问题。
具体地,所述裂缝信息包括边信息和端点信息,还包括新位姿确定模块608,所述新位姿确定模块608用于,根据边信息计算裂缝的优先探测顺序,根据端信息匹配最优探测裂缝的表面法线,确定新的位姿为正对所述表面法线的位置。
具体地,所述合并模块606还用于,若在新的立体视差图中存在一条边满足大于一定阈值的信息不被遮挡,则在裂缝信息中消除该条边的边信息。
区别于现有技术,上述装置通过单次测量确定立体视差图中的不明区域(裂缝)有针对性地设计新的探测位姿对裂缝进行再度探测,将多个探测点的信息合并,完成位置空间地图的探索。上述方法显著提高了效率,解决了未知空间构型探测的效果。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括……”或“包含……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的要素。此外,在本文中,“大于”、“小于”、“超过”等理解为不包括本数;“以上”、“以下”、“以内”等理解为包括本数。
本领域内的技术人员应明白,上述各实施例可提供为方法、装置、或计算机程序产品。这些实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。上述各实施例涉及的方法中的全部或部分步骤可以通过程序来指令相关的硬件来完成,所述的程序可以存储于计算机设备可读取的存储介质中,用于执行上述各实施例方法所述的全部或部分步骤。所述计算机设备,包括但不限于:个人计算机、服务器、通用计算机、专用计算机、网络设备、嵌入式设备、可编程设备、智能移动终端、智能家居设备、穿戴式智能设备、车载智能设备等;所述的存储介质,包括但不限于:RAM、ROM、磁碟、磁带、光盘、闪存、U盘、移动硬盘、存储卡、记忆棒、网络服务器存储、网络云存储等。
上述各实施例是参照根据实施例所述的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到计算机设备的处理器以产生一个机器,使得通过计算机设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机设备以特定方式工作的计算机设备可读存储器中,使得存储在该计算机设备可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机设备上,使得在计算机设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已经对上述各实施例进行了描述,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改,所以以上所述仅为本发明的实施例,并非因此限制本发明的专利保护范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围之内。
Claims (6)
1.一种立体图像表面探测匹配方法,其特征在于,包括如下步骤,利用立体摄像机探测第一立体视差图,将所述第一立体视差图反投射成三维点云,根据三维点云生成不定向图,识别所述不定向图中的裂缝信息;
重复在新的位姿探测新的立体视差图,根据新的立体视差图生成新的不定向图,将多个不定向图合并、根据边的能见度消除裂缝信息直到所述裂缝信息在不定向图中的占比低于预设的阈值。
2.根据权利要求1所述的立体图像表面探测匹配方法,其特征在于,所述裂缝信息包括边信息和端点信息,所述步骤在新的位姿探测新的立体视差图包括步骤,根据边信息计算裂缝的优先探测顺序,根据端信息匹配最优探测裂缝的表面法线,确定新的位姿为正对所述表面法线的位置。
3.根据权利要求1所述的立体图像表面探测匹配方法,其特征在于,所述消除裂缝信息包括步骤,若在总不定向图中存在一条边满足大于一定阈值的信息不被遮挡,则在裂缝信息中消除该条边的边信息。
4.一种立体图像表面探测匹配装置,其特征在于,包括探测模块、不定向模块、识别模块、合并模块,
所述探测模块用于利用立体摄像机探测第一立体视差图,
所述不定向模块用于将所述第一立体视差图反投射成三维点云,根据三维点云生成不定向图;
所述识别模块用于识别所述立体视差图中的裂缝信息,
所述探测模块还用于在新的位姿探测新的立体视差图,
所述不定向模块还用于根据新的立体视差图生成新的不定向图,
所述合并模块用于将多个不定向图合并、根据边的能见度消除裂缝信息直到所述裂缝信息在不定向图中的占比低于预设的阈值。
5.根据权利要求4所述的立体图像表面探测匹配装置,其特征在于,所述裂缝信息包括边信息和端点信息,还包括新位姿确定模块,所述新位姿确定模块用于,根据边信息计算裂缝的优先探测顺序,根据端信息匹配最优探测裂缝的表面法线,确定新的位姿为正对所述表面法线的位置。
6.根据权利要求4所述的立体图像表面探测匹配装置,其特征在于,所述合并模块还用于,若在新的立体视差图中存在一条边满足大于一定阈值的信息不被遮挡,则在裂缝信息中消除该条边的边信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610023697.3A CN105701821B (zh) | 2016-01-14 | 2016-01-14 | 立体图像表面探测匹配方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610023697.3A CN105701821B (zh) | 2016-01-14 | 2016-01-14 | 立体图像表面探测匹配方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105701821A CN105701821A (zh) | 2016-06-22 |
CN105701821B true CN105701821B (zh) | 2018-07-24 |
Family
ID=56227335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610023697.3A Active CN105701821B (zh) | 2016-01-14 | 2016-01-14 | 立体图像表面探测匹配方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105701821B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11624831B2 (en) * | 2021-06-09 | 2023-04-11 | Suteng Innovation Technology Co., Ltd. | Obstacle detection method and apparatus and storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102568026A (zh) * | 2011-12-12 | 2012-07-11 | 浙江大学 | 一种多视点自由立体显示的三维增强现实方法 |
CN102804231A (zh) * | 2009-06-15 | 2012-11-28 | 微软公司 | 三维场景的分段平面重建 |
GB2497517A (en) * | 2011-12-06 | 2013-06-19 | Toshiba Res Europ Ltd | Reconstructing 3d surfaces using point clouds derived from overlapping camera images |
CN103440681A (zh) * | 2013-09-12 | 2013-12-11 | 浙江工业大学 | 非接触无损全方位三维建模方法 |
CN103959308A (zh) * | 2011-08-31 | 2014-07-30 | Metaio有限公司 | 以参考特征匹配图像特征的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140192050A1 (en) * | 2012-10-05 | 2014-07-10 | University Of Southern California | Three-dimensional point processing and model generation |
-
2016
- 2016-01-14 CN CN201610023697.3A patent/CN105701821B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102804231A (zh) * | 2009-06-15 | 2012-11-28 | 微软公司 | 三维场景的分段平面重建 |
CN103959308A (zh) * | 2011-08-31 | 2014-07-30 | Metaio有限公司 | 以参考特征匹配图像特征的方法 |
GB2497517A (en) * | 2011-12-06 | 2013-06-19 | Toshiba Res Europ Ltd | Reconstructing 3d surfaces using point clouds derived from overlapping camera images |
CN102568026A (zh) * | 2011-12-12 | 2012-07-11 | 浙江大学 | 一种多视点自由立体显示的三维增强现实方法 |
CN103440681A (zh) * | 2013-09-12 | 2013-12-11 | 浙江工业大学 | 非接触无损全方位三维建模方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105701821A (zh) | 2016-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108154550B (zh) | 基于rgbd相机的人脸实时三维重建方法 | |
US11100401B2 (en) | Predicting depth from image data using a statistical model | |
Han et al. | Appearance-based material classification for monitoring of operation-level construction progress using 4D BIM and site photologs | |
CN108027984B (zh) | 用于在3d重建中检测和组合结构特征的方法和系统 | |
US9852238B2 (en) | 4D vizualization of building design and construction modeling with photographs | |
Hirschmuller | Stereo processing by semiglobal matching and mutual information | |
Turner et al. | Fast, automated, scalable generation of textured 3D models of indoor environments | |
Karsch et al. | ConstructAide: analyzing and visualizing construction sites through photographs and building models | |
US11521311B1 (en) | Collaborative disparity decomposition | |
CN108895981A (zh) | 一种三维测量方法、装置、服务器和存储介质 | |
EP3335197A1 (en) | Method and system for generating an image file of a 3d garment model on a 3d body model | |
CN108269266A (zh) | 使用马尔可夫随机场优化来产生分割图像 | |
CN106340036A (zh) | 一种基于双目立体视觉的立体匹配方法 | |
JP2021535466A (ja) | シーンの色及び深度の情報を再構成するための方法及びシステム | |
WO2014159483A2 (en) | Translated view navigation for visualizations | |
CA3232601A1 (en) | Browser optimized interactive electronic model based determination of attributes of a structure | |
EP4170593A1 (en) | Automated analysis of visual data of images to determine the images' acquisition locations on building floor plans | |
Furukawa | High-fidelity image-based modeling | |
CN105701821B (zh) | 立体图像表面探测匹配方法及装置 | |
López et al. | Depth from a Single Image Through User Interaction. | |
CN105138979A (zh) | 基于立体视觉的运动人体头部检测方法 | |
Lhuillier | Toward flexible 3d modeling using a catadioptric camera | |
Yao et al. | 3D modeling and rendering from multiple wide-baseline images by match propagation | |
Kim et al. | Bayesian 3D shape from silhouettes | |
Choi et al. | Discrete and continuous optimizations for depth image super-resolution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |