CN105869167A - 基于主被动融合的高分辨率深度图获取方法 - Google Patents

基于主被动融合的高分辨率深度图获取方法 Download PDF

Info

Publication number
CN105869167A
CN105869167A CN201610191165.0A CN201610191165A CN105869167A CN 105869167 A CN105869167 A CN 105869167A CN 201610191165 A CN201610191165 A CN 201610191165A CN 105869167 A CN105869167 A CN 105869167A
Authority
CN
China
Prior art keywords
tof
camera
parallax
pixel
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610191165.0A
Other languages
English (en)
Inventor
李素梅
刘娇丽
范如
侯春萍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201610191165.0A priority Critical patent/CN105869167A/zh
Publication of CN105869167A publication Critical patent/CN105869167A/zh
Pending legal-status Critical Current

Links

Abstract

本发明公开了一种基于主被动融合的高分辨率深度图获取方法,首先对TOF低分辨率深度图进行稀疏式上采样和视差图计算,将TOF相机产生的低分辨率深度图映射到3D场景的世界坐标系,再将三维点投影到与左彩色相机或右彩色相机坐标系形成TOF视差点阵;进行立体匹配和TOF深度融合,计算得到弱纹理区域的视差图、纹理区域的视差图和其他区域的视图差。与现有技术相比,本发明的算法具有一定鲁棒性;综合TOF深度相机和彩色立体相机的匹配算法的优势弥补各自算法的不足;能够对现实世界场景以及标准数据集展示出良好的效果,此算法具有较好的性能;该算法将在计算机视觉和机器人应用领域具有非常好的应用前景。

Description

基于主被动融合的高分辨率深度图获取方法
技术领域
本发明属于计算机图形处理技术领域,涉及一种高分辨率深度图获取方法。
背景技术
从2005年第一部真正意义上的立体电影《四眼天鸡》的出现,到2010年风靡全球的立体电影《阿凡达》的上映,引爆了立体电影的热潮。随着立体技术的日渐成熟和商业化的不断推进,立体成像和显示技术已广泛应用于工业、医疗、建筑、军事、娱乐等诸多领域,如汽车船舶的设计、虚拟现实技术、医疗内窥镜图像显示、医疗手术模拟、城市规划、建筑设计展示、立体电影和电视、立体游戏等。同时,众多电子、电视公司为占领市场,不断推出吸引消费者的3D产品,尤其是电视机、数字摄像机、手机等。
在3DTV领域,多视点视频对应的深度信息主要通过双目或者多目立体匹配方法获得,但是这些方法难以处理无纹理的图像区域且整体精度不高。工业界一直致力于研发深度获取设备,以期更方便快捷地获取场景的深度信息,典型例子为基于飞行时间(Timeofflight,TOF)的深度相机和基于结构光的Kinect。虽然这两种设备都可以实时获得三维场景的深度图,但是在分辨率和精度等方面还存在诸多问题,不能满足目前高分辨率3DTV的需求。由以上分析可知,推动基于多路视频加深度的3DTV制式发展的关键在于获取高分辨深度信息。
深度图获取是计算机视觉中的热点问题之一。一个先进的计算机视觉系统能够提供精确的高分辨率彩色图和高分辨率深度图,这样这个计算机视觉系统才能用于解决自动化视觉问题,例如机器人视觉,以及构建室内环境的3D模型图等。
通常有两类方法获取场景的深度信息:被动的深度获取方法和主动的深度获取方法。被动的深度获取方法主要是立体匹配算法,即获取两个或多个视点图像,对图像对应点进行匹配,从而得到深度信息。文献[1-2]中简要概述了现有的立体匹配和三维重建算法。基于贪婪局部搜索的立体匹配算法速度较快,但在弱纹理区域和模糊表面的深度获取效果较差。全局匹配算法将立体匹配转化为马尔科夫(MRF,Markov Random Filed)能量函数的优化问题,该能量函数通过图像的相似性和表面平滑度的先验信息来构建。全局匹配算法解决了上述局部算法遇到的一些问题,但因为通常优化MRF能量函数是NP问题,所以其复杂度高且计算速度较慢。总体来说,虽然使用立体匹配算法能够获得高分辨率的深度图,但是在无纹理区域、重复纹理区域和遮挡区域计算深度较为困难。主动的深度获取方法,如TOF深度相机或结构光深度相机能够直接获得场景的深度信息。然而现有的深度相机的分辨率远低于高清(HD)彩色相机的分辨率,且其亮度敏感度低,深度测量范围有限。且深度相机易受噪声影响,而且在一些散射严重的场景下获得的深度信息误差很大,如非朗伯表面(non-Lambertian surface)。因此,仅仅依靠深度相机获取场景深度重建并不能得到理想的效果。不过,深度相机却能够给3D场景提供一个初始的深度参考,这是立体匹配算法所达不到的。
因此将深度相机(主动)和双目彩色相机(被动)相结合的深度获取系统应运而生,该系统能够克服单独使用主动或被动的深度获取方法所带来的局限性,并且能够使重建高分辨率的3D场景更加准确和迅速。
参考文献:
[1]Yoon,K.J.,Kweon,I.S.:Adaptive support-weight approach forcorrespondence search.IEEE Trans.PatternAnal.Mach.Intell.28(4),650C656(2006).
[2]Scharstein,D.,Szeliski,R.:A taxonomy and evaluation of dense twoframestereo correspondence algorithms.Int.J.Comput.Vis.47(1C3),7C42(2002).
[3]Yoon,K.J.,Kweon,I.S.:Adaptive support-weight approach for corres-pondence search.IEEE Trans.PatternAnal.Mach.Intell.28(4),650C656(2006).
[4]Tanimoto M.,Overview of free viewpoint television,SignalProcessing:Image Communication,2006,21(6):454-461
[5]Kim,J.,Kolmogorov,V.,Zabih,R.:Visual correspondence using energyminimization and mutual information.In:Proceedings of Ninth IEEEInternational Conference on Computer Vision,2003,pp.1033C1040.IEEE(2003).
[6]Gudmundsson S A,Aanaes H,Larsen R.Fusion of stereo vision andtime-of-flight imaging for improved 3d estimation[J].Int.J.Intell.Syst.Technol.Appl”2008,5(3-4):425-433.
[7]Zhu J,Wang L,Yang R,Davis J.Fusion of time-of-flight depth andstereo for high accuracy depth maps[J].IEEE Conference on CVPR,2008,1-8.
[8]Gandhiy Vineet,Cech Jan,Horaud Radu.High-resolution depth mapsbased on tof-stereo fusion[J].IEEE International Conference on Robotics andAutomation,2012,4742-4749.
[9]M.Antunes and J.Barreto.Efficient stereo matching using histogramaggregation with multiple slant hypothesis.IbPRIA 2013.
[10]M.Bleyer,C.Rhemann,and C.Rother.PatchMatch stereo–stereo matchingwith slanted support windows.BMVC 2011.
[11]Z.Lee,J.Juang and T.Q.Nguyen”Local disparity estimation withthree-moded cross census and advanced support weight”,IEEE Trans.onMultimedia,vol.15,no.4,pp.1855-1864,2013
[12]I.-L.Jung,T.-Y.Chung,J.-Y.Sim,and C.-S.Kim,”Consistent stereomatching under varying radiometric conditions,”IEEE Trans.Multimedia,vol.15,pp.56-69,Jan.2013.
[13]M.Antunes and J.Barreto.Efficient stereo matching using histogramaggregation with multiple slant hypothesis.IbPRIA 2013.
[14]M.Antunes and J.Barreto.Efficient stereo matching using histogramaggregation with multiple slant hypothesis.IbPRIA 2013.
[15]Q.Yang.Recursive bilateral filtering.ECCV 2012.
[16]M.Antunes and J.Barreto.Efficient stereo matching using histogramaggregation with multiple slant hypothesis.IbPRIA 2013.
发明内容
基于上述现有技术和存在的问题,本发明提出了基于主被动融合的高分辨率深度图获取方法,利用基于主被动融合的结合动深度感知和被动立体匹配方法的高分辨率深度图融合算法模型,对已知场景进行准确的三维重建的深度感知算法,最终获得高质量的高分辨率深度图。
本发明提出了一种基于主被动融合的高分辨率深度图获取方法,该方法以下步骤:
步骤1、首先对TOF低分辨率深度图进行稀疏式上采样和视差图计算,所述稀疏式上采样具体的步骤包括将TOF相机产生的低分辨率深度图映射到3D场景的世界坐标系,再将三维点投影到与左彩色相机或右彩色相机坐标系形成TOF视差点阵;从而,TOF相机获得的深度数据能够和左相机的某个样本点建立联系,实现将TOF深度图的分辨率从144×176提高到了778×1032;所述视差图计算的步骤具体包括计算在左相机-右相机系统中以TOF相机作为参考的视差值Dt(l,r):
D t ( l , r ) = H l r l x l - H l r r x r
其中,
x r = ( H t r r ) - 1 D t ( t , r ) H t r t x t
x l = ( H t l l ) - 1 D t ( t , l ) H t l t x t
分别为右相机-TOF系统中校准右相机的单应矩阵和左相-TOF系统中校准左相机的单应矩阵,分别为左相机-TOF系统中校准TOF相机的单应矩阵、右相机-TOF系统中校准TOF相机的单应矩阵,Dt(t,r)为右相机-TOF系统中以TOF相机作为参考的视差图,Dt(t,l)为左相机-TOF系统中以TOF相机作为参考的视差图;最终,转换到左相机坐标系得到左相机-右相机系统中以左相机为参考的视差图Dl(l,r);
步骤2、进行立体匹配和TOF深度融合,包括计算得到弱纹理区域的视差图、纹理区域的视差图和其他区域的视差图,其中:计算弱纹理区域的视差图包括:利用步骤(1)获得了左、右视差图Dl(l,r)、Dt(l,r),分割得到弱纹理区域,根据弱纹理区域中像素的已知视差,在3D(x,y,d)视差空间中拟合成光滑的视差曲面,然后利用视差曲面的表面插值求取未知像素的视差:
d(x,y)=a1+a2·x+a3·y+a4·x2+a5·xy
+a6·y2+a7·x3+a8·x2y+a9·xy2+a10·y3
其中,d(x,y)表示一个三维视差曲面,a1,…,a10表示系数,x,y为坐标;
然后,基于得到了弱纹理区域的视差图,使用Yoon和Kweon的自适应加权算法计算纹理区域的像素视差,计算包括:
为给定的纹理区域中一对经过校正后的图像Il,Ir处于中心像素窗内的每个像素赋予权值,像素的初始匹配代价使用绝对误差AD进行计算,通过对(pc,qc)初始代价加权求和得到支持窗口的总代价,再将其归一化处理,公式如下:
pc,qc对应的总代价表示为:
pi,qi的初始匹配代价表示为:
pi,qiωl(pi,pc)加权系数ωl(pi,pc)和ωr(qi,qc)分别表示为:
ω l ( p i , p c ) = exp ( - d p ( p i , p c ) γ p - d c ( I c ( p i ) , I c ( p c ) ) γ c )
ω r ( q i , q c ) = exp ( - d p ( q i , q c ) γ p - d c ( I c ( q i ) , I c ( q c ) ) γ c )
其中,pc,qc分别为左右视图的中心像素,Wl,Wr分别为以pc,qc为中心的支持窗口,pi,qi分别为落在Wl,Wr中的像素;e0(pi,qi)为,Ic表示c的颜色强度,T决定初始匹配代价的上限值,dc(Ic(pi),Ic(pc))表示视图中像素pi,pc在CIELAB颜色空间中的颜色距离,dp(pi,pc)表示pi,pc之间的空间距离,dc(Ic(qi),Ic(qc))表示视图中像素qi,qc在CIELAB颜色空间中的颜色距离,dp(qi,qc)表示qi,qc之间的空间距离;
计算代价聚合之后,使用WTA(Winner-Take-All)方法选择获取纹理区域的视差:
d p = argmin d ∈ S d c ( p c , q c )
其中,d表示pc,qc对应的视差候选,Sd=dmin,…,dmax为所有可能的视差值的集合。
有了弱纹理区域和纹理区域的视差,对于其他区域的视差求取,采用两种数据加权的方式进行融合,即:假设由TOF求得的视差值为dt,由立体匹配求得的视差值为ds,则该像素的视差d0应为:
d0=ωt·dts·ds
其中,ωt为TOF求得的视差值的权重;ωs为立体匹配求得的视差值的权重。
ω s = γ s γ s + γ t
ωt=1-ωs
与现有技术相比,本发明的优点在于:
1)该算法具有一定鲁棒性,并且能够同时在纹理和非纹理区域以及重复纹理区域具有较好的效果;
2)综合TOF深度相机和彩色立体相机的匹配算法的优势弥补各自算法的不足;
3)能够对现实世界场景以及标准数据集展示出良好的效果,以此证明算法具有较好的性能;
4)具有非常强大的实时性应用潜力,该算法将在计算机视觉和机器人应用领域具有非常好的应用前景。
附图说明
图1为TOF深度摄像机实物图;
图2为本算法结构框图;
图3为TOF深度图稀疏化上采样结果;(3a)左相机得到的彩色图像、(3b)TOF相机拍摄的TOF深度图、(3c)上采样得到的点阵;
图4为实验结果;(4a)三个场景的左图像、(4b)三个场景的TOF深度图点阵直接插值得到的结果、(4c)采用自适应加权算法得到的实验结果、(4d)采用本算法得到的实验结果、(4e)真实视差图。
具体实施方式
以下结合附图及具体实施方式,进一步详述本发明的技术方案。
先对TOF低分辨率深度图进行稀疏式的上采样,不会引入人为误差;然后利用立体匹配方法和TOF深度获取方法之间的互补特性,在弱纹理区域和重复纹理区域,采用TOF相机的深度获取结果,而在在复杂纹理区域采用立体匹配算法的深度获取结果。
具体步骤如下:
步骤1、系统校正和TOF深度图采样,包括TOF深度图的稀疏式上采样及视差图计算:
由于TOF相机获取的深度图分辨率较低(144×176),因此在TOF深度图和立体匹配得到的深度图融合前,首先对TOF深度图进行稀疏式上采样。所谓“稀疏式”,指的是上采样得到的结果是点阵,而非图像。多种上采样方法多会结合彩色图将得到的点阵图进行插值形成图像,但这些方法只利用了彩色图的信息,得到的深度图被引入了认为误差。将会在下一步介绍本方法的插值算法,再将点阵变为图像。
稀疏式上采样的第一步是将TOF相机产生的低分辨率深度图映射到3D场景的世界坐标系。众所周知,世界坐标系中的一个三维点对应TOF相机坐标中一个二维的点。三维点通过TOF的相机投影矩阵映射到TOF上的二维点。将TOF上的144×176个点qi(i=1,…,n)投射到三维世界坐标系中得到三维点
同样,三维点也会通过彩色相机的内参矩阵投影到彩色相机坐标系的一个二维点。所以稀疏式上采样的第二步是将三维点投影到与左彩色相机(或右彩色相机)坐标系形成点阵。该步骤中将所有通过TOF相机获取三维点投射到左相机点阵Λi上(不包括左相机视角不可见的点)从而获得一组样本pi,i=1,…,n,可以注意到获取的n个样本只覆盖了高分辨率彩色相机点阵∧i=pj,j=1,…,N中N个样本中的一个小子集。
从而,TOF相机获得的深度数据能够和左相机的某个样本点建立联系,实现将TOF深度图的分辨率从144×176提高到了778×1032。实验结果如图4所示。
上面得到的是TOF视点处的深度图,而立体匹配得到的是左相机-右相机系统中以左相机为参考的视差图。
为了实现数据融合,需要先将深度图数据转换为相应的视差数据。深度和视差在双目视觉系统中的转化关系如公式(1)所示:
Z = T f D - - - ( 1 )
其中Z表示深度值,T表示基线长,f是相机焦距,D是视差。
左相机-TOF系统中以TOF相机作为参考的视差图Dt(t,l),表示如下:
D t ( t , l ) = T l t * f H l t t Z - - - ( 2 )
其中,T1t是左相机与TOF相机之间的基线长,f为TOF相机焦距,是左相机-TOF系统中校准TOF相机的单应矩阵,Z为深度值,这样就将TOF深度直接转换为左相机-TOF视差。
替代较为复杂的采用TOF深度图的直接方法,本发明采用匹配链接(correspondence linking)方法求取左相机-右相机的视差图。左、右图像的对应点需要通过中间TOF图像建立链接:对TOF相机获得的图像中的每个像素xt可以通过公式(3)、(4)与左右图像的对应像素xl,xr进行链接:
x r = ( H t r r ) - 1 D t ( t , r ) H t r t x t - - - ( 3 )
x l = ( H t l l ) - 1 D t ( t , l ) H t l t x t - - - ( 4 )
其中分别为右相机-TOF系统中校准右相机的单应矩阵和左相-TOF系统中校准左相机的单应矩阵,分别为左相机-TOF系统中校准TOF相机的单应矩阵、右相机-TOF系统中校准TOF相机的单应矩阵,Dt(t,r)为右相机-TOF系统中以TOF相机作为参考的视差图,Dt(t,l)为左相机-TOF系统中以TOF相机作为参考的视差图。
得到了TOF图像的每个点xt计算对应的xr,xl,现利用xr,xl计算在左相机-右相机系统中以TOF相机作为参考的视差图Dt(l,r):
D t ( l , r ) = H l r l x l - H l r r x r - - - ( 5 )
最终,将其转换到左相机坐标系得到左相机-右相机系统中以左相机为参考的视差图Dl(l,r)。
步骤2、立体匹配和TOF深度融合
基于步骤1获得了两种不同深度获取方式得到的视差图,考虑如何融合这两张视差图。先考虑在弱纹理区域(如图4的背景区域部分)如何提取视差图,由于在此处使用立体匹配算法提取视差图的效果很不理想。因此,本发明考虑在弱纹理区域采用由TOF相机获得视差图信息。
假设:每个弱纹理区域的视差图在3D(x,y,d)视差空间中可以形成平滑的视差平面。基于这个假设,提出了以下算法。
首先,使用Comaniciu和Meers的均值漂移图像分割算法将左视图中的弱纹理区域分割出来。均值漂移算法是一种基于密度梯度上升的非参数方法,通过迭代运算找到目标位置,实现目标跟踪。它显著的优点是算法计算量小,简单易实现,很适合于实时跟踪场合;对于弱纹理区域,根据步骤1得到的TOF视差点阵可知区域中有些像素的视差是已知的,而大部分像素的视差还是未知的。根据像素的已知视差,在3D(x,y,d)视差空间中拟合成光滑的视差曲面,然后利用视差表面插值求取未知像素的视差。
为了保证视差曲面是连续且光滑的,此处采用公式(6)对视差曲面进行拟合,到弱纹理区域的视差图:
d ( x , y ) = a 1 + a 2 · x + a 3 · y + a 4 · x 2 + a 5 · xy + a 6 · y 2 + a 7 · x 3 + a 8 · x 2 y + a 9 · xy 2 + a 10 · y 3 - - - ( 10 )
其中d(x,y)表示一个三维视差曲面,a1,…,a10表示系数,x,y为坐标。
基于得到了弱纹理区域的视差图,使用Yoon和Kweon的自适应加权算法计算纹理区域的像素视差(该自适应加权算法为目前效果最好的局部匹配算法):
首先,为给定的一对经过校正后的图像Il,Ir中,处于中心像素窗内的每个像素赋予权值,权值由该像素与中心像素的空间距离和CIELAB颜色空间中的颜色差异联合决定。像素的初始匹配代价使用AD(绝对误差)进行计算。因此,通过对(pc,qc)初始代价加权求和得到支持窗口的总代价,再将其归一化:
c ( p c , q c ) = Σ p i ∈ W l , q i ∈ W r ω l ( p i , p c ) · ω r ( q i , q c ) · e 0 ( p i , q i ) Σ p i ∈ W l , q i ∈ W r ω l ( p i , p c ) · ω r ( q i , q c ) - - - ( 7 )
e 0 ( p i , q i ) = m i n ( ( Σ c ∈ { r , g , b } ( | I c ( p i ) - I c ( q i ) | ) , T ) ) - - - ( 8 )
ω l ( p i , p c ) = exp ( - d p ( p i , p c ) γ p - d c ( I c ( p i ) , I c ( p c ) ) γ c ) - - - ( 9 )
其中c(pc,qc)是(pc,qc)对应的总代价,pc,qc分别为左右视图的中心像素,Wl,Wr分别为以pc,qc为中心的支持窗口,pi,qi分别为落在Wl,Wr中的像素,ωl(pi,pc)和ωr(qi,qc)分别为pi,qi的加权系数,e0(pi,qi)为pi,qi的初始匹配代价,Ic表示c的颜色强度,T决定初始匹配代价的上限值,dc(Ic(pi),Ic(pc))表示视图中像素pi,qc在CIELAB颜色空间中的颜色距离,dp(pi,pc)表示pi,qc之间的空间距离,常数γpc为该算法的两个参数。
计算代价聚合之后,使用WTA(Winner-Take-All)方法选择像素的视差:
d p = argmin d ∈ S d c ( p c , q c ) - - - ( 10 )
其中,d表示pc,qc对应的视差候选,Sd=dmin,…,dmax为所有可能的视差值的集合。
有了弱纹理区域和纹理区域的视差,对于其他区域的视差求取,采用两种数据加权的方式进行融合。即:设由TOF求得的视差值为dt,由立体匹配求得的视差值为ds,则该像素的视差d0应为:
d0=ωt·dts·ds (11)
其中,ωt为TOF求得的视差值的权重;ωs为立体匹配求得的视差值的权重。
ω s = γ s γ s + γ t - - - ( 12 )
ωt=1-ωs (13)
其中,γs为立体匹配求得的视差值的可信度;γt为TOF求得的视差值的可信度。
r s = 1 - c p 1 s t c p 2 n d c p 2 n d > T c 0 o t h e r w i s e - - - ( 14 )
其中,是在自适应加权算法中求得的最小匹配代价,为求得的第二小匹配代价,Tc为0,可避免除数为0。
根据S.A.Gumundsson[17]的实验结果,TOF求得的视差值的可信度为
r t = 1 A ( p ) - - - ( 15 )
其中,A(p)为像素的幅值图的标准偏差。
表2给出了根据三个场景的最终视差图计算得到的均方误差(MSE)。在表中,本文的方法还与其他先进的算法[14][15][16]进行了比较。表的最后一列为三个不同场景的视差图的均方误差。从三个场景的均方误差值可以看出,本文的方法确实可以提供比单独使用TOF检测数据和立体匹配算法更精确的结果。实验结果还表明本方法在所有场景都显著优于其他数据融合算法。在场景a)和b)的结果中能够明显看出算法的优越性,在场景c)中是由本文提出的TOF插值算法为其提供了最小均方误差的获得方法。这是由于场景c)中的纹理结构有限,使得它更适用于TOF深度测量方法,而用立体匹配算法进行计算则相对复杂。这种情况也可以通过观察其在单独使用立体匹配时的高均方误差值看出。然而,对于场景中的复杂几何结构(例如a)中的木偶)本文的融合算法的结果明显优于单独使用TOF视差检测的插值算法。在存在更多纹理信息的场景(如b)立体算法的贡献更显著,融合算法的结果的均方误差值比TOF插值算法的结果低一半。本文的算法不仅拥有比文献[14][15][16]中的算法更低的均方误差,同时在立体匹配和TOF相机都能获得较准确结果的场景a)和b)也具有相当程度的提升。融合算法能够更有效的结合两种算法是显而易见的。
为了评估本算法的性能,使用的数据样本由意大利教授Carlo Dal Mutto等实验室提供。http://lttm.dei.unipd.it/downloads/tofstereo.实验室采集系统为MesaSwiss Ranger SR4000 TOF深度相机,其分辨率为144×176像素,以及两个Basler scA1000摄像机(分辨率为1032×778像素)与TOF相机硬件同步。这个系统可以以每秒15帧的速度同步采集数据,不需要使用非同步的方法。使用TOF深度相机和立体相机同步拍摄一系列的校准图像,然后使用校准工具箱计算校准/内参矩阵、径向畸变系数和每个相机的投影矩阵。该系统使用文献中的校准方法,在对立体TOF联合系统进行校准的过程中,会出现约5mm的投影误差。内参矩阵和外参矩阵对TOF深度图进行稀疏式上采样时具有重要作用。
使用多个不同场景对提出的模型进行测试。图4为测试结果,注意每个场景尽可能包含不同类型的区域:例如场景a)和场景c)都包含一个类似的背景,其中缺乏纹理信息不利于立体匹配算法的应用,而场景b)在背景部分有一个纹理区域。先考虑在弱纹理区域该如何提取视差。因此,对于每个场景,使用一个主动时空立体系统对600个图像进行处理得到一个准确的视差图,作为真实视差图(ground truth)。实验结果由TOF深度图直接插值得到的视差图,由自适应加权立体匹配算法得到的视差图,以及由本文提出的算法得到的最终的视差图分别和真实视差图以及其他先进的算法进行比较。
表1、Mesa Imaging SwissRanger 4000(SR4000)深度摄像机主要参数
表2、实验结果

Claims (1)

1.一种基于主被动融合的高分辨率深度图获取方法,其特征在于,该方法以下步骤:
步骤(1)、首先对TOF低分辨率深度图进行稀疏式上采样和视差图计算,所述稀疏式上采样具体的步骤包括将TOF相机产生的低分辨率深度图映射到3D场景的世界坐标系,再将三维点投影到与左彩色相机或右彩色相机坐标系形成TOF视差点阵;从而,TOF相机获得的深度数据能够和左相机的某个样本点建立联系,实现将TOF深度图的分辨率从144×176提高到了778×1032;所述视差图计算的步骤具体包括计算在左相机-右相机系统中以TOF相机作为参考的视差值Dt(l,r):
D t ( l , r ) = H l r l x l - H l r r x r
其中,
x r = ( H t r r ) - 1 D t ( t , r ) H t r t x t
x l = ( H t l l ) - 1 D t ( t , l ) H t l t x t
分别为右相机-TOF系统中校准右相机的单应矩阵和左相-TOF系统中校准左相机的单应矩阵,分别为左相机-TOF系统中校准TOF相机的单应矩阵、右相机-TOF系统中校准TOF相机的单应矩阵,Dt(t,r)为右相机-TOF系统中以TOF相机作为参考的视差图,Dt(t,l)为左相机-TOF系统中以TOF相机作为参考的视差图;最终,转换到左相机坐标系得到左相机-右相机系统中以左相机为参考的视差图Dl(l,r);
步骤(2)、进行立体匹配和TOF深度融合,包括计算得到弱纹理区域的视差图、纹理区域的视差图和其他区域的视差图,其中:计算弱纹理区域的视差图包括:利用步骤(1)获得了左、右视差图Dl(l,r)、Dt(l,r),分割得到弱纹理区域,根据弱纹理区域中像素的已知视差,在3D(x,y,d)视差空间中拟合成光滑的视差曲面,然后利用视差曲面的表面插值求取未知像素的视差:
d(x,y)=a1+a2·x+a3·y+a4·x2+a5·xy
+a6·y2+a7·x3+a8·x2y+a9·xy2+a10·y3
其中,d(x,y)表示一个三维视差曲面,a1,…,a10表示系数,x,y为坐标;
然后,基于得到了弱纹理区域的视差图,使用Yoon和Kweon的自适应加权算法计算纹理区域的像素视差,计算包括:
为给定的纹理区域中一对经过校正后的图像Il,Ir处于中心像素窗内的每个像素赋予权值,像素的初始匹配代价使用绝对误差AD进行计算,通过对(pc,qc)初始代价加权求和得到支持窗口的总代价,再将其归一化处理,公式如下:
pc,qc对应的总代价表示为:
pi,qi的初始匹配代价表示为:
pi,qiωl(pi,pc)加权系数ωl(pi,pc)和ωr(qi,qc)分别表示为:
ω l ( p i , p c ) = exp ( - d p ( p i , p c ) γ p - d c ( I c ( p i ) , I c ( p c ) ) γ c )
ω r ( q i , q c ) = exp ( - d p ( q i , q c ) γ p - d c ( I c ( q i ) , I c ( q c ) ) γ c )
其中,pc,qc分别为左右视图的中心像素,Wl,Wr分别为以pc,qc为中心的支持窗口,pi,qi分别为落在Wl,Wr中的像素;e0(pi,qi)为,Ic表示c的颜色强度,T决定初始匹配代价的上限值,dc(Ic(pi),Ic(pc))表示视图中像素pi,pc在CIELAB颜色空间中的颜色距离,dp(pi,pc)表示pi,pc之间的空间距离,dc(Ic(qi),Ic(qc))表示视图中像素qi,qc在CIELAB颜色空间中的颜色距离,dp(qi,qc)表示qi,qc之间的空间距离;
常数γpc为两个参数;
计算代价聚合之后,使用WTA(Winner-Take-All)方法选择获取纹理区域的视差:
d p = arg m i n d ∈ S d c ( p c , q c )
其中,d表示pc,qc对应的视差候选,Sd=dmin,…,dmax为所有可能的视差值的集合。
有了弱纹理区域和纹理区域的视差,对于其他区域的视差求取,采用两种数据加权的方式进行融合,即:假设由TOF求得的视差值为dt,由立体匹配求得的视差值为ds,则该像素的视差d0应为:
d0=ωt·dts·ds
其中,ωt为TOF求得的视差值的权重;ωs为立体匹配求得的视差值的权重。
ω s = γ s γ s + γ t
ωt=1-ωs
CN201610191165.0A 2016-03-30 2016-03-30 基于主被动融合的高分辨率深度图获取方法 Pending CN105869167A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610191165.0A CN105869167A (zh) 2016-03-30 2016-03-30 基于主被动融合的高分辨率深度图获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610191165.0A CN105869167A (zh) 2016-03-30 2016-03-30 基于主被动融合的高分辨率深度图获取方法

Publications (1)

Publication Number Publication Date
CN105869167A true CN105869167A (zh) 2016-08-17

Family

ID=56626424

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610191165.0A Pending CN105869167A (zh) 2016-03-30 2016-03-30 基于主被动融合的高分辨率深度图获取方法

Country Status (1)

Country Link
CN (1) CN105869167A (zh)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106504284A (zh) * 2016-10-24 2017-03-15 成都通甲优博科技有限责任公司 一种基于立体匹配与结构光相结合的深度图获取方法
CN106796728A (zh) * 2016-11-16 2017-05-31 深圳市大疆创新科技有限公司 生成三维点云的方法、装置、计算机系统和移动设备
CN107169933A (zh) * 2017-04-14 2017-09-15 杭州光珀智能科技有限公司 一种基于tof深度相机的边缘反射像素校正方法
CN107636679A (zh) * 2016-12-30 2018-01-26 深圳前海达闼云端智能科技有限公司 一种障碍物检测方法及装置
CN107845108A (zh) * 2017-09-21 2018-03-27 上海玮舟微电子科技有限公司 一种光流值计算方法、装置及电子设备
CN107984482A (zh) * 2017-12-27 2018-05-04 中国科学院合肥物质科学研究院 一种基于tof深度感知的智能化枸杞采摘装置及方法
CN108027238A (zh) * 2016-09-01 2018-05-11 索尼半导体解决方案公司 成像装置
WO2018103152A1 (zh) * 2016-12-05 2018-06-14 杭州先临三维科技股份有限公司 一种三维数字成像传感器、三维扫描系统及其扫描方法
CN108230273A (zh) * 2018-01-05 2018-06-29 西南交通大学 一种基于几何信息的人工复眼相机三维图像处理方法
CN108389226A (zh) * 2018-02-12 2018-08-10 北京工业大学 一种基于卷积神经网络和双目视差的无监督深度预测方法
CN108496201A (zh) * 2017-09-27 2018-09-04 深圳市大疆创新科技有限公司 图像处理方法和设备
CN108961194A (zh) * 2017-03-31 2018-12-07 钰立微电子股份有限公司 用以融合多深度图的深度图产生装置
CN109146947A (zh) * 2018-09-04 2019-01-04 清华-伯克利深圳学院筹备办公室 海洋鱼类三维图像获取及处理方法、装置、设备及介质
CN109410259A (zh) * 2018-08-27 2019-03-01 中国科学院自动化研究所 基于置信度的结构化的双目深度图上采样方法
CN109633661A (zh) * 2018-11-28 2019-04-16 杭州凌像科技有限公司 一种基于rgb-d传感器与超声波传感器融合的玻璃检测系统和方法
CN109661815A (zh) * 2016-09-28 2019-04-19 英特尔公司 存在相机阵列的显著强度变化的情况下的鲁棒视差估计
CN109922255A (zh) * 2017-12-12 2019-06-21 黑芝麻国际控股有限公司 用于生成实时深度图的双相机系统
CN110136188A (zh) * 2019-05-16 2019-08-16 东莞职业技术学院 一种基于特征的立体图像匹配算法
CN110310371A (zh) * 2019-05-27 2019-10-08 太原理工大学 一种基于车载单目聚焦序列图像构建对象三维轮廓的方法
CN110376602A (zh) * 2019-07-12 2019-10-25 深圳奥比中光科技有限公司 多模式深度计算处理器及3d图像设备
CN110942424A (zh) * 2019-11-07 2020-03-31 昆明理工大学 一种基于深度学习的复合网络单图像超分辨率重建方法
CN111197976A (zh) * 2019-12-25 2020-05-26 山东唐口煤业有限公司 一种顾及弱纹理区域多阶段匹配传播的三维重建方法
CN111292367A (zh) * 2020-02-18 2020-06-16 青岛联合创智科技有限公司 一种基线可变的双目相机深度图生成方法
CN111508068A (zh) * 2020-04-20 2020-08-07 华中科技大学 一种应用于双目内窥镜图像的三维重建方法及系统
CN111741284A (zh) * 2019-03-25 2020-10-02 华为技术有限公司 图像处理的装置和方法
CN112184793A (zh) * 2020-10-15 2021-01-05 北京的卢深视科技有限公司 深度数据的处理方法、装置及可读存储介质
CN112230244A (zh) * 2020-09-08 2021-01-15 奥比中光科技集团股份有限公司 一种融合的深度测量方法及测量装置
CN112489103A (zh) * 2020-11-19 2021-03-12 北京的卢深视科技有限公司 一种高分辨率深度图获取方法及系统
CN113298694A (zh) * 2020-10-12 2021-08-24 黑芝麻智能科技(重庆)有限公司 用于深度图生成的具有闪光灯的多相机系统
CN113610908A (zh) * 2021-07-29 2021-11-05 中山大学 一种用于单目内窥镜手术中的多基线融合的深度估计方法
WO2021259287A1 (zh) * 2020-06-24 2021-12-30 中兴通讯股份有限公司 深度图生成方法、设备及存储介质
CN114935316A (zh) * 2022-05-20 2022-08-23 长春理工大学 基于光学跟踪与单目视觉的标准深度图像生成方法
CN115880344A (zh) * 2022-11-18 2023-03-31 浙江大学 一种双目立体匹配数据集视差真值获取方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556696A (zh) * 2009-05-14 2009-10-14 浙江大学 基于阵列摄像机的深度图实时获取算法
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
CN102387374A (zh) * 2010-08-30 2012-03-21 三星电子株式会社 用于获得高精度深度图的设备和方法
CN102609941A (zh) * 2012-01-31 2012-07-25 北京航空航天大学 基于ToF深度相机的三维注册方法
CN102663712A (zh) * 2012-04-16 2012-09-12 天津大学 基于飞行时间tof相机的深度计算成像方法
CN103226821A (zh) * 2013-04-27 2013-07-31 山西大学 基于视差图像素分类校正优化的立体匹配方法
CN103854257A (zh) * 2012-12-07 2014-06-11 山东财经大学 一种基于自适应三边滤波的深度图像增强方法
CN103955954A (zh) * 2014-04-21 2014-07-30 杭州电子科技大学 一种结合同场景立体图对的高分辨率深度图像重建方法
CN105354838A (zh) * 2015-10-20 2016-02-24 努比亚技术有限公司 图像中弱纹理区域的深度信息获取方法及终端

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556696A (zh) * 2009-05-14 2009-10-14 浙江大学 基于阵列摄像机的深度图实时获取算法
CN102387374A (zh) * 2010-08-30 2012-03-21 三星电子株式会社 用于获得高精度深度图的设备和方法
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
CN102609941A (zh) * 2012-01-31 2012-07-25 北京航空航天大学 基于ToF深度相机的三维注册方法
CN102663712A (zh) * 2012-04-16 2012-09-12 天津大学 基于飞行时间tof相机的深度计算成像方法
CN103854257A (zh) * 2012-12-07 2014-06-11 山东财经大学 一种基于自适应三边滤波的深度图像增强方法
CN103226821A (zh) * 2013-04-27 2013-07-31 山西大学 基于视差图像素分类校正优化的立体匹配方法
CN103955954A (zh) * 2014-04-21 2014-07-30 杭州电子科技大学 一种结合同场景立体图对的高分辨率深度图像重建方法
CN105354838A (zh) * 2015-10-20 2016-02-24 努比亚技术有限公司 图像中弱纹理区域的深度信息获取方法及终端

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CARLO DAL MUTTO 等: "A Probabilistic Approach to ToF and Stereo Data Fusion", 《3DPVT》 *
JIEJIE ZHU 等: "Fusion of Time-of-Flight Depth and Stereo for High Accuracy Depth Maps", 《IEEE CONFERENCE ON COMPUTER VISION & PATTERN RECOGNITION》 *
JIEJIE ZHU 等: "Reliability Fusion of Time-of-Flight Depth and Stereo Geometry for High Quality Depth Maps", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
KUK-JIN YOON 等: "Adaptive Support-Weight Approach for Correspondence Search", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
SIGURJÓN ÁRNI GUÐMUNDSSON 等: "Fusion of Stereo Vision and Time-of-Flight Imaging for Improved 3D Estimation", 《INTERNATIONAL JOURNAL OF INTELLIGENT SYSTEMS TECHNOLOGIES AND APPLICATIONS》 *
VINEET GANDHI 等: "High-Resolution Depth Maps Based on TOF-Stereo Fusion", 《2012 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION》 *

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108027238B (zh) * 2016-09-01 2022-06-14 索尼半导体解决方案公司 成像装置
CN108027238A (zh) * 2016-09-01 2018-05-11 索尼半导体解决方案公司 成像装置
CN109661815B (zh) * 2016-09-28 2021-06-15 英特尔公司 存在相机阵列的显著强度变化的情况下的鲁棒视差估计
CN109661815A (zh) * 2016-09-28 2019-04-19 英特尔公司 存在相机阵列的显著强度变化的情况下的鲁棒视差估计
CN106504284B (zh) * 2016-10-24 2019-04-12 成都通甲优博科技有限责任公司 一种基于立体匹配与结构光相结合的深度图获取方法
CN106504284A (zh) * 2016-10-24 2017-03-15 成都通甲优博科技有限责任公司 一种基于立体匹配与结构光相结合的深度图获取方法
US11004261B2 (en) 2016-11-16 2021-05-11 SZ DJI Technology Co., Ltd. Method, device, computer system, and mobile apparatus for generating three-dimensional point cloud
CN106796728A (zh) * 2016-11-16 2017-05-31 深圳市大疆创新科技有限公司 生成三维点云的方法、装置、计算机系统和移动设备
WO2018103152A1 (zh) * 2016-12-05 2018-06-14 杭州先临三维科技股份有限公司 一种三维数字成像传感器、三维扫描系统及其扫描方法
CN107636679A (zh) * 2016-12-30 2018-01-26 深圳前海达闼云端智能科技有限公司 一种障碍物检测方法及装置
CN108961194A (zh) * 2017-03-31 2018-12-07 钰立微电子股份有限公司 用以融合多深度图的深度图产生装置
CN107169933A (zh) * 2017-04-14 2017-09-15 杭州光珀智能科技有限公司 一种基于tof深度相机的边缘反射像素校正方法
CN107169933B (zh) * 2017-04-14 2020-08-18 浙江光珀智能科技有限公司 一种基于tof深度相机的边缘反射像素校正方法
CN107845108A (zh) * 2017-09-21 2018-03-27 上海玮舟微电子科技有限公司 一种光流值计算方法、装置及电子设备
CN107845108B (zh) * 2017-09-21 2021-10-26 张家港康得新光电材料有限公司 一种光流值计算方法、装置及电子设备
CN108496201A (zh) * 2017-09-27 2018-09-04 深圳市大疆创新科技有限公司 图像处理方法和设备
CN109922255A (zh) * 2017-12-12 2019-06-21 黑芝麻国际控股有限公司 用于生成实时深度图的双相机系统
CN107984482A (zh) * 2017-12-27 2018-05-04 中国科学院合肥物质科学研究院 一种基于tof深度感知的智能化枸杞采摘装置及方法
CN108230273A (zh) * 2018-01-05 2018-06-29 西南交通大学 一种基于几何信息的人工复眼相机三维图像处理方法
CN108230273B (zh) * 2018-01-05 2020-04-07 西南交通大学 一种基于几何信息的人工复眼相机三维图像处理方法
CN108389226A (zh) * 2018-02-12 2018-08-10 北京工业大学 一种基于卷积神经网络和双目视差的无监督深度预测方法
CN109410259A (zh) * 2018-08-27 2019-03-01 中国科学院自动化研究所 基于置信度的结构化的双目深度图上采样方法
CN109410259B (zh) * 2018-08-27 2020-10-27 中国科学院自动化研究所 基于置信度的结构化的双目深度图上采样方法
CN109146947B (zh) * 2018-09-04 2021-09-28 清华-伯克利深圳学院筹备办公室 海洋鱼类三维图像获取及处理方法、装置、设备及介质
CN109146947A (zh) * 2018-09-04 2019-01-04 清华-伯克利深圳学院筹备办公室 海洋鱼类三维图像获取及处理方法、装置、设备及介质
CN109633661A (zh) * 2018-11-28 2019-04-16 杭州凌像科技有限公司 一种基于rgb-d传感器与超声波传感器融合的玻璃检测系统和方法
CN111741284A (zh) * 2019-03-25 2020-10-02 华为技术有限公司 图像处理的装置和方法
CN110136188A (zh) * 2019-05-16 2019-08-16 东莞职业技术学院 一种基于特征的立体图像匹配算法
CN110310371B (zh) * 2019-05-27 2023-04-04 太原理工大学 一种基于车载单目聚焦序列图像构建对象三维轮廓的方法
CN110310371A (zh) * 2019-05-27 2019-10-08 太原理工大学 一种基于车载单目聚焦序列图像构建对象三维轮廓的方法
CN110376602A (zh) * 2019-07-12 2019-10-25 深圳奥比中光科技有限公司 多模式深度计算处理器及3d图像设备
CN110942424A (zh) * 2019-11-07 2020-03-31 昆明理工大学 一种基于深度学习的复合网络单图像超分辨率重建方法
CN110942424B (zh) * 2019-11-07 2023-04-18 昆明理工大学 一种基于深度学习的复合网络单图像超分辨率重建方法
CN111197976A (zh) * 2019-12-25 2020-05-26 山东唐口煤业有限公司 一种顾及弱纹理区域多阶段匹配传播的三维重建方法
CN111292367B (zh) * 2020-02-18 2023-04-07 青岛联合创智科技有限公司 一种基线可变的双目相机深度图生成方法
CN111292367A (zh) * 2020-02-18 2020-06-16 青岛联合创智科技有限公司 一种基线可变的双目相机深度图生成方法
CN111508068A (zh) * 2020-04-20 2020-08-07 华中科技大学 一种应用于双目内窥镜图像的三维重建方法及系统
CN111508068B (zh) * 2020-04-20 2023-05-30 华中科技大学 一种应用于双目内窥镜图像的三维重建方法及系统
WO2021259287A1 (zh) * 2020-06-24 2021-12-30 中兴通讯股份有限公司 深度图生成方法、设备及存储介质
CN112230244A (zh) * 2020-09-08 2021-01-15 奥比中光科技集团股份有限公司 一种融合的深度测量方法及测量装置
WO2022052366A1 (zh) * 2020-09-08 2022-03-17 奥比中光科技集团股份有限公司 一种融合的深度测量方法及测量装置
CN113298694A (zh) * 2020-10-12 2021-08-24 黑芝麻智能科技(重庆)有限公司 用于深度图生成的具有闪光灯的多相机系统
CN113298694B (zh) * 2020-10-12 2023-08-08 黑芝麻智能科技(重庆)有限公司 用于深度图生成的具有闪光灯的多相机系统
CN112184793A (zh) * 2020-10-15 2021-01-05 北京的卢深视科技有限公司 深度数据的处理方法、装置及可读存储介质
CN112184793B (zh) * 2020-10-15 2021-10-26 北京的卢深视科技有限公司 深度数据的处理方法、装置及可读存储介质
CN112489103B (zh) * 2020-11-19 2022-03-08 北京的卢深视科技有限公司 一种高分辨率深度图获取方法及系统
CN112489103A (zh) * 2020-11-19 2021-03-12 北京的卢深视科技有限公司 一种高分辨率深度图获取方法及系统
CN113610908A (zh) * 2021-07-29 2021-11-05 中山大学 一种用于单目内窥镜手术中的多基线融合的深度估计方法
CN113610908B (zh) * 2021-07-29 2023-08-18 中山大学 一种用于单目内窥镜手术中的多基线融合的深度估计方法
CN114935316A (zh) * 2022-05-20 2022-08-23 长春理工大学 基于光学跟踪与单目视觉的标准深度图像生成方法
CN114935316B (zh) * 2022-05-20 2024-03-12 长春理工大学 基于光学跟踪与单目视觉的标准深度图像生成方法
CN115880344A (zh) * 2022-11-18 2023-03-31 浙江大学 一种双目立体匹配数据集视差真值获取方法

Similar Documents

Publication Publication Date Title
CN105869167A (zh) 基于主被动融合的高分辨率深度图获取方法
Moreau et al. Lens: Localization enhanced by nerf synthesis
Ham et al. Computer vision based 3D reconstruction: A review
Yang et al. Fusion of active and passive sensors for fast 3D capture
CN110378838B (zh) 变视角图像生成方法,装置,存储介质及电子设备
CN102026013B (zh) 基于仿射变换的立体视频匹配方法
Dal Mutto et al. Fusion of geometry and color information for scene segmentation
CN107016704A (zh) 一种基于增强现实的虚拟现实实现方法
CN104376552A (zh) 一种3d模型与二维图像的虚实配准算法
CN103106688A (zh) 基于双层配准方法的室内三维场景重建方法
CN104077808A (zh) 一种用于计算机图形图像处理的、基于深度信息的实时三维人脸建模方法
Chen et al. Transforming a 3-d lidar point cloud into a 2-d dense depth map through a parameter self-adaptive framework
KR102152432B1 (ko) 동적 3차원 모델을 이용한 실사 콘텐츠 생성 시스템 및 방법
Shivakumar et al. Real time dense depth estimation by fusing stereo with sparse depth measurements
Khilar et al. 3D image reconstruction: Techniques, applications and challenges
Lan et al. Development of a virtual reality teleconference system using distributed depth sensors
Yang et al. Vision system of mobile robot combining binocular and depth cameras
Jia et al. Depth measurement based on a convolutional neural network and structured light
CN105025287A (zh) 利用旋转拍摄的视频序列影像构建场景立体全景图的方法
Madhuanand et al. Deep learning for monocular depth estimation from UAV images
Zhu et al. Mvp-human dataset for 3d human avatar reconstruction from unconstrained frames
Mkhitaryan et al. RGB-D sensor data correction and enhancement by introduction of an additional RGB view
Lee et al. Just flip: Flipped observation generation and optimization for neural radiance fields to cover unobserved view
Almeida et al. Incremental 3d body reconstruction framework for robotic telepresence applications
Babahajiani Geometric computer vision: Omnidirectional visual and remotely sensed data analysis

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20160817