CN103824318B - 一种多摄像头阵列的深度感知方法 - Google Patents

一种多摄像头阵列的深度感知方法 Download PDF

Info

Publication number
CN103824318B
CN103824318B CN201410049469.4A CN201410049469A CN103824318B CN 103824318 B CN103824318 B CN 103824318B CN 201410049469 A CN201410049469 A CN 201410049469A CN 103824318 B CN103824318 B CN 103824318B
Authority
CN
China
Prior art keywords
block
depth
input picture
photographic head
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410049469.4A
Other languages
English (en)
Other versions
CN103824318A (zh
Inventor
葛晨阳
华刚
郑南宁
姚慧敏
张晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN201410049469.4A priority Critical patent/CN103824318B/zh
Publication of CN103824318A publication Critical patent/CN103824318A/zh
Application granted granted Critical
Publication of CN103824318B publication Critical patent/CN103824318B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种多摄像头阵列的深度感知方法,采用激光散斑投射器或其它投影装置投射出固定图案,对空间进行结构光编码,再利用在同一基线上的多个摄像头获取所投射的图案,通过两种块匹配运动估计方法计算深度,包括输入图像与参考图案之间的块匹配计算和输入图像两两之间的双目块匹配计算,再在多个深度图之间根据所检测的距离范围、投射阴影进行深度图融合,消除阴影和噪声的干扰,生成高分辨率、高精度的图像深度信息。该方法易于采用硬件实现,可提升深度测量的精度、拓展深度测量的范围。

Description

一种多摄像头阵列的深度感知方法
技术领域
本发明属于图像处理、人机交互和机器视觉技术领域,具体涉及一种多摄像头阵列的深度感知方法。
背景技术
视觉是人类观察与认知世界最直接、最主要的途径。我们生活在一个三维世界中,人类视觉不仅能感知物体表面的亮度、颜色、纹理信息,运动情况,而且能判断其形状、空间及空间位置(深度、距离)。如何让机器视觉能实时获得高精度的三维深度信息、提高机器的智能水平是当前机器视觉系统研究的难点。
在工业领域,高分辨率、高精度的三维深度信息在汽车辅助安全驾驶、高速机床加工、工业建模、3D打印、医疗成像、物联网3D视觉感知等领域有着广泛的应用需求。在消费电子领域,深度感知技术和装置有助于提高电子产品的智能水平和交互能力,可为用户带来“科幻”般的操控方式和全新的人机交互体验,在智能电视、智能手机、家电、平板PC等领域实现创新应用。
基于结构光编码的主动视觉模式可以较为准确地获取图像的深度信息,该模式相比双目立体摄像头,具有获取的深度图信息更稳定可靠、不受环境光影响、立体匹配过程简单、算法计算量小等优势。如微软的体感交互设备Kinect就是采用红外结构光的主动视觉模式,即通过红外激光投射固定模式的图像到物体表面,经物体表面的漫反射形成散斑点,由摄像头采集获得散斑图像,再通过图像深度感知装置计算获得物体的深度图信息。Kinect可实时获取深度图(0.8~3.8米范围,640*480,30f/s),深度距离测量最优处可精确到3毫米,具备3D图像识别及动作捕捉功能,使得人能够以手势、体感动作与智能终端进行交互。2013年美国苹果公司公布了一项最新申请的发明专利“Depth Perception Deviceand System,深度感知设备与系统”,利用激光发射图形、摄像头获取散斑图后计算出深度距离,该技术有可能作为其未来创新产品的虚拟交互和输入设备进行应用。
当前微软、苹果所开发的深度感知装置都采用单一的摄像头接收模式,且主要适用于消费类电子,在深度图分辨率、精度、距离和实时性等方面难以满足无人车辅助驾驶、高速机床加工、工业三维建模、3D打印等领域的应用需求。当前大范围、高精度的深度感知装置已成为不同应用领域研究的热点和急需突破的关键设备。
发明内容
鉴于此,本发明提供了一种多摄像头阵列的深度感知方法,该方法采用激光散斑投射器或其它投影装置投射出固定图案,对空间进行结构光编码,再利用在同一基线上的多个摄像头获取所投射的图案,通过各自的深度计算和深度图融合,生成高分辨率、高精度的图像深度信息(距离)。
根据本发明的一种多摄像头阵列的深度感知方法,包括以下步骤:
步骤1、采用结构光编码的主动视觉模式,利用投射器投射固定图案的图像,对投射空间进行结构光编码,即主动进行特征标定;
步骤2、多摄像头阵列接收一定波长范围的投射器所投射的图案;
步骤3、多摄像头阵列的K个摄像头采集输入图像I1,I2,…,IK,经各自的预处理模块进行预处理;
步骤4、将预处理后的输入图像I1,I2,…,IK送入块匹配运动估计模块进行匹配计算,包括各输入图像I1,I2,…,IK与其对应的参考图案R1,R2,…,RK之间的块匹配计算以及各输入图像I1,I2,…,IK两两之间的双目块匹配计算;
步骤5、进行深度计算:将各摄像头的输入图像I1,I2,…,IK与对应参考图案R1,R2,…,RK块匹配计算得到的X轴方向偏移量Δx1,Δx2,…,ΔxK,结合参考图案的已知距离参数d、摄像头图像传感器焦距fk、摄像头到投射器的基线距离Sk和摄像头图像传感器点距参数μ,计算各输入图像中对应同一位置的投射图像块blockm×n中心点o的深度信息dk,k=1,2,…,K;将各输入图像I1,I2,…,IK两两之间双目匹配得到X轴方向偏移量Δx1,2,Δx2,3,…,ΔxK-1,K,结合摄像头图像传感器焦距fk、Sk-1,k相连两个摄像头之间的基线距离Sk-1,k和摄像头图像传感器点距参数μ,计算得到同一位置的投射图像块blockm×n中心点o的深度信息dk-1,k,k=2,3,…,K;
步骤6、进行深度融合:利用输入图像两两之间双目匹配得到的深度信息d1,2,d2,3,…,dK-1,K对输入图像与参考图案匹配得到的深度信息d1,d2,…,dK进行修正,再根据修正后的深度信息与参考阈值的比较结果,选择某一摄像头对应的深度值作为输出。
本发明突破了当前点激光或线激光扫描仪无法获取大范围、长距离、高精度深度信息的局限,改善了激光三角测距方法随着距离增加、测距精度急剧下降的缺陷。采用本发明技术方案的有益效果还将通过以下实施例的阐述而得到具体的体现。
附图说明
图1是本发明实施例的多摄像头阵列深度感知方法流程图;
图2是本发明实施例的多摄像头阵列结构示意图;
图3是激光三角测距方法示意图;
图4是本发明实施例的多摄像头深度感知计算模块结构图;
图5是本发明实施例的输入图像块在多摄像头中成像示意图;
图6是本发明实施例的输入图像块与最优匹配块之间偏移量示意图;
图7是本发明实施例的输入图像两两之间进行双目块匹配示意图;
图8是本发明实施例的深度融合示意图。
具体实施方式
下面结合具体实施例对本发明进行进一步的详细说明。
总体而言,本发明实施例的多摄像头阵列深度感知方法采用激光散斑投射器或其它投影装置投射出固定图案,对空间进行结构光编码,再利用在同一基线上的多个摄像头获取所投射的图案,通过各自的深度计算和深度图融合,生成高分辨率、高精度的图像深度信息(距离),进行三维图像的目标识别或动作捕捉。
图1示意性图示了本发明实施例的多摄像头阵列深度感知方法的整体流程。为了清楚说明,下文中将结合图2、图3、图4、图5、图6、图7、图8来描述该方法。
步骤1、采用结构光编码的主动视觉模式,利用投射器投射固定图案的图像,对投射空间进行结构光编码,即主动进行特征标定。
对于采用结构光编码的主动视觉模式,首先由投射器主动投射出固定图案对投射空间进行编码,即对投射空间进行特征标定。其中,投射器可以是激光散斑投射器或投影装置,其中激光散斑投射器可以投射出的相干激光束(红外、可见光、紫外线、不可见光),激光束经干涉成像和物体表面的漫反射形成由散斑点组成的散斑图像,而投影装置则可以投射出可控的编码图案。投射器所投射出的图案一般是固定的,或采用一定的控制策略与摄像头接收图像的图像传感器进行同步后改变其投射出的图案;同一幅图案在水平或垂直方向的一定范围特征不重复或随机分布。投射器所投射的视场角FoV(包括水平、垂直视场角)一般大于接收摄像头的视场角FoV。
步骤2、多摄像头阵列接收一定波长范围的投射器所投射的图案。
其中,由多摄像头阵列(K个)接收所投射的图案。优选地,各摄像头与投射器的光轴平行,且光学中心点在同一基线上。各摄像头可以对称、非对称方式置于投射器的左侧、右侧、上侧、下侧均不影响本发明内容的实施。如图2所示,以K=3个接收摄像头为例,摄像头1、摄像头2、摄像头K与投射器之间的基线距离分别为S1、S2、SK,且SK>S2>S1;其焦距分别为f1,f2,fK,焦距可相等、也可互不相等,一般fK≥f2≥f1;视场角也可以互不相等;各摄像头的功能定位有所不同,由于视场角和固定焦距测量范围的限制,摄像头1适用于捕获近距离图像,摄像头2用于捕获中间距离的图像、摄像头K用于捕获最远距离的图像,由于摄像头K的基线距离SK大于其它两个摄像头,根据图3所示的激光三角测距方法d=fS/Δx(d为深度距离,f为焦距,S为基线距离,Δx表示像素位移值),摄像头K对远距离物体的深度测量精度要高于摄像头2和摄像头1。但摄像头K取代不了其它两个摄像头,因其视场角和固定焦距的测量范围所限,对近距离物体无法识别。
优选地,各摄像头一般通过滤光片只接收一定波长范围的投射器发出的图像,最大程度地消除其它光源或光线的干扰,从而可清晰稳定地接收投射器所投射的图案。
另外,多摄像头阵列在投入工作前需先采集、固化各自的参考图案。所述的参考图案是利用投射器投射出固定图案到与该投射器的光学中心轴(Z轴)垂直、且距离投射器为d的平面上(该平面可由投影布、平板等构成,用于呈现清晰稳定的图像,该平面可称之为参考基准平面),由摄像头采集得到静态图像,并经图像预处理后存储固化在存储器中用于匹配基准和深度感知计算的标准图案。其中,激光散斑投射器的参考图案是由许多散斑点组成、已知距离d的标准散斑图。参考图案的获取可以通过如上方式实现,这些方式仅用于说明上述实施例,并非限制上述实施例,因为本领域技术人员也可以采用其他方式获取参考图案。
步骤3、多摄像头阵列的K个摄像头采集输入图像I1,I2,…,IK,经各自的预处理模块进行预处理。
所述的图像预处理是摄像头采集后对输入图像进行处理的重要内容,对不同特性的输入图像进行自适应、一致性的处理,一般包括视频格式转换(例如Bayer、ITU601、ITU656视频解码或MIPI接口格式转换)、色度空间转换(例如RGB转YUV)、灰度图像自适应去噪和增强等,其中增强方法包括直方图增强、灰度线性增强、二值化处理等,但不限于这些传统的增强方法。图像预处理的目的是通过输入图像的预处理,使图案更清晰、减少误匹配和噪声干扰,并有利于本发明内容的深度感知计算。参考图案及后续摄像头实时采集的输入图像都需经过相同的图像预处理模块,但各摄像头对应的预处理模块可以不相同,其目的是为了适合不同距离的输入图像画面处理。
步骤4、将预处理后的输入图像I1,I2,…,IK送入块匹配运动估计模块进行匹配计算,包括各输入图像I1,I2,…,IK与其对应的参考图案之间的块匹配计算以及各输入图像I1,I2,…,IK两两之间的双目块匹配计算。如图4所示。
优选地,上述块匹配运动估计过程中的两种块匹配计算可并行进行。
所述的输入图像的获取也可以采用上述参考图案的获取方法,输入图像中含有要测量深度信息的目标物体,其深度信息未知,其背景并不限定,但目标物体须在投射器照射的有效距离范围内。
以图2所示的K=3个摄像头进行深度感知为例,摄像头1、摄像头2、…、摄像头K的输入图像分别为I1、I2、…、IK,其对应的参考图案分别为R1、R2、…、RK。如图5所示,投射器投射出的图像块A(大小为m×n,其中m、n都是整数,m与n可以相等或不相等)在参考图案中的距离为d,该距离为已知距离,图像块A在参考图案中的图案固定,且在水平或垂直方向一定范围内该图像块具有相对的唯一性,即特征与其它相同大小的图像块特征不同,能与其它相同大小的图像块区分开来。图像块A投射到其它距离(更近或更远)上就变成图像块A',根据光线是直线传播的特点,图像块A'与图像块A在图形上在一定的距离范围内存在极高的相似性,虽然由于缩放缘故存在大小不同、由于距离不同也存在亮暗不同,甚至由于相干光干涉成像的原因其同一特征点在不同距离形状、大小、亮暗也不相同,但这些不影响图像块A'与图像块A在一定的距离范围内的相似性,可以假设认为图像块A'与图像块A在一定的范围内图形是相同的。本发明块匹配运动估计模块的重要内容就是将投射图像块A'在其参考图案中快速、准确地找到与之最为匹配(相似度最高)的图像块A,找到最优匹配块即得到两个图像块之间的运动向量,可用X、Y轴方向的偏移量(Δx,Δy)表示。图5所示,同一投射图像块A'与匹配图像块A在各摄像头的图像传感器芯片中由于焦距f、基线距离S的不同所呈现的运动向量也不相同,以X轴方向的偏移量Δx表示,摄像头1、摄像头2、…、摄像头K的X轴偏移量分别为Δx1、Δx2、…、ΔxK,其中Δxk=xk-xk'。
所述的投射图像块是指块匹配运动估计过程中、输入图像内选取的、用于匹配计算的图像块blockm×n,大小为m×n,其中m、n都是整数,m与n可以相等或不相等。其大小的选取根据水平或垂直方向一定范围内该图像块具有相对的唯一性,即该图像块特征与其它相同大小的图像块特征不同,能与其它相同大小的图像块区分开来。
如图6所示,输入图像I1、I2、…、IK分别与其对应的参考图案R1、R2、…、RK之间进行块匹配运动估计的工作过程为:在输入图像中提取一定大小的输入图像块blockm×n,中心点为o;在参考图案中提取跟输入图像块中心点o点位置对应、一定范围大小的匹配搜索窗MatchM×N,大小为M×N,M、N都是整数,可以相等或不相等,一般M≥N、M>m、N≥n;然后在匹配搜索窗MatchM×N中提取所有跟输入图像块一样大小的匹配块matchk,大小为m×n,匹配块中心点ok,k是整数,表示匹配块个数。接下来分别计算输入图像块A'blockm×n与k个匹配块matchk之间的相似度值match_valuek,该值作为图像块匹配的相似度测量指标。
优选地,本发明的相似度值计算方法采用输入图像块与匹配块对应像素之间求差绝对之和(SAD)的方法,但不限于这种方法。
接下来在所有相似度值match_valuek中求最小值,该值对应的匹配块matchk即为图像块A'blockm×n拟搜寻的最优匹配块A,该最小值对应的位置信息即为图像块blockm×n中心点o的偏移量(Δx,Δy),即该输入图像块A'的运动向量。如图6所示输入图像块为输入散斑图灰色表示区域,最优匹配块为参考散斑图的匹配搜索窗中斜线表示区域,其中心点ok与匹配搜索窗blockM×N中心点o(该中心点o与输入图像块中心点o位置对应)的最优偏移量为(Δx,Δy),分别表示X、Y轴方向位移,偏移量值为匹配搜索窗中心点o坐标值(x,y)分别按X、Y轴减去最优匹配块中心点坐标值(x',y')计算得到,有正负,正负对应上下、左右坐标关系,在空间上则对应与参考图案平面的前后关系。如最优偏移量为负,表示比参考图案距离更远,图5中Δd值为正;最优偏移量为正,表示比参考图案距离更近,图5中Δd值为负;同时偏移量值越大表示该图像块中心点o与已知深度距离的参考图案平面之间的垂直距离越远,即图5中Δd值越大,因参考图案平面相对投射器的距离是固定的,偏移量越大该中心点o相对图案的距离则可能越近或越远。
按上述块匹配运动估计方法,K个摄像头的输入图像I1,I2,…,IK与其对应的参考图案R1,R2,…,RK之间通过块匹配运动估计分别得到X轴方向的最优偏移量Δx1,Δx2,…,ΔxK
以图2所示的K=3个摄像头为例,说明输入图像两两之间双目块匹配计算过程。如图7所示,根据双目立体视觉和激光三角测距方法,如摄像头1、摄像头2、…、摄像头K的焦距f相等,摄像头1、摄像头2之间计算输入图像块A'的深度距离d1,2=fS1,2/Δx1,2(d1,2为深度距离,S1,2为两者之间的基线距离,Δx1,2表示输入图像I1中的投射图像块A'在输入图像I2中的水平位移值)。由此可见,双目块匹配计算的关键在于摄像头1和摄像头2之间图像块A'的位移值求取。具体方法为,在摄像头1的输入图像I1中提取图像块A',在摄像头2的输入图像I2中找到与之最为匹配(即相似度最高)的图像块,而搜索最优块匹配的方法同上述的输入图像与参考图案的块匹配运动估计方法。
按上述输入图像两两之间双目块匹配计算方法,K个摄像头的输入图像I1,I2,…,IK之间通过双目块匹配运动估计分别得到X轴方向的最优偏移量Δx1,2,Δx2,3,…,ΔxK-1,K,其中ΔxK-1,K=|xK-xK-1|。其中,一般在相连的两个摄像头获取的输入图像之间进行双目块匹配计算。
步骤5、进行深度计算:将各摄像头的输入图像I1,I2,…,IK与对应参考图案块匹配计算得到的X轴方向偏移量Δx1,Δx2,…,ΔxK结合参考图案的已知距离参数d、摄像头图像传感器焦距fk、摄像头到投射器的基线距离Sk和摄像头图像传感器点距参数μ,计算各输入图像中对应同一位置的投射图像块blockm×n中心点o的深度信息dk,k=1,2,…,K。
在本实施例中,按以下深度计算公式计算dk
d k = d - Δx k μd 2 f k S k + Δx k μ d = f k S k d f k S k + Δx k μ d , k = 1 , 2 , ... , K - - - ( 1 )
式中,Δxk=xk-xk',xk为第k个摄像头的输入图像中投射图像块中心点o的X轴坐标,xk'为第k个摄像头的参考图案中对应所述投射图像块的最优匹配块中心点的X轴坐标。
再将各输入图像I1,I2,…,IK两两之间双目匹配得到X轴方向偏移量Δx1,2,Δx2,3,…,ΔxK-1,K结合摄像头图像传感器焦距fk、Sk-1,k相连两个摄像头之间的基线距离Sk-1,k和摄像头图像传感器点距参数μ,计算得到同一位置的投射图像块blockm×n中心点o的深度信息dk-1,k,k=2,3,…,K。
在本实施例中,按以下深度计算公式计算dk-1,k
d k - 1 , k = f k S k - 1 , k Δx k - 1 , k μ , k = 2 , 3 , ... , K - - - ( 2 )
式中,Δxk-1,k=|xk-xk-1|,xk为第k个摄像头的输入图像中投射图像块中心点的X轴坐标,xk-1为第k-1个摄像头的输入图像中与所述投射图像块最优匹配的图像块中心点的X轴坐标。
以上计算方法得到深度信息都针对同一位置投射图像块的中心点。
步骤6、进行深度融合:利用输入图像两两之间双目匹配得到的深度信息d1,2,d2,3,…,dK-1,K对输入图像与参考图案匹配得到的深度信息d1,d2,…,dK进行修正,再根据修正后的深度信息与参考阈值的比较结果,选择某一摄像头对应的深度值作为输出。
对于K(K=1,2,3,…)个摄像头,结合图8说明深度融合过程。融合方法具体为:
(1)对于当前深度值dk(k=2,3,…,K),采用模板算子检测dk是否属于噪声点或阴影区域,典型的模板算子如Sobel、Canny等,如属于噪声点或阴影区域,则用dk-1,k取代dk,另外,d1用d1,2修正;
(2)取深度值d=mid{dk-1,dk,dk+1}(k=2,3,…,K-1),也即取修正后dk-1、dk、dk+1的中值,若深度值d≤Thk,则选择dk-1输出;若Thk+1≥d>Thk,则选择dk输出;若d>Thk+1,则选择dk+1输出;
(3)得到最终优化后的深度值,该值代表当前投射图像块中心点的深度距离。
以上举例仅为一种具体融合方法,但不限于这种方法。
步骤7、将投射图像块的中心点移到同一行的下一个像素点,重复步骤4-6,可计算得到下一个像素点对应的深度值,如此按逐行从左向右、从上往下的计算顺序,可逐点计算得到整幅图像深度信息(距离)。同理也可以用于计算输入图像序列的深度信息。
由于按图像块进行深度计算,加上图像块较小,对处于图像边缘的像素点,其深度信息可忽略不计,不影响整幅图像的深度计算。
作为示例,本发明匹配块的搜索策略采用传统全搜索块匹配,但是也可以采用其他各种改进的搜索策略;相似度值计算方法采用差绝对值之和SAD的方法,但不限于这种方法;深度融合方法也不限于本发明举例采用的方法;所有采用与本发明内容流程相似的方法都应包含在本发明的权利要求范围内。
本发明中,捕捉的输入图像包括所述物体移动过程中捕捉的一系列测试图像,并可根据所估计的位置跟踪目标区域内物体的运动。
虽然上述的实施例在特定的系统中完成,然其并非限定本发明,本发明可类似的应用到相似的图案投射和图像传感器系统中。本发明不仅支持不同种激光源产生的结构光模式,如红外、可见光、紫外线、不可见光等,也适用不同图案的投射方案,如圆点状、块状、十字状、条纹状等的图案。同时本发明的多摄像头个数可以为1、2、3或更多个。因而在不脱离本发明的精神和范围内的修改和完善,均应包含在上述的权利要求范围内。

Claims (10)

1.一种多摄像头阵列的深度感知方法,包括以下步骤:
步骤1、采用结构光编码的主动视觉模式,利用投射器投射固定图案的图像,对投射空间进行结构光编码,即主动进行特征标定;
步骤2、多摄像头阵列接收一定波长范围的投射器所投射的图案;
步骤3、多摄像头阵列的K个摄像头采集输入图像I1,I2,…,IK,经各自的预处理模块进行预处理;
步骤4、将预处理后的输入图像I1,I2,…,IK送入块匹配运动估计模块进行匹配计算,包括各输入图像I1,I2,…,IK与其对应的参考图案R1,R2,…,RK之间的块匹配计算以及各输入图像I1,I2,…,IK两两之间的双目块匹配计算;
步骤5、进行深度计算:将各摄像头的输入图像I1,I2,…,IK与对应参考图案R1,R2,…,RK块匹配计算得到的X轴方向偏移量Δx1,Δx2,…,ΔxK,结合参考图案的已知距离参数d、摄像头图像传感器焦距fk、摄像头到投射器的基线距离Sk和摄像头图像传感器点距参数μ,计算各输入图像中对应同一位置的投射图像块blockm×n中心点o的深度信息dk,k=1,2,…,K;将各输入图像I1,I2,…,IK两两之间双目匹配得到X轴方向偏移量Δx1,2,Δx2,3,…,ΔxK-1,K,结合摄像头图像传感器焦距fk、Sk-1,k相连两个摄像头之间的基线距离Sk-1,k和摄像头图像传感器点距参数μ,计算得到同一位置的投射图像块blockm×n中心点o的深度信息dk-1,k,k=2,3,…,K;
步骤6、进行深度融合:利用输入图像两两之间双目匹配得到的深度信息d1,2,d2,3,…,dK-1,K对输入图像与参考图案匹配得到的深度信息d1,d2,…,dK进行修正,再根据修正后的深度信息与参考阈值的比较结果,选择某一摄像头对应的深度值作为输出。
2.根据权利要求1所述的方法,步骤1中,所述投射器为激光散斑投射器或投影装置,其中激光散斑投射器投射出相干激光束,激光束经干涉成像和物体表面的漫反射形成由散斑点组成的散斑图像,而投影装置投射出可控的编码图案。
3.根据权利要求1所述的方法,步骤2中,各摄像头通过滤光片接收投射器所投射的图案。
4.根据权利要求1所述的方法,步骤2中,各摄像头与投射器的光轴平行,且光学中心点在同一基线上。
5.根据权利要求1所述的方法,步骤3中,所述预处理包括视频格式转换、色度空间转换、灰度图像自适应去噪和增强;
所述视频格式转换包括Bayer、ITU601、ITU656视频解码或MIPI接口格式转换;
所述空间转换包括RGB转YUV。
6.根据权利要求1所述的方法,步骤4中,两种块匹配计算并行进行。
7.根据权利要求1所述的方法,步骤4中,在相连的两个摄像头获取的输入图像之间进行双目块匹配计算。
8.根据权利要求1所述的方法,步骤5中,按以下深度计算公式计算dk
d k = d - Δx k μd 2 f k S k + Δx k μ d = f k S k d f k S k + Δx k μ d ,
k=1,2,…,K (1)
式中,Δxk=xk-xk′,xk为第k个摄像头的输入图像中投射图像块中心点o的X轴坐标,xk′为第k个摄像头的参考图案中对应所述投射图像块的最优匹配块中心点的X轴坐标;
并且,按以下深度计算公式计算dk-1,k
d k - 1 , k = f k S k - 1 , k Δx k - 1 , k μ ,
k=2,3,…,K (2)
式中,Δxk-1,k=|xk-xk-1|,xk为第k个摄像头的输入图像中投射图像块中心点的X轴坐标,xk-1为第k-1个摄像头的输入图像中与所述投射图像块最优匹配的图像块中心点的X轴坐标。
9.根据权利要求1所述的方法,步骤6具体为:
(1)对于当前深度值dk,k=2,3,…,K,采用模板算子检测dk是否属于噪声点或阴影区域,如属于噪声点或阴影区域,则用dk-1,k取代dk;另外,对于d1,利用d1,2进行修正;
(2)取深度值d=mid{dk-1,dk,dk+1},k=2,3,…,K-1,也即取修正后dk-1、dk、dk+1的中值,若深度值d≤Thk,则选择dk-1输出;若Thk+1≥d>Thk,则选择dk输出;若d>Thk+1,则选择dk+1输出;
(3)得到最终优化后的深度值,该值代表当前投射图像块中心点的深度距离。
10.根据权利要求1所述的方法,还包括:步骤7、将投射图像块的中心点移到同一行的下一个像素点,重复步骤4-6,计算得到下一个像素点对应的深度值,如此按逐行从左向右、从上往下的顺序,逐点计算得到整幅图像深度信息。
CN201410049469.4A 2014-02-13 2014-02-13 一种多摄像头阵列的深度感知方法 Expired - Fee Related CN103824318B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410049469.4A CN103824318B (zh) 2014-02-13 2014-02-13 一种多摄像头阵列的深度感知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410049469.4A CN103824318B (zh) 2014-02-13 2014-02-13 一种多摄像头阵列的深度感知方法

Publications (2)

Publication Number Publication Date
CN103824318A CN103824318A (zh) 2014-05-28
CN103824318B true CN103824318B (zh) 2016-11-23

Family

ID=50759358

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410049469.4A Expired - Fee Related CN103824318B (zh) 2014-02-13 2014-02-13 一种多摄像头阵列的深度感知方法

Country Status (1)

Country Link
CN (1) CN103824318B (zh)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10192312B2 (en) * 2013-04-08 2019-01-29 C3D Augmented Reality Solutions Ltd Distance estimation using multi-camera device
CN105451009B (zh) * 2014-06-13 2017-12-29 联想(北京)有限公司 一种信息处理方法及电子设备
CN104622474B (zh) * 2015-03-09 2016-11-23 莆田市荔城区聚慧科技咨询有限公司 一种表面深度测量装置
CN104802710B (zh) * 2015-04-17 2017-07-11 浙江大学 一种智能汽车倒车辅助系统及辅助方法
CN104952074B (zh) * 2015-06-16 2017-09-12 宁波盈芯信息科技有限公司 一种深度感知计算的存储控制方法及装置
CN105160663A (zh) * 2015-08-24 2015-12-16 深圳奥比中光科技有限公司 获取深度图像的方法和系统
CN105931240B (zh) * 2016-04-21 2018-10-19 西安交通大学 三维深度感知装置及方法
CN106170086B (zh) * 2016-08-19 2019-03-15 深圳奥比中光科技有限公司 绘制三维图像的方法及其装置、系统
CN106502379B (zh) * 2016-09-12 2019-05-31 深圳奥比中光科技有限公司 一种交互方法及交互系统、相对深度的获取方法
CN106504284B (zh) * 2016-10-24 2019-04-12 成都通甲优博科技有限责任公司 一种基于立体匹配与结构光相结合的深度图获取方法
CN108068314B (zh) * 2016-11-17 2020-05-26 三纬国际立体列印科技股份有限公司 彩色三维物件的切层打印方法及彩色三维打印系统
CN106791763B (zh) * 2016-11-24 2019-02-22 深圳奥比中光科技有限公司 一种用于3d显示和3d交互的专用处理器
TWI672677B (zh) * 2017-03-31 2019-09-21 鈺立微電子股份有限公司 用以融合多深度圖的深度圖產生裝置
CN108693538A (zh) * 2017-04-07 2018-10-23 北京雷动云合智能技术有限公司 基于双目结构光的准确置信度深度摄像机测距装置及方法
CN109242901B (zh) * 2017-07-11 2021-10-22 深圳市道通智能航空技术股份有限公司 应用于三维相机的图像校准方法和装置
CN107437261B (zh) * 2017-07-14 2021-03-09 梅卡曼德(北京)机器人科技有限公司 深度图像获取方法
CN107343122A (zh) * 2017-08-02 2017-11-10 深圳奥比中光科技有限公司 3d成像装置
CN107628032A (zh) * 2017-08-09 2018-01-26 广东欧珀移动通信有限公司 自动驾驶控制方法、装置、车辆和计算机可读存储介质
CN108010079B (zh) * 2017-10-19 2021-11-02 中国船舶工业系统工程研究院 基于投影融合和图像识别的状态信息远程监控系统及方法
CN109889799B (zh) * 2017-12-06 2020-08-25 西安交通大学 基于rgbir摄像头的单目结构光深度感知方法及装置
CN109903719A (zh) 2017-12-08 2019-06-18 宁波盈芯信息科技有限公司 一种时空编码的结构光编码图案生成方法及装置
CN109903328B (zh) * 2017-12-11 2021-12-21 宁波盈芯信息科技有限公司 一种应用于智能手机的物体体积测量的装置及方法
US10740913B2 (en) * 2017-12-12 2020-08-11 Samsung Electronics Co., Ltd. Ultrafast, robust and efficient depth estimation for structured-light based 3D camera system
CN110049305B (zh) * 2017-12-18 2021-02-26 西安交通大学 一种智能手机的结构光深度相机自校正方法及装置
CN109978987A (zh) * 2017-12-28 2019-07-05 周秦娜 一种基于多个深度摄像头构建全景的控制方法、装置及系统
US10643342B2 (en) * 2018-02-08 2020-05-05 Huawei Technologies Co., Ltd. Group optimization depth information method and system for constructing a 3D feature map
CN109194947A (zh) * 2018-09-13 2019-01-11 广东光阵光电科技有限公司 双目摄像模组及移动终端
CN111353934B (zh) * 2018-12-24 2023-05-16 杭州海康威视数字技术股份有限公司 一种视频合成的方法及装置
CN109887022A (zh) * 2019-02-25 2019-06-14 北京超维度计算科技有限公司 一种双目深度相机的特征点匹配方法
CN111007939B (zh) * 2019-11-25 2021-09-21 华南理工大学 一种基于深度感知的虚拟现实系统空间定位方法
CN112669362B (zh) * 2021-01-12 2024-03-29 四川深瑞视科技有限公司 基于散斑的深度信息获取方法、装置及系统
CN113139998A (zh) * 2021-04-23 2021-07-20 北京华捷艾米科技有限公司 深度图像的生成方法及装置、电子设备、计算机存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101883291A (zh) * 2010-06-29 2010-11-10 上海大学 感兴趣区域增强的视点绘制方法
CN102970548A (zh) * 2012-11-27 2013-03-13 西安交通大学 一种图像深度感知装置
CN102999910A (zh) * 2012-11-27 2013-03-27 西安交通大学 一种图像深度计算方法
AU2011265379A1 (en) * 2011-12-20 2013-07-04 Canon Kabushiki Kaisha Single shot image based depth mapping

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7557966B2 (en) * 2004-08-11 2009-07-07 Acushnet Company Apparatus and method for scanning an object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101883291A (zh) * 2010-06-29 2010-11-10 上海大学 感兴趣区域增强的视点绘制方法
AU2011265379A1 (en) * 2011-12-20 2013-07-04 Canon Kabushiki Kaisha Single shot image based depth mapping
CN102970548A (zh) * 2012-11-27 2013-03-13 西安交通大学 一种图像深度感知装置
CN102999910A (zh) * 2012-11-27 2013-03-27 西安交通大学 一种图像深度计算方法

Also Published As

Publication number Publication date
CN103824318A (zh) 2014-05-28

Similar Documents

Publication Publication Date Title
CN103824318B (zh) 一种多摄像头阵列的深度感知方法
CN103796004B (zh) 一种主动结构光的双目深度感知方法
US9454821B2 (en) One method of depth perception based on binary laser speckle images
CN102970548B (zh) 一种图像深度感知装置
US10740917B2 (en) Automatic correction method and device for structured-light 3D depth camera
US10194135B2 (en) Three-dimensional depth perception apparatus and method
CN103810708B (zh) 一种激光散斑图像深度感知方法及装置
CN101853528B (zh) 一种手持式三维型面信息提取方法及其提取仪
CN104197861B (zh) 基于结构光灰度向量的三维数字成像方法
CN103020988B (zh) 一种激光散斑图像的运动向量生成方法
US9025862B2 (en) Range image pixel matching method
CN109360235A (zh) 一种基于光场数据的混合深度估计方法
CN105120257A (zh) 一种基于结构光编码的垂直深度感知装置
US8867826B2 (en) Disparity estimation for misaligned stereo image pairs
CN104903677A (zh) 用于将使用不同深度成像技术生成的深度图像合并的方法和装置
CN102982334B (zh) 基于目标边缘特征与灰度相似性的稀疏视差获取方法
CN106503605A (zh) 基于立体视觉技术的人体目标识别方法
CN104537657A (zh) 一种搜索并行gpu加速的激光散斑图像深度感知方法
CN105488802A (zh) 一种指尖深度检测方法及系统
CN111899277A (zh) 运动目标检测方法及装置、存储介质、电子装置
Choi et al. Stereo-augmented depth completion from a single rgb-lidar image
CN110853086A (zh) 基于散斑投影的深度图像生成方法及系统
CN104052985B (zh) 三维影像校正装置及三维影像校正方法
CN117576679A (zh) 三维物体识别系统及方法
Pan et al. Interference reduction using pattern modulation and demodulation for light-coding depth cameras

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20161123

Termination date: 20200213