CN112230244A - 一种融合的深度测量方法及测量装置 - Google Patents

一种融合的深度测量方法及测量装置 Download PDF

Info

Publication number
CN112230244A
CN112230244A CN202010933933.1A CN202010933933A CN112230244A CN 112230244 A CN112230244 A CN 112230244A CN 202010933933 A CN202010933933 A CN 202010933933A CN 112230244 A CN112230244 A CN 112230244A
Authority
CN
China
Prior art keywords
image
parallax
depth
light beam
parallax image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010933933.1A
Other languages
English (en)
Other versions
CN112230244B (zh
Inventor
王兆民
黄源浩
肖振中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orbbec Inc
Original Assignee
Orbbec Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orbbec Inc filed Critical Orbbec Inc
Priority to CN202010933933.1A priority Critical patent/CN112230244B/zh
Priority to PCT/CN2020/138128 priority patent/WO2022052366A1/zh
Publication of CN112230244A publication Critical patent/CN112230244A/zh
Application granted granted Critical
Publication of CN112230244B publication Critical patent/CN112230244B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration

Abstract

一种融合的深度测量方法及测量装置,对场景区域的距离进行测量,测量方法包括:对场景区域发射脉冲光束;接收脉冲光束的反射信号,并输出往返脉冲光束与反射信号的渡越时间的电信号;采集场景区域的左图像,并采集场景区域的右图像;对渡越时间的电信号进行处理以获取第一深度图像,并将第一深度图像转换为第一视差图像;对左图像与右图像进行立体匹配,以获取第二视差图像;对第一视差图像与第二视差图像进行融合,以获取目标图像。通过设置上述融合的深度测量方法及测量装置,解决了传统的测距方法存在着因算法复杂,从而导致测距计算时间较长和目标识别精度较低的技术问题。

Description

一种融合的深度测量方法及测量装置
技术领域
本申请涉及图像处理与光学测量技术领域,尤其涉及一种融合的深度测量方法及测量装置。
背景技术
深度测量装置可以用来获取物体的深度图像,进一步可以进行3D建模、骨架提取、人脸识别等,在3D测量以及人机交互等领域有着非常广泛的应用。目前的深度测量技术主要有TOF测距技术、双目测距技术等。
TOF的全称是Time-of-Flight,即飞行时间,TOF测距技术是一种通过测量脉冲光束在发射/接收装置和目标物体间的往返飞行时间来实现精确测距的技术,分为直接测距技术和间接测距技术。其中,直接测距技术测量脉冲光束的发射和接收的时间差,相比于传统的图像传感器,直接测距技术利用单光子雪崩二极管(SPAD)图像传感器实现高灵敏度的光探测,并且采用时间相关单光子技术方法来实现皮秒级的时间精度。但SPAD图像传感器在制造工艺、芯片设计等方面仍然存在诸多限制,以至于图像传感器的分辨率非常低。
双目测距技术利用的是三角测距法计算被测物到相机的距离;具体地说,就是从两个相机观察同一物体,被观测物体在两个相机中拍摄到的图像中的位置会有一定位置差,即视差;被测物离相机越近,视差就越大;距离越远,视差就越小。在已知两个相机间距等相对位置关系的情况下,即可通过相似三角形的原理计算出被摄物到相机的距离。然而这种测距方式对处理器硬件要求较高,且需要依赖于复杂的算法,算法计算时间长,对于特征不明显的目标识别效果不佳,识别精度较低。
因此,传统的测距方法存在着因算法复杂,从而导致测距计算时间较长和目标识别精度较低的技术问题。
发明内容
本申请的目的在于提供一种融合的深度测量方法及测量装置,旨在解决传统的测距方法存在着因算法复杂,从而导致测距计算时间较长和目标识别精度较低的技术问题。
本申请实施例的第一方面提供了一种融合的深度测量方法,对场景区域的距离进行测量,包括:
对所述场景区域发射脉冲光束;
接收所述脉冲光束的反射信号,并输出往返所述脉冲光束与所述反射信号的渡越时间的电信号;
采集所述场景区域的左图像和右图像;
对所述渡越时间的电信号进行处理以获取第一深度图像,并将所述第一深度图像转换为第一视差图像;
对所述左图像与所述右图像进行立体匹配,以获取第二视差图像;
对所述第一视差图像与所述第二视差图像进行融合,以获取目标图像。
在其中一实施例中,对所述场景区域发射脉冲光束包括:
产生所述脉冲光束;
调整所述脉冲光束的发散度;
对所述脉冲光束进行导向,以指示所述脉冲光束发散至所述场景区域的各个方向。
本申请实施例的第二方面提供了一种融合的深度测量装置,包括:
发射模块,用于对场景区域发射脉冲光束;
探测模块,用于接收所述脉冲光束的反射信号,并输出往返所述脉冲光束与所述反射信号的渡越时间的电信号;
采集模块,用于采集所述场景区域的左图像和右图像;
处理模块,用于对所述渡越时间的电信号进行处理以获取第一深度图像,并将所述第一深度图像转换为第一视差图像;
转换模块,对所述左图像与所述右图像进行立体匹配,以获取第二视差图像;以及
融合模块,用于对所述第一视差图像与所述第二视差图像进行融合,以获取目标图像。
在其中一实施例中,所述发射模块包括:
光源阵列,用于产生脉冲光束;
透镜元件,用于调整所述脉冲光束的发散度;以及
光束扫描元件,用于对所述脉冲光束进行导向,以指示所述脉冲光束发散至所述场景区域的各个方向。
在其中一实施例中,所述探测模块包括单光子雪崩二极管图像传感器;
所述处理模块中,将所述第一深度图像转换为第一视差图像具体包括:
以所述左图像为参考图像,计算所述第一深度图像对应的所述第一视差图像:
Figure BDA0002671235790000031
式中,PD(x0,y0)为所述第一深度图像上深度值Z(x0,y0)在点(x0,y0)处的视差值,f为所述单光子雪崩二极管图像传感器的焦距,Tlt是以深度相机-左相机为系统的基线长度,Hlt是深度相机标定出来的单应矩阵。
在其中一实施例中,将所述第一深度图像转换为所述第一视差图像,还包括:
采用以下二元三次方程对所述第一视差图像的视差曲面进行拟合,以获取平滑的视差曲面:
d(x,y)=a1+a2x+a3y+a4x2+a5xy+a6y2+a7x3+a8x2y+a9xy2+a10y3
式中,d(x,y)为一个三维视差曲面,a1,a2,···,a10为系数,x和y为像素坐标。
在其中一实施例中,所述处理模块中,在将所述第一深度图像转化为第一视差图像之前,还包括:
对所述单光子雪崩二极管图像传感器与所述左图像传感器或者所述右图像传感器进行联合标定:
将所述单光子雪崩二极管图像传感器获得的所述第一深度图像转化为点云数据,将所述点云数据通过联合标定的变换矩阵映射到所述左图像传感器或者所述右图像传感器的相机坐标系中,得到以所述左图像传感器或者所述右图像传感器为参考的平面二维点。
在其中一实施例中,所述转换模块中,对所述左图像与所述右图像进行立体匹配,以获取第二视差图像具体包括:
选取所述第一视差图像上的像素点作为种子点,引导所述左图像和所述右图像进行立体匹配以获得所述第二视差图像,具体采用以下公式:
Figure BDA0002671235790000041
式中,(x,y0)为右图像每个视差范围内的像素点,θ为选定的参数。
在其中一实施例中,对所述第一视差图像与所述第二视差图像进行融合,以获取深度图像,具体包括:
根据所述第一视差图像,获取第一可信度函数;
根据所述第二视差图像,获取第二可信度函数;
根据所述第一可信度函数和所述第二可信度函数构成不同的权重,对所述第一视差图像与所述第二视差图像进行融合,以获取像素融合视差;
根据所述像素融合视差对场景区域进行三维重建,以获取所述深度图像。
在其中一实施例中,对所述第一视差图像与所述第二视差图像进行融合,以获取像素融合视差,具体包括:
根据所述第一可信度函数和所述第二可信度函数,构成不同的权重对两种视差进行融合,得到像素融合视差,具体采用以下公式:
d=wt·dt+ws·ds
Figure BDA0002671235790000051
wt=1-ws
式中,dt为第一视差值,ds为第二视差值,wt为根据第一视差值的权重,ws为根据第二视差值的权重。
本发明实施例中上述的一种融合的深度测量方法及测量装置,通过单光子雪崩二极管图像传感器获取第一深度图像,并将第一深度图像的像素点作为种子点,引导左图像传感器和右图像传感器进行立体匹配,以获取第二视差图像,通过将第一深度图像转化为第一视差图像,并根据第一可信度函数和第二可信度函数构成不同的权重,以融合第一视差图像和第二视差图像,得到融合视差图像以恢复场景区域的三维重建,获取高分辨率的目标图像,识别精度较高。
附图说明
图1为本申请一实施例提供的一种融合的深度测量方法的具体流程步骤示意图;
图2为本申请一实施例提供的一种融合的深度测量方法中将第一深度图像转换为第一视差图像的流程示意图;
图3为本申请一实施例提供的一种融合的深度测量方法中对第一视差图像与第二视差图像进行融合的流程示意图;
图4为本申请一实施例提供的一种融合的深度测量装置的结构示意图。
具体实施方式
为了使本申请所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为本申请一实施例提供的一种融合的深度测量方法的具体流程步骤示意图,为了便于说明,仅示出了与本实施例相关的部分,详述如下:
在一实施例中,第一方面提供了一种融合的深度测量方法,对场景区域的距离进行测量,包括以下步骤:
S101.控制发射模块对场景区域发射脉冲光束。
在一个实施例中,发射模块包括光源阵列、透镜元件及光束扫描元件。
光源阵列用于产生脉冲光束,在一个实施例中,光源阵列采用半导体LED、半导体激光或者VCSEL(Vertical-Cavity Surface-Emitting Laser,垂直腔面激光发射器)阵列作为光源,光源阵列也可以采用平行共振腔表面的边发射激光器,用于向外发射红外、紫外等波长的光束。优选地,本实施例中光源阵列采用VCSEL阵列,VCSEL拥有体积小、脉冲光束发射角小、稳定性好等特点,在面积1mm×1mm的半导体衬底上布置成百上千个VCSEL子光源,由此构成VCSEL阵列发光芯片,其体积小、功耗低。VCSEL阵列发光芯片可以是拥有较小体积和厚度的裸片,也可以具有较好的稳定性以及方便连接的经过封装后的发光芯片。
在一个实施例中,透镜元件用于调整脉冲光束的发散度,透镜元件采用单透镜、透镜组合或者微透镜阵列。发散度可被确定为与脉冲光束一个或多个截面轴相关联的角度值,发散度的调整可至少部分控制缓解脉冲光束截面的不均匀性,以改善装置在确定视野中的各个位置处检测的反射点的属性时的准确度,并改善光源阵列中各组反射点与各个对象的点云的相关性等。光源阵列对透镜元件有一定的设计要求,比如发射脉冲光束密度,因此单透镜元件往往难以达到要求,则需要多个透镜共同组成透镜姿态来满足设计要求。在具体实施过程中,除了需要考虑透镜的基本设计要求之外,还需要考虑透镜元件在使用过程中会遇到的一些其他因素,此处不作限制,可根据具体情况进行设计。
在一个实施例中,光束扫描元件用于对脉冲光束进行导向,以指示脉冲光束发散至场景区域的各个方向,光束扫描元件采用由MEMS(Micro Electro Mechanical ayatems,微电气机械系统)技术制成的微镜子,可控制地将脉冲光束朝各个方向发射,并对目标场景区域进行扫描。
S102.通过单光子雪崩二极管图像传感器接收脉冲光束的反射信号,并输出往返脉冲光束和反射信号的渡越时间的电信号。
在一个实施例中,发射模块发射时序上被脉冲调制的线光束或面阵光束的脉冲光束,SPAD(Single Photon Avalanche Diode,单光子雪崩二极管)图像传感器探测到单光子,从而产生一个数字脉冲,通过TDC(Time to Digital Convert,时间数据转换器)电路记录数字脉冲产生的时刻,对相应时间区间内的单光子计数累加值进行加一操作,输出多组光子飞行时间信息,大量重复同样的测量后,会得到很多时间数据,将这些时间内数据按照同样的方式累加在相应的时间区间中,然后通过TCSPC(Time-correlated single-photoncounting,单光子计数)电路得到相应的单光子计数直方图,对单光子计数直方图进行峰值判断,确定光子在场景区域与发射模块之间飞行所需要的渡越时间的电信号并输出。
S103.通过左图像传感器采集场景区域的左图像,并通过右图像传感器采集场景区域的右图像。
在一个实施例中,左图像传感器和右图像传感器在发射模块的照射下,分别采集场景区域的左红外图像和右红外图像;左图像传感器和右图像传感器均可采用红外图像传感器,且由于红外图像传感器在成像时需要持续的主动光源(如红外光)进行照明,因此发射模块还包括红外泛光灯、红外投影仪等红外光源。
在另一实施例中,左图像传感器和右图像传感器还可以采用可见光图像传感器,左图像传感器和右图像传感器可以采用两个RGB图像传感器,或这一个RGB图像传感器与一个灰度传感器组合,在环境光的照明下,用于分别采集场景区域的左可见光图像和右可见光图像。
S104.对渡越时间的电信号进行处理以获取第一深度图像,并将第一深度图像转换为第一视差图像。
在一个实施例中,对于平行的立体视觉系统,左图像传感器与右图像传感器所形成的左相机、右相机的光轴是平行的,因此可根据三角测距原理获得场景区域的深度信息;设定场景区域内P点在左相机和右相机上的投影坐标分别为Pl(xl,yl)和Pr(xr,yr),根据三角测距原理获得场景区域点P的深度信息:
Figure BDA0002671235790000081
进一步地,获得P点处的深度值:
Figure BDA0002671235790000082
式中,z为点P的深度值,f为左相机与右相机的焦距,b为左图像传感器与右图像传感器之间的基线,d为左图像与右图像之间的视差。
图2为本申请一实施例提供的一种融合的深度测量方法中将第一深度图像转换为第一视差图像的流程示意图,为了便于说明,仅示出了与本实施例相关的部分,详述如下:
具体地,将第一深度图像转换为第一视差图像包括以下步骤:
S1041.将单光子雪崩二极管图像传感器与左图像传感器或者右图像传感器进行联合标定。
本实施例中以左图像为参考图像,因此将SPAD图像传感器与左图像传感器进行联合标定;将SPAD图像传感器获得的第一深度图像转化为点云数据,该点云通过联合标定的变换矩阵[R,T]映射到左图像传感器的相机坐标系,其中,R为旋转矩阵,T为平移矢量。即将SPAD图像传感器中的点的三维坐标XTi(i=1,2,…,N)变换到以左图像传感器为参考的双目系统的三维点XLi(i=1,2,…,N),将双目系统的三维点XLi通过左图像传感器的内参数矩阵投影到左图像传感器坐标系中,从而形成点阵xLi(i=1,2,…,N),得到以左图像传感器为参考的平面二维点。
S1042.将第一深度图像转换为第一视差图像。
以左图像为参考图像,根据式(2),采用以下公式计算由SPAD图像传感器组成的深度相机获取第一深度图像所对应的第一视差图像:
Figure BDA0002671235790000091
式中,PD(x0,y0)为第一深度图像上深度值Z(x0,y0)在点(x0,y0)处的视差值,f为SPAD图像传感器的焦距,Tlt是以深度相机-左相机为系统的基线长度,Hlt是深度相机标定出来的单应矩阵。
应当理解的是,本实施例中选取左图像为参考图像,也可以选取右图像为参考图像,此处不作限制。
S1043.采用二元三次方程对第一视差图像的视差曲面进行拟合,以获取平滑的视差曲面。
由于上述步骤中获得的第一视差图像为稀疏的,因此需要对缺失的数据进行填充。根据稀疏的已知视差曲面,在视差空间拟合出平滑的视差曲面,即可根据此视差曲面进行上采样对未知视差进行填充,为了保证拟合的视差曲面最大程度上接近真实场景,本实施例采用二元三次方程对第一视差图像的视差曲面进行拟合,具体如下:
d(x,y)=a1+a2x+a3y+a4x2+a5xy+a6y2+a7x3+a8x2y+a9xy2+a10y3 (4)
式中,d(x,y)为一个三维视差曲面,a1,a2,···,a10为系数,x和y为像素坐标。
S105.对左图像与右图像进行立体匹配,以获取第二视差图像。
在其中一实施例中,对左图像与右图像进行立体匹配,以获取第二视差图像具体包括:
选取第一视差图像上的像素点作为种子点,引导左图像和右图像进行立体匹配以获得第二视差图像。
在一个实施例中,由于在低反射区域或者是折光行较强区域,由SPAD图像传感器组成的深度相机无法获取精确的深度信息,因此对于右图像每个视差范围内的像素点(x,y0)深度距离代价函数为:
Figure BDA0002671235790000101
式中,θ为根据经验选定的参数,用来调节深度距离代价函数的范围,以设定C(x,y0)的阈值,若右图像上的某像素点(x,y0)的深度距离代价函数的值在阈值范围之内,则该像素点为种子点,计算左图像与右图像的视差值,以获得第二视差图像;若右图像上的某像素点(x,y0)的深度距离代价函数的值在阈值范围之外,则该点为非种子点,则将在双目立体匹配时将沿其水平方向搜索最近一个种子点将其视差值赋予该点。
在一个实施例中,由左图像传感器、右图像传感器组成的双目相机是水平放置的,保证相机光轴平行的,成像也在同一个水平面上,不存在垂直方向上的视差,因此纵坐标y0是相同的,视差搜索范围也是根据双目相机的基线决定其最大可能搜索范围;本申请以左图像为参考图像,右图像为目标图像,即对于左图像参考图像上的某一点(x0,y0),会在对应的右图像目标图像中的[(x0-m,y0),(x0+m,y0)]视差搜索范围内查找另一个点。
假设在右图像目标图像即右图像上的一点(x,y0)是参考图像即左图像点(x0,y0)的匹配点,利用深度距离代价函数C(x,y0),引导双目相机进行立体匹配,求得视差为D=|(x-x0)|,以得到第二视差图像。
S106.对第一视差图像与第二视差图像进行融合,以获取目标图像。
图3为本申请一实施例提供的一种融合的深度测量方法中对第一视差图像与第二视差图像进行融合的流程示意图,为了便于说明,仅示出了与本实施例相关的部分,详述如下:
在其中一实施例中,对第一视差图像与第二视差图像进行融合,以获取目标图像包括以下步骤:
S1061.根据第一视差图像,获取第一可信度函数。
对于SPAD图像传感器获取的第一深度图像,第一深度图像上的点(x0,y0)的深度值Z(x0,y0),设其标准差为σz,根据式(3),可得出对应的视差标准差为σd,即
Figure BDA0002671235790000111
进一步地,获得点(x0,y0)的视差标准差:
Figure BDA0002671235790000112
其中,定义视差标准差的最小阈值σmin和最大阈值σmax,其中σmin为接收到的景深最近处最亮像素的标准差,σmax为接收到的景深最远出最暗像素的标准差。当在第一深度图像上计算某像素点的视差值标准差小于σmin,则认为该点完全稳定,可信度为1;当标准差大于σmax时,则该点不可靠,可信度为0;标准差处于2个阈值之间时,设可信度范围为(0,1),由此得到第一可信度函数,具体如下:
Figure BDA0002671235790000113
S1062.根据第二视差图像,获取第二可信度函数。
在一个实施例中,根据自适应加权算法计算双目相机获取的第二视差图像,并获取第二可信度函数,即
Figure BDA0002671235790000114
式中,
Figure BDA0002671235790000115
Figure BDA0002671235790000116
分别为双目相机在自适应加权算法中求得的最小匹配代价和第二小匹配代价,Tc为常参数,为避免
Figure BDA0002671235790000117
为0,设至Tc>0。
S1063.根据第一可信度函数和第二可信度函数构成不同的权重,对第一视差图像与第二视差图像进行融合,以获取像素融合视差。
设由SPAD图像传感器获取的第一视差值为dt,由左图像传感器、右图像传感器获取的第二视差值为ds,则根据第一可信度函数和第二可信度函数,构成不同的权重对两种视差进行融合,得像素融合视差d为
d=wt·dt+ws·ds (10)
式中,wt为根据SPAD图像传感器获得的深度图像求得的视差值的权重,ws为根据左图像传感器、右图像传感器获得左图像、右图像进行立体匹配求得的视差的权重。
进一步地,由式(10)可得:
Figure BDA0002671235790000121
wt=1-ws (12)
应当理解的是,本申请并不对计算权重的方式进行限定,现有技术中任意计算权重的方式均可应用于本申请中。
S1064.根据像素融合视差对场景区域进行三维重建,以获取目标图像。
本申请实施例的第二方面提供了一种融合的深度测量装置,包括:
图4为本申请一实施例提供的一种融合的深度测量装置的结构示意图,为了便于说明,仅示出了与本实施例相关的部分,详述如下:
在其中一实施例中,一种融合的深度测量装置包括发射模块100、接收模块200以及控制与处理模块300。
发射模块100,用于对场景区域30发射脉冲光束10。
具体地,发射模块100包括光源阵列101、透镜元件102及光束扫描元件103。
其中,光源阵列101用于产生脉冲光束;透镜元件102用于调整脉冲光束的发散度;光束扫描元件103用于对脉冲光束进行导向,以指示所述脉冲光束发散至场景区域30的各个方向。
接收模块200包括探测模块和采集模块。
探测模块包括单光子雪崩二极管图像传感器201,单光子雪崩二极管图像传感器201用于接收脉冲光束10的反射信号20,并输出往返脉冲光束10和反射信号20的渡越时间的电信号。
采集模块包括左图像传感器202和右图像传感器203,左图像传感器202用于采集场景区域30的左图像;右图像传感器203用于采集场景区域30的右图像。
控制与处理模块300包括处理模块、转换模块及融合模块,处理模块、转换模块及融合模块可以是实现各模块中相应功能的独立模块,也可以是一个实现各模块中全部功能的综合处理器。
处理模块用于对渡越时间的电信号进行处理以获取第一深度图像,并将第一深度图像转换为第一视差图像。
转换模块用于对左图像与右图像进行立体匹配,以获取第二视差图像。
融合模块用于对第一视差图像与第二视差图像进行融合,以获取目标图像。
需要说明的是,本实施例中的一种融合的深度测量装置,是上述一种融合的深度测量方法对应的测量装置的实施例,因此关于测量装置的各模块中软件方法的具体实现,可参照图1-图3的实施例,此处不再详细赘述。
本发明实施例中上述的一种融合的深度测量方法及测量装置,通过单光子雪崩二极管图像传感器获取第一深度图像,并将第一深度图像的像素点作为种子点,引导左图像传感器和右图像传感器进行立体匹配,以获取第二视差图像,通过将第一深度图像转化为第一视差图像,并根据第一可信度函数和第二可信度函数构成不同的权重,以融合第一视差图像和第二视差图像,得到融合视差图像以恢复场景区域的三维重建,获取高分辨率的深度图像,识别精度较高。
在本文对各种器件、电路、装置、系统和/或方法描述了各种实施方式。阐述了很多特定的细节以提供对如在说明书中描述的和在附图中示出的实施方式的总结构、功能、制造和使用的彻底理解。然而本领域中的技术人员将理解,实施方式可在没有这样的特定细节的情况下被实施。在其它实例中,详细描述了公知的操作、部件和元件,以免使在说明书中的实施方式难以理解。本领域中的技术人员将理解,在本文和所示的实施方式是非限制性例子,且因此可认识到,在本文公开的特定的结构和功能细节可以是代表性的且并不一定限制实施方式的范围。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种融合的深度测量方法,对场景区域的距离进行测量,其特征在于,所述测量方法包括:
对所述场景区域发射脉冲光束;
接收所述脉冲光束的反射信号,并输出往返所述脉冲光束与所述反射信号的渡越时间的电信号;
采集所述场景区域的左图像和右图像;
对所述渡越时间的电信号进行处理以获取第一深度图像,并将所述第一深度图像转换为第一视差图像;
对所述左图像与所述右图像进行立体匹配,以获取第二视差图像;
对所述第一视差图像与所述第二视差图像进行融合,以获取目标图像。
2.根据权利要求1所述的测量方法,其特征在于,对所述场景区域发射脉冲光束包括:
产生所述脉冲光束;
调整所述脉冲光束的发散度;
对所述脉冲光束进行导向,以指示所述脉冲光束发散至所述场景区域的各个方向。
3.一种融合的深度测量装置,其特征在于,包括:
发射模块,用于对场景区域发射脉冲光束;
探测模块,用于接收所述脉冲光束的反射信号,并输出往返所述脉冲光束与所述反射信号的渡越时间的电信号;
采集模块,用于采集所述场景区域的左图像和右图像;
处理模块,用于对所述渡越时间的电信号进行处理以获取第一深度图像,并将所述第一深度图像转换为第一视差图像;
转换模块,对所述左图像与所述右图像进行立体匹配,以获取第二视差图像;以及
融合模块,用于对所述第一视差图像与所述第二视差图像进行融合,以获取目标图像。
4.根据权利要求3所述的测量装置,其特征在于,所述发射模块包括:
光源阵列,用于产生脉冲光束;
透镜元件,用于调整所述脉冲光束的发散度;以及
光束扫描元件,用于对所述脉冲光束进行导向,以指示所述脉冲光束发散至所述场景区域的各个方向。
5.根据权利要求4所述的测量装置,其特征在于,所述探测模块包括单光子雪崩二极管图像传感器;
所述处理模块中,将所述第一深度图像转换为所述第一视差图像具体包括:
以所述左图像为参考图像,计算所述第一深度图像对应的所述第一视差图像:
Figure FDA0002671235780000021
式中,PD(x0,y0)为所述第一深度图像上深度值Z(x0,y0)在点(x0,y0)处的视差值,f为所述单光子雪崩二极管图像传感器的焦距,Tlt是以深度相机-左相机为系统的基线长度,Hlt是深度相机标定出来的单应矩阵。
6.根据权利要求5所述的测量装置,其特征在于,所述处理模块中,将所述第一深度图像转换为第一视差图像还包括:
采用以下二元三次方程对所述第一视差图像的视差曲面进行拟合,以获取平滑的视差曲面:
d(x,y)=a1+a2x+a3y+a4x2+a5xy+a6y2+a7x3+a8x2y+a9xy2+a10y3
式中,d(x,y)为一个三维视差曲面,a1,a2,···,a10为系数,x和y为像素坐标。
7.根据权利要求6所述的测量装置,其特征在于,所述处理模块中,在将所述第一深度图像转化为第一视差图像之前,还包括:
对所述单光子雪崩二极管图像传感器与所述左图像传感器或者所述右图像传感器进行联合标定:
将所述单光子雪崩二极管图像传感器获得的所述第一深度图像转化为点云数据,将所述点云数据通过联合标定的变换矩阵映射到所述左图像传感器或者所述右图像传感器的相机坐标系中,得到以所述左图像传感器或者所述右图像传感器为参考的平面二维点。
8.根据权利要求7所述的测量装置,其特征在于,所述转换模块中,对所述左图像与所述右图像进行立体匹配,以获取第二视差图像具体包括:
选取所述第一视差图像上的像素点作为种子点,引导所述左图像和所述右图像进行立体匹配以获得所述第二视差图像,具体采用以下公式:
Figure FDA0002671235780000031
式中,(x,y0)为右图像每个视差范围内的像素点,θ为选定的参数。
9.根据权利要求8所述的测量装置,其特征在于,对所述第一视差图像与所述第二视差图像进行融合,以获取深度图像,具体包括:
根据所述第一视差图像,获取第一可信度函数;
根据所述第二视差图像,获取第二可信度函数;
根据所述第一可信度函数和所述第二可信度函数构成不同的权重,对所述第一视差图像与所述第二视差图像进行融合,以获取像素融合视差;
根据所述像素融合视差对场景区域进行三维重建,以获取所述目标图像。
10.根据权利要求9所述的测量装置,其特征在于,对所述第一视差图像与所述第二视差图像进行融合,以获取像素融合视差,具体包括:
根据所述第一可信度函数和所述第二可信度函数,构成不同的权重对两种视差进行融合,得到像素融合视差,具体采用以下公式:
d=wt·dt+ws·ds
Figure FDA0002671235780000032
wt=1-ws
式中,dt为第一视差值,ds为第二视差值,wt为所述第一视差值的权重,ws为所述第二视差值的权重。
CN202010933933.1A 2020-09-08 2020-09-08 一种融合的深度测量方法及测量装置 Active CN112230244B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010933933.1A CN112230244B (zh) 2020-09-08 2020-09-08 一种融合的深度测量方法及测量装置
PCT/CN2020/138128 WO2022052366A1 (zh) 2020-09-08 2020-12-21 一种融合的深度测量方法及测量装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010933933.1A CN112230244B (zh) 2020-09-08 2020-09-08 一种融合的深度测量方法及测量装置

Publications (2)

Publication Number Publication Date
CN112230244A true CN112230244A (zh) 2021-01-15
CN112230244B CN112230244B (zh) 2022-09-16

Family

ID=74116726

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010933933.1A Active CN112230244B (zh) 2020-09-08 2020-09-08 一种融合的深度测量方法及测量装置

Country Status (2)

Country Link
CN (1) CN112230244B (zh)
WO (1) WO2022052366A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115127449A (zh) * 2022-07-04 2022-09-30 山东大学 一种辅助双目视觉的非接触鱼体测量装置与方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117495698A (zh) * 2024-01-02 2024-02-02 福建卓航特种设备有限公司 飞行物识别方法、系统、智能终端及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150215602A1 (en) * 2014-01-29 2015-07-30 Htc Corporation Method for ajdusting stereo image and image processing device using the same
CN105115445A (zh) * 2015-09-14 2015-12-02 杭州光珀智能科技有限公司 基于深度相机与双目视觉复合的三维成像系统及成像方法
CN105869167A (zh) * 2016-03-30 2016-08-17 天津大学 基于主被动融合的高分辨率深度图获取方法
CN106772431A (zh) * 2017-01-23 2017-05-31 杭州蓝芯科技有限公司 一种结合tof技术和双目视觉的深度信息获取装置及其方法
CN109255811A (zh) * 2018-07-18 2019-01-22 南京航空航天大学 一种基于可信度图视差优化的立体匹配方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150215602A1 (en) * 2014-01-29 2015-07-30 Htc Corporation Method for ajdusting stereo image and image processing device using the same
CN105115445A (zh) * 2015-09-14 2015-12-02 杭州光珀智能科技有限公司 基于深度相机与双目视觉复合的三维成像系统及成像方法
CN105869167A (zh) * 2016-03-30 2016-08-17 天津大学 基于主被动融合的高分辨率深度图获取方法
CN106772431A (zh) * 2017-01-23 2017-05-31 杭州蓝芯科技有限公司 一种结合tof技术和双目视觉的深度信息获取装置及其方法
CN109255811A (zh) * 2018-07-18 2019-01-22 南京航空航天大学 一种基于可信度图视差优化的立体匹配方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李博文: "基于TOF-双目融合的深度信息获取技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115127449A (zh) * 2022-07-04 2022-09-30 山东大学 一种辅助双目视觉的非接触鱼体测量装置与方法

Also Published As

Publication number Publication date
WO2022052366A1 (zh) 2022-03-17
CN112230244B (zh) 2022-09-16

Similar Documents

Publication Publication Date Title
CN110596722B (zh) 直方图可调的飞行时间距离测量系统及测量方法
CN110596721B (zh) 双重共享tdc电路的飞行时间距离测量系统及测量方法
KR101706093B1 (ko) 3차원 좌표 추출 시스템 및 그 방법
CN109725326B (zh) 飞行时间相机
CN111830530B (zh) 一种距离测量方法、系统及计算机可读存储介质
CN112230244B (zh) 一种融合的深度测量方法及测量装置
CN112731425B (zh) 一种处理直方图的方法、距离测量系统及距离测量设备
AU2007251977A1 (en) Distance measuring method and distance measuring element for detecting the spatial dimension of a target
US11914078B2 (en) Calibration of a depth sensing array using color image data
CN108881717B (zh) 一种深度成像方法及系统
CN108924408B (zh) 一种深度成像方法及系统
EP3279691B1 (en) Rangefinder based on parallax calculation
CN110986816B (zh) 一种深度测量系统及其测量方法
WO2021208582A1 (zh) 标定装置、标定系统、电子设备及标定方法
JP2020020612A (ja) 測距装置、測距方法、プログラム、移動体
CN111427230A (zh) 基于时间飞行的成像方法及3d成像装置
CN111965658A (zh) 一种距离测量系统、方法及计算机可读存储介质
EP3276576B1 (en) Disparity estimation by fusion of range data and stereo data
Wallace et al. 3D imaging and ranging by time-correlated single photon counting
CN102401901B (zh) 测距系统及测距方法
CN108924407B (zh) 一种深度成像方法及系统
CN111965659A (zh) 一种距离测量系统、方法及计算机可读存储介质
CN111510700A (zh) 图像采集装置
US20220003875A1 (en) Distance measurement imaging system, distance measurement imaging method, and non-transitory computer readable storage medium
CN212471510U (zh) 移动机器人

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant