CN112766328B - 融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建方法 - Google Patents
融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建方法 Download PDFInfo
- Publication number
- CN112766328B CN112766328B CN202110007417.0A CN202110007417A CN112766328B CN 112766328 B CN112766328 B CN 112766328B CN 202110007417 A CN202110007417 A CN 202110007417A CN 112766328 B CN112766328 B CN 112766328B
- Authority
- CN
- China
- Prior art keywords
- binocular
- camera
- data
- depth
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建方法。所述方法包括获取多源传感器数据,并对各传感器数据进行数据注册,将其统一到双目相机坐标系下;对注册后的各传感器数据进行关联,获得关联的多源深度数据;基于关联的多源深度数据,采用梯度信息的深度补偿融合算法获得更准确、更稠密的深度数据。本发明通过融合多源深度数据,不但充分利用多源传感器数据,还保证了所获深度图像的准确性和稠密性。
Description
技术领域
本发明涉及智能机器人的深度图像技术方法领域,具体而言,设计一种融合激光雷达、双目相机和ToF深度相机数据进行智能机器人的同时定位与深度图像的构建方法。
背景技术
同时定位与地图创建(Simultaneously Localization and Mapping,简称SLAM)是指机器人依靠其携带的传感器进行自身的定位,同时增量式地创建环境的地图,是智能机器人在未知环境中自主完成任务的前提和基础。而机器人定位问题,需要直接或间接获取环境的距离信息才可求解。因此距离测量是机器人技术的一项重要要求。在摄像机坐标系中,距离信息是沿深度方向定义的,所以距离测量也被称为深度测量。
目前,主流的深度测量传感器有双目相机、ToF深度相机、激光雷达。
双目相机是由一对固定基线的相机组成的,深度图像可根据两张彩色图像进行特征匹配来获取。在光照强烈的条件下,双目相机可以正常工作。但当环境光线昏暗时或所处环境缺乏纹理信息时,两张彩色图像无法匹配到鲁棒的特征,双目相机难以获取准确的深度图像。ToF深度相机通过红外LED(发光二极管)发射红外光,接收反射的红外光,根据光的飞行时间计算每个像素的距离。ToF深度相机可以直接捕获深度图像,且由于工作原理的优势,其捕获的深度图像精度较高,但是红外光很容易被强烈的光照所干扰,因此ToF深度相机在光照强烈的环境下并不适用。激光雷达同样也是一种根据发射和接收光的飞行时间来计算深度的设备,但它使用的是红外激光发射器而不是LED。激光雷达的深度测量精度很高,且由于激光的光相干性,激光雷达的不受环境光线的干扰。虽然激光雷达的工作条件范围很广,但由于硬件的限制,激光扫描只能捕捉到很稀疏的深度,在一些关键区域可能会缺乏深度信息。
由于每种传感器的不同特性,他们获取到的深度信息各有优缺点,如果能够综合利用三类传感器的优势,融合三类传感器的数据,便能在机器人定位与建图任务中提供更精准和稠密的深度图像,还能提高机器人定位与地图构建的精度。
发明内容
本发明旨在解决智能机器人定位与地图构建问题中,单一传感器由于受硬件条件及工作环境限制,无法在复杂多变的工作环境下获取准确有效的深度信息,导致智能机器人定位与建图精度低的技术问题。
本发明为解决此问题,提出了利用三种传感器结合,在复杂的工作环境下生成准确且稠密的深度图像的技术方案。此技术方案主要包括传感器数据注册单元(20)、多源数据关联单元(30),多源深度数据融合单元(40)。本发明中使用的传感器包括激光雷达(11)、ToF深度相机(12)和双目相机(13)。由于三种传感器的安装位置不同,获取到的数据不在统一坐标系下,因此利用点云ICP(Iterative Closet Point)算法对三种传感器进行位姿标定,将各传感器获取到的信息进行数据注册,把不同传感器数据统一到双目相机成像坐标系中;由于各传感器帧率的不匹配,且与双目相机(13)和激光雷达(11)相比,ToF深度相机(12)成像存在较大延迟的问题,不同传感器数据时间戳不对应,因而需要对数据进行关联实现数据对齐;由于双目相机(13)不适于在黑暗和缺乏纹理特征的环境下工作,ToF深度相机(12)的在光照强烈的条件下容易受到干扰,激光雷达(11)获取到的深度信息过于稀疏,本发明的深度图像构建算法结合了各自传感器的优势,通过一种新式的基于梯度信息的深度补偿融合算法,在复杂的工作环境下获得更准确、更稠密的深度数据。
本发明的一种融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建方法,其特征在于深度图像构建包括有下列步骤:
步骤一:多源传感器数据注册;
在启动激光雷达(11)、ToF深度相机(12)、双目相机(13)之后,在采样时间t采样里,多源传感器数据注册单元(20)第一方面用于接收激光雷达(11)输出的点云数据M11;由于激光雷达(11)扫描获得的点云数据中包含有环境数据,需要工作人员手动选取前标定物(2)与后标定物(3)同时存在的区域的点云数据,记为所述中存在的点云总个数,记为N;
第二方面用于接收ToF深度相机(12)输出的ToF深度图像信息M12;由于ToF深度相机(12)拍摄获得的ToF深度图像信息中包含有环境数据,需要工作人员手动选取前标定物(2)与后标定物(3)同时存在的区域的ToF深度图像信息,记为所述中以任意一个像素点的像素值来确定深度信息;
第三方面用于接收双目相机(13)输出的双目图像信息和双目深度信息M13;由于双目相机(13)拍摄获得的双目图像信息和双目深度信息中包含有环境数据,需要工作人员手动选取前标定物(2)与后标定物(3)同时存在的区域的双目深度信息,记为所述中以任意一个像素点的像素值来确定深度信息;
第五方面,完成异质传感器的位姿标定;
利用梯度下降法计算使得公式(1)等式右边最小,即可获得RLT、QLT;
利用梯度下降法计算使得公式(2)等式右边最小,即可获得RLZ、QLZ;
通过公式(3)、公式(4)、公式(5)、公式(6)可获得从坐标系O雷达-X雷达Y雷达Z雷达到坐标系O双目-X双目Y双目Z双目的位姿变换关系RZL、QZL以及从坐标系OToF-XToFYToFZToF到坐标系O双目-X双目Y双目Z双目的位姿变换关系RZT、QZT:
步骤二:多源传感器数据关联;
步骤21:异质传感器的统一时间戳;
首先,计算机器人的实际移动速度v;在机器人平台以速度v相对于标记物移动的过程中,双目相机(13)会以一定帧率获得标记物的位姿,通过一段时间的位置微分,即可求得机器人的实际移动速度v;
其次,计算ToF深度相机(12)和双目相机(13)的数据采集时间间隔;
ToF深度相机(12)与双目相机(13)各有一时间轴,双目相机(13)在A时刻观测到标记所在位置为tag_hA;ToF深度相机(12)在b时刻观测到标记所在位置为tag_hb,其中A时刻为双目相机(13)返回数据的时间戳,b时刻为ToF深度相机(12)返回数据的时间戳;但由于ToF深度相机(12)数据采集存在较大延迟,因此ToF深度相机(12)的时间轴应整体向左移动;对于双目相机(13)的A时刻而言,在ToF深度相机(12)时间轴上应处于d时刻,若ToF深度相机(12)与双目相机(13)时间不存在时间戳偏移,那么双目相机(13)的时间轴上的A时刻在ToF深度相机(12)的时间轴上应处于c时刻;然而,由于时间戳偏移的存在,双目相机(13)的时间轴上的A时刻对应在ToF深度相机(12)的时间轴上是d时刻;则A时刻与d时刻数值的差值即为两传感器时间戳之间的偏移量Δt;已知ToF深度相机(12)的坐标系到双目相机(13)的坐标系的旋转矩阵为RZT,平移向量为QZT,有以下关系:
t2=tb-tc=tb-tA (8)
ToF深度相机(12)与双目相机(13)时间戳的偏移量Δt为:
Δt=t2-t1 (9)
步骤22:异质传感器数据同步选取;
双目相机(13)的数据采集频率表最高,ToF深度相机(12)次之,激光雷达(11)采集频率最慢;
由于双目相机(13)的工作频率最高,因此主要以双目相机(13)时间轴为参考,选取与双目相机(13)深度图像数据时间点接近的数据;当接收到双目相机(13)的数据时,判断在前后10ms的时间差内有无接收到ToF深度相机(12)的数据和激光雷达(11)的数据,若有,则将此三帧数据选取为有效地同步数据;若没有,则当下一次接收到双目相机(13)的数据时再进行同步数据选取;
以双目相机(13)的时间轴上B时刻为例,在B时刻双目相机(13)输出深度图像数据,与B时刻最近的ToF深度相机(12)的深度数据在e时刻,最近的激光雷达(11)数据在Ⅲ时刻;在进行深度数据融合时,只选取与双目数据时间点B时刻最近且时间差不超过10ms的ToF深度数据和激光雷达数据,以减小或消除由传感器频率不同所造成的数据误差,保证不同传感器所捕获的数据在时间和空间上实现对齐;
步骤三:多源深度数据融合;
目标深度图像MPR的优化目标:
由于ToF深度相机12或双目相机13的深度图像在像素坐标点(i,j)处存在没有深度数据的情况下,故需依据状态对状态下的梯度值▽ri,j进行选择;
由于ToF深度相机12或双目相机13的深度图像在像素坐标点(i,j)处存在没有深度数据的情况下,故需依据状态对▽xri,j和▽yri,j进行选择;
在梯度值状态C时,▽xri,j和▽yri,j为0;
与现有技术相比,本发明的优点在于:
(1)现有技术通常默认异质传感器数据的时间戳是相同的,忽略了异质传感器的数据同步问题。当传感器所在的工作环境存在移动物体时,会造成不同传感器数据在空间上的不对齐现象,最终导致融合的深度图像精度不高。本发明考虑了ToF深度相机(12)存在成像延迟的现象,统一了ToF深度相机(12)与双目相机(13)、激光雷达(11)的时间戳,并在统一时间戳的条件下选取异质传感器的同步数据,消除了数据不对齐现象的影响,从而提高融合深度图像的精度。解决了传感器由于数据帧率不同和ToF深度相机成像延迟带来的深度图像匹配错误问题。
(2)现有技术通常将激光雷达(11)、ToF深度相机(12)、双目相机(13)其中的二者进行结合,获取融合后的深度图像数据。这样的融合方法仅能利用其中两者的优点,适用的工作环境较为有限。利用激光雷达数据的高准确性有利于提高深度图像的精确度,利用ToF深度相机数据有利于在黑暗条件下获取较为精准稠密的深度图像,利用双目相机有利于在光照强烈的环境中获取稠密的深度图像。因此相较于现有的两者融合方案,本发明提出的基于梯度信息的深度补偿融合算法可以充分利用三种异质传感器的优势,使获取到的深度图像更加准确和稠密,并提升传感器系统对工作环境的适应性。
附图说明
图1是本发明的融合激光雷达、双目相机和ToF深度相机数据的深度图像构建方法的结构框图。
图2是本发明机器人平台进行标定的硬件结构。
图2A是本发明中机器人平台进行标定的另一视角的硬件结构。
图2B是本发明中机器人平台的硬件结构。
图3是本发明进行统一时间戳的结构图。
图4是本发明进行异质传感器同步数据选取的结构图。
图5是基于梯度信息的深度补偿融合算法的流程图。
图6是场景示意图。
图7是激光雷达11采集的图像。
图8是ToF深度相机12采集的图像。
图9是双目相机13采集的图像。
图10是经本发明深度图像构建方法获得的图像。
1.智能机器人 | 2.前标定物 | 3.后标定物 |
4.水平桌面 | 10.定位板 | 11.激光雷达 |
12.ToF深度相机 | 13.双目相机 | 14.传感器固定架 |
15.运动载体 | 20.多源传感器数据注册单元 | 30.多源传感器数据关联单元 |
40.多源深度数据融合单元 |
具体实施方式
下面将结合附图和实施例对本发明做进一步的详细说明。
参见图2、图2A、图2B所示,在本发明中,为了实现对智能机器人1中的异质传感器(激光雷达11、ToF深度相机12和双目相机13)进行统一时间戳的条件下的同步数据,消除数据不对齐现象的影响,从而提高融合深度图像的精度,需要先对深度图像构建系统进行标定。标定过程中使用一水平桌面4作为大地坐标系,记为O-XYZ(如图2A所示)。
定义坐标系
在本发明中,在进行深度图像构建系统标定时,各个坐标系的定义为:
激光雷达11的坐标系,记为O雷达-X雷达Y雷达Z雷达。
ToF深度相机12的坐标系,记为OToF-XToFYToFZToF。
双目相机13的坐标系,记为O双目-X双目Y双目Z双目。
在图2和图2A中,前标定物2与后标定物3存在有一定距离且不在同一平面中。前标定物2与后标定物3摆放于智能机器人1的正前方,且前标定物2与智能机器人1的有效距离为D2,后标定物3与智能机器人1的有效距离为D3。
参见图2B所示的智能机器人1的硬件结构,智能机器人1的软件部分为深度图像构建系统,硬件部分包括有处理器、传感器、传感器固定架14、运动载体15、限位板10;所述传感器包括有激光雷达11、ToF深度相机12和双目相机13。激光雷达11、双目相机13和ToF深度相机12通过传感器固定架14从上至下顺次安装在传感器固定架14上,传感器固定架14固定在定位板10上,定位板10安装在运动载体15上。由于定位板10与水平桌面4平行,故大地坐标系O-XYZ也可以作为定位板10的坐标系。参见图2、图2A所示,应用智能机器人1进行标定过程中,智能机器人1进行前方的前标定物2与后标定物3扫描时,以双目相机13的有效距离为准,也就是以双目相机13能够清楚拍摄标定物为佳,机器人距离前方物体的距离不作考虑。深度图像构建系统仅考虑激光雷达11、ToF深度相机12和双目相机13各自采集到的信息。
在本发明中,所述处理器中至少存储有深度图像构建系统。参见图1所示,深度图像构建系统包括有多源传感器数据注册单元20、多源传感器数据关联单元30和多源深度数据融合单元40。该系统是融合了激光雷达11、ToF深度相机12和双目相机13采集的图像信息及数据信息的处理。
参见图1所示,在本发明中,应用到的环境捕捉异质传感器是指激光雷达11、ToF深度相机12和双目相机13。
激光雷达11用于将采集到的点云数据M11输出给多源传感器数据注册单元20。
ToF深度相机12用于将采集到的ToF深度图像信息M12输出给多源传感器数据注册单元20。
双目相机13用于将采集到的双目图像信息和双目深度信息M13输出给多源传感器数据注册单元20。
多源传感器数据注册单元20
在本发明中,多源传感器数据注册单元20第一方面用于接收激光雷达11输出的点云数据M11;
第二方面用于接收ToF深度相机12输出的ToF深度图像信息M12;
第三方面用于接收双目相机13输出的双目图像信息和双目深度信息M13;
多源传感器数据关联单元30
多源传感器数据关联单元30第一方面,在机器人平台以速度v相对于标记物移动的过程中,双目相机13会以一定帧率获得标记物的位姿;
第二方面,异质传感器的统一时间戳,通过计算ToF深度相机12和双目相机13的数据采集时间间隔;
ToF深度相机12与双目相机13各有一时间轴,双目相机13在A时刻观测到标记所在位置为tag_hA;ToF深度相机12在b时刻观测到标记所在位置为tag_hb,其中A时刻为双目相机13返回数据的时间戳,b时刻为ToF深度相机12返回数据的时间戳;但由于ToF深度相机12数据采集存在较大延迟,因此ToF深度相机12的时间轴应整体向左移动;对于双目相机13的A时刻而言,在ToF深度相机12时间轴上应处于d时刻,若ToF深度相机12与双目相机13时间不存在时间戳偏移,那么双目相机13的时间轴上的A时刻在ToF深度相机12的时间轴上应处于c时刻;然而,由于时间戳偏移的存在,双目相机13的时间轴上的A时刻对应在ToF深度相机12的时间轴上是d时刻;则A时刻与d时刻数值的差值即为两传感器时间戳之间的偏移量Δt;已知ToF深度相机12的坐标系到双目相机13的坐标系的旋转矩阵为RZT,平移向量为QZT,有以下关系和t2=tb-tc=tb-tA。
ToF深度相机12与双目相机13时间戳的偏移量Δt=t2-t1。
第三方面,异质传感器数据同步选取;
双目相机13的数据采集频率表最高,ToF深度相机12次之,激光雷达11采集频率最慢;
由于双目相机13的工作频率最高,因此主要以双目相机13时间轴为参考,选取与双目相机13深度图像数据时间点接近的数据;当接收到双目相机13的数据时,判断在前后10ms的时间差内有无接收到ToF深度相机12的数据和激光雷达11的数据,若有,则将此三帧数据选取为有效地同步数据;若没有,则当下一次接收到双目相机13的数据时再进行同步数据选取;
以双目相机13的时间轴上B时刻为例,在B时刻双目相机13输出深度图像数据,与B时刻最近的ToF深度相机12的深度数据在e时刻,最近的激光雷达11数据在Ⅲ时刻;在进行深度数据融合时,只选取与双目数据时间点B时刻最近且时间差不超过10ms的ToF深度数据和激光雷达数据,以减小或消除由传感器频率不同所造成的数据误差,保证不同传感器所捕获的数据在时间和空间上实现对齐。
多源深度数据融合单元40
多源深度数据融合单元40第一方面用于记录下激光雷达11、ToF深度相机12和双目相机13分别在在采样时间t采样里获得的图像信息,即:
第三方面,依据状态对状态下的梯度值▽ri,j进行选择;
由于ToF深度相机12或双目相机13的深度图像在像素坐标点(i,j)处存在没有深度数据的情况下,故需依据状态对▽xri,j和▽yri,j进行选择;
在梯度值状态C时,▽xri,j和▽yri,j为0;
图1、图5为本发明提供的一种融合激光雷达、双目相机和ToF深度相机数据的智能机器人进行深度图像构建的结构框图,进行深度图像构建的步骤为:
步骤一:多源传感器数据注册;
在启动激光雷达11、ToF深度相机12、双目相机13之后,在采样时间t采样里,多源传感器数据注册单元20第一方面用于接收激光雷达11输出的点云数据M11;由于激光雷达11扫描获得的点云数据中包含有环境数据,需要工作人员手动选取前标定物2与后标定物3同时存在的区域的点云数据,记为所述中存在的点云总个数,记为N。
第二方面用于接收ToF深度相机12输出的ToF深度图像信息M12;由于ToF深度相机12拍摄获得的ToF深度图像信息中包含有环境数据,需要工作人员手动选取前标定物2与后标定物3同时存在的区域的ToF深度图像信息,记为所述中以任意一个像素点的像素值来确定深度信息。
第三方面用于接收双目相机13输出的双目图像信息和双目深度信息M13;由于双目相机13拍摄获得的双目图像信息和双目深度信息中包含有环境数据,需要工作人员手动选取前标定物2与后标定物3同时存在的区域的双目深度信息,记为所述中以任意一个像素点的像素值来确定深度信息。
在本发明中,内参值指的是异质传感器生产厂家设定的产品参数。如实施例1中分别列举的激光雷达11、ToF深度相机12和双目相机13的参数。
第五方面,完成异质传感器的位姿标定;
利用点云ICP(Iterative Closest Point,迭代最近点)算法,计算出 和之间的位姿变换矩阵(RZL、QZL、RZT、QZT),即可得到激光雷达11、ToF深度相机12、双目相机13之间的位置关系,从而完成此三个传感器的位姿标定。
在本发明中,利用梯度下降法计算使得等式右边最小,即可获得RLT、QLT。
在本发明中,利用梯度下降法计算使得等式右边最小,即可获得RLZ、QLZ。
在本发明中,通过以下公式可获得从坐标系O雷达-X雷达Y雷达Z雷达到坐标系O双目-X双目Y双目Z双目的位姿变换关系RZL、QZL以及从坐标系OToF-XToFYToFZToF到坐标系O双目-X双目Y双目Z双目的位姿变换关系RZT、QZT:
上角标T为坐标转置符。
步骤二:多源传感器数据关联;
在本发明中,由于激光雷达11、ToF深度相机12、双目相机13各自的安装位置不同,因此需要根据步骤一中所述,将激光雷达11和ToF深度相机12数据统一投影到双目相机13的坐标系O双目-X双目Y双目Z双目下,然后将图像数据分辨率统一为双目相机的分辨率;
由于硬件原因,相较于双目相机13和激光雷达11,ToF深度相机12存在成像延迟问题,因此ToF深度相机12的时间戳与激光雷达11、双目相机13的时间戳之间存在偏移,因此需要计算三种传感器时间戳之间的偏移量。激光雷达11、双目相机13成像延迟较低,可忽略不计。因此只需通过计算ToF深度相机12与双目相机13时间戳之间的偏移量,即可完成三种传感器时间戳的对齐。计算方法在步骤31中进行详细叙述。
虽然进行了异质传感器的时间戳对齐处理,但由于三种传感器帧率的不同,不同传感器数据采集时间点不会完全匹配,因此需要根据当前待处理的数据帧的实际匹配情况进行有效数据的同步选取。同步选取方法在步骤32中进行详细叙述;
通过异质传感器同一时间戳和异质传感器数据同步选取,就实现了异质传感器数据在时间和空间上的对齐,完成了多源传感器数据的关联,有利于提高最终融合深度图像的精度。
步骤21:异质传感器的统一时间戳;
图3为本发明提供的异质传感器的统一时间戳示意图。激光雷达11与双目相机13的成像延迟较低,无需额外对二者进行时间戳统一,只需将ToF深度相机12与双目相机13进行时间戳标定,即可实现三种传感器在时间戳上的同步。
具体的,控制安装传感器机器人平台进行匀速运动,并使ToF深度相机12与双目相机13可同时观测到同一静止的标记物(或者是物体),根据两种传感器的数据分别获得标记物的位姿信息。由于ToF深度相机12与双目相机13之间的帧率不一致,二者采集数据之间存在着一定位移。计算出从双目相机13采集到标记物到ToF深度相机12采集到标记物的准确时间间隔,并与两种传感器各自的时间戳进行对比,便可以得到ToF深度相机12与双目相机13之间时间戳的偏移量Δt。
首先,计算机器人的实际移动速度v。以双目相机13为例,在机器人平台以速度v相对于标记物移动的过程中,双目相机13会以一定帧率获得标记物的位姿,通过一段时间的位置微分,即可求得机器人的实际移动速度v。
其次,计算ToF深度相机12和双目相机13的数据采集时间间隔。如图3所示,ToF深度相机12与双目相机13各有一时间轴,双目相机13在A时刻观测到标记所在位置为tag_hA。ToF深度相机12在b时刻观测到标记所在位置为tag_hb,其中A时刻为双目相机13返回数据的时间戳,b时刻为ToF深度相机12返回数据的时间戳。但由于ToF深度相机12数据采集存在较大延迟,因此ToF深度相机12的时间轴应整体向左移动(相对的,也可以说双目相机13时间轴整体向右移动)。对于双目相机13的A时刻而言,在ToF深度相机12时间轴上应处于d时刻,若ToF深度相机12与双目相机13时间不存在时间戳偏移,那么双目相机13的时间轴上的A时刻在ToF深度相机12的时间轴上应处于c时刻。然而,由于时间戳偏移的存在,双目相机13的时间轴上的A时刻对应在ToF深度相机12的时间轴上是d时刻。则A时刻与d时刻数值的差值即为两传感器时间戳之间的偏移量Δt。已知ToF深度相机12的坐标系到双目相机13的坐标系的旋转矩阵为RZT,平移向量为QZT,有以下关系:
t2=tb-tc=tb-tA (19)
t1表示ToF深度相机12的时间轴上d时刻与b时刻的时间间隔。
t2表示ToF深度相机12的时间轴上c时刻与b时刻的时间间隔。
tb表示ToF深度相机12的时间轴上b时刻的数值。
td表示ToF深度相机12的时间轴上d时刻的数值。
tc表示ToF深度相机12的时间轴上c时刻的数值。
tA表示双目相机13的时间轴上A时刻的数值。
在本发明中,ToF深度相机12与双目相机13时间戳的偏移量Δt为:
Δt=t2-t1 (20)
步骤22:异质传感器数据同步选取;
图4为本发明实施例提供的异质传感器数据同步选取示意图。一般而言,双目相机13的数据采集频率表最高,ToF深度相机12次之,激光雷达11采集频率最慢,如图3所示。需要说明的是,图4中所示33ms、50ms、100ms均为示意值,具体传感器的数据采集频率根据所选用传感器的型号进行确定。
由于双目相机13的工作频率最高,因此主要以双目相机13时间轴为参考,选取与双目相机13深度图像数据时间点接近的数据。当接收到双目相机13的数据时,判断在前后10ms的时间差内有无接收到ToF深度相机12的数据和激光雷达11的数据,若有,则将此三帧数据选取为有效地同步数据;若没有,则当下一次接收到双目相机13的数据时再进行同步数据选取。
具体的,如图4中所示,以双目相机13的时间轴上B时刻为例,在B时刻双目相机13输出深度图像数据,与B时刻最近的ToF深度相机12的深度数据在e时刻,最近的激光雷达11数据在Ⅲ时刻。在进行深度数据融合时,只选取与双目数据时间点B时刻最近且时间差不超过10ms的ToF深度数据和激光雷达数据,以减小或消除由传感器频率不同所造成的数据误差,保证不同传感器所捕获的数据在时间和空间上实现对齐。
在图4中,B时刻后双目相机13的下一次输出信息在C时刻。e时刻后ToF深度相机12的下一次输出信息在f时刻。Ⅲ时刻后激光雷达11的下一次输出信息在Ⅳ时刻。
步骤三:多源深度数据融合;
根据步骤一和步骤二,得到空间上和时间上对齐的激光雷达11、ToF深度相机12和双目相机13深度数据,根据基于梯度信息的深度补偿融合算法,快速获取高质量深度图像,为视觉定位和三维地图构建提供准确、稠密的深度数据。
具体的,激光雷达11、ToF深度相机12和双目相机13,三者具有不同的工作条件和性能特点。其中激光雷达11不易受光照条件的干扰,且可获得精准的深度信息,但雷达获得的数据点却较为稀疏;ToF深度相机12可获得稠密、可靠的深度数据,但是在光照强烈或红外干扰环境下无法正常工作;双目相机13可以在光照强烈的环境下工作,但双目相机难以在黑暗或缺乏纹理的环境中工作,且由双目立体视觉计算出的深度值可信度低于ToF深度相机12在无光线干扰环境下的所获深度值的可信度。因此各传感器均存在不同的优势和缺点,通过基于梯度信息的深度补偿融合算法,可将各传感器深度数据进行融合,从而得到稠密、准确的高质量深度图像。
步骤一中已经详细描述多元传感器数据的注册方法,故本步骤中不再对数据注册进行赘述,本步骤中所提到的数据均默认为已变换到双目相机13的坐标系O双目-X双目Y双目Z双目下。
图5为本发明实施例提供的基于梯度信息的深度补偿融合算法示意图。用可靠的激光雷达11深度数据对目标深度进行初始化,并通过ToF深度相机12深度图像数据和双目相机13深度图像数据两者的梯度信息对激光雷达11深度数据进行融合和扩充。在没有激光雷达11深度数据的区域,先采用ToF深度相机12的深度数据,若无ToF深度相机12的深度图像数据,则采用双目相机13深度图像数据。
在本发明中,由于激光雷达11的深度数据更加精确,故期望最终融合的目标深度图像MPR尽可能地与激光雷达11的采集的数据相近,而雷达数据的稀疏性导致其无法反应梯度信息,因此本发明让MPR的梯度尽可能地与ToF深度相机12(或双目相机13)的深度图像的梯度相近,最终可以构建如下优化目标:
下角标i表示像素点在水平方向的坐标。
下角标j表示像素点在垂直方向的坐标。
MPR表示最终优化得到的在双目相机13坐标系O双目-X双目Y双目Z双目下成像平面上的融合深度图像。
MPR*表示优化过程中所述MPR的中间量。
ki,j表示最终优化得到的所述MPR在像素坐标点(i,j)处的像素值。
在本发明中,由于ToF深度相机12或双目相机13的深度图像在像素坐标点(i,j)处存在没有深度数据的情况下,故需依据状态对状态下的梯度值▽ri,j进行选择。
梯度值状态A:
梯度值状态B:
梯度值状态C:
在本发明中,为了获得最佳的目标深度图像MPR,公式(10)的等式右边取值最小,将公式(10)书写为便于求解的二次形形式。直接用初始化目标深度图像MPR,因此公式(10)可省去第一项,即可得到如下公式:
下角标x表示图像的横轴,下角标y表示图像的纵轴,如图5所示。
在本发明中,由于ToF深度相机12或双目相机13的深度图像在像素坐标点(i,j)处存在没有深度数据的情况下,故需依据状态对▽xri,j和▽yri,j进行选择。
梯度值状态A:
梯度值状态B:
梯度值状态C:
在梯度值状态C时,▽xri,j和▽yri,j为0。
在本发明中采用前向差分的方式计算图像梯度,因此上述优化问题等效为一个凸二次规划问题,可以直接使用梯度下降法进行迭代求解。为了节省计算量,本发明以中每个有深度数据的像素点为中心,选取合适的半径s建立一个优化范围Φ,只对Φ范围内的深度值进行优化。为了同时保证计算速度和计算精度,选取的半径大小一般为5到10个像素点之间。
本发明选取沿x轴和沿y轴两种位置关系作为梯度特征,中每个有深度数据的像素点为中心,将这些像素点的像素值作为真值,通过公式(11)对和进行融合,从而可在复杂的工作环境下获取到更加准确、稠密的深度图像信息。
实施例1
参见图2B所示,机器人平台上通过传感器固定架14从上至下顺次安装的三个传感器分别是激光雷达11、双目相机13和ToF深度相机12。三个传感器的型号与参数(内参值)为:
表1激光雷达型号与参数
表2 ToF深度相机型号与参数
表3双目相机型号与参数
应用激光雷达11、ToF深度相机12和双目相机13分别对图6所示的场景进行采集。采集得到的图像信息如图7、图8、图9所示。
应用本发明的深度图像构建方法对图6所示的场景进行构建深度图像,半径为8个像素点的优化范围,获得如图10所示。实施例通过多源传感器数据注册,并进行多源传感器数据关联,消除了异质传感器深度数据在空间和时间上的不对齐现象;通过多源深度数据融合使获取到的深度图像更加准确和稠密,并提升传感器系统对工作环境的适应性。
Claims (6)
1.一种融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建方法,其特征在于深度图像构建包括有下列步骤:
步骤一:多源传感器数据注册;
在启动激光雷达(11)、ToF深度相机(12)、双目相机(13)之后,在采样时间t采样里,多源传感器数据注册单元(20)第一方面用于接收激光雷达(11)输出的点云数据M11;由于激光雷达(11)扫描获得的点云数据中包含有环境数据,需要工作人员手动选取前标定物(2)与后标定物(3)同时存在的区域的点云数据,记为所述中存在的点云总个数,记为N;
第二方面用于接收ToF深度相机(12)输出的ToF深度图像信息M12;由于ToF深度相机(12)拍摄获得的ToF深度图像信息中包含有环境数据,需要工作人员手动选取前标定物(2)与后标定物(3)同时存在的区域的ToF深度图像信息,记为所述中以任意一个像素点的像素值来确定深度信息;
第三方面用于接收双目相机(13)输出的双目图像信息和双目深度信息M13;由于双目相机(13)拍摄获得的双目图像信息和双目深度信息中包含有环境数据,需要工作人员手动选取前标定物(2)与后标定物(3)同时存在的区域的双目深度信息,记为所述中以任意一个像素点的像素值来确定深度信息;
第五方面,完成异质传感器的位姿标定;
利用梯度下降法计算使得公式(1)等式右边最小,即可获得RLT、QLT;
利用梯度下降法计算使得公式(2)等式右边最小,即可获得RLZ、QLZ;
通过公式(3)、公式(4)、公式(5)、公式(6)可获得从坐标系O雷达-X雷达Y雷达Z雷达到坐标系O双目-X双目Y双目Z双目的位姿变换关系RZL、QZL以及从坐标系OToF-XToFYToFZToF到坐标系O双目-X双目Y双目Z双目的位姿变换关系RZT、QZT:
上角标T为坐标转置符;
步骤二:多源传感器数据关联;
步骤21:异质传感器的统一时间戳;
首先,计算机器人的实际移动速度v;在机器人平台以速度v相对于标记物移动的过程中,双目相机(13)会以一定帧率获得标记物的位姿,通过一段时间的位置微分,即可求得机器人的实际移动速度v;
其次,计算ToF深度相机(12)和双目相机(13)的数据采集时间间隔;
ToF深度相机(12)与双目相机(13)各有一时间轴,双目相机(13)在A时刻观测到标记所在位置为tag_hA;ToF深度相机(12)在b时刻观测到标记所在位置为tag_hb,其中A时刻为双目相机(13)返回数据的时间戳,b时刻为ToF深度相机(12)返回数据的时间戳;但由于ToF深度相机(12)数据采集存在较大延迟,因此ToF深度相机(12)的时间轴应整体向左移动;对于双目相机(13)的A时刻而言,在ToF深度相机(12)时间轴上应处于d时刻,若ToF深度相机(12)与双目相机(13)时间不存在时间戳偏移,那么双目相机(13)的时间轴上的A时刻在ToF深度相机(12)的时间轴上应处于c时刻;然而,由于时间戳偏移的存在,双目相机(13)的时间轴上的A时刻对应在ToF深度相机(12)的时间轴上是d时刻;则A时刻与d时刻数值的差值即为两传感器时间戳之间的偏移量Δt;已知ToF深度相机(12)的坐标系到双目相机(13)的坐标系的旋转矩阵为RZT,平移向量为QZT,有以下关系:
t2=tb-tc=tb-tA (8)
t1表示ToF深度相机(12)的时间轴上d时刻与b时刻的时间间隔;
t2表示ToF深度相机(12)的时间轴上c时刻与b时刻的时间间隔;
tb表示ToF深度相机(12)的时间轴上b时刻的数值;
td表示ToF深度相机(12)的时间轴上d时刻的数值;
tc表示ToF深度相机(12)的时间轴上c时刻的数值;
tA表示双目相机(13)的时间轴上A时刻的数值;
ToF深度相机(12)与双目相机(13)时间戳的偏移量Δt为:
Δt=t2-t1 (9)
步骤22:异质传感器数据同步选取;
双目相机(13)的数据采集频率表最高,ToF深度相机(12)次之,激光雷达(11)采集频率最慢;
由于双目相机(13)的工作频率最高,因此主要以双目相机(13)时间轴为参考,选取与双目相机(13)深度图像数据时间点接近的数据;当接收到双目相机(13)的数据时,判断在前后10ms的时间差内有无接收到ToF深度相机(12)的数据和激光雷达(11)的数据,若有,则将此三帧数据选取为有效地同步数据;若没有,则当下一次接收到双目相机(13)的数据时再进行同步数据选取;
以双目相机(13)的时间轴上B时刻为例,在B时刻双目相机(13)输出深度图像数据,与B时刻最近的ToF深度相机(12)的深度数据在e时刻,最近的激光雷达(11)数据在Ⅲ时刻;在进行深度数据融合时,只选取与双目数据时间点B时刻最近且时间差不超过10ms的ToF深度数据和激光雷达数据,以减小或消除由传感器频率不同所造成的数据误差,保证不同传感器所捕获的数据在时间和空间上实现对齐;
步骤三:多源深度数据融合;
目标深度图像MPR的优化目标:
下角标i表示像素点在水平方向的坐标;
下角标j表示像素点在垂直方向的坐标;
MPR表示最终优化得到的在双目相机13坐标系O双目-X双目Y双目Z双目下成像平面上的融合深度图像;
MPR*表示优化过程中所述MPR的中间量;
ki,j表示最终优化得到的所述MPR在像素坐标点(i,j)处的像素值;
下角标x表示图像的横轴,下角标y表示图像的纵轴;
2.根据权利要求1所述的融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建方法,其特征在于:优化范围为半径选取的5到10个像素点。
3.一种融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建系统,其特征在于:智能机器人深度图像构建系统包括有深度图像构建系统、处理器、异质传感器、传感器固定架(14)、运动载体(15)、定位板(10);所述异质传感器包括有激光雷达(11)、ToF深度相机(12)和双目相机(13);
激光雷达(11)、双目相机(13)和ToF深度相机(12)通过传感器固定架(14)从上至下顺次安装在传感器固定架(14)上,传感器固定架(14)固定在定位板(10)上,定位板(10)安装在运动载体(15)上;
所述处理器中至少存储有深度图像构建系统;
深度图像构建系统包括有多源传感器数据注册单元(20)、多源传感器数据关联单元(30)和多源深度数据融合单元(40);该系统是实现权利要求1所述的智能机器人深度图像构建方法。
4.根据权利要求3所述的融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建系统,其特征在于:多源传感器数据注册单元(20)第一方面用于接收激光雷达(11)输出的点云数据M11;
第二方面用于接收ToF深度相机(12)输出的ToF深度图像信息M12;
第三方面用于接收双目相机(13)输出的双目图像信息和双目深度信息M13;
第六方面,利用点云ICP算法,计算出和之间的位姿变换矩阵RZL、QZL、RZT、QZT,即可得到激光雷达(11)、ToF深度相机(12)、双目相机(13)之间的位置关系,从而完成此三个传感器的位姿标定;
5.根据权利要求3所述的融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建系统,其特征在于:多源传感器数据关联单元(30)第一方面,在机器人平台以速度v相对于标记物移动的过程中,双目相机(13)会以一定帧率获得标记物的位姿;
第二方面,异质传感器的统一时间戳,通过计算ToF深度相机(12)和双目相机(13)的数据采集时间间隔;
ToF深度相机(12)与双目相机(13)各有一时间轴,双目相机(13)在A时刻观测到标记所在位置为tag_hA;ToF深度相机(12)在b时刻观测到标记所在位置为tag_hb,其中A时刻为双目相机(13)返回数据的时间戳,b时刻为ToF深度相机(12)返回数据的时间戳;但由于ToF深度相机(12)数据采集存在较大延迟,因此ToF深度相机(12)的时间轴应整体向左移动;对于双目相机(13)的A时刻而言,在ToF深度相机(12)时间轴上应处于d时刻,若ToF深度相机(12)与双目相机(13)时间不存在时间戳偏移,那么双目相机(13)的时间轴上的A时刻在ToF深度相机(12)的时间轴上应处于c时刻;然而,由于时间戳偏移的存在,双目相机(13)的时间轴上的A时刻对应在ToF深度相机(12)的时间轴上是d时刻;则A时刻与d时刻数值的差值即为两传感器时间戳之间的偏移量Δt;已知ToF深度相机(12)的坐标系到双目相机(13)的坐标系的旋转矩阵为RZT,平移向量为QZT,有以下关系和t2=tb-tc=tb-tA;
ToF深度相机(12)与双目相机(13)时间戳的偏移量Δt=t2-t1;
第三方面,异质传感器数据同步选取;
双目相机(13)的数据采集频率表最高,ToF深度相机(12)次之,激光雷达(11)采集频率最慢;
由于双目相机(13)的工作频率最高,因此主要以双目相机(13)时间轴为参考,选取与双目相机(13)深度图像数据时间点接近的数据;当接收到双目相机(13)的数据时,判断在前后10ms的时间差内有无接收到ToF深度相机(12)的数据和激光雷达(11)的数据,若有,则将此三帧数据选取为有效地同步数据;若没有,则当下一次接收到双目相机(13)的数据时再进行同步数据选取;
以双目相机(13)的时间轴上B时刻为例,在B时刻双目相机(13)输出深度图像数据,与B时刻最近的ToF深度相机(12)的深度数据在e时刻,最近的激光雷达(11)数据在Ⅲ时刻;在进行深度数据融合时,只选取与双目数据时间点B时刻最近且时间差不超过10ms的ToF深度数据和激光雷达数据,以减小或消除由传感器频率不同所造成的数据误差,保证不同传感器所捕获的数据在时间和空间上实现对齐。
6.根据权利要求3所述的融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建系统,其特征在于:多源深度数据融合单元(40)第一方面用于记录下激光雷达(11)、ToF深度相机(12)和双目相机(13)分别在采样时间t采样里获得的图像信息,即:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010007766 | 2020-01-05 | ||
CN2020100077668 | 2020-01-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112766328A CN112766328A (zh) | 2021-05-07 |
CN112766328B true CN112766328B (zh) | 2022-08-12 |
Family
ID=75699240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110007417.0A Active CN112766328B (zh) | 2020-01-05 | 2021-01-05 | 融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112766328B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113357503B (zh) * | 2021-06-04 | 2022-08-16 | 中国北方车辆研究所 | 一种基于变构型多传感融合的足式机器人感知装置 |
CN113965701B (zh) * | 2021-09-10 | 2023-11-14 | 苏州雷格特智能设备股份有限公司 | 一种基于两个深度相机的多目标空间坐标对应绑定方法 |
CN114677315B (zh) | 2022-04-11 | 2022-11-29 | 探维科技(北京)有限公司 | 基于图像与激光点云的图像融合方法、装置、设备和介质 |
WO2024027653A1 (zh) * | 2022-08-04 | 2024-02-08 | 上海图漾信息科技有限公司 | 深度数据测量装置及其应用方法 |
CN116148883B (zh) * | 2023-04-11 | 2023-08-08 | 锐驰智慧科技(安吉)有限公司 | 基于稀疏深度图像的slam方法、装置、终端设备及介质 |
CN116990830B (zh) * | 2023-09-27 | 2023-12-29 | 锐驰激光(深圳)有限公司 | 基于双目和tof的距离定位方法、装置、电子设备及介质 |
CN117451030B (zh) * | 2023-10-25 | 2024-06-14 | 哈尔滨工业大学 | 一种基于场景自适应的多模态融合slam方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108489496A (zh) * | 2018-04-28 | 2018-09-04 | 北京空间飞行器总体设计部 | 基于多源信息融合的非合作目标相对导航运动估计方法及系统 |
CN110349221A (zh) * | 2019-07-16 | 2019-10-18 | 北京航空航天大学 | 一种三维激光雷达与双目可见光传感器的融合标定方法 |
CN110389348A (zh) * | 2019-07-30 | 2019-10-29 | 四川大学 | 基于激光雷达与双目相机的定位与导航方法及装置 |
CN110517216A (zh) * | 2019-08-30 | 2019-11-29 | 的卢技术有限公司 | 一种基于多类型相机的slam融合方法及其系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140168424A1 (en) * | 2011-07-21 | 2014-06-19 | Ziv Attar | Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene |
-
2021
- 2021-01-05 CN CN202110007417.0A patent/CN112766328B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108489496A (zh) * | 2018-04-28 | 2018-09-04 | 北京空间飞行器总体设计部 | 基于多源信息融合的非合作目标相对导航运动估计方法及系统 |
CN110349221A (zh) * | 2019-07-16 | 2019-10-18 | 北京航空航天大学 | 一种三维激光雷达与双目可见光传感器的融合标定方法 |
CN110389348A (zh) * | 2019-07-30 | 2019-10-29 | 四川大学 | 基于激光雷达与双目相机的定位与导航方法及装置 |
CN110517216A (zh) * | 2019-08-30 | 2019-11-29 | 的卢技术有限公司 | 一种基于多类型相机的slam融合方法及其系统 |
Non-Patent Citations (3)
Title |
---|
CFD-SLAM:融合特征法与直接法的快速鲁棒SLAM系统;王化友等;《高技术通讯》;20191215(第12期);全文 * |
Multisensor Data Fusion: Target Tracking with a Doppler Radar and an Electro-Optic Camera;Shuaib Omar etc.;《2011 IEEE International Conference on Control System, Computing and Engineering》;20111230;全文 * |
Robust Fusion of LiDAR and Wide-Angle Camera Data for Autonomous Mobile Robots;Varuna De Silva etc.;《arxiv》;20181230;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112766328A (zh) | 2021-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112766328B (zh) | 融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建方法 | |
CN109373898B (zh) | 一种基于三维测量点云的复杂零件位姿估计系统及方法 | |
US8140295B2 (en) | Auto-referenced sensing device for three-dimensional scanning | |
CN108171733A (zh) | 扫描仪vis | |
KR20140049361A (ko) | 다중 센서 시스템, 이를 이용하는 3차원 월드 모델링 장치 및 방법 | |
CN108089196A (zh) | 一种光学主被动融合的非合作目标位姿测量装置 | |
CN113096189B (zh) | 一种itof深度相机标定及深度优化方法 | |
CN110992487B (zh) | 手持式飞机油箱快速三维地图重建装置及重建方法 | |
Mi et al. | A vision-based displacement measurement system for foundation pit | |
CN111753799B (zh) | 一种基于主动双目的视觉传感器及机器人 | |
CN114543787A (zh) | 基于条纹投影轮廓术的毫米级室内建图定位方法 | |
CN111654626B (zh) | 一种包含深度信息的高分辨率相机 | |
CN109270546A (zh) | 一种基于结构光和双图像传感器的测距装置及其测距方法 | |
CN112529965A (zh) | 一种激光雷达与单目相机的标定方法及装置 | |
Lipnickas et al. | A stereovision system for 3-D perception | |
Su et al. | Obtaining obstacle information by an omnidirectional stereo vision system | |
JP7411539B2 (ja) | 測距システム及びその座標キャリブレーション方法 | |
CN115937810A (zh) | 一种基于双目相机引导的传感器融合方法 | |
Elseberg et al. | Automatic and full calibration of mobile laser scanning systems | |
JP2024501731A (ja) | 複数カメラによる速度測定方法及び速度測定装置 | |
CN111982071B (zh) | 一种基于tof相机的3d扫描方法及系统 | |
KR20180104504A (ko) | 식물의 표현형 분석을 위한 3d 영상 생성 방법 및 그 시스템 | |
CN113888702A (zh) | 基于多tof激光雷达和rgb摄像头的室内高精度实时建模和空间定位的装置和方法 | |
Agrawal et al. | RWU3D: Real World ToF and Stereo Dataset with High Quality Ground Truth | |
CN109239727B (zh) | 一种结合固态面阵激光雷达与双ccd相机的测距方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |