CN110012280B - 用于vslam系统的tof模组及vslam计算方法 - Google Patents
用于vslam系统的tof模组及vslam计算方法 Download PDFInfo
- Publication number
- CN110012280B CN110012280B CN201910219904.6A CN201910219904A CN110012280B CN 110012280 B CN110012280 B CN 110012280B CN 201910219904 A CN201910219904 A CN 201910219904A CN 110012280 B CN110012280 B CN 110012280B
- Authority
- CN
- China
- Prior art keywords
- scene
- image
- image signal
- calculation method
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 31
- 238000003384 imaging method Methods 0.000 claims abstract description 23
- 238000005520 cutting process Methods 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 3
- 230000007547 defect Effects 0.000 abstract description 5
- 238000000034 method Methods 0.000 description 10
- 239000011248 coating agent Substances 0.000 description 6
- 238000000576 coating method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 230000004297 night vision Effects 0.000 description 3
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
Abstract
本发明公开了一种用于VSLAM系统的TOF模组及VSLAM计算方法,TOF模组包括至少一光源、至少一成像单元以及一用于同步光源和成像单元的同步单元,成像单元包括一光传感器,光传感器上包括至少两个区域,至少两个区域中包括第一区域和第二区域,第一区域用于采集可见光波长的第一影像信号,第一影像信号为黑白影像信号;第二区域用于采集红外光波长的第二影像信号;TOF模组用于根据第一影像信号获取光强信息并通过第二影像信号获取深度信息。本发明的TOF模组及VSLAM计算方法克服了TOF模组的一些固有不足,又发挥了TOF相对于普通成像模组的优势,使得相应的VSLAM系统性能更佳,更适合于各种使用环境。
Description
技术领域
本发明涉及一种用于VSLAM系统的TOF模组及VSLAM计算方法。
背景技术
SLAM是Simultaneous Localization and Mapping的缩写,意为“同时定位与建图”。它是指运动物体根据传感器的信息,一边计算自身位置,一边构建环境地图的过程。目前,SLAM的应用领域主要有机器人、虚拟现实和增强现实。其用途包括传感器自身的定位,以及后续的路径规划、场景理解。
随着传感器种类和安装方式的不同,SLAM的实现方式和难度会有很大差异。按传感器来分,SLAM主要分为激光、视觉两大类。其中,激光SLAM研究较早,理论和工程均比较成熟。
最早的SLAM雏形是在军事上的应用,主要传感器是军用雷达。SLAM技术发展到如今已经几十年,目前以激光雷达作为主传感器的SLAM技术比较稳定、可靠,仍然是主流的技术方案。但随着最近几年计算机视觉技术的快速发展,SLAM技术越来越多的应用于家用机器人、无人机、AR设备,基于视觉的Visual SLAM(简称VSLAM)逐渐开始崭露头角。
TOF模组被广泛应用于现有的VSLAM技术中,TOF是Time of flight的简写,直译为飞行时间的意思。所谓飞行时间法3D成像,是通过给目标连续发送光脉冲,然后用传感器接收从物体返回的光,通过探测光脉冲的飞行(往返)时间来得到目标物距离。
现有的TOF模组存在拍摄距离短,精度差且功能较为单一的缺陷。
发明内容
本发明要解决的技术问题是为了克服现有技术中TOF模组存在拍摄距离短,精度差且功能较为单一的缺陷,提供一种能够拍摄更远距离的物体,成像效果更佳,且制造成本低廉,方便生产,另外本申请还具有夜视功能,方便用户使用的用于VSLAM系统的TOF模组及VSLAM计算方法。
本发明是通过下述技术方案来解决上述技术问题:
一种用于VSLAM系统的TOF模组,所述TOF模组包括至少一光源,其特点在于,所述TOF模组还包括至少一成像单元以及一用于同步光源和成像单元的同步单元,成像单元包括一光传感器,所述光传感器上包括至少两个区域,所述至少两个区域中包括第一区域和第二区域,
所述第一区域用于采集可见光波长的第一影像信号,所述第一影像信号为黑白影像信号;
所述第二区域用于采集红外光波长的第二影像信号;
所述TOF模组用于根据第一影像信号获取光强信息并通过第二影像信号获取深度信息。
较佳地,所述TOF模组还包括一与外部设备通信的通信单元,所述光源的波长为700nm至1500nm,所述光源为红外投影仪、红外垂直腔表面发射激光器、红外激光二极管或红外发光二极管;
所述光传感器为CMOS传感器、CCD传感器或PMD传感器。
较佳地,所述第一区域通过第一镜片获取所述第一影像信号,所述第二区域通过第二镜片获取所述第二影像信号,所述第一镜片用于截止波长大于或等于700nm的光线,所述第二镜片用于截止波长小于或等于700nm的光线。
较佳地,所述成像单元包括一镜头,所述镜头包括红外截止滤波片和红外滤镜,所述第一区域通过所述红外截止滤波片获取所述第一影像信号,所述第二区域通过所述红外滤镜获取所述第二影像信号。
较佳地,所述红外截止滤波片设于所述镜头的上部且截止波长大于或等于700nm的光线,所述红外滤镜设于所述镜头的底部且截止波长小于或等于700nm的光线。
较佳地,通过红外截止滤波片或红外滤镜获取影像的视场角的纵向取值范围为[30,90]度且横向取值范围为[30,150]。
较佳地,所述成像单元包括一镜头,所述镜头包括第一涂层区域和第二涂层区域,所述第一涂层区域用于截止红外光并接收可见光波长的影像信号,所述第二涂层区域用于截止可见光波长且接收红外光的影像信号。
较佳地,所述第一涂层区域占所述镜头的面积的比例的取值范围为百分之25至百分之75。
较佳地,所述光传感器包括像素阵列,所述像素阵列的感光二极管上设有用于聚集光线的微透镜阵列,所述第一区域内的感光二极管上的微透镜为红外截止滤波片,所述第二区域内的感光二极管上的微透镜为红外滤镜。
本申请还提供一种用于VSLAM系统的VSLAM计算方法,其特点在于,所述VSLAM计算方法利用如权利要求1至8中任意一项所述的TOF模组实现,所述VSLAM计算方法包括:
通过所述TOF模组获取场景影像,所述场景影像包括由第一影像信号生成的第一场景影像以及由第二影像信号生成的第二场景影像;
分别根据第一场景影像及第二场景影像生成场景内拍摄目标的3D结构;
根据场景影像分别获取第一场景影像及第二场景影像的3D结构的权重;
根据所述权重选取拍摄目标的3D结构,并添加或更新至所述场景的场景数据库中。
较佳地,所述根据场景影像分别获取第一场景影像及第二场景影像的3D结构的权重,包括:
将第一场景影像及第二场景影像的3D结构输入级联似然估算器;
对于同一拍摄目标,按预设规则依次对第一场景影像及第二场景影像的3D结构做若干次似然估算以获取所述权重,所述预设规则为在后的似然估算依据在前似然估算的结果做出估算。
较佳地,所述VSLAM计算方法包括:
通过所述TOF模组获取若干场景影像,并获取当前的权重数据;
根据权重数据,将场景影像中3D结构与场景数据库中的地标结构进行对比;
判断场景影像中3D结构是否存在于场景数据库中,若是则更新3D结构在所述场景数据库中的数据,若否则将带有权重的3D结构添加至所述场景数据库中。
较佳地,所述更新3D结构在所述场景数据库中的数据,包括:
对于一目标3D结构,根据目标3D结构获取空间姿态和场景中的位置;
将所述目标3D结构根据空间姿态和场景中的位置进行投影以获取2D投影影像;
判断所述2D投影影像与目标3D结构对应的场景影像是否匹配,若否则将场景数据库中的对应结构更新为所述目标3D结构。
在符合本领域常识的基础上,上述各优选条件,可任意组合,即得本发明各较佳实例。
本发明的积极进步效果在于:
本发明的用于VSLAM系统的TOF模组及VSLAM计算方法克服了TOF模组的一些固有不足,又发挥了TOF相对于普通成像模组的优势,使得相应的VSLAM系统性能更佳,更适合于各种使用环境。
附图说明
图1为本发明实施例1的TOF模组的结构示意图。
图2为本发明实施例1的TOF模组的另一结构示意图。
图3为本发明实施例1的VSLAM计算方法的流程图。
图4为本发明实施例1的VSLAM计算方法中级联似然估算器的示意图。
图5为本发明实施例1的VSLAM计算方法的另一流程图。
图6为本发明实施例3的TOF模组的结构示意图。
图7为本发明实施例3的TOF模组的另一结构示意图。
具体实施方式
下面通过实施例的方式进一步说明本发明,但并不因此将本发明限制在所述的实施例范围之中。
实施例1
参见图1、图2,本实施例提供一种用于VSLAM系统的TOF模组。
所述TOF模组11包括至少一光源12,所述TOF模组还包括至少一成像单元以及一用于同步光源和成像单元的同步单元。
成像单元包括一光传感器,所述光传感器上包括至少两个区域,所述至少两个区域中包括第一区域和第二区域。
所述第一区域用于采集可见光波长的第一影像信号,所述第一影像信号为黑白影像信号。
所述第二区域用于采集红外光波长的第二影像信号。
所述TOF模组用于根据第一影像信号获取光强信息并通过第二影像信号获取深度信息。
本实施例中,所述光源的波长为700nm至1500nm,所述光源为红外投影仪。
在其他的实施方式中,所述光源还可以为红外垂直腔表面发射激光器、红外激光二极管或红外发光二极管。
所述TOF模组还包括一与外部设备通信的通信单元。
本实施例中,所述光传感器为CMOS传感器。
在其他的实施方式中,光传感器还可以为CCD传感器或PMD传感器,或其他光敏器件。
在本实施例中所述第一区域用于采集可见光波长的第一影像信号,而所述第二区域用于采集红外光波长的第二影像信号。
所述第一区域通过第一镜片获取所述第一影像信号,所述第二区域通过第二镜片获取所述第二影像信号,所述第一镜片用于截止波长大于或等于700nm的光线,所述第二镜片用于截止波长小于或等于700nm的光线。
具体是通过:
所述成像单元包括一镜头,所述镜头包括红外截止滤波片和红外滤镜,本实施例中所述镜头由红外截止滤波片13和红外滤镜14组成,所述第一区域通过所述红外截止滤波片获取所述第一影像信号,所述第二区域通过所述红外滤镜获取所述第二影像信号。
本实施例的镜头通过两个过滤镜组成,而整个光传感器默认采集的是黑白影像,通过红外截止滤波片的光为可见光,所成影像为黑白影像。作为黑白相机通过被动光方法,采集环境光,能够有效拍摄远距离的物体,适合VSLAM使用。
而通过红外滤镜获取光源的红外光反馈,能够获取光源照射位置的深度信息。
第一镜片为红外截止滤波片,第二镜片为红外滤镜。
所述红外滤镜部分在未接收光源主动投光时,可以获取红外信号,作为夜视使用。
具体地,所述红外截止滤波片设于所述镜头的上部且截止波长大于或等于700nm的光线,所述红外滤镜设于所述镜头的底部且截止波长小于或等于700nm的光线。
通过红外截止滤波片或红外滤镜获取影像的视场角的纵向取值范围为[30,90]度且横向取值范围为[30,150]。在本实施例中,通过红外截止滤波片获取影像的视场角为30度,通过红外滤镜获取影像的视场角为30度。本实施例中的视场角仅为距离说明,本申请保护的TOF模组的视场角度并不限于固定的角度。
参见图3,利用上述TOF模组,本实施例还提供一种VSLAM计算方法,包括:
步骤100、通过所述TOF模组获取场景影像,所述场景影像包括由第一影像信号生成的第一场景影像以及由第二影像信号生成的第二场景影像;
步骤101、分别根据第一场景影像及第二场景影像生成场景内拍摄目标的3D结构;
步骤102、根据场景影像分别获取第一场景影像及第二场景影像的3D结构的权重;
步骤103、根据所述权重选取拍摄目标的3D结构,并添加或更新至所述场景的场景数据库中。
本实施例通过TOF模组获取两个场景影像,两种场景影像分别可以获取结构特征的3D结构。
其中,第一影像信号可以通过多幅不同位置的2D影像构建3D模型。而第二影像信号由于通过接收红外反馈信号,能够直接生成3D模型。
本申请通过对影像的分析,能够对场景进行评估,包括光线、反馈信号的信号强度、颜色以及线条,从而能够获取出两个影像构建的3D结构的权重,通过所述权重能够获取更加清晰、准确模型来进行后期的使用。
具体地,本实施例提供获取第一场景影像及第二场景影像的3D结构的权重的具体方法,参见图4,步骤102包括:
将第一场景影像及第二场景影像的3D结构输入级联似然估算器(CascadeLikelihood Estimator);
对于同一拍摄目标,按预设规则依次对第一场景影像及第二场景影像的3D结构做若干次似然估算以获取所述权重,所述预设规则为在后的似然估算依据在前似然估算的结果做出估算。
所述预设规则中利用到在前运算的结果为在后运算做出进一步的限定,同时本实施例的VSLAM计算方法还在获取所述权重后,利用所述权重作为反馈信号,进行再次运算或对后续影像做出进一步地限定。
本实施例的场景数据库不仅包括的是三维模型,还包括模型的权重信息,为模型的选取和优化提供便利。
进一步地,参见图5,本实施例的VSLAM计算方法对3D结构添加或更新至所述场景的场景数据库中做出了进一步的限定,对于一3D结构,包括:
步骤200、通过所述TOF模组获取若干场景影像,并获取当前的权重数据;
步骤201、根据权重数据,将场景影像中3D结构与场景数据库中的地标结构进行对比;
步骤202、判断场景影像中3D结构是否存在于场景数据库中,若是则执行步骤203,若否则执行步骤207;
在不断扫描场景获取输入影像后,本实施例能够判断3D结构是否存在于构建的场景当中,若不存在则对所述场景添加3D结构。
步骤203、根据3D结构获取空间姿态和场景中的位置。
步骤204、将所述3D结构根据空间姿态和场景中的位置进行投影以获取2D投影影像。
步骤205、判断所述2D投影影像与3D结构对应的场景影像是否匹配,若是则结束流程,若否则执行步骤206。
步骤206、将场景数据库中的对应结构更新为所述3D结构,然后结束流程。
如果在场景数据库中存在了目标3D结构,则要进一步地对比所述目标3D结构和已存在3D结构,如果存在的差异较大则利用最新获取的3D结构来替代场景内的3D结构,做出对场景数据库的更新。
本实施例利用投影来获取2D影像,通过降维的对比能够更加准确、快捷的获取差异。
步骤207、将带有权重的3D结构添加至所述场景数据库中。
本实施例的用于VSLAM系统的TOF模组能够拍摄更远距离的物体,成像效果更佳,且制造成本低廉,方便生产,另外本申请还具有夜视功能,方便用户使用。
本实施例的用于VSLAM系统的TOF模组及VSLAM计算方法克服了TOF模组的一些固有不足,又发挥了TOF相对于普通成像模组的优势,使得相应的VSLAM系统性能更佳,更适合于各种使用环境。
实施例2
本实施例与实施例1基本相同,不同之处仅在于:
所述成像单元包括一镜头,所述镜头包括第一涂层区域和第二涂层区域,所述第一涂层区域用于截止红外光并接收可见光波长的影像信号,所述第二涂层区域用于截止可见光波长且接收红外光的影像信号。
所述第一涂层区域占所述镜头的面积的比例的取值范围为百分之25至百分之75。
实施例3
参见图6、图7,本实施例与实施例1基本相同,不同之处仅在于:
所述光传感器包括像素阵列21,所述像素阵列的感光二极管上设有用于聚集光线的微透镜22阵列,所述第一区域内的感光二极管25上的微透镜为红外截止滤波片23,所述第二区域内的感光二极管上的微透镜为红外滤镜24。
利用上述的光传感器结构能够在源头上实现本申请的TOF模组,而且使获取的影像收到环境干扰的影响更小。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这些仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。
Claims (11)
1.一种用于VSLAM系统的VSLAM计算方法,其特征在于,所述VSLAM计算方法利用一TOF模组实现,所述TOF模组包括至少一光源,所述TOF模组还包括至少一成像单元以及一用于同步光源和成像单元的同步单元,成像单元包括一光传感器,所述光传感器上包括至少两个区域,所述至少两个区域中包括第一区域和第二区域,所述第一区域用于采集可见光波长的第一影像信号,所述第一影像信号为黑白影像信号;所述第二区域用于采集红外光波长的第二影像信号;所述TOF模组用于根据第一影像信号获取光强信息并通过第二影像信号获取深度信息;所述VSLAM计算方法包括:
通过所述TOF模组获取场景影像,所述场景影像包括由第一影像信号生成的第一场景影像以及由第二影像信号生成的第二场景影像;
分别根据第一场景影像及第二场景影像生成场景内拍摄目标的3D结构;
根据场景影像分别获取第一场景影像及第二场景影像的3D结构的权重;
根据所述权重选取拍摄目标的3D结构,并添加或更新至所述场景的场景数据库中。
2.如权利要求1所述的VSLAM计算方法,其特征在于,所述TOF模组还包括一与外部设备通信的通信单元,所述光源的波长为700nm至1500nm,所述光源为红外投影仪、红外垂直腔表面发射激光器、红外激光二极管或红外发光二极管;和/或,
所述光传感器为CMOS传感器、CCD传感器或PMD传感器。
3.如权利要求1所述的VSLAM计算方法,其特征在于,所述第一区域通过第一镜片获取所述第一影像信号,所述第二区域通过第二镜片获取所述第二影像信号,所述第一镜片用于截止波长大于或等于700nm的光线,所述第二镜片用于截止波长小于或等于700nm的光线。
4.如权利要求1所述的VSLAM计算方法,其特征在于,所述成像单元包括一镜头,所述镜头包括红外截止滤波片和红外滤镜,所述第一区域通过所述红外截止滤波片获取所述第一影像信号,所述第二区域通过所述红外滤镜获取所述第二影像信号。
5.如权利要求4所述的VSLAM计算方法,其特征在于,通过红外截止滤波片或红外滤镜获取影像的视场角的纵向取值范围为[30,90]度且横向取值范围为[30,150]。
6.如权利要求1所述的VSLAM计算方法,其特征在于,所述成像单元包括一镜头,所述镜头包括第一涂层区域和第二涂层区域,所述第一涂层区域用于截止红外光并接收可见光波长的影像信号,所述第二涂层区域用于截止可见光波长且接收红外光的影像信号。
7.如权利要求6所述的VSLAM计算方法,其特征在于,所述第一涂层区域占所述镜头的面积的比例的取值范围为百分之25至百分之75。
8.如权利要求1所述的VSLAM计算方法,其特征在于,所述光传感器包括像素阵列,所述像素阵列的感光二极管上设有用于聚集光线的微透镜阵列,所述第一区域内的感光二极管上的微透镜为红外截止滤波片,所述第二区域内的感光二极管上的微透镜为红外滤镜。
9.如权利要求1所述的VSLAM计算方法,其特征在于,所述根据场景影像分别获取第一场景影像及第二场景影像的3D结构的权重,包括:
将第一场景影像及第二场景影像的3D结构输入级联似然估算器;
对于同一拍摄目标,按预设规则依次对第一场景影像及第二场景影像的3D结构做若干次似然估算以获取所述权重,所述预设规则为在后的似然估算依据在前似然估算的结果做出估算。
10.如权利要求1所述的VSLAM计算方法,其特征在于,所述VSLAM计算方法包括:
通过所述TOF模组获取若干场景影像,并获取当前的权重数据;
根据权重数据,将场景影像中3D结构与场景数据库中的地标结构进行对比;
判断场景影像中3D结构是否存在于场景数据库中,若是则更新3D结构在所述场景数据库中的数据,若否则将带有权重的3D结构添加至所述场景数据库中。
11.如权利要求10所述的VSLAM计算方法,其特征在于,所述更新3D结构在所述场景数据库中的数据,包括:
对于一目标3D结构,根据目标3D结构获取空间姿态和场景中的位置;
将所述目标3D结构根据空间姿态和场景中的位置进行投影以获取2D投影影像;
判断所述2D投影影像与目标3D结构对应的场景影像是否匹配,若否则将场景数据库中的对应结构更新为所述目标3D结构。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910219904.6A CN110012280B (zh) | 2019-03-22 | 2019-03-22 | 用于vslam系统的tof模组及vslam计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910219904.6A CN110012280B (zh) | 2019-03-22 | 2019-03-22 | 用于vslam系统的tof模组及vslam计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110012280A CN110012280A (zh) | 2019-07-12 |
CN110012280B true CN110012280B (zh) | 2020-12-18 |
Family
ID=67167749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910219904.6A Active CN110012280B (zh) | 2019-03-22 | 2019-03-22 | 用于vslam系统的tof模组及vslam计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110012280B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111510700A (zh) * | 2020-06-18 | 2020-08-07 | 深圳市汇顶科技股份有限公司 | 图像采集装置 |
CN112509023B (zh) * | 2020-12-11 | 2022-11-22 | 国网浙江省电力有限公司衢州供电公司 | 一种多源相机系统及rgbd配准方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103106688A (zh) * | 2013-02-20 | 2013-05-15 | 北京工业大学 | 基于双层配准方法的室内三维场景重建方法 |
CN105991990A (zh) * | 2015-01-23 | 2016-10-05 | 江苏南大五维电子科技有限公司 | 3d信息获取设备、3d信息获取方法、成像设备及电子设备 |
CN106664354A (zh) * | 2014-12-22 | 2017-05-10 | 谷歌公司 | 单片集成的三原色像素阵列和z像素阵列 |
CN107534764A (zh) * | 2015-04-30 | 2018-01-02 | 深圳市大疆创新科技有限公司 | 增强图像分辨率的系统及方法 |
CN108337414A (zh) * | 2018-02-28 | 2018-07-27 | 信利光电股份有限公司 | 一种用于获取景深信息的摄像设备以及电子设备 |
CN108406731A (zh) * | 2018-06-06 | 2018-08-17 | 珠海市微半导体有限公司 | 一种基于深度视觉的定位装置、方法及机器人 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10306254B2 (en) * | 2017-01-17 | 2019-05-28 | Seiko Epson Corporation | Encoding free view point data in movie data container |
-
2019
- 2019-03-22 CN CN201910219904.6A patent/CN110012280B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103106688A (zh) * | 2013-02-20 | 2013-05-15 | 北京工业大学 | 基于双层配准方法的室内三维场景重建方法 |
CN106664354A (zh) * | 2014-12-22 | 2017-05-10 | 谷歌公司 | 单片集成的三原色像素阵列和z像素阵列 |
CN105991990A (zh) * | 2015-01-23 | 2016-10-05 | 江苏南大五维电子科技有限公司 | 3d信息获取设备、3d信息获取方法、成像设备及电子设备 |
CN107534764A (zh) * | 2015-04-30 | 2018-01-02 | 深圳市大疆创新科技有限公司 | 增强图像分辨率的系统及方法 |
CN108337414A (zh) * | 2018-02-28 | 2018-07-27 | 信利光电股份有限公司 | 一种用于获取景深信息的摄像设备以及电子设备 |
CN108406731A (zh) * | 2018-06-06 | 2018-08-17 | 珠海市微半导体有限公司 | 一种基于深度视觉的定位装置、方法及机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN110012280A (zh) | 2019-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Heng et al. | Project autovision: Localization and 3d scene perception for an autonomous vehicle with a multi-camera system | |
Zhu et al. | The multivehicle stereo event camera dataset: An event camera dataset for 3D perception | |
CN109470158B (zh) | 影像处理装置及测距装置 | |
CN105865454B (zh) | 一种基于实时在线地图生成的无人机导航方法 | |
WO2022036980A1 (zh) | 位姿确定方法、装置、电子设备、存储介质及程序 | |
CN110244282B (zh) | 一种多相机系统和激光雷达联合系统及其联合标定方法 | |
CN109191504A (zh) | 一种无人机目标跟踪方法 | |
CN109509230A (zh) | 一种应用于多镜头组合式全景相机的slam方法 | |
JP2011123071A (ja) | 撮像装置、オクルージョン領域の探索方法、及びプログラム | |
CN102072725A (zh) | 一种基于激光点云和实景影像进行空间三维测量的方法 | |
CN104079916A (zh) | 一种全景三维视觉传感器及使用方法 | |
CN110012280B (zh) | 用于vslam系统的tof模组及vslam计算方法 | |
CN118135526B (zh) | 基于双目相机的四旋翼无人机视觉目标识别与定位方法 | |
CN117036300A (zh) | 基于点云-rgb异源图像多级配准映射的路面裂缝识别方法 | |
KR101319526B1 (ko) | 이동 로봇을 이용하여 목표물의 위치 정보를 제공하기 위한 방법 | |
Pal et al. | 3D point cloud generation from 2D depth camera images using successive triangulation | |
CN111654626B (zh) | 一种包含深度信息的高分辨率相机 | |
Shacklock et al. | Visual guidance for autonomous vehicles: capability and challenges | |
KR20200023927A (ko) | 영상 처리 장치 및 영상 처리 방법 | |
Chen et al. | A structured-light-based panoramic depth camera | |
WO2022040940A1 (zh) | 标定方法、装置、可移动平台及存储介质 | |
Agrawal et al. | RWU3D: Real World ToF and Stereo Dataset with High Quality Ground Truth | |
RU2552123C2 (ru) | Способ селекции объектов на удалённом фоне | |
Zhang et al. | Indoor visible light positioning combining photometry and imaging | |
Wang et al. | LiDAR-camera fusion based on KD-tree algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: Room 390, Building 17, No. 2723 Fuchunwan Avenue, Chunjiang Street, Fuyang District, Hangzhou City, Zhejiang Province, 311400 Patentee after: Angrui (Hangzhou) Information Technology Co.,Ltd. Country or region after: China Address before: 201703 No.206, building 1, no.3938 Huqingping Road, Qingpu District, Shanghai Patentee before: UNRE (SHANGHAI) INFORMATION TECHNOLOGY Co.,Ltd. Country or region before: China |
|
CP03 | Change of name, title or address |