CN104463880A - 一种rgb-d图像获取方法 - Google Patents

一种rgb-d图像获取方法 Download PDF

Info

Publication number
CN104463880A
CN104463880A CN201410767123.8A CN201410767123A CN104463880A CN 104463880 A CN104463880 A CN 104463880A CN 201410767123 A CN201410767123 A CN 201410767123A CN 104463880 A CN104463880 A CN 104463880A
Authority
CN
China
Prior art keywords
camera
image
depth
rgb
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410767123.8A
Other languages
English (en)
Other versions
CN104463880B (zh
Inventor
汤淑明
朱新亮
王金桥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201410767123.8A priority Critical patent/CN104463880B/zh
Publication of CN104463880A publication Critical patent/CN104463880A/zh
Application granted granted Critical
Publication of CN104463880B publication Critical patent/CN104463880B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种RGB-D图像获取方法,首先对深度相机进行标定,获得深度相机的内参数Ad、外参数[Rd|Td],对彩色相机进行标定,获得彩色相机的内参数Ac、外参数[Rc|Tc],计算彩色相机相机坐标系下的深度相机的相对外参数[Rr|Tr];然后分别通过深度相机和彩色相机获得同一景物的深度图像与彩色图像,利用获得的Ad、Ac、[Rr|Tr],基于针孔相机模型将深度图像上的点投影至彩色图像上,进行深度图像与彩色图像的配准,获得配准后的RGB-D图像。本发明对室外环境下RGB-D图像的获取具有较好的实用价值。

Description

一种RGB-D图像获取方法
技术领域
本发明涉及图像获取技术领域,特别是一种用于获取室外环境下RGB-D图像的技术。
背景技术
人类已经进入了信息时代,信息时代的典型特征是利用传感器感知环境数据并送到控制中心集中处理,产生有用的决策控制信息。传感器技术的不断发展为感知环境提供了更加精确、更加多样的数据。相机是日常生活中非常常见的一类传感器,它的出现给人们的生活带来了不少的乐趣,如拍照记录精彩瞬间,制作视频短片等。在计算机、人工智能和机器视觉等技术不断地发展和革新的背景下,相机获取的图像的价值显得越来越大,基于图像的应用也越来越多。典型的应用即是将相机安装在机器人上,不断地获取环境图像,再利用计算机视觉的算法对其进行处理,使得机器人可以像人一样拥有眼睛去观察周围环境。
普通的彩色相机均是被动地接收物体发出的光,然后在其图像平面上成像。这种原理下获得的图像容易受光照、阴影、拍摄角度等外在因素的影响,当前的计算机视觉算法对于这种图像的处理并不鲁棒,因此其应用也相应地受到了限制。深度相机借助其自身发出的光,可以主动地感知物体的距离信息,其成像受光照、阴影和拍摄角度的影响较小。近年来,一种同时获取场景内物体的颜色信息与物体的距离信息的新型传感方式(即获取RGB-D图像)受到了计算机视觉领域的研究人员的广泛关注。
然而,目前大部分获取RGB-D图像的方法均是利用Kinect传感器。但是Kinect传感器本身有两方面应用限制:首先,它的应用场景限于室内环境,在室外环境下,由于光强等因素的影响其成像质量非常差,无法使用;其次,它的测距范围非常小,目前市面上Kinect的有效测距范围为2.5米,因此其对于要求更长测距距离的应用非常受限。
发明内容
本发明为解决目前的RGB-D图像获取方法不适用室外环境的问题,提出一种RGB-D图像的获取方法,通过深度相机和彩色相机来获得RGB-D图像,在室外环境下可获取高质量的RGB-D图像,并有良好的测距范围。
本发明的一种RGB-D图像获取方法,包括步骤如下:
步骤S1:对深度相机进行标定,获得深度相机的内参数Ad、外参数[Rd|Td],对彩色相机进行标定,获得彩色相机的内参数Ac、外参数[Rc|Tc],计算彩色相机相机坐标系下的深度相机的相对外参数[Rr|Tr];
步骤S2:分别通过深度相机和彩色相机获得同一景物的深度图像与彩色图像,利用获得的Ad、Ac、[Rr|Tr],基于针孔相机模型将深度图像上的点投影至彩色图像上,进行深度图像与彩色图像的配准,获得配准后的RGB-D图像。
优选的,计算彩色相机相机坐标系下的深度相机的相对外参数[Rr|Tr]的计算公式为
R r = R c R d - 1
T r = T c - R c R d - 1 T d .
优选的,所述深度图像与彩色图像的配准包括以下步骤:
步骤S21:基于针孔相机模型,构建相机坐标系中坐标为(X,Y,Z)的点投影至图像平面上坐标为(x,y)的点所满足的投影方程:
x y w = f x 0 c x 0 f y c y 0 0 1 X Y Z
其中,Z为物体到针孔相机透镜光心的距离,w=Z,fx、fy、cx、cy分别为相机在图像平面x轴方向上的焦距、相机在图像平面y轴方向上的焦距、相机在图像平面x轴方向上的中心偏移和相机在图像平面y轴方向上的中心偏移;
步骤S22:将深度图像中的点逆投影至深度相机相机坐标系中,计算公式为:
p x , y = z ( x - c x ) / f x z ( y - c y ) / f y z
其中px,y表示深度图像平面中的点(x,y)逆投影至深度相机相机坐标系下的点的坐标,z为px,y的深度值;
步骤S23:将点px,y变换至彩色相机相机坐标系下,计算公式为:
Qx,y=Rr(px,y-Tr)
其中,Qx,y表示深度相机相机坐标系下的点变换至彩色相机相机坐标系下的点的坐标;
步骤S24:将Qx,y利用步骤S21中构建的投影方程投影至彩色图像平面上,获得彩色图像对应点的深度信息,完成彩色图像与深度图像的配准。
优选的,设定阈值rt,在深度图像与彩色图像的配准前,计算深度图像中像素点的个数与彩色图像中像素点个数的比值r,并进行如下判断:
当r<rt时,利用线性插值的方法将深度图像在保持纵横比的情况下进行放大,使r超过rt后再进行深度图像与彩色图像的配准;
当r≥rt时,直接进行进行深度图像与彩色图像的配准。
优选的,所述阈值rt的大于等于0.33,小于等于1。
优选的,对深度相机和彩色相机的标定方法为:从不同角度和位置观察同一个物体,在获取多组图片后,根据相机的投影方程分别求的深度相机和彩色相机的内、外参数,完成标定。
本发明基于针孔相机模型,利用普通的室外深度相机与普通的彩色相机采集深度图像与彩色图像,并对深度图像与彩色图像进行配准,从而获取室外环境下的RGB-D图像,实用性较强,获取的RGB-D图像质量较高,并有良好的测距范围;本发明使用的配准方法无需进行很多硬件上的调整,即可获得RGB-D图像,有效的节省了成本;本发明通过阈值判定是否需要缩放图像,有利于改善RGB-D图像的质量。因此,本发明对室外环境下RGB-D图像的获得具有较强的实用性。
附图说明
图1为本发明RGB-D图像获取的流程图;
图2为针孔相机模型原理图;
图3为本发明RGB-D图像配准的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明提出了一种用于获取室外环境下RGB-D图像的方法,首先分别获得深度图像与彩色图像,然后在基于针孔相机模型(Pin-holeCamera Model)下实现深度图像与彩色图像的配准,如图1所示,所述方法包括:
步骤S1:对深度相机进行标定,获得深度相机的内参数Ad、外参数[Rd|Td],对彩色相机进行标定,获得彩色相机的内参数Ac、外参数[Rc|Tc],计算彩色相机相机坐标系下的深度相机的相对外参数[Rr|Tr]。相机的内参数决定三维空间中的点经投影后在相机平面上成像的形状;相机的外参数由旋转矩阵和平移矩阵组成,决定三维空间中的点经投影后在相机平面上成像的位置。彩色相机相机坐标系下的深度相机的相对外参数[Rr|Tr]决定了深度图像中的点在彩色相机相机平面上成像的位置。
步骤S2:分别通过深度相机和彩色相机获得同一景物的深度图像与彩色图像,利用获得的Ad、Ac、[Rr|Tr],基于针孔相机模型将深度图像上的点投影至彩色图像上,进行深度图像与彩色图像的配准,获得配准后的RGB-D图像。
所述的相机标定是一种求取相机内外参数的过程。通过从不同角度和位置观察同一个物体(如棋盘格),在获取一定数量的图片后,即可根据相机的投影方程:
Z c u v 1 = m 11 m 12 m 13 m 14 m 21 m 22 m 23 m 24 m 31 m 32 m 33 m 34 X w Y w Z w 1 = MX w
求得相机的内参数A,以及外参数[R|T],其中,Zc是图像坐标系中齐次坐标点的比例系数,M矩阵为投影矩阵(可分解出相机的内外参数),Xw为世界坐标系中的点。
本实施例中观察的物体采用的是棋盘格,根据形状与纹理特征确定需要采集的图像数量,进行图像获取后,根据相机的投影方程,求得相应的参数。
所述的彩色相机相机坐标系下的深度相机的相对外参数[Rr|Tr]的计算过程如下:记深度相机的外参数为[Rd|Td],彩色相机的外参数为[Rc|Tc],则[Rd|Td]表示深度相机与世界坐标系之间的相对位置,[Rc|Tc]表示彩色相机与世界坐标系之间的相对位置。对任意一点P,如它在世界坐标系、深度相机相机坐标系以及彩色相机相机坐标系下的非齐次坐标分别为Xw、Xd、Xc,则
Xd=RdXw+Td
Xc=RcXw+Tc
将上述两式中Xw消去后得到
X c = R c R d - 1 X d + T c - R c R d - 1 T d
因此,彩色相机相机坐标系下的深度相机的相对外参数[Rr|Tr],可以表示为:
R r = R c R d - 1
T r = T c - R c R d - 1 T d
所述的针孔相机模型如图2所示,f是相机的焦距,Z是物体到针孔相机透镜光心的距离。在针孔相机模型下,将相机坐标系中坐标为(X,Y,Z)的点投影至图像平面上坐标为(x,y)的点所满足的投影方程为:
x y w = f x 0 c x 0 f y c y 0 0 1 X Y Z
其中,w=Z,fx、fy、cx、cy分别为相机在图像平面x轴方向上的焦距、相机在图像平面y轴方向上的焦距、相机在图像平面x轴方向上的中心偏移和相机在图像平面y轴方向上的中心偏移。本发明的RGB-D图像配准方法即是基于针孔相机模型的,实施步骤如图3所述。
RGB-D图像配准包括以下步骤:
步骤S21:将深度图像中的点逆投影至深度相机相机坐标系中,由于深度图像记录的为空间中点与相机间的距离信息,即可以设定深度相机相机坐标系中点在Z轴方向的值与对应深度图像像素点的深度值相等,具体计算如下:
p x , y = z ( x - c x ) / f x z ( y - c y ) / f y z
其中px,y表示深度图像平面中的点(x,y)逆投影至深度相机相机坐标系下的点的坐标,z表示px,y的深度值;
步骤S22:将点px,y变换至彩色相机相机坐标系下,计算公式如下:
Qx,y=Rr(px,y-Tr)
其中,Qx,y表示深度相机相机坐标系下的点变换至彩色相机相机坐标系下的点的坐标。
步骤S23:将Qx,y利用针孔相机模型满足的投影方程投影至彩色相机图像平面上,获得彩色图像对应点的深度信息,即完成彩色图像与深度图像的配准过程,获得RGB-D图像。
为了更好地改善获得RGB-D图像的质量,本实施例中设定了阈值rt,阈值rt的取值范围为[0.33,1],在深度图像与彩色图像的配准前,计算深度图像中像素点的个数与彩色图像中像素点个数的比值r,并进行如下判断:当r<rt时,利用线性插值的方法将深度图像在保持纵横比的情况下进行放大,使r超过rt后再进行深度图像与彩色图像的配准;当r≥rt时,直接进行进行深度图像与彩色图像的配准。本实施例基于针孔相机模型,利用普通的室外深度相机与普通的彩色相机采集深度图像与彩色图像,并对深度图像与彩色图像进行配准,从而获取室外环境下的RGB-D图像,实用性较强,获取的RGB-D图像质量较高,并有良好的测距范围;使用的配准方法无需进行很多硬件上的调整,即可获得RGB-D图像,有效的节省了成本;通过阈值判定是否需要缩放图像,有利于改善RGB-D图像的质量。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种RGB-D图像获取方法,其特征在于,包括步骤如下:
步骤S1:对深度相机进行标定,获得深度相机的内参数Ad、外参数[Rd|Td],对彩色相机进行标定,获得彩色相机的内参数Ac、外参数[Rc|Tc],计算彩色相机相机坐标系下的深度相机的相对外参数[Rr|Tr];
步骤S2:分别通过深度相机和彩色相机获得同一景物的深度图像与彩色图像,利用获得的Ad、Ac、[Rr|Tr],基于针孔相机模型将深度图像上的点投影至彩色图像上,进行深度图像与彩色图像的配准,获得配准后的RGB-D图像。
2.如权利要求1所述的RGB-D图像获取方法,其特征在于,计算彩色相机相机坐标系下的深度相机的相对外参数[Rr|Tr]的计算公式为
R r = R c R d - 1
T r = T c - R c R d - 1 T d .
3.如权利要求2所述的RGB-D图像获取方法,其特征在于,所述深度图像与彩色图像的配准包括以下步骤:
步骤S21:基于针孔相机模型,构建相机坐标系中坐标为(X,Y,Z)的点投影至图像平面上坐标为(x,y)的点所满足的投影方程:
x y w = f x 0 c x 0 f x c y 0 0 1 X Y Z
其中,Z为物体到针孔相机透镜光心的距离,w=Z,fx、fy、cx、cy分别为相机在图像平面x轴方向上的焦距、相机在图像平面y轴方向上的焦距、相机在图像平面x轴方向上的中心偏移和相机在图像平面y轴方向上的中心偏移;
步骤S22:将深度图像中的点逆投影至深度相机相机坐标系中,计算公式为:
p x , y = z ( x - c x ) / f x z ( y - c y ) / f y z
其中px,y表示深度图像平面中的点(x,y)逆投影至深度相机相机坐标系下的点的坐标,z为px,y的深度值;
步骤S23:将点px,y变换至彩色相机相机坐标系下,计算公式为:
Qx,y=Rr(px,y-Tr)
其中,Qx,y表示深度相机相机坐标系下的点变换至彩色相机相机坐标系下的点的坐标;
步骤S24:将Qx,y利用步骤S21中构建的投影方程投影至彩色图像平面上,获得彩色图像对应点的深度信息,完成彩色图像与深度图像的配准。
4.如权利要求1-3中任一项所述的RGB-D图像获取方法,其特征在于,设定阈值rt,在深度图像与彩色图像的配准前,计算深度图像中像素点的个数与彩色图像中像素点个数的比值r,并进行如下判断:
当r<rt时,利用线性插值的方法将深度图像在保持纵横比的情况下进行放大,使r超过rt后再进行深度图像与彩色图像的配准;
当r≥rt时,直接进行进行深度图像与彩色图像的配准。
5.如权利要求4中任一项所述的RGB-D图像获取方法,其特征在于,所述阈值rt的大于等于0.33,小于等于1。
6.如权利要求5所述的RGB-D图像获取方法,其特征在于,对深度相机和彩色相机的标定方法为:从不同角度和位置观察同一个物体,在获取多组图片后,根据相机的投影方程分别求得深度相机和彩色相机的内、外参数,完成标定。
CN201410767123.8A 2014-12-12 2014-12-12 一种rgb‑d图像获取方法 Active CN104463880B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410767123.8A CN104463880B (zh) 2014-12-12 2014-12-12 一种rgb‑d图像获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410767123.8A CN104463880B (zh) 2014-12-12 2014-12-12 一种rgb‑d图像获取方法

Publications (2)

Publication Number Publication Date
CN104463880A true CN104463880A (zh) 2015-03-25
CN104463880B CN104463880B (zh) 2017-06-30

Family

ID=52909862

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410767123.8A Active CN104463880B (zh) 2014-12-12 2014-12-12 一种rgb‑d图像获取方法

Country Status (1)

Country Link
CN (1) CN104463880B (zh)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105205858A (zh) * 2015-09-18 2015-12-30 天津理工大学 一种基于单个深度视觉传感器的室内场景三维重建方法
CN106526605A (zh) * 2016-10-28 2017-03-22 北京康力优蓝机器人科技有限公司 激光雷达与深度相机的数据融合方法及系统
CN106548489A (zh) * 2016-09-20 2017-03-29 深圳奥比中光科技有限公司 一种深度图像与彩色图像的配准方法、三维图像采集装置
CN106846350A (zh) * 2016-11-23 2017-06-13 杭州视氪科技有限公司 一种基于rgb‑d相机和立体声的视障人士障碍物预警系统及方法
CN106875435A (zh) * 2016-12-14 2017-06-20 深圳奥比中光科技有限公司 获取深度图像的方法及系统
CN107016704A (zh) * 2017-03-09 2017-08-04 杭州电子科技大学 一种基于增强现实的虚拟现实实现方法
CN107067299A (zh) * 2017-03-29 2017-08-18 深圳奥比中光科技有限公司 虚拟试衣方法和系统
CN107103626A (zh) * 2017-02-17 2017-08-29 杭州电子科技大学 一种基于智能手机的场景重建方法
CN107169475A (zh) * 2017-06-19 2017-09-15 电子科技大学 一种基于kinect相机的人脸三维点云优化处理方法
CN107274447A (zh) * 2017-07-14 2017-10-20 梅卡曼德(北京)机器人科技有限公司 深度图像获取装置和深度图像获取方法
CN107437261A (zh) * 2017-07-14 2017-12-05 梅卡曼德(北京)机器人科技有限公司 深度图像获取方法
CN108269238A (zh) * 2017-01-04 2018-07-10 浙江舜宇智能光学技术有限公司 深度图像采集装置和深度图像采集系统及其图像处理方法
CN108470339A (zh) * 2018-03-21 2018-08-31 华南理工大学 一种基于信息融合的重叠苹果视觉识别与定位方法
CN109754427A (zh) * 2017-11-01 2019-05-14 虹软科技股份有限公司 一种用于标定的方法和装置
CN109785379A (zh) * 2018-12-17 2019-05-21 中国科学院长春光学精密机械与物理研究所 一种对称物体尺寸及重量的测量方法及测量系统
CN110148186A (zh) * 2019-05-28 2019-08-20 河北农业大学 一种rgb-d相机快速标定方法
CN110599550A (zh) * 2019-09-09 2019-12-20 香港光云科技有限公司 Rgb-d模组的校准系统及其设备和方法
CN112070695A (zh) * 2020-09-03 2020-12-11 深圳大学 一种配准矩阵的校正方法和计算机设备
CN112734862A (zh) * 2021-02-10 2021-04-30 北京华捷艾米科技有限公司 深度图像的处理方法、装置、计算机可读介质以及设备
CN112802068A (zh) * 2020-12-24 2021-05-14 奥比中光科技集团股份有限公司 一种同步获取深度、彩色与光谱图像的装置及识别系统
CN113359692A (zh) * 2020-02-20 2021-09-07 杭州萤石软件有限公司 一种障碍物的避让方法、可移动机器人
TWI773452B (zh) * 2020-09-18 2022-08-01 大陸商深圳市商湯科技有限公司 標定方法、電子設備、電腦可讀儲存介質及測溫人臉識別裝置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102982557A (zh) * 2012-11-06 2013-03-20 桂林电子科技大学 基于深度相机的空间手势姿态指令处理方法
CN103456039A (zh) * 2013-08-30 2013-12-18 西北工业大学 多视点多视角视场显示条件下的大场景虚拟天空建模方法
US20140267762A1 (en) * 2013-03-15 2014-09-18 Pelican Imaging Corporation Extended color processing on pelican array cameras

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102982557A (zh) * 2012-11-06 2013-03-20 桂林电子科技大学 基于深度相机的空间手势姿态指令处理方法
US20140267762A1 (en) * 2013-03-15 2014-09-18 Pelican Imaging Corporation Extended color processing on pelican array cameras
CN103456039A (zh) * 2013-08-30 2013-12-18 西北工业大学 多视点多视角视场显示条件下的大场景虚拟天空建模方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ILYA V.MIKHELSON 等: "Automatic,fast,online calibration between depth and color cameras", 《JOURNAL OF VISUAL COMMUNICATION AND IMAGE REPRESENTATION》 *
ZHANG C 等: "Calibration between depth and color sensors for commodity depth cameras", 《IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO》 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105205858B (zh) * 2015-09-18 2018-04-13 天津理工大学 一种基于单个深度视觉传感器的室内场景三维重建方法
CN105205858A (zh) * 2015-09-18 2015-12-30 天津理工大学 一种基于单个深度视觉传感器的室内场景三维重建方法
CN106548489A (zh) * 2016-09-20 2017-03-29 深圳奥比中光科技有限公司 一种深度图像与彩色图像的配准方法、三维图像采集装置
CN106548489B (zh) * 2016-09-20 2019-05-10 深圳奥比中光科技有限公司 一种深度图像与彩色图像的配准方法、三维图像采集装置
CN106526605A (zh) * 2016-10-28 2017-03-22 北京康力优蓝机器人科技有限公司 激光雷达与深度相机的数据融合方法及系统
CN106526605B (zh) * 2016-10-28 2019-05-14 北京康力优蓝机器人科技有限公司 激光雷达与深度相机的数据融合方法及系统
CN106846350A (zh) * 2016-11-23 2017-06-13 杭州视氪科技有限公司 一种基于rgb‑d相机和立体声的视障人士障碍物预警系统及方法
CN106846350B (zh) * 2016-11-23 2019-09-24 杭州视氪科技有限公司 一种基于rgb-d相机和立体声的视障人士障碍物预警系统及方法
CN106875435A (zh) * 2016-12-14 2017-06-20 深圳奥比中光科技有限公司 获取深度图像的方法及系统
CN108269238A (zh) * 2017-01-04 2018-07-10 浙江舜宇智能光学技术有限公司 深度图像采集装置和深度图像采集系统及其图像处理方法
CN107103626A (zh) * 2017-02-17 2017-08-29 杭州电子科技大学 一种基于智能手机的场景重建方法
CN107016704A (zh) * 2017-03-09 2017-08-04 杭州电子科技大学 一种基于增强现实的虚拟现实实现方法
CN107067299A (zh) * 2017-03-29 2017-08-18 深圳奥比中光科技有限公司 虚拟试衣方法和系统
CN107169475B (zh) * 2017-06-19 2019-11-19 电子科技大学 一种基于kinect相机的人脸三维点云优化处理方法
CN107169475A (zh) * 2017-06-19 2017-09-15 电子科技大学 一种基于kinect相机的人脸三维点云优化处理方法
CN107437261B (zh) * 2017-07-14 2021-03-09 梅卡曼德(北京)机器人科技有限公司 深度图像获取方法
CN107274447A (zh) * 2017-07-14 2017-10-20 梅卡曼德(北京)机器人科技有限公司 深度图像获取装置和深度图像获取方法
CN107437261A (zh) * 2017-07-14 2017-12-05 梅卡曼德(北京)机器人科技有限公司 深度图像获取方法
CN109754427A (zh) * 2017-11-01 2019-05-14 虹软科技股份有限公司 一种用于标定的方法和装置
CN108470339A (zh) * 2018-03-21 2018-08-31 华南理工大学 一种基于信息融合的重叠苹果视觉识别与定位方法
CN109785379A (zh) * 2018-12-17 2019-05-21 中国科学院长春光学精密机械与物理研究所 一种对称物体尺寸及重量的测量方法及测量系统
CN110148186A (zh) * 2019-05-28 2019-08-20 河北农业大学 一种rgb-d相机快速标定方法
CN110599550A (zh) * 2019-09-09 2019-12-20 香港光云科技有限公司 Rgb-d模组的校准系统及其设备和方法
CN113359692A (zh) * 2020-02-20 2021-09-07 杭州萤石软件有限公司 一种障碍物的避让方法、可移动机器人
CN112070695A (zh) * 2020-09-03 2020-12-11 深圳大学 一种配准矩阵的校正方法和计算机设备
CN112070695B (zh) * 2020-09-03 2024-07-16 深圳大学 一种配准矩阵的校正方法和计算机设备
TWI773452B (zh) * 2020-09-18 2022-08-01 大陸商深圳市商湯科技有限公司 標定方法、電子設備、電腦可讀儲存介質及測溫人臉識別裝置
CN112802068A (zh) * 2020-12-24 2021-05-14 奥比中光科技集团股份有限公司 一种同步获取深度、彩色与光谱图像的装置及识别系统
CN112734862A (zh) * 2021-02-10 2021-04-30 北京华捷艾米科技有限公司 深度图像的处理方法、装置、计算机可读介质以及设备

Also Published As

Publication number Publication date
CN104463880B (zh) 2017-06-30

Similar Documents

Publication Publication Date Title
CN104463880A (zh) 一种rgb-d图像获取方法
Zhu et al. The multivehicle stereo event camera dataset: An event camera dataset for 3D perception
CN103868460B (zh) 基于视差优化算法的双目立体视觉自动测量方法
CN105243637B (zh) 一种基于三维激光点云进行全景影像拼接方法
CN106168853B (zh) 一种自由空间头戴式视线跟踪系统
CA2620619C (en) Capturing and processing facial motion data
TWI397317B (zh) 廣角影像使用圓柱形座標模型並以透視投影法輸出影像的方法
CN108053437B (zh) 基于体态的三维模型获取方法及装置
JP2023509137A (ja) パノラマ3次元画像をキャプチャ及び生成するシステム及び方法
CN107424118A (zh) 基于改进径向畸变校正的球状全景拼接方法
CN108805801A (zh) 一种全景图像校正方法及系统
CN108234984A (zh) 双目深度相机系统和深度图像生成方法
CN109920007A (zh) 基于多光谱光度立体与激光扫描的三维成像装置及方法
CN108053373A (zh) 一种基于深度学习模型鱼眼图像校正方法
CN107103626A (zh) 一种基于智能手机的场景重建方法
CN107454377B (zh) 一种利用相机进行三维成像的算法和系统
CN103776419A (zh) 一种提高测量范围的双目视觉测距方法
CN104853080B (zh) 图像处理装置
CN109889799B (zh) 基于rgbir摄像头的单目结构光深度感知方法及装置
CN111009030A (zh) 一种多视高分辨率纹理图像与双目三维点云映射方法
CN106157256A (zh) 一种鱼眼图像校正方法和鱼眼图像校正装置
CN104732557A (zh) 一种地面激光扫描仪彩色点云生成方法
CN104599317A (zh) 一种实现3d扫描建模功能的移动终端及方法
CN111770326B (zh) 一种全景视频投射的室内三维监控方法
CN106408614B (zh) 适于现场应用的摄像机内参数标校方法和系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant