CN104616284A - 彩色深度相机的彩色图像到深度图像的像素级对准算法 - Google Patents
彩色深度相机的彩色图像到深度图像的像素级对准算法 Download PDFInfo
- Publication number
- CN104616284A CN104616284A CN201410748490.3A CN201410748490A CN104616284A CN 104616284 A CN104616284 A CN 104616284A CN 201410748490 A CN201410748490 A CN 201410748490A CN 104616284 A CN104616284 A CN 104616284A
- Authority
- CN
- China
- Prior art keywords
- image
- depth
- camera
- infrared
- rgb
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种彩色深度相机的彩色图像到深度图像的像素级对准方法。它包括步骤1)确定红外图像和深度图像之间的偏移量量,2)分别标定红外相机和彩色相机的内部参数,3)标定红外相机和彩色相机之间的相对姿势,4)标定深度相机模型的参数,5)利用红外图像和彩色图像的内外参数以及深度图像参数,从彩色图像的一个像素点出发,找到深度图像上对应的像素点,从而确定彩色图像上的像素点的深度;本发明能够从彩色图像出发,直接获取对应的深度信息,能够实现从彩色信息到深度信息的对准,能够获得更大尺寸的融合图像,信息更加丰富。
Description
技术领域
本发明涉及的彩色图像到深度图像的对准方法,具体是指一种基于极线约束,从彩色深度相机(Kinect)的彩色图像上的像素点出发,找到对应的深度图像上的像素点的方法。
背景技术
红外相机与彩色相机相结合的成像系统已经越来越多的应用到智能家居、体感游戏、三维重建、机器人自主导航等领域。为了发挥出多传感器融合的优势,首要的一个问题就是如何更好的实现不同传感器信息的融合。彩色深度相机(Kinect)是一款典型的红外相机与彩色相机相结合的成像系统,同时具有价格低廉、实用效果好等特点。它主要由红外发射器,红外相机和彩色相机组成。并且,红外相机与红外发射器形成一个三角测距系统,因此能够从红外图像推算出深度信息(深度图像)。目前只有从深度图像到彩色图像的对准方法。然而,彩色图像比深度图像具有更多的纹理特征,因此大多数情况下,我们都会需要一种从彩色图像到深度图像的对准方法。
发明内容
本发明创新性地提出了一种基于极线约束的,从彩色图像对准到深度图像的新算法,实现了从彩色图像到深度图像的直接对准,并提高了相机系统的信息融合效率,能够得到更多的融合信息,获得更大尺寸的融合图像。
本发明所使用的相机模型如附图1所示。建模为三个相机和一个红外发射器:红外相机、深度相机、彩色相机和红外发射器。其中红外发射器投射一个红外模式光,红外相机采集场景反射的模式光得到红外图像,通过与内置红外模式图比较得到一个深度图像。本发明在这一相机模型的基础上,结合极线约束,实现了从彩色图像到深度图像的对准算法。如附图2所示,具体的算法流程如下:
1)确定红外图像和深度图像之间的偏移量,由于是基于三角测距原理,通过窗口卷积的方法获得对应像素点的深度信息,因此深度图像和红外图像之间会有一个固定的偏移。首先,采集任意场景图像,并对红外图像和深度图像做二值化处理。然后从红外图像和深度图像中分别分割出场景中的目标物。接下来,通过比较红外图像和深度图像中分割出来的目标物的形状,确定红外图像和深度图像之间的偏移量,使得两个形状能够达到最好的对准效果。
2)分别标定红外相机和彩色相机的内部参数,红外(IR)相机和彩色(RGB)相机的几何投影模型如下:假设一个3D点X投影到图像点[u,v]T。
式中k=[k1,k2,…,k5]为畸变参数,矩阵K为投影矩阵,R为旋转矩阵,C为相机中心。利用传统的标定方法,分别用红外相机和彩色相机拍摄9x6的棋盘网格的图像。利用角点检测算法检测出黑白网格的角点,然后通过角点信息推算出红外相机和彩色相机的内部参数。
3)标定红外相机和彩色相机之间的相对姿势,将步骤2)中使用的棋盘网格同时显示给红外相机和彩色相机。由于在微软SDK中,红外图像和彩色图像公用一个数据流。因此,先打开红外图像数据流保存一幅红外图像,保持相机和标定板之间姿势不变,然后关闭红外图像数据流打开彩色图像数据流再保存一幅彩色图像。这样就获得了一对图像。重复5次(不固定),采集5对图像。最后利用这几对图像估计出红外相机和彩色相机的相对姿势。
4)标定深度相机模型的参数,这里我们假设深度相机和红外相机在几何上保持一致。但是从深度相机得到的是深度图像,其中每个像素保存着IR图像中的对应像素点[u,v]T的深度的倒数d。因此,存在IR图像与深度图像的如下对应关系:
式中,x,y和d分别是3D点X在深度图像上的对应像素点的像素坐标和像素值。3D点X在红外图像上的投影点的像素坐标u,v是由方程(2)给定,红外图像与深度图像的固定偏移为[u0,v0]T=[3,3]T。3D点X的真实的深度z由方程(3)给定,c0,c1是深度相机模型的参数。
若将IR相机的坐标系作为整个彩色深度相机(Kinect)的坐标系,那么RIR=I,CIR=0。根据深度图像上的一点[x,y,d]就可以确定对应的3D点XIR。
可以算出对应的RGB相机坐标系下的坐标。式中kIR是IR相机的畸变参数,KIR是IR相机的投影矩阵。
然后投影到RGB图像:
uRGB=KRGBdis(RRGB(XIR-CRGB),kRGB) (6)其中,dis是根据方程(2)确定的畸变函数。kRGB是RGB相机的畸变参数。KRGB,RRGB,CRGB分别是RGB相机的投影矩阵,旋转矩阵和光学中心。
用红外相机拍一幅标定板的图像,在红外图像上可以识别出标定板上的角点,因此可以计算出这些角点的3D坐标XIR。另一方面,根据步骤1)确定的红外图像和深度图像之间的固定偏移,可以找到这些角点在深度图像上的对应点。根据上述推导,利用深度图像上的一点[x,y,d]也可以确定对应的3D点XIR'。通过最小二乘法优化c0,c1,使得XIR'尽可能的趋近于XIR。这样我们就能够估算出c0,c1。
5)利用红外图像和彩色图像的内外参数以及深度图像参数,从彩色图像的一个像素点出发,找到深度图像上对应的像素点,从而确定彩色图像上的像素点的深度,附图4是一个示意图,显示了实现彩色图像点到深度图像点的对准的基本原理。这是立体视觉系统中经典的极线约束问题的扩展。假设现在空间中有一个点Q,在RGB图像上的成像点为qRGB。如果我们把彩色深度相机(Kinect)的RGB相机和IR相机当作一个立体视觉系统,那么利用之前标定好的基础矩阵FRGB-IR可以在红外图像上找到一条与qRGB想对应的极线。Q点在红外图像上的成像点应该就在这条直线上。假设这条直线上有N个点qIR i(i∈[1,N])。而对应的红外图像和深度图像之间有一个偏移[u0,v0]。深度相机在几何上可以看作就是IR相机。对于每一个点qIR i,对应的深度是对应的3D点坐标(在IR相机坐标系下)可以这样计算:
式中dis-1代表根据红外相机的畸变参数DIR进行的逆畸变操作。KIR是红外相机的投影矩阵。xqIR i,yqIR i是QIR i在红外图像上的投影点的像素坐标。对应的3D点在RGB相机坐标系下的坐标可以这样计算:
QRGB i=QIR i·R+T (8)
其中(R,T)是RGB相机和IR相机之间的相对姿势。然后,3D点QRGB i可以投影到RGB图像上:
qRGB i=dis(KRGB·QRGB i,DRGB) (9)
式中dis代表根据RGB相机的畸变参数DRGB进行的畸变操作。KRGB是RGB相机的投影矩阵。接下来,我们在极线上进行搜索,找到一个点qIR j,使得这个点满足一个条件,即其对应点qRGB j是最接近观测点qRGB的:
式中dis-1代表根据RGB相机的畸变参数DRGB进行的逆畸变操作。xqRGB,yqRGB为Q在RGB图像上的投影点的像素坐标。
本发明的优点在于:
1.以前的方法只能从深度图像对准到彩色图像,反之则不可以。而本发明能够实现从彩色图像到深度图像的直接对准。
2.以前的方法获得的融合图像尺寸较小,而本发明能够获得更加大尺寸的彩色与深度的融合图像,不丢失信息,具有更丰富的纹理特征。
附图说明
图1为本发明的相机几何模型图。
CIR——红外相机的光学中心;
CRGB——彩色相机的光学中心;
CP——红外投影器的中心;
RRGB,TRGB——红外相机坐标系到彩色相机坐标系的旋转平移;
X——三维空间的一个目标点;
图2为本发明的实现流程图。
图3为本发明中,实现彩色图像到深度图像的对准的原理图。
图中:
OIR——红外相机的光学中心;
ORGB——彩色相机的光学中心;
R,T——红外相机坐标系到彩色相机坐标系的旋转平移;
qIR j——红外图像上与qRGB相对应的极线上的任意一点;
qRGB j——qIR j对应的三维空间点反投影到彩色图像上的对应像素点;
qRGB——彩色图像上的一个像素点(特征点);
Q——三维空间的一个点(特征点);
Qj——qIR j对应的三维空间点。
图4为实验图例,显示了实验中采集的图像以及角点检测结果;
图4(a)——在彩色图像上检出角点;
图4(b)——在红外图像上检出角点;
图4(c)——正常状态下的红外图像(无法稳定地检测到角点)。
具体实施方式
下面结合附图和实施例对本发明的具体实施方法作进一步的详细说明。
1)确定红外图像和深度图像之间的偏移量,首先,采集任意场景图像,并对红外图像和深度图像做二值化处理。然后从红外图像和深度图像中分别分割出场景中的目标物。接下来,通过比较红外图像和深度图像中分割出来的目标物的形状,确定红外图像和深度图像之间的偏移量,使得两个形状能够达到最好的对准效果。根据实验结果,这个固定偏移为[u0,v0]=[3,3](像素)。
2)分别标定红外相机和彩色相机的内部参数,为了提高深度图像与彩色图像的融合精度,彩色深度相机(Kinect)中的IR相机、RGB相机以及深度相机的内部参数必须被精确标定。这里我们采用传统的标定方法。在标定板上贴着一个9x6的棋盘网格。将标定板放在距离相机0.5m左右,分别用红外相机和彩色相机拍摄棋盘网格的图像。图4(c)显示了正常状态下,当红外发射器发出的红外光打在标定板上的时候,拍摄到的红外图像。我们发现,在这样一幅红外图像上,由于有很多椒盐噪声,很难精确自动检测标定板上所有的角点。这里我们用了一个小技巧。将一张薄纸(纸巾即可)挡在红外相机前面,就可以拍到一幅较为平滑的红外图像(如图4(b))。在这样一幅红外图像上,所有角点都能被精确稳定的检测到。利用角点检测算法检测出红外图像以及彩色图像上的黑白网格的角点(如图4(a)(b)),然后通过角点信息推算出红外相机和彩色相机的内部参数。
3)标定红外相机和彩色相机之间的相对姿势,将步骤2)中使用的棋盘网格同时显示给红外相机和彩色相机。由于在微软SDK中,红外图像和彩色图像公用一个数据流。因此,先打开红外图像数据流保存一幅红外图像,保持相机和标定板之间姿势不变,然后关闭红外图像数据流打开彩色图像数据流再保存一幅彩色图像。这样就获得了一对图像。两个相机相对于标定板的姿势能够被标定,因此两个相机之间的相对姿势也能够计算出来。
4)标定深度相机模型的参数,先用薄纸挡住IR相机拍一幅IR图像,然后保持相机和标定板相对位置不变,移开薄纸再拍一幅深度图像。那么这样的IR图像和深度图像是对应的,可以组成一对图像。利用这样一对图像,能够获得一系列的3D标定点并且能够从深度图像上找到对应的深度像素点:利用方程(5),优化c0,c1使得最大限度地趋近于为了提高深度模型参数c0,c1对距离的鲁棒性,实验过程中我们将标定板从0.5m移动到1m,并在期间的各个位置都采集IR图像与深度图像对,用于标定深度参数c0,c1。距离范围0.5m~1m根据后面实际使用过程中标定板与彩色深度相机(Kinect)的距离而定。在我们的实验中,通常采用8组左右的红外-深度图像对。至此,红外相机的内部参数、彩色相机的内部参数、红外相机与彩色相机的相对姿势、深度相机的参数都能够估计出来。
5)利用红外图像和彩色图像的内外参数以及深度图像参数,从彩色图像的一个像素点出发,找到深度图像上对应的像素点,从而确定彩色图像上的像素点的深度,附图4是一个示意图,显示了实现RGB图像点到深度图像点的对准的基本原理。假设现在空间中有一个点Q,在RGB图像上的成像点为qRGB。如果我们把彩色深度相机(Kinect)的RGB相机和IR相机当作一个立体视觉系统,那么利用之前标定好的基础矩阵FRGB-IR可以在红外图像上找到一条与qRGB想对应的极线。Q点在红外图像上的成像点应该就在这条直线上。假设这条直线上有N个点qIR i(i∈[1,N])。而对应的IR图像和深度图像之间有一个偏移[u0,v0]。对于每一个点qIR i,对应的深度是对应的3D点坐标QIR i(在IR相机坐标系下)可以根据方程(7)计算出来。对应的3D点在RGB相机坐标系下的坐标可以根据方程(8)计算出来。然后,3D点QRGB i可以通过方程(9)投影到RGB图像上的qRGB j。接下来,我们在极线上进行搜索,找到一个点qIR j,使得这个点满足一个条件,即其对应点qRGB j是最接近观测点qRGB的。这样确定的一个点qIR j被近似的当作3D点Q在红外图像上的投影点。因此,点QRGB j的深度zj将被当作是点qRGB的深度。通过上述算法,可以从RGB图像上任意一点对准到深度图像的对应像素点。
这里,我们给出通过这种方法实现从RGB图像的像素点到深度图像的像素点的对应的像素误差:pixel_error=|qRGB-qRGB j|。在实验中,pixel_error的平均值为0.4个像素。因此这样确定的深度的精度是完全可以接受的。
Claims (1)
1.一种彩色深度相机的彩色图像到深度图像的像素级对准方法,它包括步骤1)确定红外图像和深度图像之间的偏移量量,2)分别标定红外相机和彩色相机的内部参数,3)标定红外相机和彩色相机之间的相对姿势,4)标定深度相机模型的参数,5)利用红外图像和彩色图像的内外参数以及深度图像参数,从彩色图像的一个像素点出发,找到深度图像上对应的像素点,从而确定彩色图像上的像素点的深度;其特征在于:
A.所述的步骤4)标定深度相机模型的参数方法如下,使用一个标定板,保持相机和标定板相对位置不变,先用薄纸挡住红外相机拍一幅红外图像,然后移开薄纸再拍一幅深度图像,那么这样的红外图像和深度图像是对应的,可以组成一对,利用这样一对图像,在红外图像上,能够检测到一系列3D标定点,角点i=1,…,n,为角点Xi在红外相机坐标系下的坐标。通过所述的步骤1)中确定的红外图像与深度图像之间的固定偏移,能够找到这些角点在深度图像上的位置坐标i=1,…,n,根据可以计算出这个点Xi在深度相机坐标系下的坐标红外相机与深度相机在几何上保持一致。因此方程中包含了深度参数c0,c1,使用最小二乘法拟合该方程,可以得到深度参数c0,c1;
B.所述的步骤5)方法如下:根据彩色图像上的一点qRGB,寻找其在深度图像上对应点qD,我们把彩色深度相机的彩色相机和红外相机当作一个立体视觉系统,那么利用上述的步骤2)和步骤3)标定好的彩色相机与红外相机的内外参数可以获得一个基础矩阵FRGB-IR;通过这个基础矩阵可以在红外图像上找到一条与qRGB相对应的极线,qRGB点在红外图像上的成像点qIR应该就在这条直线上,假设这条直线上有N个点qIR i(i∈[1,N])。而对应的红外图像和深度图像之间有一个偏移[u0,v0];深度相机在几何上可以看作就是红外相机,对于每一个点qIR i,对应的深度点是对应的在红外相机坐标系下的3D点坐标可以计算:
式中c0,c1为深度模型参数,KIR是IR相机的投影矩阵;dis-1是根据红外相机的畸变参数DIR确定的逆畸变函数;di是QIR i在深度图像上的投影点的像素值;是QIR i在红外图像上的投影点的像素坐标;然后,对应的3D点在彩色相机坐标系下的坐标可以这样计算:
式中R,T分别为旋转矩阵和平移向量,是彩色相机和红外相机之间的相对姿势。然后,3D点可以投影到彩色图像上的接下来,我们在极线上进行搜索,找到一个点qIR j,使得这个点满足一个条件,即其对应点是最接近观测点qRGB的:
通过这个条件,我们能够确定一个点qIR j,这个点被近似的当作3D点Q在红外图像上的投影点,因此,点的深度zj将被当作是点qRGB的深度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410748490.3A CN104616284B (zh) | 2014-12-09 | 2014-12-09 | 彩色深度相机的彩色图像到深度图像的像素级对准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410748490.3A CN104616284B (zh) | 2014-12-09 | 2014-12-09 | 彩色深度相机的彩色图像到深度图像的像素级对准方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104616284A true CN104616284A (zh) | 2015-05-13 |
CN104616284B CN104616284B (zh) | 2017-08-25 |
Family
ID=53150717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410748490.3A Active CN104616284B (zh) | 2014-12-09 | 2014-12-09 | 彩色深度相机的彩色图像到深度图像的像素级对准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104616284B (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105095894A (zh) * | 2015-08-06 | 2015-11-25 | 磐纹科技(上海)有限公司 | 非接触型图书扫描设备 |
CN106774856A (zh) * | 2016-08-01 | 2017-05-31 | 深圳奥比中光科技有限公司 | 基于唇语的交互方法以及交互装置 |
CN106846350A (zh) * | 2016-11-23 | 2017-06-13 | 杭州视氪科技有限公司 | 一种基于rgb‑d相机和立体声的视障人士障碍物预警系统及方法 |
CN107680140A (zh) * | 2017-10-18 | 2018-02-09 | 江南大学 | 一种基于Kinect相机的深度图像高分辨率重构方法 |
CN108038885A (zh) * | 2017-11-29 | 2018-05-15 | 深圳奥比中光科技有限公司 | 多深度相机标定方法 |
CN108133494A (zh) * | 2018-01-17 | 2018-06-08 | 南京华捷艾米软件科技有限公司 | 利用rgb-ir同时生成深度图和彩色图的系统和方法 |
CN108399617A (zh) * | 2018-02-14 | 2018-08-14 | 中国农业大学 | 一种动物健康状况的检测方法和装置 |
CN108447096A (zh) * | 2018-02-09 | 2018-08-24 | 西南科技大学 | kinect深度相机与热红外相机的信息融合方法 |
CN108475433A (zh) * | 2015-11-20 | 2018-08-31 | 奇跃公司 | 用于大规模确定rgbd相机姿势的方法和系统 |
CN109544620A (zh) * | 2018-10-31 | 2019-03-29 | Oppo广东移动通信有限公司 | 图像处理方法和装置、计算机可读存储介质和电子设备 |
CN109615601A (zh) * | 2018-10-23 | 2019-04-12 | 西安交通大学 | 一种融合彩色与灰阶深度图像的方法 |
CN109754426A (zh) * | 2017-11-01 | 2019-05-14 | 虹软科技股份有限公司 | 一种用于验证的方法和装置 |
CN109754427A (zh) * | 2017-11-01 | 2019-05-14 | 虹软科技股份有限公司 | 一种用于标定的方法和装置 |
CN109905691A (zh) * | 2017-12-08 | 2019-06-18 | 浙江舜宇智能光学技术有限公司 | 深度图像采集装置和深度图像采集系统及其图像处理方法 |
CN109978929A (zh) * | 2017-12-28 | 2019-07-05 | 舜宇光学(浙江)研究院有限公司 | 深度信息摄像模组的rgb-d图像合成优化系统及其方法 |
CN110400338A (zh) * | 2019-07-11 | 2019-11-01 | Oppo广东移动通信有限公司 | 深度图处理方法、装置和电子设备 |
CN110585626A (zh) * | 2019-09-10 | 2019-12-20 | 国网河北省电力有限公司经济技术研究院 | 阻燃式变压器消防系统 |
CN110849352A (zh) * | 2019-11-21 | 2020-02-28 | 大连理工大学 | 一种利用红外、深度和双目相机融合构建栅格地图的方法 |
CN110849351A (zh) * | 2019-11-21 | 2020-02-28 | 大连理工大学 | 一种利用深度相机和双目相机构建栅格地图的方法 |
CN110889364A (zh) * | 2019-11-21 | 2020-03-17 | 大连理工大学 | 一种利用红外传感器和可见光传感器构建栅格地图的方法 |
CN110900606A (zh) * | 2019-12-03 | 2020-03-24 | 江苏创能智能科技有限公司 | 一种基于小型机械臂手眼联动系统及其控制方法 |
US10628968B1 (en) | 2018-12-05 | 2020-04-21 | Toyota Research Institute, Inc. | Systems and methods of calibrating a depth-IR image offset |
WO2020151176A1 (zh) * | 2019-01-22 | 2020-07-30 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN112116703A (zh) * | 2020-09-08 | 2020-12-22 | 苏州小优智能科技有限公司 | 一种3d相机及点云与彩色纹理对齐的红外光扫描算法 |
CN112634152A (zh) * | 2020-12-16 | 2021-04-09 | 中科海微(北京)科技有限公司 | 基于图像深度信息的人脸样本数据增强方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102982557A (zh) * | 2012-11-06 | 2013-03-20 | 桂林电子科技大学 | 基于深度相机的空间手势姿态指令处理方法 |
CN102999892A (zh) * | 2012-12-03 | 2013-03-27 | 东华大学 | 基于区域遮罩的深度图像与rgb图像的智能融合方法 |
CN103607584A (zh) * | 2013-11-27 | 2014-02-26 | 浙江大学 | 一种kinect拍摄的深度图与彩色摄像机拍摄视频的实时配准方法 |
US20140139629A1 (en) * | 2012-11-16 | 2014-05-22 | Microsoft Corporation | Associating an object with a subject |
-
2014
- 2014-12-09 CN CN201410748490.3A patent/CN104616284B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102982557A (zh) * | 2012-11-06 | 2013-03-20 | 桂林电子科技大学 | 基于深度相机的空间手势姿态指令处理方法 |
US20140139629A1 (en) * | 2012-11-16 | 2014-05-22 | Microsoft Corporation | Associating an object with a subject |
CN102999892A (zh) * | 2012-12-03 | 2013-03-27 | 东华大学 | 基于区域遮罩的深度图像与rgb图像的智能融合方法 |
CN103607584A (zh) * | 2013-11-27 | 2014-02-26 | 浙江大学 | 一种kinect拍摄的深度图与彩色摄像机拍摄视频的实时配准方法 |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105095894A (zh) * | 2015-08-06 | 2015-11-25 | 磐纹科技(上海)有限公司 | 非接触型图书扫描设备 |
CN108475433B (zh) * | 2015-11-20 | 2021-12-14 | 奇跃公司 | 用于大规模确定rgbd相机姿势的方法和系统 |
US11838606B2 (en) | 2015-11-20 | 2023-12-05 | Magic Leap, Inc. | Methods and systems for large-scale determination of RGBD camera poses |
CN108475433A (zh) * | 2015-11-20 | 2018-08-31 | 奇跃公司 | 用于大规模确定rgbd相机姿势的方法和系统 |
CN106774856A (zh) * | 2016-08-01 | 2017-05-31 | 深圳奥比中光科技有限公司 | 基于唇语的交互方法以及交互装置 |
CN106774856B (zh) * | 2016-08-01 | 2019-08-30 | 深圳奥比中光科技有限公司 | 基于唇语的交互方法以及交互装置 |
CN106846350A (zh) * | 2016-11-23 | 2017-06-13 | 杭州视氪科技有限公司 | 一种基于rgb‑d相机和立体声的视障人士障碍物预警系统及方法 |
CN106846350B (zh) * | 2016-11-23 | 2019-09-24 | 杭州视氪科技有限公司 | 一种基于rgb-d相机和立体声的视障人士障碍物预警系统及方法 |
CN107680140A (zh) * | 2017-10-18 | 2018-02-09 | 江南大学 | 一种基于Kinect相机的深度图像高分辨率重构方法 |
CN107680140B (zh) * | 2017-10-18 | 2020-03-27 | 江南大学 | 一种基于Kinect相机的深度图像高分辨率重构方法 |
CN109754427A (zh) * | 2017-11-01 | 2019-05-14 | 虹软科技股份有限公司 | 一种用于标定的方法和装置 |
CN109754426A (zh) * | 2017-11-01 | 2019-05-14 | 虹软科技股份有限公司 | 一种用于验证的方法和装置 |
CN109754426B (zh) * | 2017-11-01 | 2021-04-23 | 虹软科技股份有限公司 | 一种用于摄像标定参数验证的方法、系统和装置 |
CN108038885A (zh) * | 2017-11-29 | 2018-05-15 | 深圳奥比中光科技有限公司 | 多深度相机标定方法 |
CN109905691A (zh) * | 2017-12-08 | 2019-06-18 | 浙江舜宇智能光学技术有限公司 | 深度图像采集装置和深度图像采集系统及其图像处理方法 |
CN109978929A (zh) * | 2017-12-28 | 2019-07-05 | 舜宇光学(浙江)研究院有限公司 | 深度信息摄像模组的rgb-d图像合成优化系统及其方法 |
CN109978929B (zh) * | 2017-12-28 | 2021-04-23 | 舜宇光学(浙江)研究院有限公司 | 深度信息摄像模组的rgb-d图像合成优化系统及其方法 |
CN108133494A (zh) * | 2018-01-17 | 2018-06-08 | 南京华捷艾米软件科技有限公司 | 利用rgb-ir同时生成深度图和彩色图的系统和方法 |
CN108447096A (zh) * | 2018-02-09 | 2018-08-24 | 西南科技大学 | kinect深度相机与热红外相机的信息融合方法 |
CN108399617A (zh) * | 2018-02-14 | 2018-08-14 | 中国农业大学 | 一种动物健康状况的检测方法和装置 |
CN109615601A (zh) * | 2018-10-23 | 2019-04-12 | 西安交通大学 | 一种融合彩色与灰阶深度图像的方法 |
CN109615601B (zh) * | 2018-10-23 | 2020-12-25 | 西安交通大学 | 一种融合彩色与灰阶深度图像的方法 |
CN109544620A (zh) * | 2018-10-31 | 2019-03-29 | Oppo广东移动通信有限公司 | 图像处理方法和装置、计算机可读存储介质和电子设备 |
CN109544620B (zh) * | 2018-10-31 | 2021-03-30 | Oppo广东移动通信有限公司 | 图像处理方法和装置、计算机可读存储介质和电子设备 |
US10628968B1 (en) | 2018-12-05 | 2020-04-21 | Toyota Research Institute, Inc. | Systems and methods of calibrating a depth-IR image offset |
WO2020151176A1 (zh) * | 2019-01-22 | 2020-07-30 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
US11379964B2 (en) | 2019-01-22 | 2022-07-05 | Beijing Sensetime Technology Development Co., Ltd. | Image processing method and apparatus, electronic device, and storage medium |
CN110400338A (zh) * | 2019-07-11 | 2019-11-01 | Oppo广东移动通信有限公司 | 深度图处理方法、装置和电子设备 |
CN110585626B (zh) * | 2019-09-10 | 2021-10-08 | 国网河北省电力有限公司经济技术研究院 | 阻燃式变压器消防系统 |
CN110585626A (zh) * | 2019-09-10 | 2019-12-20 | 国网河北省电力有限公司经济技术研究院 | 阻燃式变压器消防系统 |
CN110889364A (zh) * | 2019-11-21 | 2020-03-17 | 大连理工大学 | 一种利用红外传感器和可见光传感器构建栅格地图的方法 |
CN110849351A (zh) * | 2019-11-21 | 2020-02-28 | 大连理工大学 | 一种利用深度相机和双目相机构建栅格地图的方法 |
CN110849352A (zh) * | 2019-11-21 | 2020-02-28 | 大连理工大学 | 一种利用红外、深度和双目相机融合构建栅格地图的方法 |
CN110900606B (zh) * | 2019-12-03 | 2022-08-09 | 江苏创能智能科技有限公司 | 一种基于小型机械臂手眼联动系统及其控制方法 |
CN110900606A (zh) * | 2019-12-03 | 2020-03-24 | 江苏创能智能科技有限公司 | 一种基于小型机械臂手眼联动系统及其控制方法 |
CN112116703A (zh) * | 2020-09-08 | 2020-12-22 | 苏州小优智能科技有限公司 | 一种3d相机及点云与彩色纹理对齐的红外光扫描算法 |
CN112634152A (zh) * | 2020-12-16 | 2021-04-09 | 中科海微(北京)科技有限公司 | 基于图像深度信息的人脸样本数据增强方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104616284B (zh) | 2017-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104616284A (zh) | 彩色深度相机的彩色图像到深度图像的像素级对准算法 | |
US10630962B2 (en) | Systems and methods for object location | |
CN106228538B (zh) | 基于logo的双目视觉室内定位方法 | |
CN104299261B (zh) | 人体三维成像方法及系统 | |
US10176595B2 (en) | Image processing apparatus having automatic compensation function for image obtained from camera, and method thereof | |
CN101726855B (zh) | 基于立方体投影对鱼眼图像畸变校正方法 | |
US9195121B2 (en) | Markerless geometric registration of multiple projectors on extruded surfaces using an uncalibrated camera | |
US10846844B1 (en) | Collaborative disparity decomposition | |
CN103115613B (zh) | 一种空间三维定位方法 | |
Meilland et al. | Dense visual mapping of large scale environments for real-time localisation | |
CN102005039B (zh) | 基于泰勒级数模型的鱼眼相机立体视觉深度测量方法 | |
CN102609941A (zh) | 基于ToF深度相机的三维注册方法 | |
CN103252778A (zh) | 用于估计机器人位置的设备及其方法 | |
CN102650886A (zh) | 基于主动全景视觉传感器的机器人视觉系统 | |
CN103971404A (zh) | 一种高性价比的3d实景复制装置 | |
US11488354B2 (en) | Information processing apparatus and information processing method | |
CN101354796B (zh) | 基于泰勒级数模型的全向立体视觉三维重建方法 | |
CN110838164A (zh) | 基于物体点深度的单目图像三维重建方法、系统及装置 | |
CN105139355A (zh) | 一种深度图像的增强方法 | |
Khoshelham et al. | Generation and weighting of 3D point correspondences for improved registration of RGB-D data | |
CN103871061A (zh) | 一种基于双目视觉的眼底图像处理方法 | |
Ohashi et al. | Fisheye stereo camera using equirectangular images | |
CN106340045A (zh) | 三维人脸重建中基于双目立体视觉的标定优化方法 | |
CN105513074B (zh) | 一种羽毛球机器人相机以及车身到世界坐标系的标定方法 | |
CN105739106A (zh) | 一种体感多视点大尺寸光场真三维显示装置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |