CN108038885A - 多深度相机标定方法 - Google Patents
多深度相机标定方法 Download PDFInfo
- Publication number
- CN108038885A CN108038885A CN201711226550.5A CN201711226550A CN108038885A CN 108038885 A CN108038885 A CN 108038885A CN 201711226550 A CN201711226550 A CN 201711226550A CN 108038885 A CN108038885 A CN 108038885A
- Authority
- CN
- China
- Prior art keywords
- depth camera
- quick response
- response code
- outer ginseng
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/14—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
- G06K7/1404—Methods for optical code recognition
- G06K7/1408—Methods for optical code recognition the method being specifically adapted for the type of code
- G06K7/1417—2D bar codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- General Health & Medical Sciences (AREA)
- Toxicology (AREA)
- Artificial Intelligence (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种多深度相机标定方法,包括步骤:S1:利用多个深度相机获取各自对应的二维码彩色图像;S2:通过识别所述二维码的内容及计算二维码特征点的图片坐标,获取所述深度相机之间的粗略外参;S3:利用所述深度相机获取标准人体模特的各个局部点云,结合所述粗略外参及所述标准人体模特的三维模型获取所述深度相机的精细外参,只需要获取一次二维码彩色图像及标准人体模特的局部点云即可实现多个深度相机外参的同时标定。
Description
技术领域
本发明涉及计算机虚拟现实和计算机图形图像学技术领域,特别是涉及一种多深度相机标定方法。
背景技术
深度相机可以获取目标物体的RGBD信息,利用RGBD信息可以实现对目标的建模、识别等。随着消费级深度相机像KINECT、ASTRA等的普及,不少应用在使用了多深度相机来实现相应的功能,比如在3D试衣应用中,利用分布在人体四周的多个深度相机同步获取人体各个局部的深度及彩色图像,最后将各个局部的信息进行融合,最终实现对人体的三维彩色建模,根据该模型进一步实现3D试衣功能。
对于多深度相机的应用中,最为关键的是多深度相机之间的标定问题。这里的标定一般指获取多个深度相机之间的相对位置信息,即外参矩阵。
已有深度相机标定方案中,一种是通过拍摄固定于标定平板上的标定棋盘在不同姿态下的彩色图像和视差图像,完成Kinect传感器的标定,获得彩色相机和深度相机的畸变参数及两相机之间的旋转和平移矩阵。这种必须手动放置不同位置标定物方法不仅速度较慢,同时难以对多相机进行同时标定。另一种方案中使用厚度不计的褶皱纸张,利用迭代最近点算法对多台Kinect传感器进行几何标定,虽然能够实现多相机匹配,但仍需多次操作。
发明内容
为了解决需多次操作才能完成深度相机标定的技术问题,本发明提出一种多深度相机标定方法。
本发明的技术问题通过以下的技术方案予以解决:
本发明提出一种多深度相机标定方法,该方法会利用到标定物进行标定,所述标定物包括设置在其上的多个二维码,所述标定物包括可拆卸标定物;所述标定方法包括以下步骤:S1:利用多个深度相机获取各自对应的二维码彩色图像;S2:通过识别所述二维码彩色图像的内容及计算二维码特征点的图片坐标,获取所述深度相机之间的粗略外参;S3:利用所述深度相机获取标准人体模特的各个局部点云,结合所述粗略外参及所述标准人体模特的三维模型获取所述深度相机的精细外参。其中,所述二维码特征点包括所述二维码的几何中心、角点、顶点中的一种或多种。在某些实施例中,在步骤S2中还包括通过识别所述二维码彩色图像的内容对所述深度相机进行编号。
上述方法中,在步骤S2中所述二维码特征点的图片坐标的计算还可以包括:利用角点检测算法获取所述二维码的角点的图片坐标;根据所述角点的图片坐标计算出所述二维码特征点的图片坐标。
另外,在步骤S2中所述二维码特征点的图片坐标的计算包括:利用角点检测算法获取所述二维码的角点的图片坐标;根据所述角点的图片坐标计算出所述二维码特征点的图片坐标。此外,在步骤S2中所述获取所述深度相机之间的粗略外参还包括:结合所述二维码特征点的图片坐标及空间坐标,利用姿态求解算法求解所述深度相机之间的粗略外参;其中,所述二维码的空间坐标是已知的,所述空间坐标是以标定物底部中心为原点建立的空间坐标系进行确定;所述姿态求解算法优选solvePnP算法。
此外,在步骤S3中所述深度相机的精细外参的获取还包括:S31:将所述局部点云结合所述粗略外参进行融合,形成粗略人体点云;S32:将所述粗略人体点云与所述标准三维模型进行匹配计算获取所述深度相机的所述精细外参,其中,所述匹配计算包括ICP算法。
本发明与现有技术对比的有益效果包括:利用多个深度相机获取各自对应的二维码彩色图像,因每个二维码都是有差异的,每个深度相机获取的二维码的内容都不同,识别所述二维码彩色图像的内容及计算二维码特征点的图片坐标,获取所述深度相机之间的粗略外参,即获取了任意深度相机之间的粗略的相对位置;利用所述深度相机获取标准人体模特的各个局部点云,结合所述粗略外参及所述标准人体模特的三维模型获取所述深度相机的精细外参,只需要获取一次二维码彩色图像及标准人体模特的局部点云即可实现多个深度相机外参的同时标定。
附图说明
图1是根据本发明一个实施例中的多深度相机系统示意图。
图2是根据本发明一个实施例中标定装置示意图。
图3是根据本发明一个实施例中多深度相机标定方法的流程图。
具体实施方式
下面对照附图并结合优选的实施方式对本发明作进一步说明。
图1是根据本发明一个实施例中多深度相机装置的示意图。装置包括立柱1、深度相机2、连接器4、计算设备5等。深度相机2采集到的数据经连接器4传输到计算设备5中,计算设备5将接收到的数据进行处理,比如标定计算、三维建模等。其中立柱用于固定深度相机2,使得多个深度相机2具有相对固定的空间位置,在本实施例中共有4根立柱分别放置在被测量区域3的四周,每根立柱上放置了4个深度相机2。立柱以及深度相机的数量以及放置方式可以有多种,一般来说需要根据被测量目标的体积、大小以及测量的精度要求来确定,比如当被测量目标体积较大时,需要的深度相机数量较多。另外,若要求测量精度高,一般需要将深度相机2靠近被测量区域3,此时单个深度相机2的测量面积将随之减小,在这种情形下相应地需要增加深度相机的数量以实现对目标的全局测量。
在本发明中,深度相机2一般指可以同步获取目标物体的RGBD信息的设备,比如微软的Kinect、奥比中光的Astra等。这里的RGBD信息,指的是同时包含彩色信息以及深度信息的综合图像信息。一般地,深度相机2中含有两个成像模组,比如对于红外激光结构光深度相机(Kinect、Astra)而言,其含有一个彩色成像模组以及红外成像模组(也叫深度成像模组),二者在空间上间隔一间的距离,分别可以获取目标的彩色图像以及深度图像。由于二者之间因空间间隔导致有视差存在,一般彩色成像模组与红外成像模组需要进行标定,值得注意的是这里的标定指的是单深度相机的标定,比如基于棋盘格的标定方案,最终得到两个成像模组各自的内参矩阵以及反映二者相对位置关系的外参矩阵。根据内参、外参矩阵可以准确得到目标的RGBD图像信息。在本发明中,单个深度相机中各模组之间的内、外参矩阵被认为是已知信息。
然而对于多深度相机系统而言,仅获取各个深度相机各自的内、外参矩阵是不够的。如图1中所示,多个深度相机2用于获取被测量目标(图中未示出)各个局部的RGBD图像,随后需要将这些RGBD图像进行融合以得到全局的被测量目标的三维模型。融合时最关键的是需要知道多个深度相机之间相对位置信息,即多个深度相机之间的外参矩阵。需要注意的是,这里的外参与前面所述的外参有区别,这里的外参指的是不同深度相机之间的外参,比如第一深度相机中红外成像模组与第二深度相机中的红外成像模组之间的外参矩阵。可以理解的是,由于每个深度相机中不同模组之间的外参矩阵已知,因此根据第一、第二深度相机中彩色成像模组之间的外参矩阵就能直接计算出第一、第二深度相机中红外成像模组之间的外参矩阵,更进一步说,只要获取深度相机之间任意模组之间的外参矩阵也就得到了其他模组之间的外参矩阵。
在以下的说明中,多深度相机之间的外参矩阵统一指多深度相机之间红外成像模组之间的外参矩阵,也可以认为是指多深度相机之间用于获取深度信息的模组之间的外参矩阵。
为了获取多深度相机之间的外参矩阵,已有方案中有多种标定方案,比如利用将标定棋盘格对多个深度相机进行两两标定,这种方案需要人工参与且流程复杂。另一方案中利用立体标定物,比如标定球,进行标定,这种方案则算法复杂,同时标定物的制作难度较大。本发明则提出一种两步标定法,即先进行粗标,再进行细标的方案。在粗标时利用简单且易制作的二维标定物(二维码),在细标时利用已知精确三维模型的人体模特。该方案具有精度高、鲁棒性高的特点,且算法简单实用。
图2所示的是根据本发明一个实施例的二维码标定物的示意图。在本实施例标定物是针对图1所示的16个深度相机组成的多深度相机系统来设定的。标定物201包含框体202、二维码203。框体202大小以及二维码203在设置时需要针对多深度相机系统的大小来设定的,一般地,要满足每个深度相机的视野中间仅存在与之对应的二维码203。因此图2所示的实施例中,需要设置与深度相机数量相同的16个二维码,16个二维码被贴在(或直接生成于)框体202上。为了更加方便制作该标定物,框体202可以被分段制作,即制作成可拆卸或可组装的框体,图2中框体202是由4段组成,也可以由其他的可拆卸板块组成。在本实施例中,框体为正方形横截面,在其他实施例中也可以有其他截面形状。
二维码在设置时需要满足以下两个要求:
第一,每个二维码203的内容均不相同,在另一种实施例中,二维码也可以由其他可分辨的内容代替,比如字母、数字等。
第二,各个二维码203的空间坐标位置已知,为了满足这一要求,一般获取二维码上的一个特征点的空间坐标,该特征点的选取方式有多种,比如二维码的四个顶点,或二维码的角点、或者二维码的几何中心等,接下来以二维码的几何中心为特征点进行说明。为了获取特征点的空间坐标,在图2所示的实施例中,将框体下方正中心为原点建立空间直角坐标系,由于二维码的几何中心没有明显的标记,因此直接量取几何中心的坐标不现实。一种方案中可以通过测量三或四个二维码顶点的空间坐标进一步计算出几何中心的空间坐标,另一种方案是将二维码按一定规则放置,如图2所示,各个二维码203均落入到xz、yz平面中,且二维码均水平放置,此时只要知道二维码本身尺寸以及二维码任一顶点的坐标即可以获取二维码几何中心特征点的空间坐标。
当所有二维码的特征点空间坐标都测量后,实际上也就知道了所有二维码的空间相对位置。
图3所示的是根据本发明一个实施例的多深度相机标定流程图。
步骤301中利用多个深度相机获取各自对应的二维码彩色图像。在该步骤中仅利用了深度相机的彩色成像模组,因此可以仅开启深度相机中的彩色图像模组来进行采集,多个彩色图像模组可以同步采集也可以以一定的时序进行采集。同步采集效率快,但由于彩色图像的数据量较大,因此对连接器的传输有较高的要求。
步骤302中利用获取的包含对应二维码的彩色图像,通过对二维码内容的识别以及二维码特征点图片坐标的计算,获取多个深度相机之间的粗略外参。由于各个二维码的内容不同且特征点的空间坐标已知,因此,对各个深度相机获取的二维码进行内容识别就可以初步判断该深度相机的大致空间位置,如果需要对各个深度相机进行顺序编号的话,直接通过识别二维码的内容就可以知道各个深度相机的空间位置及顺序编号。深度相机编号在已有的标定方案中需要逐个标定,而本发明中则可以通过识别二维码的内容一次性完成对所有深度相机的编号。
另外,由于二维码具有多个角点204(图2中所示有3个角点),通过对深度相机获取的包含二维码的彩色图像并利用角点检测算法可以准确地识别出角点204的图片坐标,根据角点204的图片坐标可以计算出特征点(本实施例中特征点为二维码的几何中心)的图片坐标。这里的图片坐标指的是二维码彩色图像中的像素坐标。
由于各个二维码的特征点空间坐标已知,利用计算出的特征点在彩色图像中的图片坐标则可以利用姿态求解算法逆向计算出多个深度相机中多个彩色成像模组的空间相对位置信息(外参矩阵)。在一种实施例中,可以采用solvePnP算法实现对外参的求解。由于彩色成像模组与深度成像模组的位置关系已知,因此多个深度相机中深度成像模组的外参也可以计算得到。
这一步骤中,通过利用已知空间坐标的二维码及其彩色图像,可以直接获取多个深度相机的外参矩阵。然而由于标定物制作上的误差导致这一步中获取的外参矩阵拥有较低的精度,因此将这一步称为外参的粗略标定,获取的是粗略外参矩阵,往往还需要进一步的精细标定。
步骤303中,利用多深度相机系统获取标准人体模特的各个局部点云,结合粗略外参以及标准人体模特的三维模型,从而获取精细外参矩阵。
具体地,将一个三维模型已知的标准人体模特取代标定物201放到被测量区域3中,利用多深度相机系统获取多幅深度图像(点云),每幅深度图像对应人体模特各个局部,相邻两个深度图像一般会有少许重叠;其次,利用上一步骤中获取的粗略外参,将局部点云进行融合,形成粗略人体点云;最后,将粗略人体点云与三维模型进行匹配计算,在一种实施例中采用ICP算法进行匹配计算,根据匹配的结果直接计算出各个深度相机的精细外参。
实际上,利用ICP算法进行匹配计算时,可以看成是对深度相机空间坐标的一次次调整。由于粗略外参的不准确性导致融合后的粗略人体点云与三维模型之间存在差异,该差异通过ICP算法可以直接得到,从而可以逆向计算出深度相机的精确外参。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。
Claims (10)
1.一种多深度相机标定方法,其特征在于,所述标定方法包括以下步骤:
S1:利用多个深度相机获取各自对应的二维码彩色图像;
S2:通过识别所述二维码彩色图像的内容及计算二维码特征点的图片坐标,获取所述深度相机之间的粗略外参;
S3:利用所述深度相机获取标准人体模特的各个局部点云,结合所述粗略外参及所述标准人体模特的三维模型获取所述深度相机的精细外参。
2.如权利要求1所述的多深度相机标定方法,其特征在于,在步骤S2中还包括通过识别所述二维码彩色图像的内容对所述深度相机进行编号。
3.如权利要求1所述的多深度相机标定方法,其特征在于,在步骤S2中所述二维码特征点的图片坐标的计算包括:利用角点检测算法获取所述二维码的角点的图片坐标;根据所述角点的图片坐标计算出所述二维码特征点的图片坐标。
4.如权利要求1所述的多深度相机标定方法,其特征在于,在步骤S2中所述获取所述深度相机之间的粗略外参还包括:结合所述二维码特征点的图片坐标及空间坐标,利用姿态求解算法求解所述深度相机之间的粗略外参。
5.如权利要求4所述的多深度相机标定方法,其特征在于,所述姿态求解算法包括solvePnP算法。
6.如权利要求4所述的多深度相机标定方法,其特征在于,所述空间坐标是以标定物底部中心为原点建立的空间坐标系进行确定。
7.如权利要求1所述的多深度相机标定方法,其特征在于,所述二维码特征点包括所述二维码的几何中心、角点、顶点中的一种或多种。
8.如权利要求1所述的多深度相机标定方法,其特征在于,在步骤S3中所述深度相机的精细外参的获取还包括:
S31:将所述局部点云结合所述粗略外参进行融合,形成粗略人体点云;
S32:将所述粗略人体点云与所述标准三维模型进行匹配计算获取所述深度相机的所述精细外参。
9.如权利要求8所述的多深度相机标定方法,其特征在于,所述匹配计算包括ICP算法。
10.如权利要求1所述的多深度相机标定方法,其特征在于,所述二维码设置在标定物上,所述标定物包括可拆卸标定物。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711226550.5A CN108038885B (zh) | 2017-11-29 | 2017-11-29 | 多深度相机标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711226550.5A CN108038885B (zh) | 2017-11-29 | 2017-11-29 | 多深度相机标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108038885A true CN108038885A (zh) | 2018-05-15 |
CN108038885B CN108038885B (zh) | 2019-09-24 |
Family
ID=62094423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711226550.5A Active CN108038885B (zh) | 2017-11-29 | 2017-11-29 | 多深度相机标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108038885B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109141506A (zh) * | 2018-06-28 | 2019-01-04 | 深圳奥比中光科技有限公司 | 多功能标定系统 |
CN109447208A (zh) * | 2018-08-31 | 2019-03-08 | 北京目瞳科技有限公司 | 一种3d码及3d码的识别方法 |
CN110006406A (zh) * | 2019-04-26 | 2019-07-12 | 昆明理工大学 | 一种摄影测量后处理辅助尺度恢复及定向的标定装置 |
CN110378964A (zh) * | 2018-12-05 | 2019-10-25 | 北京京东尚科信息技术有限公司 | 一种摄像机外参标定方法及装置、存储介质 |
CN110675456A (zh) * | 2019-09-18 | 2020-01-10 | 深圳普罗米修斯视觉技术有限公司 | 多深度摄像机外部参数标定方法、装置及存储介质 |
CN112233189A (zh) * | 2020-12-14 | 2021-01-15 | 深圳普罗米修斯视觉技术有限公司 | 多深度相机外部参数标定方法、装置及存储介质 |
CN112462948A (zh) * | 2020-12-18 | 2021-03-09 | 哈尔滨拓博科技有限公司 | 一种基于深度相机偏离用户手势控制的标定方法和装置 |
CN113205560A (zh) * | 2021-05-06 | 2021-08-03 | Oppo广东移动通信有限公司 | 多深度相机的标定方法、装置、设备及存储介质 |
CN114549660A (zh) * | 2022-02-23 | 2022-05-27 | 北京大学 | 基于圆柱形自识别标记物的多相机标定方法、装置及设备 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112396663B (zh) * | 2020-11-17 | 2021-09-14 | 南方电网电力科技股份有限公司 | 一种多深度相机的可视化标定方法、装置、设备和介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102842148A (zh) * | 2012-07-10 | 2012-12-26 | 清华大学 | 一种无标记运动捕捉及场景重建方法及装置 |
CN103994779A (zh) * | 2014-05-27 | 2014-08-20 | 首都师范大学 | 基于三维激光点云的全景相机标定方法 |
CN104616284A (zh) * | 2014-12-09 | 2015-05-13 | 中国科学院上海技术物理研究所 | 彩色深度相机的彩色图像到深度图像的像素级对准算法 |
CN105139411A (zh) * | 2015-09-24 | 2015-12-09 | 大连理工大学 | 基于四套共线约束标定尺的大视场相机标定方法 |
US20160364912A1 (en) * | 2015-06-15 | 2016-12-15 | Electronics And Telecommunications Research Institute | Augmented reality-based hand interaction apparatus and method using image information |
CN106803261A (zh) * | 2015-11-20 | 2017-06-06 | 沈阳新松机器人自动化股份有限公司 | 机器人相对位姿估计方法 |
CN107145822A (zh) * | 2017-03-24 | 2017-09-08 | 深圳奥比中光科技有限公司 | 偏离深度相机的用户体感交互标定的方法和系统 |
CN107194974A (zh) * | 2017-05-23 | 2017-09-22 | 哈尔滨工业大学 | 一种基于多次识别标定板图像的多目相机外参标定精度的提高方法 |
-
2017
- 2017-11-29 CN CN201711226550.5A patent/CN108038885B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102842148A (zh) * | 2012-07-10 | 2012-12-26 | 清华大学 | 一种无标记运动捕捉及场景重建方法及装置 |
CN103994779A (zh) * | 2014-05-27 | 2014-08-20 | 首都师范大学 | 基于三维激光点云的全景相机标定方法 |
CN104616284A (zh) * | 2014-12-09 | 2015-05-13 | 中国科学院上海技术物理研究所 | 彩色深度相机的彩色图像到深度图像的像素级对准算法 |
US20160364912A1 (en) * | 2015-06-15 | 2016-12-15 | Electronics And Telecommunications Research Institute | Augmented reality-based hand interaction apparatus and method using image information |
CN105139411A (zh) * | 2015-09-24 | 2015-12-09 | 大连理工大学 | 基于四套共线约束标定尺的大视场相机标定方法 |
CN106803261A (zh) * | 2015-11-20 | 2017-06-06 | 沈阳新松机器人自动化股份有限公司 | 机器人相对位姿估计方法 |
CN107145822A (zh) * | 2017-03-24 | 2017-09-08 | 深圳奥比中光科技有限公司 | 偏离深度相机的用户体感交互标定的方法和系统 |
CN107194974A (zh) * | 2017-05-23 | 2017-09-22 | 哈尔滨工业大学 | 一种基于多次识别标定板图像的多目相机外参标定精度的提高方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109141506A (zh) * | 2018-06-28 | 2019-01-04 | 深圳奥比中光科技有限公司 | 多功能标定系统 |
CN109447208A (zh) * | 2018-08-31 | 2019-03-08 | 北京目瞳科技有限公司 | 一种3d码及3d码的识别方法 |
CN110378964B (zh) * | 2018-12-05 | 2021-07-30 | 北京京东尚科信息技术有限公司 | 一种摄像机外参标定方法及装置、存储介质 |
CN110378964A (zh) * | 2018-12-05 | 2019-10-25 | 北京京东尚科信息技术有限公司 | 一种摄像机外参标定方法及装置、存储介质 |
CN110006406A (zh) * | 2019-04-26 | 2019-07-12 | 昆明理工大学 | 一种摄影测量后处理辅助尺度恢复及定向的标定装置 |
CN110675456A (zh) * | 2019-09-18 | 2020-01-10 | 深圳普罗米修斯视觉技术有限公司 | 多深度摄像机外部参数标定方法、装置及存储介质 |
CN112233189A (zh) * | 2020-12-14 | 2021-01-15 | 深圳普罗米修斯视觉技术有限公司 | 多深度相机外部参数标定方法、装置及存储介质 |
CN112233189B (zh) * | 2020-12-14 | 2021-04-06 | 深圳普罗米修斯视觉技术有限公司 | 多深度相机外部参数标定方法、装置及存储介质 |
CN112462948A (zh) * | 2020-12-18 | 2021-03-09 | 哈尔滨拓博科技有限公司 | 一种基于深度相机偏离用户手势控制的标定方法和装置 |
CN113205560A (zh) * | 2021-05-06 | 2021-08-03 | Oppo广东移动通信有限公司 | 多深度相机的标定方法、装置、设备及存储介质 |
CN113205560B (zh) * | 2021-05-06 | 2024-02-23 | Oppo广东移动通信有限公司 | 多深度相机的标定方法、装置、设备及存储介质 |
CN114549660A (zh) * | 2022-02-23 | 2022-05-27 | 北京大学 | 基于圆柱形自识别标记物的多相机标定方法、装置及设备 |
CN114549660B (zh) * | 2022-02-23 | 2022-10-21 | 北京大学 | 基于圆柱形自识别标记物的多相机标定方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN108038885B (zh) | 2019-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108038885B (zh) | 多深度相机标定方法 | |
US11003897B2 (en) | Three-dimensional real face modeling method and three-dimensional real face camera system | |
CN109741405B (zh) | 一种基于对偶结构光rgb-d相机的深度信息采集系统 | |
CN106097348B (zh) | 一种三维激光点云与二维图像的融合方法 | |
CN104596502B (zh) | 一种基于cad模型与单目视觉的物体位姿测量方法 | |
CN106846461B (zh) | 一种人体三维扫描方法 | |
CN100417231C (zh) | 立体视觉半实物仿真系统及方法 | |
CN104155765B (zh) | 在拼接式集成成像显示器中校正三维图像的方法和设备 | |
CN106920276B (zh) | 一种三维重建方法和系统 | |
CN110044300A (zh) | 基于激光器的两栖三维视觉探测装置及探测方法 | |
CN102445165B (zh) | 基于单幅彩色编码光栅的立体视觉测量方法 | |
CN110390719A (zh) | 基于飞行时间点云重建设备 | |
CN106127745A (zh) | 结构光3d视觉系统与线阵相机的联合标定方法及装置 | |
WO2000000925A1 (en) | Method and apparatus for the processing of stereoscopic electronic images into three-dimensional computer models of real-life objects | |
CN109141226A (zh) | 单相机多角度的空间点坐标测量方法 | |
CN101901501A (zh) | 一种生成激光彩色云图的方法 | |
CN108063940B (zh) | 一种人眼跟踪裸眼3d显示系统的校正系统和方法 | |
CN110337674A (zh) | 三维重建方法、装置、设备及存储介质 | |
CN106170086B (zh) | 绘制三维图像的方法及其装置、系统 | |
CN108180888A (zh) | 一种基于可转动摄像头的距离检测方法 | |
KR20110027522A (ko) | 영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치 | |
CN109242918A (zh) | 一种直升机机载双目立体视觉标定方法 | |
CN107808412A (zh) | 一种基于低成本的三维热源环境模型确定环境信息方法 | |
CN110264527A (zh) | 基于zynq的实时双目立体视觉输出方法 | |
US11259000B2 (en) | Spatiotemporal calibration of RGB-D and displacement sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder | ||
CP01 | Change in the name or title of a patent holder |
Address after: A808, Zhongdi building, industry university research base, China University of Geosciences, No.8, Yuexing Third Road, Nanshan District, Shenzhen, Guangdong 518000 Patentee after: Obi Zhongguang Technology Group Co., Ltd Address before: A808, Zhongdi building, industry university research base, China University of Geosciences, No.8, Yuexing Third Road, Nanshan District, Shenzhen, Guangdong 518000 Patentee before: SHENZHEN ORBBEC Co.,Ltd. |