CN112837373A - 一种不需要特征点匹配的多相机位姿估计方法 - Google Patents
一种不需要特征点匹配的多相机位姿估计方法 Download PDFInfo
- Publication number
- CN112837373A CN112837373A CN202110234115.7A CN202110234115A CN112837373A CN 112837373 A CN112837373 A CN 112837373A CN 202110234115 A CN202110234115 A CN 202110234115A CN 112837373 A CN112837373 A CN 112837373A
- Authority
- CN
- China
- Prior art keywords
- plane
- camera
- landmark
- homography
- pose estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 239000011159 matrix material Substances 0.000 claims abstract description 28
- 230000008030 elimination Effects 0.000 claims abstract description 3
- 238000003379 elimination reaction Methods 0.000 claims abstract description 3
- 238000000605 extraction Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Abstract
本发明涉及一种不需要特征点匹配的多相机位姿估计方法,包括以下步骤:步骤S1:标定待测相机的内参和畸变系数;步骤S2:在平面上构建空间直角坐标系,并设置地标;步骤S3:相机采集平面图像,并根据得到的标定待测相机的内参和畸变系数消畸变;步骤S4:提取平面图像中地标的位置;步骤S5:根据提取得到的图像中的地标和平面上地标的位置,计算相机和平面之间的单应矩阵;步骤S6:根据得到单应矩阵,计算不同时刻不同相机之间的单应矩阵;步骤S7:分解根据步骤S6计算的单应矩阵得到相机之间的位姿。本发明计算快速,为多相机位姿估计提供了新思路,借助地标位置估计多个相机在不同时刻的位姿。
Description
技术领域
本发明涉及基于视觉的多相机位姿估计领域,涉及一种不需要特征点匹配的多相机位姿估计方法。
背景技术
目前,有不止一种方式可以确定移动机器人的轨迹,这里将重点强调“视觉里程计”这种方法。视觉里程计能够重构出搭载相机的多个机体运动轨迹和多个机体之间的相对位姿关系。作为基于视觉技术的一种,在最近十几年的时间里已广泛应用于各类机器人的导航定位中,是目前最主要的位姿估计方法之一。与其他方法相比,如轮式里程计,GPS定位等,视觉里程计适用更加广泛,在水下太空等环境均能使用,其中最成功的应用当属美国NASA开发的火星探测器“勇气号”和“机遇号”。除此以外,还用于无人空中飞行器、水下机器人、室内/外陆地机器人等。,
视觉里程计的基本步骤包括特征提取、特征匹配、坐标变换和运动估计。当前大多数视觉里程计系统是基于此框架。其中特征匹配是影响到相机位姿估计的最重要的因素之一,特征匹配的准确度将决定相机位姿估计的准确度。并且特征匹配对于相机运动的大小有限制,相机运动过大,图像共视区域减少将严重影响特征点的匹配。特征匹配还是一个计算复杂度很高的一个过程,计算复杂度随着图像中特征点的增多而增高。
发明内容
有鉴于此,本发明的目的在于提供一种不需要特征点匹配的多相机位姿估计方法,原理简单,计算快速,为多相机位姿估计提供了新思路,借助地标位置估计多个相机在不同时刻的位姿,可广泛用于自动驾驶,无人机定位等多种场景。
为实现上述目的,本发明采用如下技术方案:
一种不需要特征点匹配的多相机位姿估计方法,包括以下步骤:
步骤S1:标定待测相机的内参和畸变系数;
步骤S2:在平面上构建空间直角坐标系,并设置地标;
步骤S3:相机采集平面图像,并根据得到的标定待测相机的内参和畸变系数消畸变;
步骤S4:提取平面图像中地标的位置;
步骤S5:根据提取得到的图像中的地标和平面上地标的位置,计算相机和平面之间的单应矩阵;
步骤S6:根据得到单应矩阵,计算不同时刻不同相机之间的单应矩阵;
步骤S7:分解根据步骤S6计算的单应矩阵得到相机之间的位姿。
进一步的,所述步骤S2具体为:
步骤S21:选取一个平面,并指定一个点作为坐标系原点,规定x,y坐标轴在平面上,指定z轴为垂直平面方向,建立3维坐标系;
步骤S22:在平面坐标系中指定位置放置指定的地标。
进一步的,所述地标采用aruco码。
进一步的,所述步骤S5具体为:根据步骤S4提取的地标的多顶点pi=[ui vi]T和指定地标的顶点在平面上的位置qi=[xi yi 0]T估计第m时刻第n个相机与平面之间的单应矩阵Hmn。
进一步的,所述的单应矩阵通过构建的方程组Ah=b求解得到,具体为:
(1)根据步骤S4提取的地标的四个顶点pi=[ui vi]T,i={1,2,3,4}和平面上地标的顶点在平面上的位置qi=[xi yi 0]T,i={1,2,3,4}构建的方程组Ah=b;
(2)求解步骤S511构建的方程组Ah=B,得到h向量并增广为[h 1]T,再重排为3x3的相机与平面之间的单应矩阵H;
(3)将步骤S511和S512应用于不同时刻的所有相机,得到第m时刻第n个相机与平面之间的单应矩阵Hmn。
进一步的,所述方程组Ah=b,具体如下:
方程组Ah=b中h向量为单应矩阵的元素,
h=[h1 h2 h3 h4 h5 h6 h7 h8]T,
通过步骤S4提取的地标的四个顶点pi=[ui vi]T,i={1,2,3,4}和平面上地标的顶点在平面上的位置qi=[xi yi 0]T,i={1,2,3,4}构建系数矩阵A,
和b=[u1 v1 u2 v2 u3 v3 u4 v4]T。
本发明与现有技术相比具有以下有益效果:
本发明原理简单,计算快速,为多相机位姿估计提供了新思路,借助地标位置估计多个相机在不同时刻的位姿,可广泛用于自动驾驶,无人机定位等多种场景。
附图说明
图1为本发明实施例的结构框图。
图2为本发明实施例中步骤S1中所使用的标定板。
图3为本发明实施例中所用到的aruco地标中的一个实例。
图4为本发明实施例中步骤S2的平面地标设置示意图。
图5为本发明实施例中步骤S4中提取图像中地标示意图。
图6为本发明实施例中相机与地面,相机与相机之间单应矩阵关系图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
其中定义相机位姿为两个相机之间的坐标系变换,包括一个相机坐标系到另一个相机坐标系的旋转和一个坐标系原点在另一个坐标系中的位置,其中相机可以是不同时刻同一个相机,也可以是同一时刻多个相机。不需要匹配不同相机采集的图像中的特征点,将大大提高相机位姿估计准确度,和减少时间复杂度。
请参照图1,本发明提供一种不需要特征点匹配的多相机位姿估计方法,包括以下步骤:
步骤S1:标定所使用相机内参和畸变系数;
步骤S2:设置平面上空间直角坐标系,指定原点位置和方向,并在平面上设置地标;
步骤S3:使用相机采集图像,使用步骤S1中标定的参数消畸变;
步骤S4:提取步骤S3采集的图像中地标的位置,如图5所示,图中地标的四个顶点由绿色圆标注;
步骤S5:根据步骤S4得到的图像中的地标和平面上地标的位置,计算相机和平面之间的单应矩阵;
步骤S6:根据步骤S5的计算的相机和平面之间的单应矩阵,计算不同时刻不同相机之间的单应矩阵;
步骤S7:分解根据步骤S6计算的单应矩阵得到相机之间的位姿。
在本实施例中,所述步骤S1具体包括以下步骤:
步骤S11:相机从不同角度不同位置采集标定板的图像,标定板图2所示,具有固定方格数和尺寸;
步骤S22:输入步骤S11所采集的标定板图像,使用OpenCV自带的张正友标定法标定相机内参和畸变参数;
在本实施例中,步骤S2具体包括以下步骤:
步骤S21:选取现实场景中一个平面,指定一个点作为坐标系原点,并规定x,y坐标轴在平面上,指定z轴为垂直平面方向,建立3维坐标系;
步骤S22:在平面坐标系中指定位置放置指定的地标。
优选的,地标可选为aruco码:根据所使用的场景的大小,设置aruco码的尺寸,构建aruco码库,aruco码的一个实例如图3所示。并在指定位置放置指定序号的aruco码,结果如示意图4所示。
在本实施例中,步骤S5具体包括以下步骤:根据步骤S4提取的地标的四个顶点pi=[ui vi]T,i={1,2,3,4}和我们指定地标的顶点在平面上的位置qi=[xi yi 0]T,i={1,2,3,4}估计第m时刻第n个相机与平面之间的单应矩阵Hmn
优选的,步骤S5具体为:
步骤S511:根据步骤S4提取的地标的四个顶点pi=[ui vi]T,i={1,2,3,4}和我们指定地标的顶点在平面上的位置qi=[xi yi 0]T,i={1,2,3,4}构建的方程组Ah=B;
步骤S512:求解步骤S511构建的方程组Ah=b,得到h向量并增广为[h 1]T,再重排为3x3的相机与平面之间的单应矩阵H。
步骤S513:将步骤S511和S512应用于不同时刻的所有相机,得到第m时刻第n个相机与平面之间的单应矩阵Hmn。
优选的,方程组Ah=b具体如下:
方程组Ah=b中h向量为单应矩阵的元素,
h=[h1 h2 h3 h4 h5 h6 h7 h8]T,
通过步骤S4提取的地标的四个顶点pi=[ui vi]T,i={1,2,3,4}和预设地标的aruco码的顶点在平面上的位置qi=[xi yi 0]T,i={1,2,3,4}构建系数矩阵A,
和b=[u1 v1 u2 v2 u3 v3 u4 v4]T。
所述步骤S6具体包括以下步骤:
步骤S61:根据步骤S5提取得到第m时刻第n个相机与平面之间的单应矩阵Hmn计算不同时刻不同相机之间的单应矩阵,表示第m时刻第n个相机到第k时刻第l个相机的单应矩阵,所述的单应矩阵如图6所示,步骤S5求出相机与平面之间的单应矩阵,根据这些单应矩阵,通过步骤S6得到相机之间的单应矩阵。
领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (7)
1.一种不需要特征点匹配的多相机位姿估计方法,其特征在于:包括以下步骤:
步骤S1:标定待测相机的内参和畸变系数;
步骤S2:在平面上构建空间直角坐标系,并设置地标;
步骤S3:相机采集平面图像,并根据得到的标定待测相机的内参和畸变系数消畸变;
步骤S4:提取平面图像中地标的位置;
步骤S5:根据提取得到的图像中的地标和平面上地标的位置,计算相机和平面之间的单应矩阵;
步骤S6:根据得到单应矩阵,计算不同时刻不同相机之间的单应矩阵;
步骤S7:分解根据步骤S6计算的单应矩阵得到相机之间的位姿。
2.根据权利要求1所述的一种不需要特征点匹配的多相机位姿估计方法,其特征在于,所述步骤S2具体为:
步骤S21:选取一个平面,并指定一个点作为坐标系原点,规定x,y坐标轴在平面上,指定z轴为垂直平面方向,建立3维坐标系;
步骤S22:在平面坐标系中指定位置放置指定的地标。
3.根据权利要求1所述的一种不需要特征点匹配的多相机位姿估计方法,其特征在于,所述地标采用aruco码。
4.根据权利要求1所述的一种不需要特征点匹配的多相机位姿估计方法,其特征在于,所是步骤S5具体为:根据步骤S4提取的地标的多顶点pi=[ui vi]T和指定地标的顶点在平面上的位置qi=[xi yi 0]T估计第m时刻第n个相机与平面之间的单应矩阵Hmn。
5.根据权利要求4所述的一种不需要特征点匹配的多相机位姿估计方法,其特征在于,所述的单应矩阵通过构建的方程组Ah=b求解得到,具体为:
(1)根据步骤S4提取的地标的四个顶点pi=[ui vi]T,i={1,2,3,4}和平面上地标的顶点在平面上的位置qi=[xi yi 0]T,i={1,2,3,4}构建的方程组Ah=b;
(2)求解步骤S511构建的方程组Ah=B,得到h向量并增广为[h 1]T,再重排为3x3的相机与平面之间的单应矩阵H;
(3)将步骤S511和S512应用于不同时刻的所有相机,得到第m时刻第n个相机与平面之间的单应矩阵Hmn。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110234115.7A CN112837373B (zh) | 2021-03-03 | 2021-03-03 | 一种不需要特征点匹配的多相机位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110234115.7A CN112837373B (zh) | 2021-03-03 | 2021-03-03 | 一种不需要特征点匹配的多相机位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112837373A true CN112837373A (zh) | 2021-05-25 |
CN112837373B CN112837373B (zh) | 2024-04-26 |
Family
ID=75934435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110234115.7A Active CN112837373B (zh) | 2021-03-03 | 2021-03-03 | 一种不需要特征点匹配的多相机位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112837373B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110128388A1 (en) * | 2009-12-01 | 2011-06-02 | Industrial Technology Research Institute | Camera calibration system and coordinate data generation system and method thereof |
CN104200086A (zh) * | 2014-08-25 | 2014-12-10 | 西北工业大学 | 宽基线可见光相机位姿估计方法 |
CN106530358A (zh) * | 2016-12-15 | 2017-03-22 | 北京航空航天大学 | 仅用两幅场景图像标定ptz摄像机的方法 |
CN106548477A (zh) * | 2017-01-24 | 2017-03-29 | 长沙全度影像科技有限公司 | 一种基于立体标定靶的多路鱼眼相机标定装置及方法 |
CN109064404A (zh) * | 2018-08-10 | 2018-12-21 | 西安电子科技大学 | 一种基于多相机标定的全景拼接方法、全景拼接系统 |
CN109099883A (zh) * | 2018-06-15 | 2018-12-28 | 哈尔滨工业大学 | 高精度大视场机器视觉测量与标定装置及方法 |
CN110009681A (zh) * | 2019-03-25 | 2019-07-12 | 中国计量大学 | 一种基于imu辅助的单目视觉里程计位姿处理方法 |
KR20200057929A (ko) * | 2018-11-19 | 2020-05-27 | 주식회사 스튜디오매크로그래프 | 캘리브레이트된 카메라들에 의해 캡쳐된 스테레오 영상들의 렉티피케이션 방법과 컴퓨터 프로그램 |
CN111325792A (zh) * | 2020-01-23 | 2020-06-23 | 北京字节跳动网络技术有限公司 | 用于确定相机位姿的方法、装置、设备和介质 |
CN111415391A (zh) * | 2020-02-28 | 2020-07-14 | 中国民航大学 | 一种采用互拍法的多目相机外部方位参数标定方法 |
CN111862238A (zh) * | 2020-07-23 | 2020-10-30 | 中国民航大学 | 一种全空间单目光笔式视觉测量方法 |
-
2021
- 2021-03-03 CN CN202110234115.7A patent/CN112837373B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110128388A1 (en) * | 2009-12-01 | 2011-06-02 | Industrial Technology Research Institute | Camera calibration system and coordinate data generation system and method thereof |
CN104200086A (zh) * | 2014-08-25 | 2014-12-10 | 西北工业大学 | 宽基线可见光相机位姿估计方法 |
CN106530358A (zh) * | 2016-12-15 | 2017-03-22 | 北京航空航天大学 | 仅用两幅场景图像标定ptz摄像机的方法 |
CN106548477A (zh) * | 2017-01-24 | 2017-03-29 | 长沙全度影像科技有限公司 | 一种基于立体标定靶的多路鱼眼相机标定装置及方法 |
CN109099883A (zh) * | 2018-06-15 | 2018-12-28 | 哈尔滨工业大学 | 高精度大视场机器视觉测量与标定装置及方法 |
CN109064404A (zh) * | 2018-08-10 | 2018-12-21 | 西安电子科技大学 | 一种基于多相机标定的全景拼接方法、全景拼接系统 |
KR20200057929A (ko) * | 2018-11-19 | 2020-05-27 | 주식회사 스튜디오매크로그래프 | 캘리브레이트된 카메라들에 의해 캡쳐된 스테레오 영상들의 렉티피케이션 방법과 컴퓨터 프로그램 |
CN110009681A (zh) * | 2019-03-25 | 2019-07-12 | 中国计量大学 | 一种基于imu辅助的单目视觉里程计位姿处理方法 |
CN111325792A (zh) * | 2020-01-23 | 2020-06-23 | 北京字节跳动网络技术有限公司 | 用于确定相机位姿的方法、装置、设备和介质 |
CN111415391A (zh) * | 2020-02-28 | 2020-07-14 | 中国民航大学 | 一种采用互拍法的多目相机外部方位参数标定方法 |
CN111862238A (zh) * | 2020-07-23 | 2020-10-30 | 中国民航大学 | 一种全空间单目光笔式视觉测量方法 |
Non-Patent Citations (3)
Title |
---|
张友安;寇昆湖;柳爱利;: "参考地物的飞航导弹视觉辅助导航", 海军航空工程学院学报, no. 04, 20 July 2012 (2012-07-20) * |
程争刚;张利;: "一种基于无人机位姿信息的航拍图像拼接方法", 测绘学报, no. 06, 15 June 2016 (2016-06-15) * |
郝鑫;: "基于平面模板的摄像机标定方法", 太原师范学院学报(自然科学版), no. 02, 25 June 2013 (2013-06-25) * |
Also Published As
Publication number | Publication date |
---|---|
CN112837373B (zh) | 2024-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109872372B (zh) | 一种小型四足机器人全局视觉定位方法和系统 | |
CN109658461B (zh) | 一种基于虚拟仿真环境的合作二维码的无人机定位方法 | |
CN106780699B (zh) | 一种基于sins/gps和里程计辅助的视觉slam方法 | |
CN107862719B (zh) | 相机外参的标定方法、装置、计算机设备和存储介质 | |
KR102016551B1 (ko) | 위치 추정 장치 및 방법 | |
Mondragón et al. | 3D pose estimation based on planar object tracking for UAVs control | |
CN106960454B (zh) | 景深避障方法、设备及无人飞行器 | |
Olson et al. | Wide-baseline stereo vision for terrain mapping | |
CN106845354B (zh) | 零件视图库构建方法、零件定位抓取方法及装置 | |
CN111754579B (zh) | 多目相机外参确定方法及装置 | |
CN114399554B (zh) | 一种多相机系统的标定方法及系统 | |
CN108171715B (zh) | 一种图像分割方法及装置 | |
CN109214254B (zh) | 一种确定机器人位移的方法及装置 | |
CN110375765B (zh) | 基于直接法的视觉里程计方法、系统及存储介质 | |
CN112288815B (zh) | 一种目标模位置测量方法、系统、存储介质及设备 | |
CN114529585A (zh) | 基于深度视觉和惯性测量的移动设备自主定位方法 | |
Muffert et al. | The estimation of spatial positions by using an omnidirectional camera system | |
CN112837373B (zh) | 一种不需要特征点匹配的多相机位姿估计方法 | |
Steffen et al. | On visual real time mapping for unmanned aerial vehicles | |
CN113048985B (zh) | 已知相对旋转角度条件下的像机相对运动估计方法 | |
CN115902977A (zh) | 基于视觉和gps的变电站机器人双重定位方法及系统 | |
CN110722547A (zh) | 模型未知动态场景下移动机器人视觉镇定 | |
CN114187344A (zh) | 一种地图构建方法、装置及设备 | |
CN108426566B (zh) | 一种基于多摄像机的移动机器人定位方法 | |
Safin et al. | Experiments on mobile robot stereo vision system calibration under hardware imperfection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |