CN112381874B - 基于机器视觉的标定方法及装置 - Google Patents

基于机器视觉的标定方法及装置 Download PDF

Info

Publication number
CN112381874B
CN112381874B CN202011218625.7A CN202011218625A CN112381874B CN 112381874 B CN112381874 B CN 112381874B CN 202011218625 A CN202011218625 A CN 202011218625A CN 112381874 B CN112381874 B CN 112381874B
Authority
CN
China
Prior art keywords
points
response value
point
corner
machine vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011218625.7A
Other languages
English (en)
Other versions
CN112381874A (zh
Inventor
胡宁
张小娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dahua Wangda Science & Technology Co ltd
Original Assignee
Beijing Dahua Wangda Science & Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dahua Wangda Science & Technology Co ltd filed Critical Beijing Dahua Wangda Science & Technology Co ltd
Priority to CN202011218625.7A priority Critical patent/CN112381874B/zh
Publication of CN112381874A publication Critical patent/CN112381874A/zh
Application granted granted Critical
Publication of CN112381874B publication Critical patent/CN112381874B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于机器视觉的标定方法及装置。该方法包括:从标记点模板的第一个面开始,使用穷举法,找到三维坐标中与该面之间空间坐标满足全等三角形和相对方向关系的点;使用找到的三个点,与模板点坐标进行SVD分解,求出标记点在相机中的旋转矩阵和平移向量;将使用旋转矩阵和平移向量,将模板中所有点都投射到相机坐标系下,得到一组理论三维坐标,和识别X角点的三维坐标相比较,通过距离和方向约束进行筛选,挑出属于该标记点的点。本发明提供的基于机器视觉的标定方法及装置有效防止遮挡和角度不佳引起的无法识别和识别不准确问题。

Description

基于机器视觉的标定方法及装置
技术领域
本发明涉及机器视觉技术领域,特别是涉及一种基于机器视觉的标定方法及装置。
背景技术
众所周知,遮挡问题是机器视觉中双目视觉跟踪一个很棘手的问题,在使用双目视觉的过程中,常常会因为遮挡、角度不合适等问题导致识别效果较差甚至识别失败,使用者往往要为了照顾双目相机的识别效果可以地调整标记点的姿态,这会造成较大的使用障碍。
发明内容
本发明要解决的技术问题是提供一种基于机器视觉的标定方法及装置,能有效防止遮挡和角度不佳引起的无法识别和识别不准确问题。
为解决上述技术问题,本发明提供了一种基于机器视觉的标定方法,使用的标定点由两个或两个以上几何体通过连杆固定连接而构成,所述几何体除与连杆连接的表面外,其他表面均设置有X角点标记,使得从任意角度均能够观察到至少三个X角点,所述方法包括:分别识别左右相机中所有X角点的位置和方向;使用极限约束、方向一致和视差阈值过滤的方式对左右图中的X角点进行匹配;使用相机参数计算出匹配X角点的三维坐标;从标记点模板的第一个面开始,使用穷举法,找到三维坐标中与该面之间空间坐标满足全等三角形和相对方向关系的点;使用找到的三个点,与模板点坐标进行SVD分解,求出标记点在相机中的旋转矩阵和平移向量;将使用旋转矩阵和平移向量,将模板中所有点都投射到相机坐标系下,得到一组理论三维坐标,和识别X角点的三维坐标相比较,通过距离和方向约束进行筛选,挑出属于该标记点的点;将筛选出的点与模板点重新计算依次旋转矩阵和平移向量,作为最终的结果输出。
在一些实施方式中,还包括:在使用极限约束、方向一致和视差阈值过滤等方式对左右图中的X角点进行匹配之前,分别识别左右相机中所有X角点的位置和方向之后,使用相机参数对识别的X角点进行去畸变处理。
在一些实施方式中,分别识别左右相机中所有X角点的位置,包括:在X角点图像中找出候选像素点;计算各个候选像素点的响应值、微分响应值及平均响应值;对响应值、微分响应值及平均响应值进行加权平均,得到当前候选像素点的最终响应值;挑选最终响应值最高的候选像素点为X角点的位置。
在一些实施方式中,根据如下公式计算各个候选像素点的响应值:
根据如下公式计算各个候选像素点的微分响应值:
根据如下公式计算各个候选像素点的平均响应值:
其中,SR为响应值,DR为微分响应值,MR为平均响应值,In为第n个像素点的像素值。
在一些实施方式中,根据如下公式对响应值、微分响应值及平均响应值进行加权平均,得到当前候选像素点的最终响应值:
R=SR-DR-16MR
其中,SR为响应值,DR为微分响应值,MR为平均响应值,R为最终响应值。
在一些实施方式中,分别识别左右相机中所有X角点的方向,包括:计算当前像素点的方向响应值;计算方向响应值最大的像素点,记为d;通过判断(Id+Id+8)-(Id+4+Id+12)的正负来确定最终的方向。
此外,本发明还提供了一种基于机器视觉的标定装置,所述装置包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现根据前文所述的基于机器视觉的标定方法。
采用这样的设计后,本发明至少具有以下优点:
本发明提供的基于机器视觉的标定点具有防遮挡设计,通过对X角点进行匹配,对模板点坐标进行SVD分解,获得旋转矩阵及平移向量,再利用旋转矩阵和平移向量,挑选出标记点,能够有效的解决标定点使用过程中的遮挡问题。
附图说明
上述仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,以下结合附图与具体实施方式对本发明作进一步的详细说明。
图1是本发明实施例提供的基于机器视觉的标定点的立体图;
图2A是本发明实施例提供的X角点的方向区分图;
图2B是本发明实施例提供的方向为0的X角点的主视图;
图2C是本发明实施例提供的方向为4的X角点的主视图;
图3是本发明实施例提供的基于机器视觉的标定点不同角度的立体图;
图4A是本发明实施例提供的X角点的位置示意图;
图4B是图4A的局部放大图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明涉及机器视觉的标记点的识别和位置重构。针对标记点在双目摄像头的位置和角度对标记点识别和重构有着显著的影响等问题,本发明提出了一种立体标记块结构:两个空间位姿已知的立方体11之间用一个连接杆12连接,其余的10个面上都分布有X角点等特征。在不同的角度,都可以识别2个以上的X角点。根据角点在摄像头上的位置和方向,可以识别无死角标记点所在的位姿,并可以推算与标记块固连对象的位姿。
机器视觉中的Marker有多种,例如圆形靶点组成的Marker、条形码、二维码等。在本文中采用与环境辨识度高的X角点来组成Marker,它具有精度高、使用灵活且抗干扰能力强等优点。X角点是两个暗块和两个亮块图案交替排列形成图案的公共点,如图2A、图2B、图2C所示。
在X角点的识别和定位中,仅仅使用X角点的位置往往是不够的,X角点的方向往往也是一个非常重要的信息。在设计Marker时,有意对X角点的方向进行限定可以帮助后期更好地对其进行识别。
众所周知,遮挡问题是双目视觉中一个很棘手的问题,在使用双目视觉的过程中,常常会因为遮挡、角度不合适等问题导致识别效果较差甚至识别失败,使用者往往要为了照顾双目相机的识别效果可以地调整Marker地姿态,这会造成较大的使用障碍。结合X角点的定位和方向识别算法,本文提出一种新的双目视觉Marker设计方法,能有效防止遮挡和角度不佳引起的无法识别和识别不准确问题,如图3所示。
从图3中不难发现,该Marker具有很强的防遮挡性,在每一个方向看,都至少能看见3个Marker点,因此本设计能很好解决视野不佳的问题。但是由于不同朝向之间X角点的相对位置是一样的,但从三维空间上无法对其进行区分。因此,本文提出的X角点识别算法可以对不同朝向的X角点进行区分。
基于上述的标记点,本发明还提供一种基于机器视觉的标记方法。具体的,这种标记方法由如下步骤组成:
第一步:分别识别左右相机中所有X角点的位置和方向。
第二步:使用相机参数对识别的角点进行去畸变处理。
第三步:使用极限约束、方向一致和视差阈值过滤等方式对左右图中的角点进行匹配。
第四步:使用相机参数计算出匹配角点的三维坐标。
第五步:寻找局部三角形,从Marker模板的第一个面开始,使用穷举法,找到三维坐标中与该面之间空间坐标满足全等三角形(近似)和相对方向关系的点,若没找到,继续下一个面的寻找。若找到了,跳出进入第六步。
第六步:使用找到的三个点,与模板点坐标进行SVD分解,求出Marker在相机中的旋转矩阵R和平移向量t。
第七步:将使用旋转矩阵和平移向量,将模板中所有点都投射到相机坐标系下,得到一组理论三维坐标,和识别角点的三维坐标相比较,通过距离和方向约束进行筛选,挑出属于该Marker的点。
第八步:将筛选出的点与模板点重新计算依次旋转矩阵和平移向量,作为最终的结果输出。
需要说明的是,全等三角形和相对方向关系为:三个模板点和三个相机三维坐标点的距离两两近似相等,由数学定理可知,两个三角形的三条边如果对应相等,则两个三角形为全等三角形。除距离近似相等之外,三条边方向的同异性要一致,即假设模板点是“0、1、0”,相机三维点方向只能是“0、1、0”或者“1、0、1”,否则不满足要求。
在上述方法的运行过程中,涉及到X角点识别定位算法及X角点方向识别算法。
X角点识别定位算法的过程具体如下:
在X角点的识别上,首先采用形态学的方式进行筛选。参见图4A,X角点处于暗块与两块的交点处。参见图4B,从数十万个图像像素中找出数十个候选点,这需要有高效的过滤算子。本文采用的是Bennett等人提出的角点响应值算子。定义当前像素点20的和响应值(SR)、微分响应(DR)、平均响应值(MR)和最终响应值R如下:
加权求和得到该点的总响应值R:
R=SR-DR-16MR
R越高表示它越接近X角点。然后对像素点采用阈值过滤、非极大值抑制等方法,就能将X角点准确地筛选出来。
X角点方向识别算法的过程具体如下:
在X角点的识别和定位中,仅仅使用X角点的位置往往是不够的,X角点的方向往往也是一个非常重要的信息。在设计Marker时,有意对X角点的方向进行限定可以帮助后期更好地对其进行识别。
本文在计算X角点的响应值时,将和响应值SR略作修改即可粗略计算出X角点此时的朝向。定义当前像素的方向响应值(DrR)如下:
DrR=MAX(|(In+In+8)-(In+4+In+12)|),(n=0,L,3)
考虑到X角点是由黑块和白块交替构成,此时取n=0时DrR都是最大值,需要进一步判断。因此,找出DrR最大时对应的n后,记为d,通过判断(Id+Id+8)-(Id+4+Id+12)的正负来确定最终的方向,最终的方向D:
在实际计算过程中,假设有两个X角点,计算得出的方向分别为D1、D2,当|D1-D2|<2或者|D1-D2|>6时,认为两个角点的方向一致,否则不一致。
该方法对于角点方向识别的精度为正负22.5°,精度较低,但是由于人为设计X角点的时候,两种X角点的方向相差90°,因此,本方法精度可以满足方向识别的要求。如果对于方向识别的精度有着更高的要求,可以将采样间隔缩小。
本发明还提供一种基于机器视觉的标定装置可以用于充当机器视觉系统中的空间标定设备。如本文所述,基于机器视觉的标定装置可以用于在机器视觉系统中实现对空间准确标定的功能。基于机器视觉的标定装置可以在单个节点中实现,或者基于机器视觉的标定装置的功能可以在网络中的多个节点中实现。本领域的技术人员应意识到,术语基于机器视觉的标定装置包括广泛意义上的设备,基于机器视觉的标定装置仅是其中一个示例。包括基于机器视觉的标定装置是为了表述清楚,并不旨在将本发明的应用限制为特定的基于机器视觉的标定装置实施例或某一类基于机器视觉的标定装置实施例。本发明所述的至少部分特征/方法可以在网络装置或组件,例如,基于机器视觉的标定装置中实现。例如,本发明中的特征/方法可以采用硬件、固件和/或在硬件上安装运行的软件实现。基于机器视觉的标定装置可以是任何通过网络处理,存储和/或转发数据帧的设备,例如,服务器,客户端,数据源等。基于机器视觉的标定装置可以包括收发器(Tx/Rx),其可以是发射器,接收器,或其组合。Tx/Rx可以耦合到多个端口(例如上行接口和/或下行接口),用于从其他节点发送和/或接收帧。处理器可耦合至Tx/Rx,以处理帧和/或确定向哪些节点发送帧。处理器可以包括一个或多个多核处理器和/或存储器设备,其可以用作数据存储器,缓冲区等。处理器可以被实现为通用处理器,或者可以是一个或多个专用集成电路(applicationspecific integrated circuit,简称ASIC)和/或数字信号处理器(digital signalprocessor,简称DSP)的一部分。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,本领域技术人员利用上述揭示的技术内容做出些许简单修改、等同变化或修饰,均落在本发明的保护范围内。

Claims (6)

1.一种基于机器视觉的标定方法,其特征在于,使用的标定点由两个或两个以上几何体通过连杆固定连接而构成,所述几何体除与连杆连接的表面外,其他表面均设置有X角点标记,使得从任意角度均能够观察到至少三个X角点,所述方法包括:
分别识别左右相机中所有X角点的位置和方向,包括:
计算当前像素点的方向响应值;
计算方向响应值最大的像素点,记为d;
通过判断(Id+Id+8)-(Id+4+Id+12)的正负来确定最终的方向,其中Id为第d个点的像素值;
使用极限约束、方向一致和视差阈值过滤的方式对左右图中的X角点进行匹配;
使用相机参数计算出匹配X角点的三维坐标;
从标记点模板的第一个面开始,使用穷举法,找到三维坐标中与该面之间空间坐标满足全等三角形和相对方向关系的点;全等三角形和相对方向关系为:三个模板点和三个相机三维坐标点的距离两两近似相等,除距离近似相等之外,三条边方向的同异性要一致;使用找到的三个点,与模板点坐标进行SVD分解,求出标记点在相机中的旋转矩阵和平移向量;
将使用旋转矩阵和平移向量,将模板中所有点都投射到相机坐标系下,得到一组理论三维坐标,和识别X角点的三维坐标相比较,通过距离和方向约束进行筛选,挑出属于该标记点的点;
将筛选出的点与模板点重新依次计算旋转矩阵和平移向量,作为最终的结果输出。
2.根据权利要求1所述的基于机器视觉的标定方法,其特征在于,还包括:
在使用极限约束、方向一致和视差阈值过滤方式对左右图中的X角点进行匹配之前,分别识别左右相机中所有X角点的位置和方向之后,使用相机参数对识别的X角点进行去畸变处理。
3.根据权利要求1所述的基于机器视觉的标定方法,其特征在于,分别识别左右相机中所有X角点的位置,包括:
在X角点图像中找出候选像素点;
计算各个候选像素点的响应值、微分响应值及平均响应值;
对响应值、微分响应值及平均响应值进行加权平均,得到当前候选像素点的最终响应值;
挑选最终响应值最高的候选像素点为X角点的位置。
4.根据权利要求3所述的基于机器视觉的标定方法,其特征在于,根据如下公式计算各个候选像素点的响应值:
根据如下公式计算各个候选像素点的微分响应值:
根据如下公式计算各个候选像素点的平均响应值:
其中,SR为响应值,DR为微分响应值,MR为平均响应值,In为第n个像素点的像素值。
5.根据权利要求1所述的基于机器视觉的标定方法,其特征在于,根据如下公式对响应值、微分响应值及平均响应值进行加权平均,得到当前候选像素点的最终响应值:
R=SR-DR-16MR
其中,SR为响应值,DR为微分响应值,MR为平均响应值,R为最终响应值。
6.一种基于机器视觉的标定装置,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现根据权利要求1至5任意一项所述的基于机器视觉的标定方法。
CN202011218625.7A 2020-11-04 2020-11-04 基于机器视觉的标定方法及装置 Active CN112381874B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011218625.7A CN112381874B (zh) 2020-11-04 2020-11-04 基于机器视觉的标定方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011218625.7A CN112381874B (zh) 2020-11-04 2020-11-04 基于机器视觉的标定方法及装置

Publications (2)

Publication Number Publication Date
CN112381874A CN112381874A (zh) 2021-02-19
CN112381874B true CN112381874B (zh) 2023-12-12

Family

ID=74578302

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011218625.7A Active CN112381874B (zh) 2020-11-04 2020-11-04 基于机器视觉的标定方法及装置

Country Status (1)

Country Link
CN (1) CN112381874B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011050504A (ja) * 2009-08-31 2011-03-17 Topcon Corp 測定装置、測定方法、およびプログラム
CN108629812A (zh) * 2018-04-11 2018-10-09 深圳市逗映科技有限公司 一种基于双目相机的测距方法
WO2018228013A1 (zh) * 2017-06-12 2018-12-20 北京航空航天大学 一种基于前镀膜平面镜的结构光参数标定装置及方法
WO2019100933A1 (zh) * 2017-11-21 2019-05-31 蒋晶 用于三维测量的方法、装置以及系统
CN109978957A (zh) * 2019-03-22 2019-07-05 青岛鑫慧铭视觉科技有限公司 基于量子行为粒子群的双目系统标定方法
CN111062990A (zh) * 2019-12-13 2020-04-24 哈尔滨工程大学 一种面向水下机器人目标抓取的双目视觉定位方法
CN111429532A (zh) * 2020-04-30 2020-07-17 南京大学 一种利用多平面标定板提高相机标定精确度的方法
CN111678508A (zh) * 2020-07-28 2020-09-18 北京大华旺达科技有限公司 一种用于机器视觉三维重构的无死角标记块
CN111833405A (zh) * 2020-07-27 2020-10-27 北京大华旺达科技有限公司 基于机器视觉的标定识别方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100443552B1 (ko) * 2002-11-18 2004-08-09 한국전자통신연구원 가상 현실 구현 시스템 및 방법
JP6642972B2 (ja) * 2015-03-26 2020-02-12 修一 田山 車輌用画像表示システム及び方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011050504A (ja) * 2009-08-31 2011-03-17 Topcon Corp 測定装置、測定方法、およびプログラム
WO2018228013A1 (zh) * 2017-06-12 2018-12-20 北京航空航天大学 一种基于前镀膜平面镜的结构光参数标定装置及方法
WO2019100933A1 (zh) * 2017-11-21 2019-05-31 蒋晶 用于三维测量的方法、装置以及系统
CN108629812A (zh) * 2018-04-11 2018-10-09 深圳市逗映科技有限公司 一种基于双目相机的测距方法
CN109978957A (zh) * 2019-03-22 2019-07-05 青岛鑫慧铭视觉科技有限公司 基于量子行为粒子群的双目系统标定方法
CN111062990A (zh) * 2019-12-13 2020-04-24 哈尔滨工程大学 一种面向水下机器人目标抓取的双目视觉定位方法
CN111429532A (zh) * 2020-04-30 2020-07-17 南京大学 一种利用多平面标定板提高相机标定精确度的方法
CN111833405A (zh) * 2020-07-27 2020-10-27 北京大华旺达科技有限公司 基于机器视觉的标定识别方法及装置
CN111678508A (zh) * 2020-07-28 2020-09-18 北京大华旺达科技有限公司 一种用于机器视觉三维重构的无死角标记块

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于机器人与视觉引导的星载设备智能装配方法;季旭全,王君臣,赵江地,张晓会,孙振;机械工程学报;第54卷(第23期);63~72 *

Also Published As

Publication number Publication date
CN112381874A (zh) 2021-02-19

Similar Documents

Publication Publication Date Title
Alismail et al. Automatic calibration of a range sensor and camera system
US20100045701A1 (en) Automatic mapping of augmented reality fiducials
US20080205748A1 (en) Structural light based depth imaging method and system using signal separation coding, and error correction thereof
CN111833405B (zh) 基于机器视觉的标定识别方法及装置
CN108303096A (zh) 一种视觉辅助激光定位系统及方法
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
Jin et al. Sensor fusion for fiducial tags: Highly robust pose estimation from single frame rgbd
Förstner Optimal vanishing point detection and rotation estimation of single images from a legoland scene
Yang et al. Accurate calibration approach for non-overlapping multi-camera system
Andaló et al. Efficient height measurements in single images based on the detection of vanishing points
CN110119670A (zh) 一种基于Harris角点检测的视觉导航方法
Miksch et al. Automatic extrinsic camera self-calibration based on homography and epipolar geometry
CN112381874B (zh) 基于机器视觉的标定方法及装置
Pollok et al. A visual SLAM-based approach for calibration of distributed camera networks
Guerrero et al. Robust line matching and estimate of homographies simultaneously
US10867396B1 (en) Automatic vision sensor orientation
JP3221384B2 (ja) 三次元座標計測装置
Megyesi et al. Dense 3D reconstruction from images by normal aided matching
Ababsa et al. Robust camera pose estimation combining 2D/3D points and lines tracking
CN111829489B (zh) 一种视觉定位的方法及装置
Kümmerle Multimodal Sensor Calibration with a Spherical Calibration Target
Grochulla et al. Using spatially distributed patterns for multiple view camera calibration
Liao et al. Automatic camera calibration and rectification methods
Foroosh et al. Metrology in uncalibrated images given one vanishing point
Yuen et al. Natural landmark based localisation system using panoramic images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant