CN109961485A - 一种基于单目视觉进行目标定位的方法 - Google Patents

一种基于单目视觉进行目标定位的方法 Download PDF

Info

Publication number
CN109961485A
CN109961485A CN201910163326.9A CN201910163326A CN109961485A CN 109961485 A CN109961485 A CN 109961485A CN 201910163326 A CN201910163326 A CN 201910163326A CN 109961485 A CN109961485 A CN 109961485A
Authority
CN
China
Prior art keywords
coordinate system
distortion
camera
coordinate
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910163326.9A
Other languages
English (en)
Inventor
周捷
罗锐
张益军
叶达文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201910163326.9A priority Critical patent/CN109961485A/zh
Publication of CN109961485A publication Critical patent/CN109961485A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明提供了一种基于单目视觉进行目标定位的方法,包括以下步骤:将空间物体的世界坐标系先后转化为摄像机坐标系、像平面坐标系、像素坐标系,获得摄像机的成像模型;令摄像机坐标系与世界坐标系重合,使得两坐标系中的Z轴坐标相等,获得改进的摄像机成像模型。

Description

一种基于单目视觉进行目标定位的方法
技术领域
本发明涉及一种计算机视觉定位技术,特别是一种基于单目视觉进行目标定位的方法。
背景技术
机器人系统医学,工业,航天等领域受到密切关注,并得到广泛应用,目前已有很多研究成果。计算机视觉领域,即让计算机或者机器人拥有可以感知周围世界的“眼睛”,并能够得到这双“眼睛”所能捕捉到的信息,然后根据这些信息做出相应的动作。常见的就是机器人需要被要求抓取空间中的某个目标物体,该目标物体可以是静止的,也可以是运动的。例如被需要去抓取空间中静止在地上的球或者是由人抛过来的运动的球。
基于视觉进行空间中目标物体的定位无疑是计算机视觉领域中的基础工作,但也是最关键的工作,它能直接决定最后机器人抓取物体的准确性。因此,对基于视觉进行目标定位技术的研究显得很有意义。视觉定位通常有单目和双目两种,双目定位可以很方便地获取摄像机到目标物体的距离信息,但也有其缺点,即需要耗费大量的硬件资源、算法复杂、实时性无法保证,且需要进行图像的匹配,目前已知的双目视觉都是基于视差图来还原三维世界中物体的空间坐标信息,而目前已知的产生视差图的开源算法效果都不是很好,实时性和清晰度不能达到有效的统一;而单目定位法的标定简单,只需一台摄像机和一个平面标定板即可完成标定,经济简单并且避免了立体视觉系统算法复杂、运算量大的缺点,唯一的不足就是精度可能达不到很高的要求。单目视觉存在深度信息丢失的问题,正常情况下是无法进行空间定位的,除非加入一些约束条件,这就是本发明提出方法的关键所在。
发明内容
本发明的目的在于提供基于单目视觉进行目标定位的方法,包括:将空间物体的世界坐标系先后转化为摄像机坐标系、像平面坐标系、像素坐标系,获得摄像机的成像模型;令摄像机坐标系与世界坐标系重合,使得两坐标系中的Z轴坐标相等,获得改进的摄像机成像模型;矫正镜头畸变。
本发明与现有技术相比,其显著优点在于:(1)利用单个摄像机进行目标定位,因此计算量小,实时性高,且只需标定一次;(2)为了弥补单个摄像机所带来的深度信息缺失的问题,本发明提出只需将摄像机坐标系与三维世界坐标系相重合,具体做法简单快捷,可实施性强,且定位精度高。
下面结合说明书附图对本发明作进一步描述。
附图说明
图1是一种基于单目视觉进行目标定位的方法的流程图。
图2是摄像机模型示意图。
图3是不同坐标系之间的转换图。
图4是像平面坐标系与像素坐标系。
图5是镜头畸变校正前后对比图,其中(a)为矫正前示意图,(b)为矫正后示意图。
图6是棋盘标定板实物图。
图7是实验平台图。
具体实施方式
结合图1,一种基于单目视觉进行目标定位的方法,包括以下步骤:
步骤S101,将空间物体的世界坐标系先后转化为摄像机坐标系;
步骤S102,将摄像机坐标系转化为像平面坐标系;
步骤S103,将像平面坐标系转化为像素坐标系;
步骤S104,获得摄像机的成像模型;
步骤S105,令摄像机坐标系与世界坐标系重合,获得摄像机的改进成像模型;
步骤S106,求解改进成像模型,获得目标位置。
摄像机模型中主要包括了世界坐标系、摄像机坐标系、像平面坐标系和像素坐标系四个坐标系:
(1)世界坐标系
世界坐标系是指客观世界下的一种绝对坐标系,表示物体在空间中的实际位置,用来描述三维空间中物体与相机之间的坐标位置关系,世界坐标系不是唯一确定的,坐标原点O以及XYZ轴的方向由使用者确定,单位是米。
(2)摄像机坐标系
摄像机坐标系的建立是基于相机的透镜光学成像原理的,其中坐标系的坐标原点就是摄像机的光心,Z轴与摄像机光轴重合,且垂直于成像平面,单位是米。
(3)像平面坐标系
像平面坐标系是基于摄像机光敏成像表面和摄像机光轴上原点形成的一个二维坐标系,像平面坐标系平面的X轴和Y轴分别与摄像机坐标系平面X轴和Y轴平行,像平面坐标系的坐标原点就是摄像机坐标系轴和像平面坐标系之间的交点,单位是米。
(4)像素坐标系
像素坐标系是存在于相机存储器中并以矩阵的形式存储的一种逻辑坐标系,坐标系的原点位于图像的左上角,在已知摄像机单位像元尺寸的情况下,像素坐标系可以与像平面坐标系之间进行数据转换,单位是像素。
步骤S101中,世界坐标系中坐标(XW,YW,ZW)与摄像机坐标系中坐标(XC,YC,ZC)之间的关系,可以通过以下等式(1)进行变换,其中R为旋转矩阵、T为平移矩阵、O为零矩阵,即从世界坐标系到摄像机坐标系只需要进行旋转和平移:
进一步
步骤S102中,根据投影几何关系,摄像机坐标系中坐标(XC,YC,ZC)与像平面坐标系中坐标(x,y)之间的转换,如下式(2)所示,其中f为摄像机的焦距:
进一步
步骤S103,在图4中,Oo-uv是以像素为单位的图像坐标系,(u0,v0)是像素坐标系的坐标中心,而(x,y)是像平面坐标系上的坐标点,该坐标系是建立在相机光敏面上且以物理单元为单位。假设相机单位像素在X轴、Y轴方向上的物理长度分别为dx,dy,其默认单位是毫米,像平面坐标系中的坐标(x,y)与像素坐标系中的坐标(u,v)之间的转换,如下式(3)所示:
将上式(3)用齐次坐标表示为矩阵形式为:
步骤S104中,综合式(1)~(4),当不考虑畸变影响,且将上述四种不同的坐标系都考虑在内的相机模型可表示为:
其中,M1,M2分别代表相机的内参数矩阵和外参数矩阵,M1描述的是相机的固有属性,该矩阵包括摄像机的焦距f,像素在单位坐标轴上的物理尺寸dx,dy以及像素坐标系的坐标中心(u0,v0);M2描述的是摄像机坐标系和世界坐标系之间的相对位置关系,该矩阵包括平移矩阵T和旋转矩阵R;ZC代表的是摄像机坐标系中的Z轴坐标。
由上式(5)可知,在摄像机的内参数矩阵M1和外参数矩阵M2都已知的情况下,可以由空间中的任意一个点P(XW,YW,ZW)依次左乘外参数矩阵和内参数矩阵,来得到该点在像素坐标系中对应的点P′(u,v)。但是不能通过像素坐标系中的任意一点P′(u,v),得到其对应于空间中的任意一点P(XW,YW,ZW),这个映射过程是不可逆的。主要是由于:
(1)从数学理论角度上考虑,这个内外参数矩阵总体的3×4的矩阵,该矩阵显然不可逆,不能常规求逆,
转化成方程组解释为:
其中公式(5)中的且M1M2中的所有数都是可以通过相机标定得出的,因此作为已知矩阵,(u,v)也作为已知量,而XW,YW,ZW,ZC作为未知量。因此综合以上的方程组,有4个未知数XW,YW,ZW,ZC,但是仅有三个方程约束条件,因此有无数解;
(2)从光学摄像机成像模型上考虑,由一个摄像头采集到的,由像素坐标系上某一个点,对应到三维空间的是一条直线,而不是唯一的一个点,这里缺乏决定那个唯一对应点的深度信息。
步骤S105中,针对单目视觉存在的深度信息丢失的问题,可以采取的措施是通过让摄像机坐标系与三维世界坐标系重合,使得ZC=ZW,以此来进行空间三维定位。
由公式(5)可知,如果让摄像机坐标系与世界坐标系重合,则外参数矩阵M2可视为单位矩阵,则可以得出像素坐标系与世界坐标系之间的关系,如下式(6)所示:
最后,根据公式(6)可知,可以通过以下两个方程来求解(XW,YW,ZW)。
上式(7)显然存在唯一解。其中ZW是摄像头距离平面的高度,这是作为一个已知量,且图像坐标系中的坐标(u,v)也是已知量,而内参数ax,ay,u0,v0则是摄像机的固有属性,(u0,v0)为像素坐标系的坐标中心。
本实施例验证选用的摄像机标定方法是张正友的平板标定法,该标定方法介于自标定法和传统标定法之间,它不仅避免了传统方法设备要求高,操作繁琐等缺点,而且相比于自标定方法其具有更高的精度。这种方法不需要昂贵的实验设备,且标定过程简单易于操作。该方法对环境的要求不高,且只需准备一个表面贴有棋盘格的平板,在操作简单的同时亦能取得很好的标定效果。
上述是理想中的线性摄像机模型,而现实生活中的摄像机模型不同于理想的针孔模型,不能用理想的线性模型来表示。由于诸如透镜的光学特性等因素,远离图像中心的地方存在较大的畸变,尤其如果使用的是广角镜头时,这样情况下线性模型根本不能准确地描述成像几何过程,因此有必要引入非线性模型。非线性模型相比较于前文提及的线性模型,考虑了镜头畸变所带来的影响,并对这种畸变进行修正,这种非线性模型能够更加准确的表示相机的参数,更加符合生活中的摄像头成像过程。
镜头畸变主要分为两类:径向畸变和切向畸变。径向畸变导致像点在径向方向上产生偏差,而切向畸变导致像点在切向方向上产生偏差。
上式(8)(9)分别表示存在径向畸变和切向畸变的情况下,物体的原始位置和畸变后的位置。其中,(x0,y0)、(x1,y1)分别是经过径向畸变和切向畸变的坐标位置,(x,y)是原始位置。
若两种畸变同时存在,则
其中,(x′,y′)是经过径向畸变和切向畸变之后的坐标位置。
畸变校正算法中使用了OpenCV中initUndistortRectifyMap()和remap()这两个函数,其中前者是计算无畸变和修正转换关系的函数,后者是将校正后的图像显示出来的重映射函数。校正的原理就是求出前文提到的相机的5个畸变系数k1,k2,k3,p1,p2,这是initUndistortRectifyMap()这个函数实现的功能,而将这个畸变矩阵如何应用到现有的图像中,并使其还原处畸变前的实际图像,是remap()这个函数实现的功能,最终以完成图像的畸变校正。图5显示的是根据镜头畸变系数校正拍摄到的棋盘格前后的效果对比图。在最后实验验证前将畸变校正与摄像机标定相结合,才能求出比较准确的摄像机的各个参数,才能提高视觉定位的准确性。
实施例
本实施例中使用的摄像机是ONTOP远程会议摄像机,它是USB摄像头,可以直接获取图像,不需要外加图像采集卡,采集的图像像素大小为640×480。摄像机标定实验具体步骤如下:
(1)制作标定板:绘制9行6列,大小2.5cm×2.5cm的黑方格,用打印机打印在A4纸上,并将其贴在一块平板上作为标定模板,如图6所示。
(2)图像采集及角点提取:使摄像机从不同角度拍摄几幅标定模板的图像,并进行畸变校正,用改进的Harris角点检测算法提取角点像素坐标。
(3)标定出摄像机的参数:矩阵参数M1M2,再用前文提到的校正算法求出详细的畸变系数k1,k2,k3,p1,p2
本次实验是基于OpenCV的标定程序,在win10系统下,在Visual Studio 2015的开发平台下,采用C++语言编写实现,且标定结果如下所示:
经过标定求得摄像机的内参数矩阵为:
畸变参数为:
k=[-0.58926 0.13032 0.00065 0.03012 1.10043]
本实施例中的图像特征提取是基于物体的颜色特征以及形状特征,本次指定的目标物体为黄色乒乓球,故这里选定的颜色特征为黄色,形状特征为圆形。
将平台搭建成如图7所示,即要保证摄像头在支架上垂直于水平面,即保证满足三维世界坐标系要与摄像机坐标系相重合,保证摄像头距地面的距离为规定的0.35m,算法程序是在VS2015上基于C++开发,实验验证如下。
需要测量的是水平面上的目标物体相对于摄像头光心的位置信息。
在图7中,其中空间中的三维坐标系是以摄像机的光心为三维坐标系的原心,以摄像机水平向左方向为X轴正方向,垂直于纸面向外为Y轴正方向,竖直向上为Z轴正方向,不过本实施例目的只是测量平面中的小球位置,即Z轴坐标已经固定,即Z轴坐标恒为摄像机距平面的高度。
根据公式(6),坐标转换结果如下表1所示。表1显示了从像素坐标系到世界坐标系坐标转化的结果,先输出的是像素坐标系中目标点的像素坐标,而后输出的是目标点的世界坐标系的坐标位置。由表1可知通过本发明提出的方法,公式(6)能够很好的表示目标点的世界坐标与其像素坐标之间的关系。
在摄像机距离地面高度为0.35m,且垂直于二维运动平面的情况下,实施例平台如图7所示。针对静止不动的目标物体,做了4次目标定位实验,然后得出的测距精度表如表2所示。由表2可知,通过本发明提出的方法,能够定位出目标物体的空间信息,且最高的误差率不超过10%,基本能够满足一般定位任务的精度要求。
表1目标定位表
X像素坐标/像素 Y像素坐标/像素 X实际坐标/m Y实际坐标/m
1 361.4 245.5 0.00879632 0.00692323
2 363.8 252.4 0.00979324 0.00702789
3 366.7 255.5 0.01126527 0.00809472
4 368.5 257.2 0.01542632 0.00876384
表2定位精度表

Claims (6)

1.一种基于单目视觉进行目标定位的方法,其特征在于,包括以下步骤:
将空间物体的世界坐标系先后转化为摄像机坐标系、像平面坐标系、像素坐标系,获得摄像机的成像模型;
令摄像机坐标系与世界坐标系重合,使得两坐标系中的Z轴坐标相等,获得改进的摄像机成像模型。
2.根据权利要求1所述的方法,其特征在于,摄像机的成像模型为
其中,(XW,YW,ZW)为点P在世界坐标系中的坐标,(XW,YW,ZW)为点P在摄像机坐标系中的坐标,(u,v)为点P在像素坐标系中的坐标,M1、M2分别表示相机的内参数矩阵和外参数矩阵
dx、dy分别为相机单位像素在像素坐标系的X轴、Y轴方向上的物理长度,(u0,v0)为像素坐标系的坐标中心,f为摄像机的焦距,R为旋转矩阵、T为平移矩阵,O为适当维数的零矩阵。
3.根据权利要求2所述的方法,其特征在于,令M2为单位矩阵改进的摄像机成像模型为
式(6)通过以下两个方程来求解(XW,YW,ZW)
其中,dx,dy分别为相机单位像素在像素坐标系的X轴、Y轴方向上的物理长度,且ax,ay是摄像机内参数矩阵中的变量,能直接通过摄像机标定求出。
4.根据权利要求1所述的方法,其特征在于,还包括镜头畸变校正,畸变包括径向畸变或切向畸变;其中
径向畸变下畸变点在成像仪上的原始位置和畸变失真后的新位置关系如式(8)
其中,r2=x2+y2
切向畸变下畸变点在成像仪上的原始位置和畸变失真后的新位置关系如式(9)
其中,(x0,y0)、(x1,y1)分别是经过径向畸变和切向畸变的坐标位置,(x,y)是原始位置,k1、k2、k3、p1、p2为畸变系数。
5.根据权利要求1所述的方法,其特征在于,还包括镜头畸变校正,畸变包括径向畸变和切向畸变畸变后的坐标位置为
其中,(x′,y′)是经过径向畸变和切向畸变之后的坐标位置。
6.根据权利要求4或5所述的方法,其特征在于,矫正镜头畸变中采用OpenCV中的initUndistortRectifyMap()和remap()函数求解畸变系数。
CN201910163326.9A 2019-03-05 2019-03-05 一种基于单目视觉进行目标定位的方法 Pending CN109961485A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910163326.9A CN109961485A (zh) 2019-03-05 2019-03-05 一种基于单目视觉进行目标定位的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910163326.9A CN109961485A (zh) 2019-03-05 2019-03-05 一种基于单目视觉进行目标定位的方法

Publications (1)

Publication Number Publication Date
CN109961485A true CN109961485A (zh) 2019-07-02

Family

ID=67024080

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910163326.9A Pending CN109961485A (zh) 2019-03-05 2019-03-05 一种基于单目视觉进行目标定位的方法

Country Status (1)

Country Link
CN (1) CN109961485A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110516639A (zh) * 2019-08-30 2019-11-29 成都索贝数码科技股份有限公司 一种基于视频流自然场景的人物三维位置实时计算方法
CN110517325A (zh) * 2019-08-29 2019-11-29 的卢技术有限公司 一种坐标变换及坐标变换的车身周围物体定位方法和系统
CN111429533A (zh) * 2020-06-15 2020-07-17 上海海栎创微电子有限公司 一种相机镜头畸变参数估计装置及方法
CN111524182A (zh) * 2020-04-29 2020-08-11 杭州电子科技大学 一种基于视觉情报分析的数学建模方法
CN112058679A (zh) * 2020-08-11 2020-12-11 武汉万邦德新科技有限公司 基于阻抗控制的柔软农产品机器人抓取分拣方法及装置
CN112268538A (zh) * 2020-10-20 2021-01-26 中国人民解放军陆军工程大学 一种适用于小型无人车的几何光学测距方法
CN112833883A (zh) * 2020-12-31 2021-05-25 杭州普锐视科技有限公司 一种基于多相机的室内移动机器人定位方法
WO2021134507A1 (zh) * 2019-12-31 2021-07-08 海能达通信股份有限公司 一种视频监控的定位方法及视频监控系统
CN113489964A (zh) * 2021-07-15 2021-10-08 中国人民解放军火箭军工程大学 一种基于三目视觉的场景深度信息获取系统
WO2021217976A1 (zh) * 2020-04-28 2021-11-04 平安科技(深圳)有限公司 一种基于单目视觉定位的机械臂控制方法及装置
CN113949142A (zh) * 2021-12-20 2022-01-18 广东科凯达智能机器人有限公司 一种基于视觉识别的巡线机器人自主充电方法、系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107367229A (zh) * 2017-04-24 2017-11-21 天津大学 自由双目立体视觉转轴参数标定方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107367229A (zh) * 2017-04-24 2017-11-21 天津大学 自由双目立体视觉转轴参数标定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘威: "一种新的基于单目视觉的广义障碍物检测方法", 《电子学报》 *
许晓东: "基于 RGB-D 相机的室内视觉定位技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110517325A (zh) * 2019-08-29 2019-11-29 的卢技术有限公司 一种坐标变换及坐标变换的车身周围物体定位方法和系统
CN110516639B (zh) * 2019-08-30 2022-04-12 成都索贝数码科技股份有限公司 一种基于视频流自然场景的人物三维位置实时计算方法
CN110516639A (zh) * 2019-08-30 2019-11-29 成都索贝数码科技股份有限公司 一种基于视频流自然场景的人物三维位置实时计算方法
WO2021134507A1 (zh) * 2019-12-31 2021-07-08 海能达通信股份有限公司 一种视频监控的定位方法及视频监控系统
WO2021217976A1 (zh) * 2020-04-28 2021-11-04 平安科技(深圳)有限公司 一种基于单目视觉定位的机械臂控制方法及装置
CN111524182A (zh) * 2020-04-29 2020-08-11 杭州电子科技大学 一种基于视觉情报分析的数学建模方法
CN111524182B (zh) * 2020-04-29 2023-11-10 杭州电子科技大学 一种基于视觉情报分析的数学建模方法
CN111429533A (zh) * 2020-06-15 2020-07-17 上海海栎创微电子有限公司 一种相机镜头畸变参数估计装置及方法
CN112058679A (zh) * 2020-08-11 2020-12-11 武汉万邦德新科技有限公司 基于阻抗控制的柔软农产品机器人抓取分拣方法及装置
CN112268538A (zh) * 2020-10-20 2021-01-26 中国人民解放军陆军工程大学 一种适用于小型无人车的几何光学测距方法
CN112833883A (zh) * 2020-12-31 2021-05-25 杭州普锐视科技有限公司 一种基于多相机的室内移动机器人定位方法
CN112833883B (zh) * 2020-12-31 2023-03-10 杭州普锐视科技有限公司 一种基于多相机的室内移动机器人定位方法
CN113489964A (zh) * 2021-07-15 2021-10-08 中国人民解放军火箭军工程大学 一种基于三目视觉的场景深度信息获取系统
CN113949142A (zh) * 2021-12-20 2022-01-18 广东科凯达智能机器人有限公司 一种基于视觉识别的巡线机器人自主充电方法、系统
CN113949142B (zh) * 2021-12-20 2022-09-02 广东科凯达智能机器人有限公司 一种基于视觉识别的巡线机器人自主充电方法、系统

Similar Documents

Publication Publication Date Title
CN109961485A (zh) 一种基于单目视觉进行目标定位的方法
CN105118055B (zh) 摄影机定位修正标定方法及系统
CN110148169B (zh) 一种基于ptz云台相机的车辆目标三维信息获取方法
CN105488810B (zh) 一种聚焦光场相机内外参数标定方法
CN104851104B (zh) 采用柔性靶标高速摄相机近景大视场标定方法
CN107239748A (zh) 基于棋盘格标定技术的机器人目标识别与定位方法
CN108288294A (zh) 一种3d相机群的外参标定方法
CN109685855B (zh) 一种道路云监控平台下的摄像机标定优化方法
CN107507246A (zh) 一种基于改进畸变模型的摄像机标定方法
CN105654476B (zh) 基于混沌粒子群优化算法的双目标定方法
CN109712232B (zh) 一种基于光场的物体表面轮廓三维成像方法
CN104517291B (zh) 基于目标同轴圆特征的位姿测量方法
CN104657982A (zh) 一种投影仪标定方法
CN103278138A (zh) 一种复杂结构薄部件三维位置及姿态的测量方法
CN102496160A (zh) 集控式足球机器人视觉系统标定方法
CN105631844A (zh) 一种摄像机标定方法
CN109000557A (zh) 一种核燃料棒位姿自动识别方法
US20190082173A1 (en) Apparatus and method for generating a camera model for an imaging system
CN108596982A (zh) 一种简易的车载多目摄像机环视系统标定方法及装置
CN106971408A (zh) 一种基于时空转换思想的摄像机标定方法
CN107194339A (zh) 障碍物识别方法、设备及无人飞行器
CN108469254A (zh) 一种适用于仰视和俯视位姿的大视场多视觉视频测量系统全局标定方法
CN106886976B (zh) 一种基于内参数修正鱼眼像机的图像生成方法
CN113329179B (zh) 拍摄对位方法、装置、设备及存储介质
Su et al. A novel camera calibration method based on multilevel-edge-fitting ellipse-shaped analytical model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190702

RJ01 Rejection of invention patent application after publication