CN113610917A - 一种基于消隐点的圆阵靶标中心像点定位方法 - Google Patents
一种基于消隐点的圆阵靶标中心像点定位方法 Download PDFInfo
- Publication number
- CN113610917A CN113610917A CN202110907195.8A CN202110907195A CN113610917A CN 113610917 A CN113610917 A CN 113610917A CN 202110907195 A CN202110907195 A CN 202110907195A CN 113610917 A CN113610917 A CN 113610917A
- Authority
- CN
- China
- Prior art keywords
- point
- points
- coordinates
- central image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 239000011159 matrix material Substances 0.000 claims abstract description 29
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 17
- 238000003708 edge detection Methods 0.000 claims abstract description 17
- 238000007781 pre-processing Methods 0.000 claims abstract description 9
- 239000003550 marker Substances 0.000 claims description 30
- 238000013507 mapping Methods 0.000 claims description 8
- 238000012163 sequencing technique Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 3
- 238000013178 mathematical model Methods 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 description 11
- 238000004088 simulation Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000010845 search algorithm Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于消隐点的圆阵靶标中心像点定位方法,其步骤为:采集圆阵靶标的图像,对图像进行预处理,得到具有感兴趣轮廓的图像;对感兴趣轮廓的图像边缘检测;利用亚像素边缘检测算法获取轮廓边缘的亚像素边缘点;通过最小二乘法对亚像素边缘点进行椭圆拟合,得到椭圆轮廓的方程及椭圆的中心像点坐标;利用椭圆的中心像点坐标与圆阵靶标上圆的对应关系计算单应性矩阵;利用单应性矩阵计算消隐点的坐标,将消隐点坐标与椭圆轮廓的方程联立解出每个轮廓的两组公切点坐标;建立两组公切点之间的直线方程,求出每个圆的中心像点坐标。本发明在提高中心像点精度的同时,还能极大的减少程序的运行时间,并且在实际应用中具有较高的使用价值。
Description
技术领域
本发明涉及摄影测量中像点定位的技术领域,尤其涉及一种基于消隐点的圆阵靶标中心像点定位方法。
背景技术
在计算机视觉领域中,圆形靶标作为常见的摄像机标定模板,具有形状特征明显,稳定性好等优点。在标定过程中,通常需要多个角度拍摄标定板,而靶标平面与摄像机平面并不完全平行,在成像时圆形靶标通常变为椭圆,而椭圆的几何中心并非圆心真实投影,因此圆的真实投影中心的精确定位至关重要。
圆阵靶标通常应用于摄像机标定、三维测量以及多传感器校准等领域,圆阵靶标中心像点的定位影响最终结果的精确性。针对此问题,许多学者提出不同的方法,陈天飞提出基于射影变换的圆阵靶标中心像点计算方法,首先对边缘进行亚像素定位,再通过迭代计算射影变换矩阵,将退化的椭圆映射成较为规则的圆,进而通过RANSAN圆拟合迭代计算求出中心像点,具有较强的实用性。徐鹏利用透视不变性的原理,通过搜索算法求出3个中心不共线的椭圆的公切线,切点连线交点即可得到中心像点坐标,计算过程简洁高效,但计算量大。邢德奎设定同心圆目标并提取其亚像素边缘点,再利用交比不变性求取畸变系数,进而对其透视投影变换过程中的圆心进行偏差补偿,最后获取圆心的准确投影点,该方法比较巧妙,但是仅适合提取同心圆的圆心投影。卢晓东将椭圆拟合中心作为初值进行标定,根据标定结果建立虚拟靶标,通过迭代计算虚拟靶标圆心和其投影中心,解决椭圆中心的偏差问题,提高了标定精度,但多次的迭代无疑增加算法的复杂性。李占利等人以光心为顶点、理想的投影轮廓为准线构造椭圆锥,并在椭圆锥内构建并确定与空间圆平行的圆平面,通过计算平行圆的圆心来确定空间圆的真实像点坐标,但该方法需要提前标定相机的内参以及畸变系数。
综上所述,现有像点定位方法虽然能确定圆的真实像点的坐标,但是精确度低,计算复杂度高,不能解决透视投影把空间圆映射为像平面上的椭圆,而空间圆的中心像点往往并不是投影椭圆的几何中心的问题。
发明内容
针对现有像点定位方法精确度低,计算复杂度高的技术问题,本发明提出一种基于消隐点的圆阵靶标中心像点定位方法,基于透视不变性的性质,利用单应性矩阵计算出消隐点坐标,将消隐点与像平面上的椭圆联立解出公切点,通过公切点计算出靶标圆心的真实投影点;仿真和实际实验表明,在提高中心像点精度的同时还能够极大缩短程序的运行时间,提高了效率。
为了达到上述目的,本发明的技术方案是这样实现的:一种基于消隐点的圆阵靶标中心像点定位方法,其步骤如下:
步骤一:采集圆阵靶标的图像,对图像进行预处理,去除预处理后图像上的杂乱边缘,得到具有感兴趣轮廓的图像;
步骤二:利用Canny边缘检测算法对感兴趣轮廓的图像进行边缘检测,实现轮廓边缘的粗定位;利用亚像素边缘检测算法获取轮廓边缘的亚像素边缘点;通过最小二乘法对亚像素边缘点进行椭圆拟合,得到椭圆轮廓的方程以及椭圆的中心像点坐标;
步骤三:利用椭圆的中心像点坐标与圆阵靶标上圆的对应关系,计算单应性矩阵;
步骤四:利用步骤三得到的单应性矩阵计算出消隐点坐标,并将消隐点坐标与步骤二得到的椭圆轮廓的方程联立解出每个椭圆轮廓的两组公切点坐标;
步骤五:建立两组公切点之间的直线方程,联立两个方程求出每个圆的中心像点坐标。
优选地,所述圆阵靶标为矩形的标定板,标定板上的多个圆组成矩形阵,矩形阵包括至少3个标志圆,且标志圆的直径大于其他圆的直径,任意三个标志圆不能同时在一条直线上。
优选地,所述矩形阵为11×9的矩形阵,矩形阵中设有5个标志圆,且5个标志圆不在一条直线上。
优选地,所述预处理的方法为:先对图像进行二值化、中值滤波的操作,然后用Canny边缘检测算法获取图像上靶标内所有物体轮廓的边缘信息;
优选地,所述去除杂乱边缘的方法为:依次利用椭圆本身的周长规则、面积规则、圆度信息对预处理后图像上的杂乱边缘进行清除,即
利用周长规则和面积规则将不满足条件的轮廓进行清除:
其中,Cmin代表了感兴趣轮廓的最小周长,Cmax代表了感兴趣轮廓的最大周长,Smin是感兴趣轮廓面积的最小值,Smax为感兴趣轮廓面积的最大值;
利用圆度信息将不满足条件的轮廓进行清除:
A=4π(S/C2);
其中,S为所检测轮廓的面积信息,C为所检测轮廓的周长信息;设定一个阈值,当圆度A的值大于该阈值时,认为所检测轮廓符合要求;否者清除所检测轮廓。
优选地,所述利用亚像素边缘检测算法获取轮廓边缘的亚像素边缘点的方法为:计算粗定位后图像上感兴趣区域内所有像素点灰度的一阶导数和二阶导数的值;若某像素点一阶导数的值小于该区域所有像素点一阶导数的平均值,则该像素点排除在候选点的范围之内;然后沿着x轴和y轴方向寻找出二阶导数下两侧异号的点即为候选点;令二阶导数的线性拟合函数等于零实现候选点的精确边缘定位;
将提取的轮廓的亚像素边缘点利用最小二乘法进行椭圆拟合,获取椭圆的相关参数;将拟合的椭圆的中心像点坐标存放到容器imageCenter中,同时计算椭圆的轮廓面积的值存放到数组contoursArea中。
优选地,所述步骤三的实现方法为:利用圆阵靶标上标志圆对椭圆拟合的中心像点坐标按照世界坐标系下圆的排列顺序进行对应,利用标志圆在世界坐标系上的三维坐标点和在图像坐标系上的二维坐标点计算单应性矩阵;对椭圆拟合的中心像点坐标进行排序,利用圆阵靶标上所有圆点的三维坐标点和图像坐标系上的二维坐标点的对应关系重新计算单应性矩阵。
优选地,所述利用圆阵靶标上标志圆对椭圆拟合的中心像点坐标按照世界坐标系下圆的排列顺序进行对应的方法为:将标定板上标志圆的圆心作为特征点,找出特征点对应的图像坐标系中的位置即容器imageCenter中椭圆的中心像点坐标,实现方法为:
设定世界坐标系的原点w(0,0,0)位于圆阵靶标平面的左上角处,x轴、y轴方向任意两个圆的圆心之间的间距为1,对步骤二中所求的数组contoursArea中轮廓面积按照从大到小的顺序进行排序,同时对容器imageCenter中的顺序对应调整,保证轮廓面积的值和轮廓的中心像点坐标在各自的存储空间上的逻辑关系一一对应;
将容器imageCenter中前N个元素取出来放到容器dstPoint中;N为标志圆的数量;
根据圆阵靶标上标志圆的位置关系,计算任意两两标志圆之间的距离即计算容器dstPoint中任意两个中心像点之间的距离,一共有2N组,存入结构体数组structNum中,结构体数组structNum中的每一个元素包含了两个中心像点的坐标以及它们之间的距离;
将结构体数组structNum按照每个元素中距离值的大小进行排序,并将结果重新赋给结构体数组structNum;
根据圆阵靶标上标志圆之间的距离关系,可知特征点I和特征点II之间的距离最长,特征点III和特征点IV之间的距离最短;根据结构体数组structNum已经排好的位置关系,取出structNum[0]和structNum[2N-1]两个元素中包含的四个中心像点,对容器dstPoint进行遍历,并将取出的四个中心像点作为判断条件,确定出世界坐标系下特征点V所对应的像素坐标系下的中心像点的坐标;
根据圆阵靶标上特征点III和特征点IV分别到特征点V的距离长度不同,作为判断条件对距离长度最小的两个特征点进行确定;将特征点III所对应的像素坐标作为判断点,对structNum[0]中的两个距离长度最大的两个特征点进行位置确定;循环计算得到容器dstPoint中的所有中心像点的坐标与世界坐标系中标志圆的特征点之间的对应关系;
对距离长度最小的两个特征点进行确定的方法为:求取structNum[2N-1]中的两个中心像点分别到特征点V所对应的像素坐标之间的距离,分别确定其中较长的距离的点即为特征点III所对应的像素坐标点,较短的即为特征点IV所对应的像素坐标点;
对structNum[0]中的两个距离长度最大的两个特征点进行位置确定的方法为:将特征点III所对应的像素坐标作为判断点,对structNum[0]中的两个中心像点分别求到判断点的距离,较长的点即为特征点II所对应的像素坐标点,较短的点即为特征点I所对应的像素坐标点。
优选地,所述圆阵靶标上所有圆的三维坐标点和图像坐标系上二维坐标点的对应关系的实现方法为:世界坐标系中,原点(0,0,0)的位置在圆阵靶标的左上角处,x轴方向范围从0到10,y轴方向范围从0到8,对容器imageCenter中的所有中心像点的位置进行确定:给定两层for循环,第一层是i的值从0到10变化,第二层是j的值从0到8变化;最内层每次循环组成一个特征点(i,j,0),并将通过标志圆得到的单应性矩阵和特征点(i,j,0)相乘得到该特征点在图像坐标系下的映射位置,并暂存放在变量tempCenter中;计算容器imageCenter中99个中心像点分别到tempCenter的距离,并将结果存到数组disCenter中,对数组disCenter进行一趟遍历即可确定出数组disCenter中最小值的下标,该下标在容器imageCenter中所对应的点即为特征点(i,j,0)所对应的中心像点的坐标,将该中心像点坐标存放到容器orderedImageCenter中,第一趟遍历完成;继续下一趟遍历,直至将所有中心像点的坐标确定完成。
优选地,所述两组公切点坐标的计算方法为:利用单应性矩阵的性质,在世界坐标系中x轴和y轴方向的无穷远点为V1、V2,其坐标分别为[1 0 0]T和[0 1 0]T,无穷远点V1、V2在图像平面的投影点分别为消隐点P1、P2,则有:
获取公切点坐标只需将消隐点分别与椭圆轮廓的方程联立建立方程,方程的主要系数为:
其中,A、B、C、D、E、F为步骤二中利用最小二乘法获取的椭圆轮廓的方程Ax2+Bxy+Cy2+Dx+Ey+F=0的系数;G、H、I、J、K、L为消隐点坐标与椭圆方程建立的表达式约束的系数;(xv,yv)为消隐点的坐标;
对方程系数建立数学模型即可解出单个消隐点所对应的一组公切点坐标,具体方法为:
其中,(x1,y1)和(x2,y2)是单个消隐点所对应一组公切点下的两个坐标。
优选地,所述步骤五中计算中心像点坐标的方法为:
设A′(x1,y1)、B′(x2,y2)是消隐点P1与椭圆方程联立所求取的一组公切点坐标。C′(x3,y3)、D′(x4,y4)为消隐点P2与椭圆方程联立所求出的一组公切点坐标,建立直线A′B′的一般式方程(y2-y1)x+(x1-x2)y+(x2y1-x1y2)=0;
建立直线C′D′的一般式方程为:(y4-y3)x+(x3-x4)y+(x4y3-x3y4)=0;
将两个一般式方程联立,两条直线的交点即为空间圆投影后真实的中心像点坐标,即求出中心像点坐标(x0,y0)为:
与现有技术相比,本发明的有益效果:传统方法利用圆之间公切线的投影性质,通过搜索算法找出投影椭圆边缘的公切线,切点连线的交点即为圆心像点;但是需要较长的搜索时间,并不具有较强的实用性。本发明利用基于透视不变性原理将消隐点与椭圆方程联立能够直接求取两组公切点坐标,通过公切点坐标求解出中心像点。仿真和实际实验表明:在提高中心像点精度的同时,还能够极大的减少程序的运行时间,提高效率,并且在实际应用中具有较高的使用价值。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程示意图。
图2为本发明实际实验的靶标的图像。
图3为图2的图像预处理后的效果图。
图4为本发明仿真实验结果u轴方向误差的示意图。
图5为本发明仿真实验结果v轴方向误差的示意图。
图6为本发明实际实验结果的交比值示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种基于消隐点的圆阵靶标中心像点精确定位方法,其构思是:首先,对输入的目标图像进行预处理,筛选出符合要求的轮廓并对符合要求的轮廓实现亚像素边缘的提取;其次,利用最小二乘法对所求取的边缘像素点进行椭圆拟合得到椭圆圆心坐标以及方程表达式,并将得到椭圆圆心按照世界坐标系靶标上圆的排列顺序进行排序,重新计算出单应性矩阵,并利用单应性矩阵计算得到消隐点;最后,将消隐点依次与每个椭圆方程联立解出该椭圆轮廓的两组公切点坐标,从而由这两组切点可以得到空间圆投影后其真实的中心像点坐标。实验结果标明:本发明在提高中心像点精度的同时,还能够极大的缩短程序的运行时间,提高效率,并具有较强的使用价值。本发明的具体步骤为:
步骤一:采集圆阵靶标的图像,对图像进行预处理,去除预处理后图像上的杂乱边缘,得到具有感兴趣轮廓的图像。
如图2所示,本发明采用的圆阵靶标为矩形的标定板,标定板上的多个圆点组成矩形阵,圆点包括至少3个个标志圆,且标志圆的直径大于其他圆点的直径,3个标志圆不在一条直线上。在具体实验中,标定板上设有99个圆点,组成11×9的矩形阵,且其中有5个标志圆,5个标志圆的不在一条直线上。将标定板放置于CCD相机视野当中,确保能完整拍摄整个标定板图像,得到数字图像即是本发明要处理的数字图像。
在求解中心像点之前,需要对输入的图像即所采集的图像进行预处理。预处理先对图像进行二值化即灰度化、中值滤波等操作,降低噪音对图像清晰度的影响,并用Canny边缘检测算法获取图像上靶标内所有物体轮廓的边缘信息,图3给出了去除杂乱边缘之后的效果。
去除预处理后图像上的杂乱边缘,得到具有感兴趣轮廓的图像的方法是:依次利用椭圆本身的周长规则、面积规则、圆度信息对预处理后图像上的杂乱边缘进行清除,即
利用周长规则和面积规则将不满足条件的轮廓进行清除:
清除杂乱边缘时,做一个逻辑或判断,当某一轮廓的周长及面积符合小圆或大圆周长面积的范围时,则对其进行保留。在靶标平面中,圆的形状大小一致,其边缘周长和面积应满足上述不等式,其中,Cmin代表了感兴趣轮廓的最小周长,Cmax代表了感兴趣轮廓的最大周长,Smin是感兴趣轮廓面积的最小值,Smax为感兴趣轮廓面积的最大值。
利用圆度信息将不满足条件的轮廓进行清除:
A=4π(S/C2);
其中,S为所检测轮廓的面积信息,C为所检测轮廓的周长信息,当圆度A等于1时,该轮廓代表是正圆,当圆度A等于0时,该轮廓代表的是多边形。因此,本发明设定一个阈值,当圆度A的值大于该阈值时,可以认为该检测轮廓符合要求。根据获取圆轮廓的周长和面积来给出合适的阈值,从而实现对杂乱边缘的清除。
步骤二:利用Canny边缘检测算法实现轮廓边缘的粗定位,利用亚像素边缘检测算法获取轮廓边缘的亚像素边缘点信息;再通过最小二乘法对轮廓进行椭圆拟合,得到椭圆轮廓的方程以及椭圆的中心像点坐标。
在步骤一中对图像预处理和杂乱轮廓去除之后,图像上仅保留了感兴趣的轮廓,利用Canny边缘检测算法实现轮廓边缘的粗定位。Canny边缘检测算法进行粗定位能够快速并且较为准确实现轮廓边缘的定位。
在Canny算法对轮廓粗定位的基础之上,利用亚像素边缘检测算法提取轮廓的亚像素边缘点的方法为:
计算图像上感兴趣区域内所有像素点灰度的一阶导数和二阶导数的值,若某像素点一阶导数的值小于该区域所有像素点一阶导数的平均值,则该像素点排除在考虑候选点的范围之内。然后沿着x轴y轴方向找出二阶导数下两侧异号的点即为候选点。令二阶导数的线性拟合函数等于零实现候选点的精确边缘定位。同理,利用该方法提取其他感兴趣轮廓的亚像素边缘点。
将提取的轮廓的亚像素边缘点利用最小二乘法进行椭圆拟合,获取椭圆的相关参数;并将拟合的椭圆的中心像点坐标存放到imageCenter[99]容器中,同时计算该轮廓的轮廓面积的值存放到contoursArea[99]数组中。
步骤三:利用椭圆的中心像点坐标与圆阵靶标上圆点的对应关系,计算单应性矩阵。
利用圆阵靶标上标志圆对椭圆拟合的中心像点坐标按照世界坐标系下圆的排列顺序进行对应,利用标志圆在世界坐标系上的三维坐标点和在图像坐标系上的二维坐标点计算单应性矩阵;对椭圆拟合的中心像点坐标进行排序,利用所有圆点的三维坐标点和二维坐标点的对应关系重新计算单应性矩阵。
如图2所示,在实际实验中使用的是11×9圆点标定板,其中标定板上的五个大圆为标志圆,圆心为特征点,找出这五个特征点在像素坐标系中的位置,从而可以计算出能够表达两个平面相对精准的映射关系。标定板是一个二维的平面,即定义了z轴为0,同时设定世界坐标系的原点w(0,0,0)位于靶标平面的左上角处,x轴、y轴方向任意两个圆心之间的间距设定为1。假设五个标志圆其世界坐标系下相对于原点的位置为w(2,4,0)、w(5,2,0)、w(8,4,0)、w(5,6,0)、w(6,6,0),对步骤二中所求的轮廓面积按照从大到小的顺序进行排序,排序的同时对imageCenter[99]中的顺序同时进行调整,保证轮廓面积值和轮廓中心像点在各自的存储空间上的逻辑关系一一对应。
此时,contoursArea数组和imageCenter容器中前五个元素即为大圆的轮廓面积值和所对应的中心像点坐标。但此时像素坐标系下五个中心像点位置与世界坐标系下的五个标志圆的对应关系并不确定。此处将imageCenter容器中前五个取出来放到dstPoint[5]容器中,方便接下来的处理。
根据靶标上标志圆放置的位置关系,首先,计算任意两两标志圆之间的距离,即计算dstPoint容器中任意两点之间的距离。一共有十组数据,将它们存入一个结构体数组structNum[10]当中,结构体数组中的每一个元素包含了两个中心像点的坐标以及它们之间的距离信息。
将结构体数组structNum按照每个元素中距离值的大小进行排序,并将结果重新赋给结构体数组structNum。根据圆阵靶标上标志圆之间的距离关系,可知w(2,4,0)特征点和w(8,4,0)特征点之间的距离应是最长,同时,w(5,6,0)特征点和w(6,6,0)特征点之间的距离应是最短。因此,根据结构体数组structNum已经排好的位置关系,取出structNum[0]和structNum[9]两个元素中包含的四个坐标点,结构体数组中每一个结构体变量包含三个变量,两个Point2f类型的坐标以及该两个坐标点之间的距离值。对容器dstPoint进行遍历,并将取出的四个中心像点作为判断条件,此时可以确定出世界坐标系下特征点w(5,2,0)所对应的像素坐标系下的中心像点的坐标。structNum[0]包含了五个标志圆的中心像点距离最长的两个点。structNum[9]包含了五个标志圆的中心像点距离最短的两个点,因此,对dstPoint[5]数组进行遍历,即可获取特征点w(5,2,0)所对应的中心像点坐标。
继续对剩下四个特征点的位置进行确定。根据圆阵靶标上w(5,6,0)特征点和w(6,6,0)特征点分别到w(5,2,0)的距离长度不同,为此可以作为判断条件对距离长度最小两个特征点进行确定。求取structNum[9]中的两个中心像点分别到w(5,2,0)特征点所对应的像素坐标之间的距离,其中较长的距离的点即为w(5,6,0)特征点所对应的像素坐标点,较短的即为w(6,6,0)特征点所对应的像素坐标点。
最后只需对structNum[0]中的两个距离长度最大的两个特征点进行位置确定即可。这里需要将w(5,6,0)特征点所对应的像素坐标作为判断点。对structNum[0]中的两个标志点分别求到判断点的距离。较长的点即为w(8,4,0)特征点所对应的像素坐标点,较短的点即为w(2,4,0)特征点所对应的像素坐标点。
至此,容器dstPoint中五个像素点和世界坐标系下五个标志圆之间的对应关系已经明确,利用这五组三维坐标点和二维坐标点的对应关系,计算出单应性矩阵。单应性矩阵的计算利用的是opencv里面的函数findHomography()。仅凭这五组对应关系求出的单应性矩阵只能表示两个平面之间相对精准的映射关系,故需要对其他剩下椭圆轮廓的中心像点坐标进行排序,利用所有三维坐标点和二维坐标点的对应关系重新计算出单应性矩阵。
根据前面对靶标规格的设定,原点的位置在左上角处(0,0,0),x轴方向范围从0到10,y轴方向范围从0到8。对imageCenter容器中的所有中心像点的位置进行确定。给定两层for循环,第一层是i的值从0到10变化,第二层是j的值从0到8变化。最内层每次循环组成一个特征点(i,j,0),并将通过标志圆得到的单应性矩阵和该特征点相乘得到该特征点在像素坐标系下相对精准的映射位置,此处可暂用tempCenter变量来存放。此时,将imageCenter容器中99个点分别求到tempCenter的距离,并将结果存到disCenter数组中,对disCenter数组进行一趟遍历即可确定出disCenter中最小值的下标,该下标在imageCenter容器中所对应的点即为靶标上特征点(i,j,0)所对应的中心像点坐标。将该中心像点坐标存放到orderedImageCenter容器中,此时,第一趟遍历已经完成。继续下一趟遍历,直至将所有中心像点的位置确定完成。此时orderedImageCenter容器中存放的是已经有序的中心像点坐标。利用这99组三维坐标点和二维坐标点的对应关系重新计算出单应性矩阵。tempCenter是(i,j,0)特征点的相对精确的中心像点坐标,而imageCenter[99]中存有该特征点精确的中心像点坐标。找出tempCenter与imageCenter[99]数组中最近的点即为该特征点所对应的最终中心像点坐标。该遍历方法可以快速确定出某一中心像点所对应的世界坐标系下特征点的位置,且思路清晰,易于实现。
步骤四:利用步骤三得到的单应性矩阵计算出消隐点坐标,并将消隐点的坐标与步骤二得到的椭圆轮廓的方程联立解出每个轮廓的两组公切点坐标。
世界坐标系下x轴、y轴方向的无穷远点在像素坐标系下的位置,即为消隐点的位置。
利用单应性矩阵的性质,在三维的世界坐标系中x轴和y轴方向的无穷远点为V1、V2,其坐标分别为[0 1 0]T和[0 1 0]T,无穷远点在图像平面的投影即为消隐点,无穷原点和消隐点通过单应性矩阵H相关联。假设无穷远点V1、V2在图像平面的投影点分别为消隐点P1、P2,则有关系式:
最后,获取公切点坐标只需将消隐点与椭圆方程联立建立方程即可,方程的主要系数为:
其中,在步骤二中利用最小二乘法获取了椭圆轮廓的方程,A、B、C、D、E、F为Ax2+Bxy+Cy2+Dx+Ey+F=0的系数。(xv,yv)为消隐点的坐标。G、H、I、J、K、L为消隐点坐标与椭圆方程建立起表达式约束的系数。
对方程系数建立数学模型即可解出单个消隐点所对应的一组公切点坐标,具体方法为:
其中,(x1,y1)和(x2,y2)是单个消隐点所对应一组公切点下的两个坐标。
与传统搜索方法求取公切点坐标相比,基于消隐点的坐标求出两个公切点的坐标能够保证精度的前提下快速计算出每个椭圆轮廓的两组公切点坐标。
步骤五:建立两组公切点之间的直线方程,联立两个方程求出每个圆的中心像点坐标。
设A′(x1,y1)、B′(x2,y2)是消隐点P1所求取的一组公切点坐标,C′(x3,y3)、D′(x4,y4)为消隐点P2所求出的一组公切点坐标,那么建立直线A′B′的一般式方程:
(y2-y1)x+(x1-x2)y+(x2y1-x1y2)=0;
同理,直线C′D′的一般式方程为:
(y4-y3)x+(x3-x4)y+(x4y3-x3y4)=0;
将两个一般式方程进行联立,两条直线的交点即为空间圆投影后真实的中心像点坐标,即可求出中心像点坐标(x0,y0),具体解法为:
这样求出的每个圆的中心像点坐标有思路简洁且精度能保证。
按照本发明的方法,进行了仿真和实际实验来验证。仿真实验中,设定相应的相机内外参数矩阵,并且在投影图像中圆的边缘点添加标准差为0.1的高斯白噪声。然后利用本文提出的方法计算靶标中的每个圆的中心像点。图2为实际实验的靶标。图3为对靶标图像进行预处理,筛选出感兴趣轮廓后的效果。为了方便比较,分别用以下方法计算中心像点坐标,方法一为最小二乘椭圆拟合计算圆心,方法二为参考文献[1]---[文献:徐鹏,汪建业,王燕儒.摄像机标定中靶标圆心像点坐标的精确计算[J].红外与激光工程,2011,40(07):1342-1346.]中利用椭圆外公切线计算圆心的方法,方法三利用本发明所提方法。图4为仿真实验中三种方法所求取的中心像点坐标与理想中心像点之间的u轴方向误差,相应的图5为v轴方向误差,可以看到本发明所求取的中心像点与理想中心像点之间误差相对更小一些。同时,利用QtCreator编译器来实现程序的代码编写。表1给出了三种方法程序运行时间。
表1运行时间(单位:秒)
方法一 | 方法二 | 本发明 | |
时间 | 79.624 | 648.147 | 1.133 |
实际实验中理想圆心的坐标位置未知,故需要利用射影空间中共线点的交比来进行本发明方法的有效性验证。图6展示了用三种方法所求取的中心像点坐标,计算出交比的值;并与靶标上理想交比的值进行了对比,结果表明本发明所求取中心像点的交比值更接近于理想交比值,从而验证本发明的有效性。仿真和实际实验结果表明:本发明在提高所求中心像点精度的同时,还能够极大的缩短程序的运行时间,具有更强的实际使用价值。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于消隐点的圆阵靶标中心像点定位方法,其特征在于,其步骤如下:
步骤一:采集圆阵靶标的图像,对图像进行预处理,去除预处理后图像上的杂乱边缘,得到具有感兴趣轮廓的图像;
步骤二:利用Canny边缘检测算法对感兴趣轮廓的图像进行边缘检测,实现轮廓边缘的粗定位;利用亚像素边缘检测算法获取轮廓边缘的亚像素边缘点;通过最小二乘法对亚像素边缘点进行椭圆拟合,得到椭圆轮廓的方程以及椭圆的中心像点坐标;
步骤三:利用椭圆的中心像点坐标与圆阵靶标上圆的对应关系,计算单应性矩阵;
步骤四:利用步骤三得到的单应性矩阵计算出消隐点坐标,并将消隐点坐标与步骤二得到的椭圆轮廓的方程联立解出每个椭圆轮廓的两组公切点坐标;
步骤五:建立两组公切点之间的直线方程,联立两个方程求出每个圆的中心像点坐标。
2.根据权利要求1所述的基于消隐点的圆阵靶标中心像点定位方法,其特征在于,所述圆阵靶标为矩形的标定板,标定板上的多个圆组成矩形阵,矩形阵包括至少3个标志圆,且标志圆的直径大于其他圆的直径,任意三个标志圆不能同时在一条直线上。
3.根据权利要求2所述的基于消隐点的圆阵靶标中心像点定位方法,其特征在于,所述矩形阵为11×9的矩形阵,矩形阵中设有5个标志圆,且5个标志圆不在一条直线上。
4.根据权利要求1或3所述的基于消隐点的圆阵靶标中心像点定位方法,其特征在于,所述预处理的方法为:先对图像进行二值化、中值滤波的操作,然后用Canny边缘检测算法获取图像上靶标内所有物体轮廓的边缘信息;
所述去除杂乱边缘的方法为:依次利用椭圆本身的周长规则、面积规则、圆度信息对预处理后图像上的杂乱边缘进行清除,即
利用周长规则和面积规则将不满足条件的轮廓进行清除:
其中,Cmin代表了感兴趣轮廓的最小周长,Cmax代表了感兴趣轮廓的最大周长,Smin是感兴趣轮廓面积的最小值,Smax为感兴趣轮廓面积的最大值;
利用圆度信息将不满足条件的轮廓进行清除:
A=4π(S/C2);
其中,S为所检测轮廓的面积信息,C为所检测轮廓的周长信息;设定一个阈值,当圆度A的值大于该阈值时,认为所检测轮廓符合要求;否者清除所检测轮廓。
5.根据权利要求1、2或3所述的基于消隐点的圆阵靶标中心像点定位方法,其特征在于,所述利用亚像素边缘检测算法获取轮廓边缘的亚像素边缘点的方法为:计算粗定位后图像上感兴趣区域内所有像素点灰度的一阶导数和二阶导数的值;若某像素点一阶导数的值小于该区域所有像素点一阶导数的平均值,则该像素点排除在候选点的范围之内;然后沿着x轴和y轴方向寻找出二阶导数下两侧异号的点即为候选点;令二阶导数的线性拟合函数等于零实现候选点的精确边缘定位;
将提取的轮廓的亚像素边缘点利用最小二乘法进行椭圆拟合,获取椭圆的相关参数;将拟合的椭圆的中心像点坐标存放到容器imageCenter中,同时计算椭圆的轮廓面积的值存放到数组contoursArea中。
6.根据权利要求5所述的基于消隐点的圆阵靶标中心像点定位方法,其特征在于,所述步骤三的实现方法为:利用圆阵靶标上标志圆对椭圆拟合的中心像点坐标按照世界坐标系下圆的排列顺序进行对应,利用标志圆在世界坐标系上的三维坐标点和在图像坐标系上的二维坐标点计算单应性矩阵;对椭圆拟合的中心像点坐标进行排序,利用圆阵靶标上所有圆点的三维坐标点和图像坐标系上的二维坐标点的对应关系重新计算单应性矩阵。
7.根据权利要求6所述的基于消隐点的圆阵靶标中心像点定位方法,其特征在于,所述利用圆阵靶标上标志圆对椭圆拟合的中心像点坐标按照世界坐标系下圆的排列顺序进行对应的方法为:将标定板上标志圆的圆心作为特征点,找出特征点对应的图像坐标系中的位置即容器imageCenter中椭圆的中心像点坐标,实现方法为:
设定世界坐标系的原点w(0,0,0)位于圆阵靶标平面的左上角处,x轴、y轴方向任意两个圆的圆心之间的间距为1,对步骤二中所求的数组contoursArea中轮廓面积按照从大到小的顺序进行排序,同时对容器imageCenter中的顺序对应调整,保证轮廓面积的值和轮廓的中心像点坐标在各自的存储空间上的逻辑关系一一对应;
将容器imageCenter中前N个元素取出来放到容器dstPoint中;N为标志圆的数量;
根据圆阵靶标上标志圆的位置关系,计算任意两两标志圆之间的距离即计算容器dstPoint中任意两个中心像点之间的距离,一共有2N组,存入结构体数组structNum中,结构体数组structNum中的每一个元素包含了两个中心像点的坐标以及它们之间的距离;
将结构体数组structNum按照每个元素中距离值的大小进行排序,并将结果重新赋给结构体数组structNum;
根据圆阵靶标上标志圆之间的距离关系,可知特征点I和特征点II之间的距离最长,特征点III和特征点IV之间的距离最短;根据结构体数组structNum已经排好的位置关系,取出structNum[0]和structNum[2N-1]两个元素中包含的四个中心像点,对容器dstPoint进行遍历,并将取出的四个中心像点作为判断条件,确定出世界坐标系下特征点V所对应的像素坐标系下的中心像点的坐标;
根据圆阵靶标上特征点III和特征点IV分别到特征点V的距离长度不同,作为判断条件对距离长度最小的两个特征点进行确定;将特征点III所对应的像素坐标作为判断点,对structNum[0]中的两个距离长度最大的两个特征点进行位置确定;循环计算得到容器dstPoint中的所有中心像点的坐标与世界坐标系中标志圆的特征点之间的对应关系;
对距离长度最小的两个特征点进行确定的方法为:求取structNum[2N-1]中的两个中心像点分别到特征点V所对应的像素坐标之间的距离,分别确定其中较长的距离的点即为特征点III所对应的像素坐标点,较短的即为特征点IV所对应的像素坐标点;
对structNum[0]中的两个距离长度最大的两个特征点进行位置确定的方法为:将特征点III所对应的像素坐标作为判断点,对structNum[0]中的两个中心像点分别求到判断点的距离,较长的点即为特征点II所对应的像素坐标点,较短的点即为特征点I所对应的像素坐标点。
8.根据权利要求7所述的基于消隐点的圆阵靶标中心像点定位方法,其特征在于,所述圆阵靶标上所有圆的三维坐标点和图像坐标系上二维坐标点的对应关系的实现方法为:世界坐标系中,原点(0,0,0)的位置在圆阵靶标的左上角处,x轴方向范围从0到10,y轴方向范围从0到8,对容器imageCenter中的所有中心像点的位置进行确定:给定两层for循环,第一层是i的值从0到10变化,第二层是j的值从0到8变化;最内层每次循环组成一个特征点(i,j,0),并将通过标志圆得到的单应性矩阵和特征点(i,j,0)相乘得到该特征点在图像坐标系下的映射位置,并暂存放在变量tempCenter中;计算容器imageCenter中99个中心像点分别到tempCenter的距离,并将结果存到数组disCenter中,对数组disCenter进行一趟遍历即可确定出数组disCenter中最小值的下标,该下标在容器imageCenter中所对应的点即为特征点(i,j,0)所对应的中心像点的坐标,将该中心像点坐标存放到容器orderedImageCenter中,第一趟遍历完成;继续下一趟遍历,直至将所有中心像点的坐标确定完成。
9.根据权利要求1或8所述的基于消隐点的圆阵靶标中心像点定位方法,其特征在于,所述两组公切点坐标的计算方法为:利用单应性矩阵的性质,在世界坐标系中x轴和y轴方向的无穷远点为V1、V2,其坐标分别为[1 0 0]T和[0 1 0]T,无穷远点V1、V2在图像平面的投影点分别为消隐点P1、P2,则有:
获取公切点坐标只需将消隐点分别与椭圆轮廓的方程联立建立方程,方程的主要系数为:
其中,A、B、C、D、E、F为步骤二中利用最小二乘法获取的椭圆轮廓的方程Ax2+Bxy+Cy2+Dx+Ey+F=0的系数;G、H、I、J、K、L为消隐点坐标与椭圆方程建立的表达式约束的系数;(xv,yv)为消隐点的坐标;
对方程系数建立数学模型即可解出单个消隐点所对应的一组公切点坐标,具体方法为:
其中,(x1,y1)和(x2,y2)是单个消隐点所对应一组公切点下的两个坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110907195.8A CN113610917A (zh) | 2021-08-09 | 2021-08-09 | 一种基于消隐点的圆阵靶标中心像点定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110907195.8A CN113610917A (zh) | 2021-08-09 | 2021-08-09 | 一种基于消隐点的圆阵靶标中心像点定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113610917A true CN113610917A (zh) | 2021-11-05 |
Family
ID=78339962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110907195.8A Pending CN113610917A (zh) | 2021-08-09 | 2021-08-09 | 一种基于消隐点的圆阵靶标中心像点定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113610917A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113894799A (zh) * | 2021-12-08 | 2022-01-07 | 北京云迹科技有限公司 | 机器人及辅助环境定位的标识物识别方法和装置 |
CN114440776A (zh) * | 2022-01-28 | 2022-05-06 | 上海交途科技有限公司 | 一种基于机器视觉的位移自动测量方法及系统 |
CN114529613A (zh) * | 2021-12-15 | 2022-05-24 | 深圳市华汉伟业科技有限公司 | 一种圆阵列标定板的特征点高精度坐标提取方法 |
CN114670195A (zh) * | 2022-03-25 | 2022-06-28 | 北京博联众睿机器人科技有限公司 | 一种机器人自动校准方法和系统 |
CN114943710A (zh) * | 2022-05-27 | 2022-08-26 | 华南理工大学 | 利用改进最小二乘拟合对薄壁圆管类零件圆心定位的方法 |
CN115388874A (zh) * | 2022-08-12 | 2022-11-25 | 北京航空航天大学 | 一种基于单目相机的圆形靶标位姿估计方法 |
CN115760782A (zh) * | 2022-11-16 | 2023-03-07 | 华南理工大学 | 一种基于机器视觉的模内贴标偏移缺陷识别方法 |
CN116993810A (zh) * | 2023-07-25 | 2023-11-03 | 中国农业科学院农业资源与农业区划研究所 | 一种综合考虑中心点和面积的土壤普查样点提取方法 |
CN117168344A (zh) * | 2023-11-03 | 2023-12-05 | 杭州鲁尔物联科技有限公司 | 单目全景环视形变监测方法、装置及计算机设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116892A (zh) * | 2013-03-15 | 2013-05-22 | 云南大学 | 两个相交相同圆及公切线求解摄像机内参数 |
CN104331896A (zh) * | 2014-11-21 | 2015-02-04 | 天津工业大学 | 一种基于深度信息的系统标定方法 |
CN108460799A (zh) * | 2018-01-26 | 2018-08-28 | 中国地质大学(武汉) | 一种逐步逼近亚像素图像定位方法和系统 |
CN110415300A (zh) * | 2019-08-02 | 2019-11-05 | 哈尔滨工业大学 | 一种基于三靶标建面的立体视觉结构动态位移测量方法 |
US20200226789A1 (en) * | 2019-01-14 | 2020-07-16 | Beijing Boe Optoelectronics Technology Co., Ltd. | Camera calibration plate, camera calibration method and device, and image acquisition system |
-
2021
- 2021-08-09 CN CN202110907195.8A patent/CN113610917A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116892A (zh) * | 2013-03-15 | 2013-05-22 | 云南大学 | 两个相交相同圆及公切线求解摄像机内参数 |
CN104331896A (zh) * | 2014-11-21 | 2015-02-04 | 天津工业大学 | 一种基于深度信息的系统标定方法 |
CN108460799A (zh) * | 2018-01-26 | 2018-08-28 | 中国地质大学(武汉) | 一种逐步逼近亚像素图像定位方法和系统 |
US20200226789A1 (en) * | 2019-01-14 | 2020-07-16 | Beijing Boe Optoelectronics Technology Co., Ltd. | Camera calibration plate, camera calibration method and device, and image acquisition system |
CN110415300A (zh) * | 2019-08-02 | 2019-11-05 | 哈尔滨工业大学 | 一种基于三靶标建面的立体视觉结构动态位移测量方法 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113894799A (zh) * | 2021-12-08 | 2022-01-07 | 北京云迹科技有限公司 | 机器人及辅助环境定位的标识物识别方法和装置 |
CN114529613A (zh) * | 2021-12-15 | 2022-05-24 | 深圳市华汉伟业科技有限公司 | 一种圆阵列标定板的特征点高精度坐标提取方法 |
CN114440776A (zh) * | 2022-01-28 | 2022-05-06 | 上海交途科技有限公司 | 一种基于机器视觉的位移自动测量方法及系统 |
CN114670195B (zh) * | 2022-03-25 | 2024-01-12 | 北京博联众睿机器人科技有限公司 | 一种机器人自动校准方法和系统 |
CN114670195A (zh) * | 2022-03-25 | 2022-06-28 | 北京博联众睿机器人科技有限公司 | 一种机器人自动校准方法和系统 |
CN114943710A (zh) * | 2022-05-27 | 2022-08-26 | 华南理工大学 | 利用改进最小二乘拟合对薄壁圆管类零件圆心定位的方法 |
CN114943710B (zh) * | 2022-05-27 | 2024-03-19 | 华南理工大学 | 利用改进最小二乘拟合对薄壁圆管类零件圆心定位的方法 |
CN115388874A (zh) * | 2022-08-12 | 2022-11-25 | 北京航空航天大学 | 一种基于单目相机的圆形靶标位姿估计方法 |
CN115388874B (zh) * | 2022-08-12 | 2024-05-31 | 北京航空航天大学 | 一种基于单目相机的圆形靶标位姿估计方法 |
CN115760782A (zh) * | 2022-11-16 | 2023-03-07 | 华南理工大学 | 一种基于机器视觉的模内贴标偏移缺陷识别方法 |
CN115760782B (zh) * | 2022-11-16 | 2023-06-16 | 华南理工大学 | 一种基于机器视觉的模内贴标偏移缺陷识别方法 |
CN116993810B (zh) * | 2023-07-25 | 2024-02-20 | 中国农业科学院农业资源与农业区划研究所 | 一种综合考虑中心点和面积的土壤普查样点提取方法 |
CN116993810A (zh) * | 2023-07-25 | 2023-11-03 | 中国农业科学院农业资源与农业区划研究所 | 一种综合考虑中心点和面积的土壤普查样点提取方法 |
CN117168344A (zh) * | 2023-11-03 | 2023-12-05 | 杭州鲁尔物联科技有限公司 | 单目全景环视形变监测方法、装置及计算机设备 |
CN117168344B (zh) * | 2023-11-03 | 2024-01-26 | 杭州鲁尔物联科技有限公司 | 单目全景环视形变监测方法、装置及计算机设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113610917A (zh) | 一种基于消隐点的圆阵靶标中心像点定位方法 | |
CN111311689B (zh) | 一种激光雷达与相机相对外参的标定方法及系统 | |
CN107063228B (zh) | 基于双目视觉的目标姿态解算方法 | |
CN107622499B (zh) | 一种基于目标二维轮廓模型的识别与空间定位方法 | |
CN106023298B (zh) | 基于局部泊松曲面重建的点云刚性配准方法 | |
CN110136182A (zh) | 激光点云与2d影像的配准方法、装置、设备和介质 | |
CN106485690A (zh) | 基于点特征的点云数据与光学影像的自动配准融合方法 | |
CN111429494B (zh) | 一种基于生物视觉的点云高精度自动配准方法 | |
CN109325381B (zh) | 一种qr码定位和校正方法 | |
CN108122256A (zh) | 一种逼近状态下旋转目标位姿测量的方法 | |
JP2007502473A (ja) | 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム | |
CN111145228A (zh) | 基于局部轮廓点与形状特征融合的异源图像配准方法 | |
CN111123242B (zh) | 一种基于激光雷达和相机的联合标定方法及计算机可读存储介质 | |
CN112614188B (zh) | 一种基于交比不变性的点阵式标定板及其识别方法 | |
CN103295239A (zh) | 一种基于平面基准影像的激光点云数据的自动配准方法 | |
CN107369140A (zh) | 非结构化环境下的高精密靶球中心提取方法 | |
CN113516695B (zh) | 激光轮廓仪平面度测量中的点云配准策略 | |
Daucher et al. | Camera calibration from spheres images | |
CN103954280A (zh) | 一种快速和高鲁棒性自主恒星识别方法 | |
CN116452644A (zh) | 基于特征描述子的三维点云配准方法、装置及存储介质 | |
CN113393524A (zh) | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 | |
CN117576219A (zh) | 大广角鱼眼镜头单次拍摄图像的相机标定设备及标定方法 | |
CN110838146A (zh) | 一种共面交比约束的同名点匹配方法、系统、装置及介质 | |
CN116188544A (zh) | 一种结合边缘特征的点云配准方法 | |
CN109345571B (zh) | 一种基于扩展高斯图像的点云配准方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |