CN117576219A - 大广角鱼眼镜头单次拍摄图像的相机标定设备及标定方法 - Google Patents
大广角鱼眼镜头单次拍摄图像的相机标定设备及标定方法 Download PDFInfo
- Publication number
- CN117576219A CN117576219A CN202311372090.2A CN202311372090A CN117576219A CN 117576219 A CN117576219 A CN 117576219A CN 202311372090 A CN202311372090 A CN 202311372090A CN 117576219 A CN117576219 A CN 117576219A
- Authority
- CN
- China
- Prior art keywords
- point
- corner
- image
- points
- ordering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 120
- 238000004364 calculation method Methods 0.000 claims abstract description 11
- 230000011218 segmentation Effects 0.000 claims description 38
- 238000001514 detection method Methods 0.000 claims description 20
- 230000002457 bidirectional effect Effects 0.000 claims description 16
- 238000012216 screening Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 12
- 230000002093 peripheral effect Effects 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000003709 image segmentation Methods 0.000 claims description 6
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 230000002146 bilateral effect Effects 0.000 claims description 3
- 238000003708 edge detection Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 2
- 238000012163 sequencing technique Methods 0.000 claims description 2
- 230000008901 benefit Effects 0.000 abstract description 10
- 238000002474 experimental method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000007796 conventional method Methods 0.000 description 6
- 241000251468 Actinopterygii Species 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及的是大广角鱼眼镜头单次拍摄图像的相机标定设备及标定方法,其中大广角鱼眼镜头单次拍摄图像的相机标定设备为鱼眼箱,鱼眼箱为具有五个面的敞口长方体,鱼眼箱每个内表面上绘有规则的n×m行列分布的黑白色正方形棋盘格,棋盘格外缘拼接环绕一圈黑白相间的棋盘小格,棋盘小格外设有闭合的黑色边框,黑色边框不与其中的棋盘小格格相交;鱼眼箱相邻两个黑色边框间设置间隙,各间隙分别位于鱼眼箱相邻两个内表面的边或棱处;鱼眼箱中心面的中心位置绘制两组相互垂直的线段,形成十字准星;鱼眼箱左右两个内表面的棋盘格靠近中心面一行棋盘格的中间位置分别绘制圆形标志。本发明提供的鱼眼箱镜头标定时省时省力、计算精度高、鲁棒性好。
Description
技术领域:
本发明涉及计算机视觉和图像处理领域,具体为一种大广角鱼眼镜头单次拍摄图像的相机标定设备及标定方法。
背景技术:
在计算机视觉和图像处理领域,鱼眼镜头标定是一项关键技术,用于校正由广角或鱼眼镜头引起的图像畸变,以确保图像的准确性和可靠性。传统鱼眼镜头标定方法通常需要拍摄多张图像,并使用棋盘格等校准目标进行标定,这些方法的主要问题包括:
1.耗时耗力:传统方法需要多次拍摄不同角度的图像,然后对这些图像进行分析,对于用户来说是一项繁琐和耗时的任务,这在某些应用中限制了其实用性。
2.数据集要求高:标定过程需要大量的数据,包括多张不同拍摄角度的图像和相应的校准目标,这增加了数据采集和处理的难度。
3.计算精度低:传统标定方法往往在计算精度上存在一定的局限性。这可能导致标定结果的准确性不足以满足高精度应用的要求。特别是对于大广角鱼眼镜头,由于图像畸变较大,标定参数的估计可能不够精确,从而影响后续图像处理和应用的准确性。
4.鲁棒性较差:传统标定方法通常对图像质量和环境因素比较敏感。图像中的噪声、光照变化或镜头质量问题可能导致标定结果不稳定,这意味着相同的标定方法在不同情况下可能会产生不一致的结果。这降低了标定方法的鲁棒性,使其难以在实际应用中获得可靠的效果。
近年来,研究人员提出了一系列改进的鱼眼镜头标定方法,以克服传统方法的限制。这些方法包括基于微分几何和圆弧曲率的精确鱼眼透镜校准、基于单应性矩阵的径向畸变去除、深度学习方法等。这些方法在提高标定精度和效率方面取得了一定的进展。然而,它们仍然需要多张图像或复杂的计算,而且在大广角鱼眼镜头的情况下,仍然存在一定的局限性。
发明内容:
本发明的一个目的是提供大广角鱼眼镜头单次拍摄图像的相机标定设备,这种大广角鱼眼镜头单次拍摄图像的相机标定设备用于解决传统鱼眼镜头标定方法耗时耗力、数据集要求高、计算精度低、鲁棒性较差等问题,本发明的另一个目的是提供这种大广角鱼眼镜头单次拍摄图像的相机标定设备的标定方法。
本发明解决其技术问题所采用的技术方案是:这种大广角鱼眼镜头单次拍摄图像的相机标定设备为鱼眼箱,鱼眼箱为具有五个面的敞口长方体,鱼眼箱每个内表面上绘有规则的n×m行列分布的黑白色正方形棋盘格,黑白色正方形棋盘格外缘拼接环绕一圈黑白相间的棋盘小格,棋盘小格外设有闭合的黑色边框,黑色边框不与其中的棋盘小格格相交;鱼眼箱相邻两个黑色边框间设置间隙,各间隙分别位于鱼眼箱相邻两个内表面的边或棱处;鱼眼箱中心面的中心位置绘制两组相互垂直的线段,形成十字准星;鱼眼箱左右两个内表面的黑白色正方形棋盘格靠近中心面一行棋盘格的中间位置分别绘制圆形标志。
上述大广角鱼眼镜头单次拍摄图像的相机标定设备进行相机标定的方法:
步骤一:对单次拍摄的鱼眼箱图像进行一次分割,得到多张区域化分割图像,每张区域化分割图像仅包含单个黑白色正方形棋盘格的图像;
步骤二:对多张区域化分割图像进行二次分割,得到多张细致的棋盘格图像;
步骤三:对多张细致的棋盘格图像进行角点检测及亚像素精确化处理,以生成精确的二维角点坐标集合;
步骤四:根据精确的二维角点坐标集合进行角点排序,并映射到世界坐标系,计算角点覆盖率,得到与二维角点坐标一一对应的三维世界坐标集合;
步骤五:基于精确的二维角点坐标集合及精确的二维角点坐标集合采用六参数除法模型实现鱼眼镜头标定,得到高精度鱼眼镜头内参。
上述方案步骤一中所述的一次分割方法为基于凸多边形逼近的图像分割方法:
(1)针对单次拍摄的鱼眼箱图像进行预处理,将其转化为灰度图像,再进行直方图均衡化和双边滤波处理;
(2)对经过预处理后的图像采用Canny算子进行边缘检测,将边缘的外围轮廓连接起来,以消除不连续的外围边缘,确保完整地检测到棋盘格的外围;
(3)在连接后的边缘图中,寻找新的轮廓,并根据其面积进行判断,以确定是否为有效轮廓,有效轮廓必须包含完整的封闭棋盘格;
(4)针对有效轮廓,采用凸多边形逼近的方法,创建凸多边形掩膜;
(5)利用凸多边形掩膜在原图中切割出单个棋盘格区域图像,分割得到的棋盘格区域图像含有两部分内容,即鱼眼箱四个内侧面的棋盘格及少部分误分割的中心面棋盘格。
上述方案步骤二中二次分割采用基于图像取反的自适应阈值分割方法;
(1)针对切割出的单个棋盘格区域图像,将其转换为灰度图像,并执行自适应阈值化处理,生成二值化图像;
(2)对二值化图像进行轮廓检测;
(3)计算所有检测到的轮廓的面积,并找到面积最大的轮廓,将其标记为有效轮廓;
(4)基于有效轮廓创建掩膜,用于对二值化图像进行分割,得到分割图像。同时,将原始二值化图像与此分割图像进行像素相减,生成像素差值图像;
(5)设定图像像素阈值,用于对步骤(4)得到的分割图像、像素差值图像进行筛选,将满足条件的图像标记为二次分割有效图像,同时剔除不满足条件的图像;
(6)对二次分割有效图像进行图像像素的取反操作,将原始图像中不属于最大轮廓区域的部分像素设为白色。
上述方案步骤三中角点检测方法采用基于特征筛选的亚像素级角点检测方法:
定义两种不同的角点模型:棋盘格理想位置时的角点模型和棋盘格旋转45°时的角点模型;
利用上述两种角点模型计算每个像素点的角点相似度,设fx i为卷积核X和模型i对于特定像素的卷积响应,则该像素的角点相似度通过两种模型的组合中取最大值来定义:
其中,表示两种不同情况下的角点模型,即左对角线为黑格,右对角线为白格及左对角线为白格,右对角线为黑格;
若四个卷积核中有任意一个其卷积响应较弱,则该处像素的角点相似度偏低;
通过上述计算获得一系列符合角点特征的像素点,这些像素点称为角点候选点,进行亚像素级的精确化处理,包括位置和边缘方向的精确化,确定图像中的角点位置和方向信息;
假设C是理想情况下角点的位置,P、Q分别是C局部邻域内的两个像素点,gP、gQ分别为P点和Q点的图像梯度向量,由于P点位于像素平坦区域,像素平坦区域梯度gP=0,因此Q点在边界上,梯度gQ向量方向垂直向下,(Q-C)方向水平向右,两向量方向互相垂直,因此故对于角点C,gN(N为角点C附近邻域内像素点)与(N-C)总是正交。即:
其中,C′为设定判断阈值K后符合C≥K的角点候选点,是角点候选点C′的邻域,该邻域大小取11×11;
相邻的像素点可由梯度幅度自动加权,如下式表示:
将边缘方向向量e1,e2,采用将其法线与图像梯度之间偏差的误差最小化的方法:
其中,是相邻像素点的集合,满足其与角点模型i的梯度mi对齐,mi=[cos(ai)sin(ai)]T,通过像素点筛选,获得精确的二维角点坐标集合。
上述方案中步骤四中角点排序方法为基于特征点双向拓展的角点排序方法,并生成相应的世界坐标;
步骤4.1,找到排序特征点从而实现双向拓展排序,排序特征点是指作为排序起始点的角点,其需要满足如下特征:
(1)排序特征点位于角点点阵的边缘,该边缘呈现曲线形状而非直线形状;
(2)排序特征点定位在上述边缘的中间位置;
(3)对于鱼眼箱,互为对称面的排序特征点为轴对称关系;
步骤4.2,计算检测到的角点点阵的中心点坐标,对于右侧面,满足条件的排序特征点位于中心点的左侧,通过以下步骤定位右侧面的排序特征点:
(1)计算中心点的坐标C1(x1,y1);
(2)从所有检测到的角点中,筛选出与C1纵坐标最接近的n个角点,n至少为一列角点的数量;
(3)从这n个角点中,选择横坐标最小的角点,作为右侧面的排序特征点;
步骤4.3,定位到排序特征点后,将该点作为排序起始点进行角点排序,生成与角点一一对应的世界坐标,其角点排序流程如下:
(1)右侧面的排序特征点O为排序起始点,将其世界坐标设为(0,0,0);
(2)从所有检测到的角点中,找到距离O点欧氏距离最小的三个角点,然后,选择其中横坐标最大的角点作为点B(1,0,0);接下来,从剩下的两个角点中,选择纵坐标最小且小于点O的角点作为点C(0,-1,0),并选择纵坐标最大且大于点O的角点作为点A(0,1,0);
(3)以点C为新的起始点,找到距离点C欧氏距离最小的三个角点,然后,选择其中纵坐标最小且小于点C的角点作为点D(0,-2,0),重复这个过程,直到找不到满足条件的角点,返回点A;
(4)从点A开始向下排序,找到距离点A欧氏距离最小的三个角点,然后,选择其中纵坐标最大且大于点A的角点作为点E(0,2,0);重复这个过程,直到找不到满足条件的角点,返回点B,完成角点点阵的第一列排序,并生成与之一一对应的世界坐标;
(5)排除已经排序过的角点,以点B为新的起始点,按照相同的方法,找到距离点B欧氏距离最小的三个角点,选择其中横坐标最大的角点作为点G(2,0,0),然后从剩下的两个角点中,选择纵坐标最小且小于点B的角点作为点H(0,-2,0),并选择纵坐标最大且大于点B的角点作为点F(0,2,0);
(6)以此类推,继续设新的起始点进行双向拓展排序,每列角点排序完成后进行下一列排序,直至所有角点完成排序,生成对应的世界坐标;
设点K(h,0,0)为角点数量最少行的末尾角点,在执行基于特征点双向拓展的角点排序算法时,当在点K所在列排序结束后,需要对剩余的角点进行补充排序;首先,对剩余的角点按照纵坐标从小到大进行排列,然后,从中选择纵坐标最小的角点L作为起点,并寻找点K所在列中距离角点L最近的角点M(h,l,0),最后,点L(i,j,0)的纵坐标继承自点M,通过下式计算其世界坐标:
以此类推,将右侧面所有剩余的角点排序,采用同样的方法进行其他侧面的角点排序并生成对应的世界坐标;
由于中心面是标准行列的角点点阵,使用传统的角点排序方法对中心面进行排序并生成对应的世界坐标。
上述方案中步骤五中采用的鱼眼镜头标定模型为六参数除法模型,设(xd,yd)为图像畸变点的坐标,(xu,yu)为图像未畸变点的坐标,六参数DM模型表达式:
其中,rd和ru分别畸变点(xd,yd)和未畸变点(xu,yu)到畸变中心P的欧式距离,λi为径向畸变参数,采用单参数DM模型:
设畸变中心P的坐标为(x0,y0),则图像中未畸变点的坐标为:
其中,rd为图像畸变点与畸变中心P(x0,y0)满足:
设直线方程y=kx+b,其中k为斜率,b为截距,即未畸变的直线方程为yu=kxu+b,代入上式可得:
由上式看出在单参数DM模型下,理想直线畸变为圆弧曲线,将其整理一下,得到下述等式:
其中,A、B、C满足如下条件:
其通过从图像中获取三个点求解出参数A、B、C及畸变中心,基于A、B、C之间的关系得到:
通过求解得到的A、B、C及畸变中心,求得畸变参数λ,求解六参数DM模型。
有益效果:
1.本发明针对传统鱼眼标定方法需要多次拍摄图像的缺点,设计了一种新型标定设备鱼眼箱,该设备包含丰富的空间信息,通过单次拍摄即可媲美传统方法多次拍摄的效果,极大程度上缩短了鱼眼镜头的标定时间。本发明只需要处理分割后的少数图像,而传统方法需要处理大量图像,因此在整体算法的运行时间上具有优势。此外,本发明还在图像拍摄时间方面具有优势,因为只需要拍摄一张图像,相对于拍摄11张图像的传统方法,大大缩短了标定的时间成本。
2.本发明基于鱼眼箱提出了一种新型鱼眼镜头的标定方法,其中包含基于特征筛选的亚像素级角点检测方法,该方法能够精确定位角点位置,并且通过亚像素精确化处理提升角点坐标的精确度,从而提高后续鱼眼标定的精确度。
3.本发明提出了名为基于特征点双向拓展的角点排序方法的一种新型角点排序方法,该方法能够自动化定位排序特征点,并以此为基础进行角点排序,准确生成与角点集合一一对应的世界坐标集合,保障了鱼眼标定的准确度。
4.本发明采用除法模型对鱼眼镜头进行标定,并且在此基础上将除法模型运算到六参数级别,极大程度上提升了算法的标定精度。本发明与传统方法相比,在标定精度上取得了显著的提高,相对于传统方法,其RMS降低了8.56%。
5.本发明提出了一种标定设备鱼眼箱和相应的标定方法,旨在提高计算精度和鲁棒性。通过使用鱼眼箱,可以在单次拍摄的图像中实现高精度的鱼眼镜头标定,减少了误差累积的可能性。本发明还采用了一系列图像分割、角点检测、角点排序和标定算法的改进,以提高计算精度、算法鲁棒性及标定效率。
附图说明
图1是一种大广角鱼眼镜头单次拍摄图像的相机标定设备设计图。
图2是一种大广角鱼眼镜头单次拍摄图像的相机标定设备的实施例示意图。
图3是一种大广角鱼眼镜头单次拍摄图像的相机标定方法流程图。
图4是一次分割方法流程图。
图5是二次分割方法流程图。
图6是两种角点模型图。
图7是角点位置示意图。
图8是排序特征点候选点右侧面实施例示意图。
图9是基于特征点双向拓展的角点排序方法右侧面实施例示意图。
图10是边缘角点缺失实施例示意图。
图11是本发明与传统方法实施例实验结果对比图。
图12是本发明与传统方法实施例重投影误差离散点对比图。
图中:1棋盘格,2棋盘小格,3黑色边框,4间隙,5十字准星,6圆形标志。
具体实施方式:
下面结合附图对本发明做进一步说明:
实施例1:
结合图1、图2所示,这种大广角鱼眼镜头单次拍摄图像的相机标定设备是鱼眼箱,用于实现单次拍摄即可获取含有丰富空间信息的图像,这种鱼眼箱的具体结构如下:
(1)鱼眼箱外观为五面长方体形状。相较于传统标定板,该结构有助于鱼眼镜头拍摄到面积更大的标定区域。
(2)鱼眼箱每个面上绘有规则的n×m行列分布的正方形黑白色棋盘格图案。为便于图像分割操作,每个面棋盘格图案外设有闭合的黑色边框3且不与黑白棋盘格相交,鱼眼箱相邻两个黑色边框间设置间隙4。为了增强标定过程中检测到更多角点,每个面的黑白色棋盘格1外缘环绕一圈规则排列的棋盘小格2。
(3)每个面的黑白色棋盘格图案连同边框与其他面不相交,以确保各面之间有足够的白色区域,便于后续图像分割。
(4)鱼眼箱中心面的中心位置绘制两组相互垂直的线段,形成十字准星5。这些线段用于在拍摄图像时准确定位摄像头的位置,以防止偏移或错位等因素的影响。
(5)鱼眼箱左右面内侧边缘的中间位置绘制两个圆形标志6,用于校验后续角点排序算法找到特征点的准确度。
标定箱中心面的尺寸为500mm×500mm,其内部包含行列为14×14的棋盘格图案;标定箱四周面的尺寸为500mm×300mm,每个面内部包含行列为14×8的棋盘格图案;标定箱每个面的黑框宽度为6mm,棋盘格尺寸为33mm×33mm,棋盘格边缘小格尺寸为15mm。该规格的标定箱尺寸适中,即便使用200°鱼眼镜头拍摄,依然可以保留较为完整的特征信息,且每个面的边缘信息也不会由于距离过近而混乱。
图3所示为一种大广角鱼眼镜头单次拍摄图像的相机标定方法流程图,包括以下步骤:
步骤一:对单次拍摄的鱼眼箱图像进行一次分割,得到多张区域化分割图像。
为了对单次拍摄的鱼眼箱图像进行标定,需要将该图像拆解为多张仅包含单个棋盘格的图像。这样做有利于利用鱼眼箱图像中角点信息的多样性,以获得可靠的标定结果。鉴于鱼眼镜头拍摄的图像存在较大的畸变,导致图像的周边侧面呈现弧形,一次分割方法采用基于凸多边形逼近的图像分割方法,一次分割方法流程图如图4所示,包含以下流程:
(1)针对单次拍摄的鱼眼箱图像进行预处理,将其转化为灰度图像以便进行后续处理。在这之后,进行直方图均衡化和双边滤波处理,旨在增强图像的对比度并使图像变得平滑。
(2)对经过预处理的图像采用Canny算子进行边缘检测,将边缘的外围轮廓连接起来,以消除不连续的外围边缘,确保完整地检测到棋盘格的外围。
(3)在连接后的边缘图中,寻找新的轮廓,并根据其面积进行判断,以确定是否为有效轮廓。这些有效轮廓必须包含完整的封闭棋盘格。
(4)针对有效轮廓,采用凸多边形逼近的方法,创建凸多边形掩膜。
(5)利用此掩膜在原图中切割出单个棋盘格区域图像。
步骤二:对多张区域化分割图像进行二次分割,得到多张细致的棋盘格图像。
一次分割得到的棋盘格区域图像含有两部分内容,即四周侧面的棋盘格及少部分误分割的中心面棋盘格。图像中存在棋盘格图案的干扰因素会对角点检测的准确性造成极大的影响。然而,一次分割会将检测到的轮廓向凸多边形逼近,导致原本非凸多边形的棋盘格图案无法被独立分割。因此,步骤二采用基于图像取反的自适应阈值分割方法进行二次分割,二次分割方法流程图如图5所示,该方法包含如下流程:
(1)针对一次分割后的图像,将其转换为灰度图像,并执行自适应阈值化处理,生成二值化图像。
(2)对二值化图像进行轮廓检测,由于一次分割后,四周侧面图像中侧面棋盘格与干扰棋盘格的轮廓相对独立,因此,理想情况下最大轮廓即为所需棋盘格。
(3)计算所有检测到的轮廓的面积,并找到面积最大的轮廓,将其标记为有效轮廓。
(4)基于有效轮廓创建掩膜,用于对二值化图像进行分割。同时,将原始二值化图像与此分割图像进行像素相减,生成像素差值图像。进行像素差值操作的原因在于,有时有效棋盘格图案不会形成完整的轮廓,因此检测到的轮廓可能包含来自中心面的影响因素。差值操作后,可以更好地判断有效轮廓。
(5)设定图像像素阈值,用于对上述两种图像进行筛选,将满足条件的图像标记为二次分割有效图像,同时剔除不满足条件的图像。
(6)对二次分割有效图像进行图像像素的取反操作,将原始图像中不属于最大轮廓区域的部分像素设为白色。
步骤三:对多张细致的棋盘格图像进行角点检测及亚像素精确化处理,以生成精确的二维角点坐标集合。
传统的角点检测方法需要事先指定角点的行和列数,并要求这些行和列必须是规则且完整的。然而,在实际拍摄鱼眼箱图像时,为了提高标定的精度,需要缩短镜头与标定箱之间的距离,以增加图像中角点的覆盖范围,这导致了四周侧面的棋盘格图案变得不完整。因此,步骤三所述的角点检测方法采用基于特征筛选的亚像素级角点检测方法。其主要依赖于棋盘格的灰阶变化及几何变化,不同位置的角点具有相似的特征,这一特征被称为角点相似度(Corner Likelihood)。本发明定义了两种不同的角点模型,即棋盘格理想位置时的角点模型和棋盘格旋转45°时的角点模型。如图6所示为两种角点模型图,即棋盘格理想位置时的角点模型和棋盘格旋转45°时的角点模型。对于鱼眼箱图像而言,这两种角点模型可以描述所需的全部角点的特征。
利用上述两种角点模型计算每个像素点的角点相似度,理想情况下角点的{A,B}的卷积响应应该大于{A,B,C,D}的平均响应,{C,D}的响应则应该是较小的,对于存在旋转角度的角点则反之。设fx i为卷积核X和模型i对于特定像素的卷积响应,则该像素的角点相似度C可以通过两种模型的组合中取最大值来定义:
其中,表示两种不同情况下的角点模型,即左对角线为黑格,右对角线为白格及左对角线为白格,右对角线为黑格。
由上式可以看出,若四个卷积核中有任意一个其卷积响应较弱,则该处像素的角点相似度偏低。因此,在拍摄图像之前,确保对棋盘格进行检查和校准非常重要,以尽可能排除潜在的影响因素。
通过上述计算可以获得一系列符合角点特征的像素点,这些像素点被称为角点候选点。然而,这些候选点的位置通常不够精确,因此需要进行亚像素级的精确化处理,包括位置和边缘方向的精确化。这一步骤旨在提高角点检测的精度,以便更准确地确定图像中的角点位置和方向信息。
如图7所示为,角点位置示意图。假设C是理想情况下角点的位置,P、Q分别是C局部邻域内的两个像素点,gP、gQ分别为P点和Q点的图像梯度向量。由于P点位于像素平坦区域,像素平坦区域梯度gP=0,因此Q点在边界上,梯度gQ向量方向垂直向下,(Q-C)方向水平向右,两向量方向互相垂直,因此故对于角点C,gN(N为角点C附近邻域内像素点)与(N-C)总是近似正交。即:
其中,C′为设定判断阈值K后符合C≥K的角点候选点,是角点候选点C′的邻域,该邻域大小一般取11×11。
相邻的像素点可由梯度幅度自动加权,如下式表示:
为了精细化计算将边缘方向向量e1,e2,采用将其法线与图像梯度之间偏差的误差最小化的方法:
其中,是相邻像素点的集合,满足其与角点模型i的梯度mi对齐,mi=[cos(ai)sin(ai)]T。通过像素点筛选,获得精确的二维角点坐标集合。
步骤四:根据精确的二维角点坐标集合进行角点排序,并映射到世界坐标系,计算角点覆盖率,得到与二维角点坐标一一对应的三维世界坐标集合。
角点排序方法为基于特征点双向拓展的角点排序方法。对于鱼眼箱,通常情况下,要想拍摄到具有较高角点覆盖率的图像,可能需要在一定程度上牺牲边缘的角点。然而,对于那些非规则排列的角点点阵,常规的角点排序方法可能不再适用。因此,本发明提出了一种基于特征点双向拓展的角点排序方法,以应对这种情况,并生成相应的世界坐标。
该方法需要找到排序特征点从而实现双向拓展排序,排序特征点实际上是指作为排序起始点的角点,其需要满足如下特征:
(1)排序特征点位于角点点阵的边缘,该边缘呈现曲线形状而非直线形状。
(2)排序特征点定位在上述边缘的中间位置。其无需严格位于边缘的正中心位置,可以容忍1-2个角点位置偏差。
(3)对于鱼眼箱,互为对称面的排序特征点应为轴对称关系。
为了方便后续描述,接下来的角点排序原理将以右侧面为例。如图8所示为排序特征点候选点右侧面实施例示意图,C1为角点中心点,M1和N1为符合条件的排序特征点候选点。为了准确定位排序特征点,需要计算检测到的角点点阵的中心点坐标。对于右侧面,满足条件的排序特征点位于中心点的左侧。因此,可以通过以下步骤定位右侧面的排序特征点:
(1)计算中心点的坐标C1(x1,y1)。
(2)从所有检测到的角点中,筛选出与C1纵坐标最接近的n个角点。n至少为一列角点的数量。
(3)从这n个角点中,选择横坐标最小的角点,即可作为右侧面的排序特征点。
如图9所示为基于特征点双向拓展的角点排序方法右侧面实施例示意图,定位到排序特征点后,将该点作为排序起始点进行角点排序,生成与角点一一对应的世界坐标,其角点排序流程如下:
(1)右侧面的排序特征点O为排序起始点,将其世界坐标设为(0,0,0)。
(2)从所有检测到的角点中,找到距离O点欧氏距离最小的三个角点。然后,选择其中横坐标最大的角点作为点B(1,0,0)。接下来,从剩下的两个角点中,选择纵坐标最小且小于点O的角点作为点C(0,-1,0),并选择纵坐标最大且大于点O的角点作为点A(0,1,0)。
(3)以点C为新的起始点,找到距离点C欧氏距离最小的三个角点。然后,选择其中纵坐标最小且小于点C的角点作为点D(0,-2,0)。继续这个过程,直到找不到满足条件的角点,返回点A。
(4)从点A开始向下排序,找到距离点A欧氏距离最小的三个角点。然后,选择其中纵坐标最大且大于点A的角点作为点E(0,2,0)。继续这个过程,直到找不到满足条件的角点,返回点B。这样就完成了角点点阵的第一列排序,并生成与之一一对应的世界坐标。
(5)排除已经排序过的角点,以点B为新的起始点,按照相同的原理,找到距离点B欧氏距离最小的三个角点。选择其中横坐标最大的角点作为点G(2,0,0),然后从剩下的两个角点中,选择纵坐标最小且小于点B的角点作为点H(0,-2,0),并选择纵坐标最大且大于点B的角点作为点F(0,2,0)。
(6)继续以新的排序起始点进行双向拓展排序,每列角点排序完成后进行下一列排序。以此类推,直至所有角点完成排序,生成对应的世界坐标。
图10所示为边缘角点缺失实施例示意图。为了追求较高的角点覆盖率,拍摄到鱼眼箱左右面的图像往往会缺失一部分边缘角点,有时甚至出现排序特征点所在行的角点数小于其他行的情况,针对此情况,设点K(h,0,0)为角点数量最少行的末尾角点,在执行基于特征点双向拓展的角点排序算法时,当在点K所在列排序结束后,需要对剩余的角点进行补充排序。首先,对剩余的角点按照纵坐标从小到大进行排列。然后,从中选择纵坐标最小的角点L作为起点,并寻找点K所在列中距离角点L最近的角点M(h,l,0)。最后,点L(i,j,0)的纵坐标继承自点M,因此可以通过下式计算其世界坐标:
以此类推,将所有剩余的角点排序。同样的特征点定位及角点排序原理也适用于其他侧面。
由于中心面是标准行列的角点点阵,使用传统的角点排序方法即可对其进行排序并生成对应的世界坐标。
步骤五:基于精确的二维角点坐标集合及精确的二维角点坐标集合采用六参数除法模型实现鱼眼镜头标定,得到高精度鱼眼镜头内参。
步骤五中采用的鱼眼标定方法为基于六参数除法模型的鱼眼镜头标定方法。设(xd,yd)为图像畸变点的坐标,(xu,yu)为图像未畸变点的坐标,六参数除法模型表达式可由下式表示:
其中,rd和ru分别畸变点(xd,yd)和未畸变点(xu,yu)到畸变中心P的欧式距离,λi为径向畸变参数。为了简化后续的求解过程,接下来的详解部分将采用单参数DM模型:
设畸变中心P的坐标为(x0,y0),则图像中未畸变点的坐标为:
其中,rd为图像畸变点与畸变中心P(x0,y0)满足:
设直线方程y=kx+b,其中k为斜率,b为截距,即未畸变的直线方程为yu=kxu+b,代入上式可得:
由上式可以看出在单参数DM模型下,理想直线畸变为圆弧曲线,将其整理一下,得到下述等式:
其中,A、B、C满足如下条件:
其可以通过从图像中获取三个点从而求解出参数A、B、C及畸变中心,基于A、B、C之间的关系可以得到:
通过求解得到的A、B、C及畸变中心,带入上式经过一系列运算即可求得畸变参数λ,基于上述原理即可求解六参数DM模型。
基于鱼眼箱局部畸变较大的特性,采用上述方法,将DM模型求解至六个畸变参数,从而更准确地描述鱼眼箱图像的畸变程度。使用上述方法即可高精度地标定大广角鱼眼镜头。
本发明的实验验证:
为了验证本发明提出的一种大广角鱼眼镜头单次拍摄图像的相机标定设备及方法的有效性,使用200°视场角的一号鱼眼镜头,在32光源强度的条件下进行五次实验,实验结果如表一所示。实验数据分析发现,在对固定位置连续拍摄的5张图像进行标定时,有效焦距(EFL)的跳动量小于0.15,畸变中心(COD)的跳动量也明显小于0.15,并且畸变参数的跳动量都不超过0.01。实验结果表明,该方法具有出色的标定稳定性。
表一一号镜头实验数据表(光源强度32)
为了验证本发明提出的一种大广角鱼眼镜头单次拍摄图像的相机标定设备及方法的准确性,使用200°视场角的三颗鱼眼镜头,在32光源强度的条件下分别进行五次实验,实验结果如表一、表二、表三所示。实验数据分析发现,三颗镜头的重投影误差(RMS)均小于0.2,并且它们的RMS跳动量都明显小于0.005。这些实验结果表明,该方法具有出色的标定准确性。
表二二号镜头实验数据表(光源强度32)
表三三号镜头实验数据表(光源强度32)
为了验证本发明提出的一种大广角鱼眼镜头单次拍摄图像的相机标定设备及方法的鲁棒性,使用200°视场角的一号鱼眼镜头,在32和42光源强度的条件下分别进行五次实验,实验结果如表一、表四所示。实验数据分析发现,三颗镜头的重投影误差(RMS)均小于0.2,并且它们的RMS跳动量都明显小于0.005。这些实验结果表明,该方法具有出色的标定准确性。分析实验数据可知,对于同一颗镜头,在不同光强下执行本发明标定方法,其EFL、COD差异均小于0.1,且RMS的差异小于0.005。这表明,其标定精度几乎不受影响。此外,观察其不同光强下标定结果的跳动量,发现EFL的跳动量依然小于0.15,COD的跳动量也依然小于0.15,畸变参数的跳动量小于0.005,说明其标定稳定性几乎不受光强变化的影响。
表4一号镜头实验数据表(光源强度42)
为了验证本发明提出的一种大广角鱼眼镜头单次拍摄图像的相机标定设备及方法的优越性,使用200°视场角的一号鱼眼镜头,在32光源强度的条件下进行五次实验,并在相同条件下,使用一号镜头拍摄11张图像,作为传统鱼眼标定方法的实验对象,实验结果如图11、12所示。由图11、12可以看出,本发明与传统方法相比,在标定精度上取得了显著的提高。相对于传统方法,其RMS降低了8.56%。此外,本发明在运算时间方面也具有明显的优势。这些优势的主要原因包括以下几点:
(1)本发明采用了高精度的角点检测方法,能够在亚像素级别上优化角点坐标,确保了角点坐标的精确性。
(2)采用了基于六参数除法模型的鱼眼标定方法,提高了畸变校正的精度。
(3)本发明只需要处理分割后的少数图像,而传统方法需要处理大量图像,因此在整体算法的运行时间上具有优势。
此外,本发明还在图像拍摄时间方面具有优势,因为只需要拍摄一张图像,相对于拍摄11张图像的传统方法,大大缩短了标定的时间成本。因此,综合考虑精度、运算时间和拍摄时间,本发明提出的标定方法在多个方面都具备明显的优势。
本发明提出了一种适用于大广角鱼眼镜头的相机标定设备及方法。该方法包括两种分割算法、基于特征筛选的亚像素级角点检测方法以及基于六参数除法模型的鱼眼标定方法。与传统标定方法相比,本方法的主要优势如下:
(1)仅需拍摄一张图像,大大缩短了标定时间,提高了效率,。
(2)在同一颗镜头下,标定结果表现出良好的算法稳定性。
(3)使用不同镜头拍摄的图像,标定结果的RMS均小于0.2,表现出良好的算法准确性。
(4)在不同光强条件下拍摄的图像中,标定结果的跳动量较小,RMS数值也较小,表现出良好的算法鲁棒性。
(5)与传统鱼眼标定算法相比,本方法的标定误差降低了8.56%,且具有更快的执行速率。
因此,本发明提出的一种适用于大广角鱼眼镜头的相机标定设备及方法在标定精度和效率方面都表现出良好的性能,能够满足鱼眼镜头的标定需求。
Claims (7)
1.一种大广角鱼眼镜头单次拍摄图像的相机标定设备,其特征在于:这种大广角鱼眼镜头单次拍摄图像的相机标定设备为鱼眼箱,鱼眼箱为具有五个面的敞口长方体,鱼眼箱每个内表面上绘有规则的n×m行列分布的黑白色正方形棋盘格,黑白色正方形棋盘格外缘拼接环绕一圈黑白相间的棋盘小格,棋盘小格外设有闭合的黑色边框,黑色边框不与其中的棋盘小格格相交;鱼眼箱相邻两个黑色边框间设置间隙,各间隙分别位于鱼眼箱相邻两个内表面的边或棱处;鱼眼箱中心面的中心位置绘制两组相互垂直的线段,形成十字准星;鱼眼箱左右两个内表面的黑白色正方形棋盘格靠近中心面一行棋盘格的中间位置分别绘制圆形标志。
2.一种权利要求1所述的大广角鱼眼镜头单次拍摄图像的相机标定设备进行相机标定方法,其特征在于包括如下步骤:
步骤一:对单次拍摄的鱼眼箱图像进行一次分割,得到多张区域化分割图像,每张区域化分割图像仅包含单个黑白色正方形棋盘格的图像;
步骤二:对多张区域化分割图像进行二次分割,得到多张细致的棋盘格图像;
步骤三:对多张细致的棋盘格图像进行角点检测及亚像素精确化处理,以生成精确的二维角点坐标集合;
步骤四:根据精确的二维角点坐标集合进行角点排序,并映射到世界坐标系,计算角点覆盖率,得到与二维角点坐标一一对应的三维世界坐标集合;
步骤五:基于精确的二维角点坐标集合及精确的二维角点坐标集合采用六参数除法模型实现鱼眼镜头标定,得到高精度鱼眼镜头内参。
3.根据权利要求2所述的大广角鱼眼镜头单次拍摄图像的相机标定设备进行相机标定方法,其特征在于:所述步骤一中所述的一次分割方法为基于凸多边形逼近的图像分割方法:
(1)针对单次拍摄的鱼眼箱图像进行预处理,将其转化为灰度图像,再进行直方图均衡化和双边滤波处理;
(2)对经过预处理后的图像采用Canny算子进行边缘检测,将边缘的外围轮廓连接起来,以消除不连续的外围边缘,确保完整地检测到棋盘格的外围;
(3)在连接后的边缘图中,寻找新的轮廓,并根据其面积进行判断,以确定是否为有效轮廓,有效轮廓必须包含完整的封闭棋盘格;
(4)针对有效轮廓,采用凸多边形逼近的方法,创建凸多边形掩膜;
(5)利用凸多边形掩膜在原图中切割出单个棋盘格区域图像,分割得到的棋盘格区域图像含有两部分内容,即鱼眼箱四个内侧面的棋盘格及少部分误分割的中心面棋盘格。
4.根据权利要求3所述的大广角鱼眼镜头单次拍摄图像的相机标定设备进行相机标定方法,其特征在于:所述步骤二中二次分割采用基于图像取反的自适应阈值分割方法;
(1)针对切割出的单个棋盘格区域图像,将其转换为灰度图像,并执行自适应阈值化处理,生成二值化图像;
(2)对二值化图像进行轮廓检测;
(3)计算所有检测到的轮廓的面积,并找到面积最大的轮廓,将其标记为有效轮廓;
(4)基于有效轮廓创建掩膜,用于对二值化图像进行分割,得到分割图像。同时,将原始二值化图像与此分割图像进行像素相减,生成像素差值图像;
(5)设定图像像素阈值,用于对步骤(4)得到的分割图像、像素差值图像进行筛选,将满足条件的图像标记为二次分割有效图像,同时剔除不满足条件的图像;
(6)对二次分割有效图像进行图像像素的取反操作,将原始图像中不属于最大轮廓区域的部分像素设为白色。
5.根据权利要求4所述的大广角鱼眼镜头单次拍摄图像的相机标定设备进行相机标定方法,其特征在于:所述步骤三中角点检测方法采用基于特征筛选的亚像素级角点检测方法:
定义两种不同的角点模型:棋盘格理想位置时的角点模型和棋盘格旋转45°时的角点模型;
利用上述两种角点模型计算每个像素点的角点相似度,设fx i为卷积核X和模型i对于特定像素的卷积响应,则该像素的角点相似度通过两种模型的组合中取最大值来定义:
其中,表示两种不同情况下的角点模型,即左对角线为黑格,右对角线为白格及左对角线为白格,右对角线为黑格;
若四个卷积核中有任意一个其卷积响应较弱,则该处像素的角点相似度偏低;
通过上述计算获得一系列符合角点特征的像素点,这些像素点称为角点候选点,进行亚像素级的精确化处理,包括位置和边缘方向的精确化,确定图像中的角点位置和方向信息;
假设C是理想情况下角点的位置,P、Q分别是C局部邻域内的两个像素点,gP、gQ分别为P点和Q点的图像梯度向量,由于P点位于像素平坦区域,像素平坦区域梯度gP=0,因此Q点在边界上,梯度gQ向量方向垂直向下,(Q-C)方向水平向右,两向量方向互相垂直,因此故对于角点C,gN(N为角点C附近邻域内像素点)与(N-C)总是正交。即:
其中,C′为设定判断阈值K后符合C≥K的角点候选点,是角点候选点C′的邻域,该邻域大小取11×11;
相邻的像素点可由梯度幅度自动加权,如下式表示:
将边缘方向向量e1,e2,采用将其法线与图像梯度之间偏差的误差最小化的方法:
其中,是相邻像素点的集合,满足其与角点模型i的梯度mi对齐,mi=[cos(ai)sin(ai)]T,通过像素点筛选,获得精确的二维角点坐标集合。
6.根据权利要求5所述的大广角鱼眼镜头单次拍摄图像的相机标定设备进行相机标定方法,其特征在于:所述步骤四中角点排序方法为基于特征点双向拓展的角点排序方法,并生成相应的世界坐标;
步骤4.1,找到排序特征点从而实现双向拓展排序,排序特征点是指作为排序起始点的角点,其需要满足如下特征:
(1)排序特征点位于角点点阵的边缘,该边缘呈现曲线形状而非直线形状;
(2)排序特征点定位在上述边缘的中间位置;
(3)对于鱼眼箱,互为对称面的排序特征点为轴对称关系;
步骤4.2,计算检测到的角点点阵的中心点坐标,对于右侧面,满足条件的排序特征点位于中心点的左侧,通过以下步骤定位右侧面的排序特征点:
(1)计算中心点的坐标C1(x1,y1);
(2)从所有检测到的角点中,筛选出与C1纵坐标最接近的n个角点,n至少为一列角点的数量;
(3)从这n个角点中,选择横坐标最小的角点,作为右侧面的排序特征点;
步骤4.3,定位到排序特征点后,将该点作为排序起始点进行角点排序,生成与角点一一对应的世界坐标,其角点排序流程如下:
(1)右侧面的排序特征点O为排序起始点,将其世界坐标设为(0,0,0);
(2)从所有检测到的角点中,找到距离O点欧氏距离最小的三个角点,然后,选择其中横坐标最大的角点作为点B(1,0,0);接下来,从剩下的两个角点中,选择纵坐标最小且小于点O的角点作为点C(0,-1,0),并选择纵坐标最大且大于点O的角点作为点A(0,1,0);
(3)以点C为新的起始点,找到距离点C欧氏距离最小的三个角点,然后,选择其中纵坐标最小且小于点C的角点作为点D(0,-2,0),重复这个过程,直到找不到满足条件的角点,返回点A;
(4)从点A开始向下排序,找到距离点A欧氏距离最小的三个角点,然后,选择其中纵坐标最大且大于点A的角点作为点E(0,2,0);重复这个过程,直到找不到满足条件的角点,返回点B,完成角点点阵的第一列排序,并生成与之一一对应的世界坐标;
(5)排除已经排序过的角点,以点B为新的起始点,按照相同的方法,找到距离点B欧氏距离最小的三个角点,选择其中横坐标最大的角点作为点G(2,0,0),然后从剩下的两个角点中,选择纵坐标最小且小于点B的角点作为点H(0,-2,0),并选择纵坐标最大且大于点B的角点作为点F(0,2,0);
(6)以此类推,继续设新的起始点进行双向拓展排序,每列角点排序完成后进行下一列排序,直至所有角点完成排序,生成对应的世界坐标;
设点K(h,0,0)为角点数量最少行的末尾角点,在执行基于特征点双向拓展的角点排序算法时,当在点K所在列排序结束后,需要对剩余的角点进行补充排序;首先,对剩余的角点按照纵坐标从小到大进行排列,然后,从中选择纵坐标最小的角点L作为起点,并寻找点K所在列中距离角点L最近的角点M(h,l,0),最后,点L(i,j,0)的纵坐标继承自点M,通过下式计算其世界坐标:
以此类推,将右侧面所有剩余的角点排序,采用同样的方法进行其他侧面的角点排序并生成对应的世界坐标;
由于中心面是标准行列的角点点阵,使用传统的角点排序方法对中心面进行排序并生成对应的世界坐标。
7.根据权利要求6所述的大广角鱼眼镜头单次拍摄图像的相机标定设备进行相机标定方法,其特征在于:所述步骤五中采用的鱼眼镜头标定模型为六参数除法模型,设(xd,yd)为图像畸变点的坐标,(xu,yu)为图像未畸变点的坐标,六参数DM模型表达式:
其中,rd和ru分别畸变点(xd,yd)和未畸变点(xu,yu)到畸变中心P的欧式距离,λi为径向畸变参数,采用单参数DM模型:
设畸变中心P的坐标为(x0,y0),则图像中未畸变点的坐标为:
其中,rd为图像畸变点与畸变中心P(x0,y0)满足:
设直线方程y=kx+b,其中k为斜率,b为截距,即未畸变的直线方程为yu=kxu+b,代入上式可得:
由上式看出在单参数DM模型下,理想直线畸变为圆弧曲线,将其整理一下,得到下述等式:
其中,A、B、C满足如下条件:
其通过从图像中获取三个点求解出参数A、B、C及畸变中心,基于A、B、C之间的关系得到:
通过求解得到的A、B、C及畸变中心,求得畸变参数λ,求解六参数DM模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311372090.2A CN117576219A (zh) | 2023-10-21 | 2023-10-21 | 大广角鱼眼镜头单次拍摄图像的相机标定设备及标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311372090.2A CN117576219A (zh) | 2023-10-21 | 2023-10-21 | 大广角鱼眼镜头单次拍摄图像的相机标定设备及标定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117576219A true CN117576219A (zh) | 2024-02-20 |
Family
ID=89892536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311372090.2A Pending CN117576219A (zh) | 2023-10-21 | 2023-10-21 | 大广角鱼眼镜头单次拍摄图像的相机标定设备及标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117576219A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117876468A (zh) * | 2024-03-12 | 2024-04-12 | 常州信息职业技术学院 | 一种基于凸包的汽车灯光近光光型特征点检测方法和系统 |
CN117934598A (zh) * | 2024-03-21 | 2024-04-26 | 浙江大学 | 一种基于光学定位技术的桌面级刚体定位设备及方法 |
CN118333915A (zh) * | 2024-06-11 | 2024-07-12 | 武汉精立电子技术有限公司 | 一种广角lmd畸变标定方法、校正方法、装置及设备 |
-
2023
- 2023-10-21 CN CN202311372090.2A patent/CN117576219A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117876468A (zh) * | 2024-03-12 | 2024-04-12 | 常州信息职业技术学院 | 一种基于凸包的汽车灯光近光光型特征点检测方法和系统 |
CN117876468B (zh) * | 2024-03-12 | 2024-05-10 | 常州信息职业技术学院 | 一种基于凸包的汽车灯光近光光型特征点检测方法和系统 |
CN117934598A (zh) * | 2024-03-21 | 2024-04-26 | 浙江大学 | 一种基于光学定位技术的桌面级刚体定位设备及方法 |
CN117934598B (zh) * | 2024-03-21 | 2024-06-11 | 浙江大学 | 一种基于光学定位技术的桌面级刚体定位设备及方法 |
CN118333915A (zh) * | 2024-06-11 | 2024-07-12 | 武汉精立电子技术有限公司 | 一种广角lmd畸变标定方法、校正方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111260731B (zh) | 一种棋盘格亚像素级角点自适应检测的方法 | |
CN111243032B (zh) | 一种棋盘格角点全自动检测方法 | |
CN111640157B (zh) | 一种基于神经网络的棋盘格角点检测方法及其应用 | |
CN108369650B (zh) | 标识校准图案的可能特征点的方法 | |
CN105957015B (zh) | 一种螺纹桶内壁图像360度全景拼接方法及系统 | |
CN117576219A (zh) | 大广角鱼眼镜头单次拍摄图像的相机标定设备及标定方法 | |
CN108898147B (zh) | 一种基于角点检测的二维图像边缘平直化方法、装置 | |
CN109859226B (zh) | 一种图形分割的棋盘格角点亚像素的检测方法 | |
CN107228860B (zh) | 一种基于图像旋转周期特性的齿轮缺陷检测方法 | |
CN108122256B (zh) | 一种逼近状态下旋转目标位姿测量的方法 | |
CN107192716A (zh) | 一种基于轮廓特征的工件缺陷快速检测方法 | |
CN109035170B (zh) | 基于单网格图分段映射的自适应广角图像校正方法及装置 | |
CN115170669B (zh) | 基于边缘特征点集配准的识别定位方法及系统、存储介质 | |
CN104574339A (zh) | 一种用于视频监控的多尺度柱面投影全景图像生成方法 | |
CN111915485B (zh) | 一种特征点稀疏工件图像的快速拼接方法及系统 | |
CN110415304B (zh) | 一种视觉标定方法及系统 | |
CN109583365A (zh) | 基于成像模型约束非均匀b样条曲线拟合车道线检测方法 | |
CN110246079A (zh) | 基于b样条曲面拟合的摄像头畸变矫正方法、系统及介质 | |
CN111444948A (zh) | 一种图像特征提取与匹配方法 | |
CN110569845A (zh) | 一种试卷图像的校正方法及相关装置 | |
CN114998097A (zh) | 图像对齐方法、装置、计算机设备和存储介质 | |
CN111179347B (zh) | 基于区域性特征的定位方法、定位设备及存储介质 | |
CN112257721A (zh) | 一种基于Fast ICP的图像目标区域匹配方法 | |
CN114674826A (zh) | 基于布匹的视觉检测方法及检测系统 | |
CN113129397B (zh) | 一种基于图形几何关系的平行四边形编码标志的解码方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |