CN102128617B - 基于色标块的视觉实时测量方法 - Google Patents

基于色标块的视觉实时测量方法 Download PDF

Info

Publication number
CN102128617B
CN102128617B CN201010592895A CN201010592895A CN102128617B CN 102128617 B CN102128617 B CN 102128617B CN 201010592895 A CN201010592895 A CN 201010592895A CN 201010592895 A CN201010592895 A CN 201010592895A CN 102128617 B CN102128617 B CN 102128617B
Authority
CN
China
Prior art keywords
point
colour code
code piece
edge
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201010592895A
Other languages
English (en)
Other versions
CN102128617A (zh
Inventor
徐德
谭民
陈国栋
任艳青
张正涛
杨平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201010592895A priority Critical patent/CN102128617B/zh
Publication of CN102128617A publication Critical patent/CN102128617A/zh
Application granted granted Critical
Publication of CN102128617B publication Critical patent/CN102128617B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明是基于色标块的视觉实时测量方法,步骤S1:在机器人的背部上方设有已知尺寸的色标块;步骤S2:以单摄像机采集色标块的色标图像;步骤S3:跟踪色标块的中心点、长边中点和短边中点确定色标块图像区域;步骤S4:对色标图像按照设定的间隔和方向扫描处理获得具有亚像素精度的边缘点;步骤S5:将亚像素精度的色标块边缘点经最小二乘拟合获得四条边缘直线;步骤S6:求四条边缘直线的交点获得四个顶点的图像坐标;步骤S7:计算色标块新的中心点、新的一条长边中点和新的一条短边中点;步骤S8:利用n点透视算法求取机器人位姿;步骤S9:利用正交迭代算法对机器人位姿进行优化,得到机器人的姿态矩阵正交的位姿。

Description

基于色标块的视觉实时测量方法
技术领域
本发明属于机器人领域中的视觉测量,具体地说是用于机器人位姿测量的方法。
背景技术
目前比较常用的视觉测量方法主要包括双目立体视觉和基于n点透视(Perspective-n-Point,PnP)算法的单目视觉。由于双目立体视觉在每次测量时需要对两幅图像进行处理,并且需要进行特征点匹配,所以其实时性较差。单目视觉每次测量仅对一幅图像进行处理,其实时性比双目立体视觉高(徐德,谭民,李原,机器人视觉测量与控制,国防工业出版社,第130页,第140页,2008)。
在采用尺寸已知的矩形色标块作为机器人的标记,特征点的提取即为矩形色标块顶点的提取。目前比较常用的特征角点提取算法为:哈里斯(Harris)角点检测算法、最小核值相似区(Smallest Univalve SegmentAssimilating Nucleus,SUSAN)角点检测法,高斯差分(Difference-of-Gaussian,DoG)算子检测法等。上述算法在实时性较差,在色标块一个顶点被遮挡时,不能检测出该顶点。采用先求矩形色标块四条边缘直线,然后通过直线求交点获得特征角点的方法,可以有效地解决一个顶点被遮挡时的顶点特征提取问题。虽然目前有很多种边缘提取算法,如罗伯特(Robert)边缘算子、坎尼(Canny)边缘算子、索贝尔(Sobel)边缘算子、克瑞斯(Kirsch)边缘算子和普瑞维特(Prewitt)边缘算子等,然而这些边缘提取算法一般是对整幅图像进行处理,实时性不高(Zhang,Yang;Rockett,P.I.“The Bayesian Operating Point ofthe Canny Edge Detector,”IEEE Transactions on Image Processing,Vol.15,No.11,pp.3409-3416,2006)。在获得边缘点后,利用霍夫(Hough)变换提取直线,其实时性也较差。此外,目前的方法是在像素级精度边缘点的基础上得到的直线,求交点得到的特征点精度不高,影响了基于PnP方法视觉测量的精度,且测量结果中的姿态矩阵也不能保证是正交的。
发明内容
为了解决现有技术中利用交点得到的特征点精度不高,影响了基于PnP方法视觉测量的精度,且测量结果中的姿态矩阵也不能保证是正交的技术问题,本发明的目的在于提供用于机器人位姿高精度实时视觉测量、保证测量结果中的姿态矩阵的正交性的一种基于色标块的实时视觉测量方法。
为实现上述目的,本发明提供基于色标块的实时视觉测量方法解决问题的技术方案包括步骤如下:
步骤S1:在机器人的背部上方设有一个已知尺寸的色标块;
步骤S2:以单摄像机采集色标块的色标图像;
步骤S3:跟踪色标块的三点,所述三点是中心点、一条长边中点和一条短边中点,确定色标块图像区域;
步骤S4:对色标图像按照设定的间隔和方向扫描处理,获得具有亚像素精度的边缘点;
步骤S5:将亚像素精度的色标块边缘点经最小二乘拟合,获得四条边缘直线;
步骤S6:求四条边缘直线的交点,获得四个顶点的图像坐标;
步骤S7:计算色标块新的中心点、新的一条长边中点和新的一条短边中点;
步骤S8:利用n点透视算法,求取机器人位姿;
步骤S9:利用正交迭代算法对机器人位姿进行优化,得到机器人的姿态矩阵正交的位姿,循环测量则返回S3,单次测量则结束。
本发明的有益效果:本发明跟踪色标块三点确定色标块的图像区域,在此区域内按照一定间隔扫描出色标块的四组粗略边缘点,拟合出四条边缘直线,解决了边缘直线提取的实时性问题;本发明经过坐标变换,分别以各条边缘为纵坐标轴,按照边缘的横坐标计算业像素边缘点,从而将二维图像平面内的亚像素边缘点求取转换为在一维空间内的亚像素边缘点求取,既保证了亚像素边缘点的精度,又保证了算法的效率;本发明利用亚像素边缘点拟合出精确的边缘直线,求这些直线的交点得到色标块四个顶点的高精度图像坐标,解决了单摄像机视觉测量精度低的问题,解决了色标块一个角被遮挡时不能测量的问题;利用PnP和OI算法计算机器人的位姿,解决了测量结果中姿态矩阵的正交性问题。
本发明在色标块的一个顶点遮挡时仍然能够精确获得机器人的位姿;本发明能够保证机器人位姿中的姿态矩阵的正交性;本发明实时性好,对于640×480像素的图像,能够实现70次/秒测量;本发明测量精度高,在摄像机距离目标3000mm左右时的测量误差小于10mm。因此,本发明可以大幅度提高视觉测量的可用性。
附图说明
图1为单目视觉测量机器人位姿示意图。
图2A为本发明基于色标块的视觉实时测量方法的流程图。
图2B为本发明获得具有亚像素精度的边缘点的流程图。
图3为按照一定间隔和方向快速扫描边缘点示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
请参阅图1示出单目视觉测量机器人位姿示意图,利用机器人1、色标块2、摄像机3、网络线4和计算机5,本发明利用粘贴到机器人背部上方的色标块作为机器人的标记,针对色标块提出了一种新的图像处理和特征提取方法,以快速获得矩形色标块四个顶点的高精度图像坐标。
如图2A示出本发明基于色标块的视觉实时测量方法的流程图,其步骤包括如下:
步骤S1:在机器人1的背部上方设有一个已知尺寸的色标块2;
步骤S2:以单摄像机3采集色标块2的色标图像;
步骤S3:跟踪色标块2的三点,所述三点是中心点、一条长边中点和一条短边中点,确定色标块2图像区域;
步骤S4:对色标图像按照设定的间隔和方向扫描处理,获得具有亚像素精度的边缘点;
步骤S5:将亚像素精度的色标块2的边缘点经最小二乘拟合,获得四条边缘直线;
步骤S6:求四条边缘直线的交点,获得四个顶点的图像坐标;
步骤S7:计算色标块2新的中心点、新的一条长边中点和新的一条短边中点;
步骤S8:利用n点透视(Perspective-n-Point,PnP)算法,求取机器人1的位姿;
步骤S9:利用正交迭代(Orthogonal Iteration,OI)算法对机器人1的位姿进行优化,得到机器人1的姿态矩阵正交的位姿,循环测量则返回S3,单次测量则结束。
如图2B示出获得具有亚像素精度边缘点的步骤如下:
步骤S41:在步骤S3确定的色标块图像区域内,按照设定间隔和方向快速扫描边缘点,获得对应于色标块四条边缘的四组边缘点;
步骤S42:针对四组边缘点,利用随机采样一致性(RANdom SAmpleConsensus,RANSAC)方法去除偏差较大的噪声点,获得四组有效边缘点;
步骤S43:针对四组有效边缘点,利用最小二乘拟合出四条边缘直线;
步骤S44:针对四条边缘直线分别进行坐标变换,依次使得各条边缘为纵坐标轴;
步骤S45:分别针对为纵坐标轴的各条边缘上的有效边缘点,求取具有亚像素精度的边缘点。
其中,所述亚像素精度的边缘点采用如下公式求取:
μ = x 2 + x 1 + 2 x 0 4 - σ 2 ln ( I 0 / I 1 ) 4 ( x 1 - x 0 ) - σ 2 ln ( I 0 / I 2 ) 4 ( x 2 - x 0 ) ,
式中,μ为具有亚像素精度的边缘点,x0为原边缘上一点的横坐标,x1为原边缘上外侧距离一个像素点的横坐标,x2为原边缘上外侧距离两个像素点的横坐标,σ为预先统计获得的摄像机成像的近似高斯分布方差,I0为对应于x0的原边缘上一点的像素灰度值,I1为对应于x1的原边缘外一点的像素灰度值,I2为对应于x2的原边缘外一点的像素灰度值。
其中,所述设定间隔的范围设为10至20像素。本实施例中间隔设置为10个像素。
其中,所述色标块是矩形色标块或是四边形色标块。实施例中色标块2选用了红色,但也可以选择其他颜色。
其中,所述摄像机是彩色摄像机或是黑白摄像机。
请参阅图2A和图3。在图像处理中,首先跟踪色标块2中心点0mm、一条长边中点Pum和一条短边中点Pvm
P vm = ( P 1 m + P 2 m ) / 2 P um = ( P 2 m + P 3 m ) / 2 O mm = ( P 1 m + P 2 m + P 3 m + P 4 m ) / 4 - - - ( 1 )
其中,P1m、P2m、P3m、P4m是上一次获得的色标块2的四个特征顶点。
根据上一幅色标图像中中心点Omm、长边中点Pum和短边中点Pvm的图像坐标,向四周扩展一定区域作为当前色标图像中色标块2所在的图像区域。在图像区域内按照10个像素的间隔,分别按照中心点Omm到长边中点Pum的方向和中心点Omm到短边中点Pvm的方向,扫描获得对应于色标块2的四条边缘P1mP2m、P2mP3m、P3mP4m、P4mP1m上的四组边缘点{EG1i,i=1,2,…,N1}、{EG2i,i=1,2,…,N2}、{EG3i,i=1,2,…,N3}、{EG4i,i=1,2,…,N4},其中N1、N2、N3和N4分别是四组边缘点的个数,经过RANSAC去噪后得到四组有效边缘点{EG1j,j=1,2,…,Ns1}、{EG2j,j=1,2,…,Ns2}、{EG3j,j=1,2,…,Ns3}、{EG4j,j=1,2,…,Ns4},其中Ns1、Ns2、Ns3和Ns4分别是四组有效边缘点的个数,利用有效边缘点拟合出四条边缘直线L1、L2、L3、L4
根据每条边缘直线L1、L2、L3、L4方向,分别对四组有效边缘点{EG1j,j=1,2,…,Ns1}、{EG2j,j=1,2,…,Ns2}、{EG3j,j=1,2,…,Ns3}、{EG4j,j=1,2,…,Ns4}进行旋转变换,依次使得各条边缘直线作为变换后的纵轴。根据预先统计获得的摄像机3成像的近似高斯分布,沿横轴即垂直于各条边缘的方向,分别求取具有亚像素精度的边缘点。
以边缘直线L1和有效边缘点{EG1j=(u1j,v1j),j=1,2,…,Ns1}为例,说明亚像素精度的边缘点的求取。按照直线L1的方向进行旋转变换,使得直线L1的方向作为变换后的纵轴。经过变换后,有效边缘点EG1j的图像坐标(u1j,v1j)被变换为(x1j0,y1j0)。根据变换后有效边缘点EG1j的图像坐标(x1j0,y1j0)以及外侧图像点的坐标,按照下式计算有效边缘点EG1j变换后的亚像素精度的图像横坐标:
μ 1 j = x 1 j 2 + x 1 j 1 + 2 x 1 j 0 4 - σ 2 ln ( I 1 j 0 / I 1 j 1 ) 4 ( x 1 j 1 - x 1 j 0 ) - σ 2 ln ( I 1 j 0 / I 1 j 2 ) 4 ( x 1 j 2 - x 1 j 0 ) - - - ( 2 )
其中,μ1j为变换后有效边缘点EG1j具有亚像素精度的横坐标,σ为预先统计获得的摄像机3成像的近似高斯分布方差,x1j0为变换后有效边缘点EG1j的图像横坐标,x1j1为EG1j外侧的距离一个像素点的横坐标,x1j2为EG1j外侧距离两个像素点的横坐标,I1j0为对应于x1j0的边缘点EG1j的像素灰度值,I1j1为对应于x1j1的EG1j外侧的距离一个像素点的像素灰度值,I1j2为对应于x1j2的EG1j外侧距离两个像素点的像素灰度值。
边缘点EG1j具有亚像素精度的图像坐标为(μ1j,y1j0),按照直线L1的方向进行反向旋转变换,得到EG1j在原图像中具有亚像素精度的图像坐标,记为EGa1j=(ua1j,va1j)。利用具有亚像素精度的边缘点{EGa1j=(ua1j,va1j),j=1,2,…,Ns1},经过最小二乘拟合得到精确的边缘直线La1。同样地,利用边缘直线L2、L3、L4和有效边缘点{EG2j,j=1,2,…,Ns2}、{EG3j,j=1,2,…,Ns3}、{EG4j,j=1,2,…,Ns4},可以得到具有亚像素精度的边缘点{EGa2j=(ua2j,va2j),j=1,2,…,Ns2}、{EG3j=(ua3j,va3j),j=1,2,…,Ns3}、{EG4j=(ua4j,va4j),j=1,2,…,Ns4},经过最小二乘拟合得到精确的边缘直线La2、La3、La4。利用精确的边缘直线La1、La2、La3、La4求交点,获得色标块2的四个顶点P1m、P2m、P3m、P4m的精确图像坐标。由四个顶点P1m、P2m、P3m、P4m的精确图像坐标,利用PnP算法获得色标块2相对于摄像机3的位姿作为机器人1的位姿的初始值,经过OI优化得到机器人1的位姿。
本发明的视觉测量具体步骤总结如下:
1)跟踪色标块三点,即中心点Omm、一条长边中点Pum和一条短边中点Pvm,确定色标块图像区域;
2)按照10个像素间隔以Omm到Pum的方向和Omm到Pvm方向快速扫描边缘点;
3)利用RANSAC去除噪点,获得四组有效边缘点;
4)利用最小二乘拟合出四条边缘直线;
5)针对四条边缘分别进行坐标变换,依次使得各条边缘为纵坐标轴;
6)针对四条边缘,分别求取具有亚像素精度的边缘点;
7)以亚像素精度的边缘点,利用最小二乘拟合出四条边缘直线;
8)求取四条直线的交点;
9)计算新的色标块中心点Omm、一条长边中点Pum和一条短边中点Pvm
10)利用PnP算法求取机器人1位姿;
11)进行OI优化,得到机器人1的姿态矩阵正交的位姿。
本发明在色标块2的一个顶点遮挡时,仍然能够获得精确的色标块2的边缘点,从而获得机器人1的精确位姿。本发明的机器人1位姿经过了OI迭代优化,能够保证机器人1位姿中的姿态矩阵的正交性。本发明以亚像素精度的边缘点计算出色标块2四个顶点的图像坐标,再以PnP算法求取出机器人1位姿作为OI迭代的初始值,该初始值与OI迭代后机器人的精确位姿非常接近,因而OI迭代仅需执行很少的步数就能收敛。本发明图像处理和特征提取算法的计算复杂度低,OI迭代步数少,故本发明具有很好的实时性。本发明以亚像素精度求取边缘点,又经过最小二乘拟合求取边缘直线和OI迭代优化姿态,所以本发明测量精度高。因此,本发明能够可以大幅度提高视觉测量的可用性,能够实现机器人1位姿的高精度实时视觉测量。
在实施例中,矩形色标块2为红色,尺寸为220×160mm;摄像机3采用GC660高速彩色摄像机,采集帧率最高120帧/秒,计算机4采用DellInspiron 545S。
首先,在机器人1前面的桌子上建立世界坐标系,利用公知的方法对摄像机3的内参数和摄像机3相对于世界坐标系的外参数进行了标定。
其次,针对摄像机3与机器人1之间的设定距离范围2800mm至3300mm,通过离线的概率统计方法获得边缘直线的高斯分布像素方差。
当机器人1处于不同位姿时,分别利用本发明方法和传统方法对机器人1的位姿进行了测量。本发明方法按照前述步骤1至步骤11实现测量。传统方法按照Canny方法检测边缘,利用Hough变换提取直线,然后利用前述步骤10和步骤11实现测量。测量结果见表1。由表1可以发现,本发明的测量误差明显小于传统方法,约为传统方法的1/3。利用本发明每秒可测量70次左右,传统方法每秒仅能测量10次左右。
可见,本发明能够实现机器人位姿的高精度实时视觉测量。
表1目标处于不同位置时的测量结果
Figure BSA00000389271800081
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的权利要求书的保护范围之内。

Claims (6)

1.一种利用色标块的实时视觉测量方法,其特征在于,该方法包括步骤如下:
步骤S1:在机器人的背部上方设有一个已知尺寸的色标块;
步骤S2:以单摄像机采集色标块的色标图像;
步骤S3:跟踪色标块的三点,所述三点是中心点、一条长边中点和一条短边中点,确定色标块图像区域;
步骤S4:对色标图像按照设定的间隔和方向扫描处理,获得具有亚像素精度的边缘点;
步骤S5:将亚像素精度的色标块边缘点经最小二乘拟合,获得四条边缘直线;
步骤S6:求四条边缘直线的交点,获得四个顶点的图像坐标;
步骤S7:计算色标块新的中心点、新的一条长边中点和新的一条短边中点;
步骤S8:通过求得的四个顶点的图像坐标,利用n点透视算法,求取色标块相对于摄像机的位姿作为机器人位姿的初始值;
步骤S9:利用正交迭代算法对机器人位姿进行优化,得到机器人的姿态矩阵正交的位姿,循环测量则返回S3,单次测量则结束。
2.如权利要求1所述利用色标块的实时视觉测量方法,其特征在于,获得具有亚像素精度的边缘点的步骤如下:
步骤S41:在步骤S3确定的色标块图像区域内,按照设定间隔和方向快速扫描边缘点,获得对应于色标块四条边缘的四组边缘点;
步骤S42:针对四组边缘点,利用随机采样一致性方法去除偏差较大的噪声点,获得四组有效边缘点;
步骤S43:针对四组有效边缘点,利用最小二乘拟合出四条边缘直线;
步骤S44:针对四条边缘直线分别进行坐标变换,依次使得各条边缘为纵坐标轴;
步骤S45:分别针对为纵坐标轴的各条边缘上的有效边缘点,求取具有亚像素精度的边缘点。
3.如权利要求2所述利用色标块的实时视觉测量方法,其特征在于,所述亚像素精度的边缘点采用如下公式求取:
μ = x 2 + x 1 + 2 x 0 4 - σ 2 ln ( I 0 / I 1 ) 4 ( x 1 - x 0 ) - σ 2 ln ( I 0 / I 2 ) 4 ( x 2 - x 0 ) ,
其中,μ为具有亚像素精度的边缘点,x0为原边缘上一点的横坐标,x1为原边缘上外侧距离一个像素点的横坐标,x2为原边缘上外侧距离两个像素点的横坐标,σ为预先统计获得的摄像机成像的近似高斯分布方差,I0为对应于x0的原边缘上一点的像素灰度值,I1为对应于x1的原边缘外一点的像素灰度值,I2为对应于x2的原边缘外一点的像素灰度值。
4.如权利要求1所述利用色标块的实时视觉测量方法,其特征在于,所述设定间隔范围为10至20像素。
5.如权利要求1所述利用色标块的实时视觉测量方法,其特征在于,所述色标块是四边形色标块。
6.如权利要求1所述利用色标块的实时视觉测量方法,其特征在于,所述摄像机是彩色摄像机或是黑白摄像机。
CN201010592895A 2010-12-08 2010-12-08 基于色标块的视觉实时测量方法 Expired - Fee Related CN102128617B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201010592895A CN102128617B (zh) 2010-12-08 2010-12-08 基于色标块的视觉实时测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201010592895A CN102128617B (zh) 2010-12-08 2010-12-08 基于色标块的视觉实时测量方法

Publications (2)

Publication Number Publication Date
CN102128617A CN102128617A (zh) 2011-07-20
CN102128617B true CN102128617B (zh) 2012-10-03

Family

ID=44266799

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010592895A Expired - Fee Related CN102128617B (zh) 2010-12-08 2010-12-08 基于色标块的视觉实时测量方法

Country Status (1)

Country Link
CN (1) CN102128617B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809687B (zh) * 2016-03-08 2019-09-27 清华大学 一种基于图像中边沿点信息的单目视觉测程方法
CN108121332A (zh) * 2016-11-28 2018-06-05 沈阳新松机器人自动化股份有限公司 基于二维码的室内移动机器人定位装置及方法
CN109345550A (zh) * 2018-08-07 2019-02-15 信利光电股份有限公司 结构光图像的光斑角点抓取方法、装置及可读存储介质
CN109079788B (zh) * 2018-08-22 2020-04-14 厦门理工学院 一种基于人形机器人的国际象棋下棋方法及人形机器人
CN113139987A (zh) * 2021-05-06 2021-07-20 太原科技大学 一种视觉循迹四足机器人及其循迹线的特征信息提取算法
CN116151290B (zh) * 2023-02-21 2023-10-24 广州玺明机械科技有限公司 一种智能化扫码调制奶茶机器人的信息采集系统及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101718548A (zh) * 2009-11-26 2010-06-02 西北工业大学 基于平面标志物的位姿处理方法
CN101865656A (zh) * 2010-06-18 2010-10-20 浙江大学 一种使用少数共面点精确定位多摄像头系统位姿的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4953239B2 (ja) * 2006-12-11 2012-06-13 インターナショナル・ビジネス・マシーンズ・コーポレーション 観測対象の異常を検出する技術

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101718548A (zh) * 2009-11-26 2010-06-02 西北工业大学 基于平面标志物的位姿处理方法
CN101865656A (zh) * 2010-06-18 2010-10-20 浙江大学 一种使用少数共面点精确定位多摄像头系统位姿的方法

Also Published As

Publication number Publication date
CN102128617A (zh) 2011-07-20

Similar Documents

Publication Publication Date Title
CN102128617B (zh) 基于色标块的视觉实时测量方法
CN100557635C (zh) 一种基于柔性立体靶标的摄像机标定方法
CN110823252B (zh) 一种多线激光雷达和单目视觉的自动标定方法
CN109272574B (zh) 基于投影变换的线阵旋转扫描相机成像模型构建方法和标定方法
Wang et al. Recognition and location of the internal corners of planar checkerboard calibration pattern image
CN107507277B (zh) 三维点云重构方法和装置、服务器及可读存储介质
CN112132907B (zh) 一种相机标定方法、装置、电子设备及存储介质
CN111996883B (zh) 一种检测公路路面宽度的方法
CN104657982A (zh) 一种投影仪标定方法
CN104766309A (zh) 一种平面特征点导航定位方法与装置
CN104331900A (zh) Ccd摄像机标定中角点亚像素定位方法
CN108010086A (zh) 基于网球场标志线交点的摄像机标定方法、装置和介质
CN107977996A (zh) 基于靶标标定定位模型的空间目标定位方法
CN105678719A (zh) 一种全景拼接接缝处平滑方法及装置
Miksch et al. Automatic extrinsic camera self-calibration based on homography and epipolar geometry
CN116152068A (zh) 一种可用于太阳能板图像的拼接方法
CN112797900B (zh) 多相机板材尺寸测量方法
CN111951339A (zh) 利用异构双目相机进行视差计算的图像处理方法
CN115330684A (zh) 基于双目视觉与线结构光的水下构筑物表观缺陷检测方法
Lü et al. A stereo vision measurement system Based on OpenCV
KR100824744B1 (ko) 모서리 형태를 이용한 이동로봇의 자기위치 검출 시스템 및방법
CN112446926B (zh) 一种激光雷达与多目鱼眼相机的相对位置标定方法及装置
CN102637094A (zh) 应用于光学式触控装置的校正信息计算方法及系统
CN102768710A (zh) 利用瞳距估算人体脸部宽度的方法
CN103307979A (zh) 基于计算机视觉的水果体积测量方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20121003

Termination date: 20211208