CN112258455A - 基于单目视觉检测零件空间位置的检测方法 - Google Patents

基于单目视觉检测零件空间位置的检测方法 Download PDF

Info

Publication number
CN112258455A
CN112258455A CN202011038750.XA CN202011038750A CN112258455A CN 112258455 A CN112258455 A CN 112258455A CN 202011038750 A CN202011038750 A CN 202011038750A CN 112258455 A CN112258455 A CN 112258455A
Authority
CN
China
Prior art keywords
image
detecting
camera
coordinates
spatial position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011038750.XA
Other languages
English (en)
Inventor
孟金旭
单鸿涛
袁翔
林熊玺
赵文洁
孟帆海
关同昊
廖云峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai University of Engineering Science
Original Assignee
Shanghai University of Engineering Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai University of Engineering Science filed Critical Shanghai University of Engineering Science
Priority to CN202011038750.XA priority Critical patent/CN112258455A/zh
Publication of CN112258455A publication Critical patent/CN112258455A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及一种基于单目视觉检测零件空间位置的检测方法,包括如下步骤:(1)标定并校准相机;(2)为图像的世界坐标的建立做准备;(3)为图像二值化做准备;(4)进行图像二值化;(5)建立图像的世界坐标;(6)图像边缘检测;(7)精准检测图像中的直线;(8)获取角点的二维坐标;(9)获取角点的三维坐标;(10)计算误差。本发明利用单目视觉技术检测物体的位置,减小了物块的横向误差和纵向误差,实现了很好的物块横向检测效果和纵向检测效果,利用该技术可以实现立方体角点的定位,进而可以应用到立方体的拼接过程中,实现更加精准的拼接和焊接。

Description

基于单目视觉检测零件空间位置的检测方法
技术领域
本发明属于机器人视觉技术领域,涉及一种基于单目视觉检测零件空间位置的检测方法。
背景技术
双目视觉技术已经发展几年,双目的方案,两个镜头理论上要一模一样,因为一旦存在差异,会使得测量的准确性大打折扣。双目摄像头,由于本身测距的原理,导致会要求两个镜头之间的误差越小越好。如果两个镜头各自都有5%左右的误差,那么对于后期调教的算法,难度就会加大许多,而且还不能保证确定性。双目摄像头同时也存在摆放位置的问题。两个镜头之间的距离是10~20cm之间,这个距离需要非常精准,因为这会直接关系到测距的准确性。
传统的基于双目视觉检测技术的零件检测系统有其优点:成本低,室内外都适用等,但也有如下缺点:对环境光照非常敏感,不适用于单调缺乏纹理的场景,计算复杂度高,且相机基线限制了测量范围。由此可见,双目视觉检测技术的特征匹配较为繁琐。
发明内容
本发明的目的是解决现有技术中存在的上述问题,提供一种基于单目视觉检测零件空间位置的检测方法。本发明是对目前机械臂自动化的检测物块空间位置的模拟与实现,目的在于提供一个稳定高效的、通过单目摄像机定位被检测零件的方法,代替双目视觉繁琐的特征匹配。
为达到上述目的,本发明采用的技术方案如下:
基于单目视觉检测零件空间位置的检测方法,包括以下步骤:
(1)标定并校准相机;
相机为单目摄像机;
(2)为图像的世界坐标的建立做准备;
在零件所在的水平面上绘制一个十字标记,零件为立方体,且高垂直于水平面;
(3)为图像二值化做准备;
使用标定和校准后的相机对零件及十字标记进行拍摄,拍摄时调整拍摄角度使得零件的上表面、零件的两个侧面和十字标记同时完全呈现在图像中;
(4)进行图像二值化;
将步骤(3)得到的图像二值化;二值化的目的是为了简化图像处理过程与增加图像的精度;
(5)建立图像的世界坐标;
检测步骤(4)得到的二值化图像中十字标记的图像坐标后,将其转换为十字标记的相机坐标,再将十字标记的相机坐标转换为十字标记的世界坐标,最后结合十字标记的世界坐标和相机的标定结果建立图像的世界坐标;
其中,将十字标记的相机坐标转换为十字标记的世界坐标采用的公式如下:
Figure BDA0002705938420000021
式中,Xc、Yc、Zc为相机坐标;R为3×3矩阵,R为旋转矩阵,是x、y、z三个轴向旋转矩阵的乘积,即R=Rx×Ry×Rz;t为3×1矩阵,t为平移向量,表示三个轴向上的平移距离,即t=[tx,ty,tz]T;0为(0,0,0);T上标表转置;X、Y、Z为世界坐标;Lw为由旋转平移构成的一个4×4的矩阵;
(6)图像边缘检测;
对步骤(4)得到的二值化图像进行边缘检测,得到边缘直线图像;
(7)精准检测图像中的直线;
采用霍夫线变换由步骤(6)得到的边缘直线图像得到变换后的边缘直线图像;
(8)获取角点的二维坐标;
采用角点检测算法由步骤(7)得到的变换后的边缘直线图像得到零件的各个角点的二维坐标;
(9)获取角点的三维坐标;
将步骤(8)得到的零件的各个角点的二维坐标输入到步骤(5)得到的图像的世界坐标中,得到零件的各个角点的三维坐标,即确定零件的空间位置。
作为优选的技术方案:
如上所述的基于单目视觉检测零件空间位置的检测方法,还包括以下步骤:
(10)将步骤(9)得到的零件的各个角点的三维坐标与实际三维坐标进行比较,计算误差。
如上所述的基于单目视觉检测零件空间位置的检测方法,步骤(1)具体为:首先通过相机对标定板进行不同角度的拍摄来采集标定板图像,并从中选取多张图像,然后读取选取的图像,对图像进行角点检测,利用张正友标定法计算得到图像的旋转矩阵、平移矩阵、相机的内外参数以及畸变系数矩阵,然后根据所得的旋转矩阵、平移矩阵、相机的内外参数进行相机的标定,最后通过畸变系数矩阵对标定结果进行校正。
如上所述的基于单目视觉检测零件空间位置的检测方法,标定板的材质为氧化铝,大小为70×70mm2;氧化铝具有表面漫反射不反光和不易热膨胀的特点,同时70×70mm2较小的面积可以使得在1m以内(贴近的实际实验中摄像头和物块的距离)仍可以使标定板在相机的视场和景深范围中拍出全貌。
如上所述的基于单目视觉检测零件空间位置的检测方法,步骤(3)中,拍摄时采用LED手电筒照射零件,LED手电筒的功率为3W,LED手电筒与零件的距离为1.2m。
如上所述的基于单目视觉检测零件空间位置的检测方法,步骤(4)中采用最大类间方差方法确定最佳的灰度阈值;通过计算目标图像和背景图像之间的方差,当方差取达到最大值时找到阈值,阈值通过OTSU自动阈值分割算法获得,当阈值是高于该阈值中属于目标对象的灰度值,又是低于该阈值中属于背景图像的灰度值便是最佳阈值。
如上所述的基于单目视觉检测零件空间位置的检测方法,步骤(6)中的边缘检测采用Canny算子。
如上所述的基于单目视觉检测零件空间位置的检测方法,步骤(7)中的霍夫线变换为多尺度霍夫线变换;霍夫线变换是一种在图像中寻找直线的方法,OpenCV中支持三种霍夫线变换,分别是标准霍夫线变换、多尺度霍夫线变换和累计概率霍夫线变换,本发明经过对比使用的是效果更好的多尺度霍夫线变换。
如上所述的基于单目视觉检测零件空间位置的检测方法,步骤(8)中的角点检测算法为Shi-Tomasi算法。
如上所述的基于单目视觉检测零件空间位置的检测方法,步骤(10)中的误差为:零件的各个角点的X坐标或Y坐标的误差绝对值小于等于2.01mm,Z坐标的误差绝对值小于等于0.54mm;假设检测得到的零件的某个角点的三维坐标为(Xt,Yt,Zt),而该角点的实际三维坐标为(Xa,Ya,Za),则该角点的X坐标误差绝对值=|Xt-Xa|,该角点的Y坐标误差绝对值=|Yt-Ya|,该角点的Z坐标误差绝对值=|Zt-Za|;本发明利用单目视觉技术检测物体的位置,实现了物块横向(X、Y轴方向)检测效果比较好,减小了径向畸变,使纵向(Z轴方向)检测也达到了很好的效果,实验结果表明,Z坐标的误差绝对值最小,X坐标或Y坐标的误差绝对值稍微大一点,但是误差的范围还是比较小的,所以可以看出本发明使检测的纵向和横向误差都实现了比较好的效果;此外,本发明使用的器材是一般性器材,针对本实验如果采用更加精密的仪器就可以实现更加好的效果,采用更加精密的镜头可以减小径向畸变。
有益效果:
(1)本发明利用单目视觉技术检测物体的位置,减小了物块的横向误差和纵向误差,实现了很好的物块横向检测效果和纵向检测效果;
(2)本发明通过各种环节的技术优化实现了目前来说的最佳效果,将检测误差与实际物体的定位误差降到了最低,利用该技术可以实现立方体角点的定位,进而可以应用到立方体的拼接过程中,实现更加精准的拼接和焊接。
附图说明
图1为基于单目视觉检测零件空间位置的检测方法的流程图;
图2为二值化图像;
图3为边缘直线图像;
图4为确定角点的三维坐标后的零件图像。
具体实施方式
下面结合具体实施方式,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
基于单目视觉检测零件空间位置的检测方法,如图1所示,步骤如下:
(1)标定并校准相机;
相机为单目摄像机;
标定和校准的具体过程为:首先通过相机对标定板(标定板的材质为氧化铝,大小为70×70mm2)进行不同角度的拍摄来采集标定板图像,并从中选取多张图像,然后读取选取的图像,对图像进行角点检测,利用张正友标定法计算得到图像的旋转矩阵、平移矩阵、相机的内外参数以及畸变系数矩阵,然后根据所得的旋转矩阵、平移矩阵、相机的内外参数进行相机的标定,最后通过畸变系数矩阵对标定结果进行校正;
(2)为图像的世界坐标的建立做准备;
在零件所在的水平面上绘制一个十字标记,零件为立方体,且高垂直于水平面;
(3)为图像二值化做准备;
使用标定和校准后的相机对零件及十字标记进行拍摄,拍摄时调整拍摄角度使得零件的上表面、零件的两个侧面和十字标记同时完全呈现在图像中,拍摄时采用LED手电筒照射零件,LED手电筒的功率为3W,LED手电筒与零件的距离为1.2m;
(4)进行图像二值化;
采用最大类间方差方法确定最佳的灰度阈值,将步骤(3)得到的图像二值化;
(5)建立图像的世界坐标;
检测步骤(4)得到的二值化图像中十字标记的图像坐标后,将其转换为十字标记的相机坐标,再将十字标记的相机坐标转换为十字标记的世界坐标,最后结合十字标记的世界坐标和相机的标定结果建立图像的世界坐标;
(6)图像边缘检测;
采用Canny算子对步骤(4)得到的二值化图像进行边缘检测,得到边缘直线图像;
(7)精准检测图像中的直线;
采用多尺度霍夫线变换由步骤(6)得到的边缘直线图像得到变换后的边缘直线图像;
(8)获取角点的二维坐标;
采用Shi-Tomasi算法由步骤(7)得到的变换后的边缘直线图像得到零件的各个角点的二维坐标;
(9)获取角点的三维坐标;
将步骤(8)得到的零件的各个角点的二维坐标输入到步骤(5)得到的图像的世界坐标中,得到零件的各个角点的三维坐标,即确定零件的空间位置;
(10)计算误差;
将步骤(9)得到的零件的各个角点的三维坐标与实际三维坐标进行比较,计算误差,实验结果表明:零件的各个角点的X坐标或Y坐标的误差绝对值小于等于2.01mm,Z坐标的误差绝对值小于等于0.54mm。
现结合具体应用场景对上述方法进行说明:
基于单目视觉检测零件空间位置的检测方法,如图1所示,步骤如下:
(1)标定并校准相机;
相机为单目摄像机;
标定和校准的具体过程为:首先通过相机对标定板(标定板的材质为氧化铝,大小为70×70mm2)进行不同角度的拍摄来采集标定板图像,并从中选取多张图像(在拍取30张标定板的图片之后,选择13张角度差别较大的,并且角点可以清晰可见的图片进行标定,将这几张图片统一的命名保存在程序的根目录里面,然后在根目录里面创建一个txt文件,将图片的链接输入其中),然后读取选取的图像(在OpenCv中会依次的读取10张指定照片,接着会对图片的大小进行分析,由于事先挑选好图片,所以每一张的图片都可以检测出事先设定好的角点数量,否则会直接出错),对图像进行角点检测(处理图像的个数为10,实现输入内部角点的横纵数量,角点的横纵数量应该是一奇一偶,不然无法确定纵横关系,接着会依次弹出10幅图,在每幅标定图像中,用会用红绿两种颜色圈出检测出来的角点),利用张正友标定法计算得到图像的旋转矩阵、平移矩阵、相机的内外参数以及畸变系数矩阵,然后根据所得的旋转矩阵、平移矩阵、相机的内外参数进行相机的标定,最后通过畸变系数矩阵对标定结果进行校正(在标定好结果之后可以通过利用projectPoints()函数对空间的三维点进行重新投影计算,得到校正之后的点坐标,这个坐标可以与之前得到的亚像素坐标进行比对并计算偏差,偏差越小代表校正的结果也就越正确,同时生成标定后的图片可以直观的看到校正之后的结果);
(2)为图像的世界坐标的建立做准备;
在零件所在的水平面上绘制一个十字标记(十字标作为特征线,用于定位零件下平面的3个点),零件为立方体,且高垂直于水平面,使得零件下平面的三个点可以作为上平面定位时的特征点;为了简化图像处理过程与增加图像的精度,实验过程中选择的具有鲜艳颜色的小木块作为零件,同时将其放在白色的背景之上;
(3)为图像二值化做准备;
使用标定和校准后的相机对零件及十字标记进行拍摄,拍摄时调整拍摄角度使得零件的上表面、零件的两个侧面和十字标记同时完全呈现在图像中,拍摄时采用LED手电筒照射零件,LED手电筒的功率为3W,LED手电筒与零件的距离为1.2m,照射角度为45°;
(4)进行图像二值化;
采用最大类间方差方法(OTSU)确定最佳的灰度阈值,将步骤(3)得到的图像二值化,得到的二值化图像如图2所示;
(5)建立图像的世界坐标;
检测步骤(4)得到的二值化图像中十字标记的图像坐标后,将其转换为十字标记的相机坐标,再将十字标记的相机坐标转换为十字标记的世界坐标,最后结合十字标记的世界坐标和相机的标定结果建立图像的世界坐标;
(6)图像边缘检测;
采用Canny算子对步骤(4)得到的二值化图像进行边缘检测,得到如图3所示的边缘直线图像;
(7)精准检测图像中的直线;
采用多尺度霍夫线变换由步骤(6)得到的边缘直线图像得到变换后的边缘直线图像;
(8)获取角点的二维坐标;
采用Shi-Tomasi算法(辅助OpenCV视觉库里的cv.goodFeaturesToTrack()函数)由步骤(7)得到的变换后的边缘直线图像得到零件的各个角点的二维坐标;
(9)获取角点的三维坐标;
将步骤(8)得到的零件的各个角点的二维坐标输入到步骤(5)得到的图像的世界坐标中,得到零件的各个角点的三维坐标,如图4所示,即确定零件的空间位置;
(10)计算误差;
将步骤(9)得到的零件的各个角点的三维坐标与实际三维坐标进行比较,计算误差,实验结果如表1所示,表中误差绝对值1~5为多次实验得到的角点的三维坐标与实际三维坐标的误差绝对值。
表1
Figure BDA0002705938420000061
Figure BDA0002705938420000071
本发明虽然可以直接通过摄像头进行图像的提取的使用,但实验的本质是单目视觉的单帧检测,而非单目视觉的多帧检测,所以通过事先拍摄好的照相再进行标定,可以最大限度地减轻外界环境带来的干扰,本实验调用的balser相机驱程,可以方便地进行图片保存,单帧采集的图像保存至计算机事先划分好的盘符中保存,并在之后可以为Opencv进行调用。

Claims (10)

1.基于单目视觉检测零件空间位置的检测方法,其特征在于,包括以下步骤:
(1)标定并校准相机;
相机为单目摄像机;
(2)为图像的世界坐标的建立做准备;
在零件所在的水平面上绘制一个十字标记,零件为立方体,且高垂直于水平面;
(3)为图像二值化做准备;
使用标定和校准后的相机对零件及十字标记进行拍摄,拍摄时调整拍摄角度使得零件的上表面、零件的两个侧面和十字标记同时完全呈现在图像中;
(4)进行图像二值化;
将步骤(3)得到的图像二值化;
(5)建立图像的世界坐标;
检测步骤(4)得到的二值化图像中十字标记的图像坐标后,将其转换为十字标记的相机坐标,再将十字标记的相机坐标转换为十字标记的世界坐标,最后结合十字标记的世界坐标和相机的标定结果建立图像的世界坐标;
(6)图像边缘检测;
对步骤(4)得到的二值化图像进行边缘检测,得到边缘直线图像;
(7)精准检测图像中的直线;
采用霍夫线变换由步骤(6)得到的边缘直线图像得到变换后的边缘直线图像;
(8)获取角点的二维坐标;
采用角点检测算法由步骤(7)得到的变换后的边缘直线图像得到零件的各个角点的二维坐标;
(9)获取角点的三维坐标;
将步骤(8)得到的零件的各个角点的二维坐标输入到步骤(5)得到的图像的世界坐标中,得到零件的各个角点的三维坐标,即确定零件的空间位置。
2.根据权利要求1所述的基于单目视觉检测零件空间位置的检测方法,其特征在于,还包括以下步骤:
(10)将步骤(9)得到的零件的各个角点的三维坐标与实际三维坐标进行比较,计算误差。
3.根据权利要求1或2所述的基于单目视觉检测零件空间位置的检测方法,其特征在于,步骤(1)具体为:首先通过相机对标定板进行不同角度的拍摄来采集标定板图像,并从中选取多张图像,然后读取选取的图像,对图像进行角点检测,利用张正友标定法计算得到图像的旋转矩阵、平移矩阵、相机的内外参数以及畸变系数矩阵,然后根据所得的旋转矩阵、平移矩阵、相机的内外参数进行相机的标定,最后通过畸变系数矩阵对标定结果进行校正。
4.根据权利要求3所述的基于单目视觉检测零件空间位置的检测方法,其特征在于,标定板的材质为氧化铝,大小为70×70mm2
5.根据权利要求1或2所述的基于单目视觉检测零件空间位置的检测方法,其特征在于,步骤(3)中,拍摄时采用LED手电筒照射零件,LED手电筒的功率为3W,LED手电筒与零件的距离为1.2m。
6.根据权利要求1或2所述的基于单目视觉检测零件空间位置的检测方法,其特征在于,步骤(4)中采用最大类间方差方法确定最佳的灰度阈值。
7.根据权利要求1或2所述的基于单目视觉检测零件空间位置的检测方法,其特征在于,步骤(6)中的边缘检测采用Canny算子。
8.根据权利要求1或2所述的基于单目视觉检测零件空间位置的检测方法,其特征在于,步骤(7)中的霍夫线变换为多尺度霍夫线变换。
9.根据权利要求1或2所述的基于单目视觉检测零件空间位置的检测方法,其特征在于,步骤(8)中的角点检测算法为Shi-Tomasi算法。
10.根据权利要求2所述的基于单目视觉检测零件空间位置的检测方法,其特征在于,步骤(10)中的误差为:零件的各个角点的X坐标或Y坐标的误差绝对值小于等于2.01mm,Z坐标的误差绝对值小于等于0.54mm。
CN202011038750.XA 2020-09-28 2020-09-28 基于单目视觉检测零件空间位置的检测方法 Pending CN112258455A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011038750.XA CN112258455A (zh) 2020-09-28 2020-09-28 基于单目视觉检测零件空间位置的检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011038750.XA CN112258455A (zh) 2020-09-28 2020-09-28 基于单目视觉检测零件空间位置的检测方法

Publications (1)

Publication Number Publication Date
CN112258455A true CN112258455A (zh) 2021-01-22

Family

ID=74234123

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011038750.XA Pending CN112258455A (zh) 2020-09-28 2020-09-28 基于单目视觉检测零件空间位置的检测方法

Country Status (1)

Country Link
CN (1) CN112258455A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112802129A (zh) * 2021-04-13 2021-05-14 之江实验室 一种基于单目视觉的焊接安全距离测量方法
CN113221926A (zh) * 2021-06-23 2021-08-06 华南师范大学 一种基于角点优化的线段提取方法
CN113269767A (zh) * 2021-06-07 2021-08-17 中电科机器人有限公司 基于机器视觉的批量零件特征检测方法、系统、介质和设备
CN113487510A (zh) * 2021-07-16 2021-10-08 中国科学院自动化研究所 用于机器人自动配液的针尖位置检测方法、系统、设备
CN113588654A (zh) * 2021-06-24 2021-11-02 宁波大学 一种发动机热交换器接口的三维视觉检测方法
CN113793354A (zh) * 2021-08-20 2021-12-14 航天晨光股份有限公司 一种基于霍夫变换的自适应直线检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106546877A (zh) * 2016-11-08 2017-03-29 国网上海市电力公司 一种基于曲线拟合的电缆故障点精确定位方法
CN108981672A (zh) * 2018-07-19 2018-12-11 华南师范大学 基于单目机器人与测距传感器结合的舱门实时定位方法
CN109035320A (zh) * 2018-08-12 2018-12-18 浙江农林大学 基于单目视觉的深度提取方法
CN110689579A (zh) * 2019-10-18 2020-01-14 华中科技大学 基于合作目标的快速单目视觉位姿测量方法及测量系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106546877A (zh) * 2016-11-08 2017-03-29 国网上海市电力公司 一种基于曲线拟合的电缆故障点精确定位方法
CN108981672A (zh) * 2018-07-19 2018-12-11 华南师范大学 基于单目机器人与测距传感器结合的舱门实时定位方法
CN109035320A (zh) * 2018-08-12 2018-12-18 浙江农林大学 基于单目视觉的深度提取方法
CN110689579A (zh) * 2019-10-18 2020-01-14 华中科技大学 基于合作目标的快速单目视觉位姿测量方法及测量系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
时德才: "基于正交迭代算法的单目视觉位姿测量系统研究", 《中国优秀硕士学位论文全文数据库 (工程科技Ⅱ辑)》, no. 3, pages 031 - 19 *
杜广胜: "面向工业机器人装配的单目视觉定位方法", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》, no. 2, pages 138 - 1507 *
王开元: "基于SIFT算法的单目目标识别与定位系统研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》, no. 2, pages 138 - 1959 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112802129A (zh) * 2021-04-13 2021-05-14 之江实验室 一种基于单目视觉的焊接安全距离测量方法
CN113269767A (zh) * 2021-06-07 2021-08-17 中电科机器人有限公司 基于机器视觉的批量零件特征检测方法、系统、介质和设备
CN113221926A (zh) * 2021-06-23 2021-08-06 华南师范大学 一种基于角点优化的线段提取方法
CN113588654A (zh) * 2021-06-24 2021-11-02 宁波大学 一种发动机热交换器接口的三维视觉检测方法
CN113588654B (zh) * 2021-06-24 2024-02-02 宁波大学 一种发动机热交换器接口的三维视觉检测方法
CN113487510A (zh) * 2021-07-16 2021-10-08 中国科学院自动化研究所 用于机器人自动配液的针尖位置检测方法、系统、设备
CN113793354A (zh) * 2021-08-20 2021-12-14 航天晨光股份有限公司 一种基于霍夫变换的自适应直线检测方法
CN113793354B (zh) * 2021-08-20 2023-08-15 航天晨光股份有限公司 一种基于霍夫变换的自适应直线检测方法

Similar Documents

Publication Publication Date Title
CN112258455A (zh) 基于单目视觉检测零件空间位置的检测方法
CN110068270B (zh) 一种基于多线结构光图像识别的单目视觉箱体体积测量方法
CN110689579B (zh) 基于合作目标的快速单目视觉位姿测量方法及测量系统
CN111210468B (zh) 一种图像深度信息获取方法及装置
CN111784778B (zh) 基于线性求解非线性优化的双目相机外参标定方法和系统
CN110675376A (zh) 一种基于模板匹配的pcb缺陷检测方法
CN109297436B (zh) 双目线激光立体测量基准标定方法
Zhang et al. A single-image linear calibration method for camera
CN109974618B (zh) 多传感器视觉测量系统的全局标定方法
CN111768447B (zh) 一种基于模板匹配的单目相机物体位姿估计方法及系统
CN113920206B (zh) 透视移轴相机的标定方法
CN112435252B (zh) 一种战斗部破片穿孔和凹坑检测方法
CN115830103A (zh) 一种基于单目彩色的透明物体定位方法、装置及存储介质
US10628968B1 (en) Systems and methods of calibrating a depth-IR image offset
CN113012234B (zh) 基于平面变换的高精度相机标定方法
CN108917640A (zh) 一种激光盲孔深度检测方法及其系统
CN113744351A (zh) 基于多介质折射成像的水下结构光测量标定方法及系统
CN208254424U (zh) 一种激光盲孔深度检测系统
CN116129037B (zh) 视触觉传感器及其三维重建方法、系统、设备及存储介质
CN115187612A (zh) 一种基于机器视觉的平面面积测量方法、装置及系统
CN110838146A (zh) 一种共面交比约束的同名点匹配方法、系统、装置及介质
CN108898585B (zh) 一种轴类零件检测方法及其装置
CN114241059B (zh) 一种光度立体视觉系统中相机和光源的同步标定方法
CN116021519A (zh) 一种基于tof相机采摘机器人手眼标定方法以及装置
Berezhnoy et al. Approaches for automated monitoring and evaluation of in vitro plant’s morphometric parameters

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination