CN111612794A - 基于多2d视觉的零部件高精度三维位姿估计方法及系统 - Google Patents

基于多2d视觉的零部件高精度三维位姿估计方法及系统 Download PDF

Info

Publication number
CN111612794A
CN111612794A CN202010295181.0A CN202010295181A CN111612794A CN 111612794 A CN111612794 A CN 111612794A CN 202010295181 A CN202010295181 A CN 202010295181A CN 111612794 A CN111612794 A CN 111612794A
Authority
CN
China
Prior art keywords
vision acquisition
acquisition device
vision
pose
precision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010295181.0A
Other languages
English (en)
Inventor
楼云江
杨先声
牟卿志
张南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Harbin Institute of Technology
Original Assignee
Shenzhen Graduate School Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Harbin Institute of Technology filed Critical Shenzhen Graduate School Harbin Institute of Technology
Priority to CN202010295181.0A priority Critical patent/CN111612794A/zh
Publication of CN111612794A publication Critical patent/CN111612794A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Abstract

本发明涉及一种基于多2D视觉的零部件高精度三维位姿估计方法及系统。其中的方法包括单个2D视觉采集装置工件位姿估计和多视觉采集装置优势参数融合。单个2D视觉采集装置工件位姿估计,主要是将获取的工件图像进行处理获取初步特征点作为精提取输入;并对特征点进行亚像素化,通过PnP算法,获得单视觉采集装置的工件位姿。多视觉采集装置优势参数融合部分,基于多视场标定技术获得各个视觉采集装置的位姿关系,再通过单视觉采集装置的优势参数,将各个精度较高参数进行融合。其中的系统至少包括用于实施上述方法的计算机装置。本发明可以在计算量较小、计算时间较少的情况下搜索工件的位姿,具有更高的精度和实用性。

Description

基于多2D视觉的零部件高精度三维位姿估计方法及系统
技术领域
本发明涉及机器视觉领域中的物体位姿估计方法及系统,尤其涉及一种基于多2D视觉的零部件高精度三维位姿估计方法及系统。本发明适用于对由机械臂末端带动的各种零部件(比如,3C部件)进行三维位姿估计。
背景技术
随着自动化技术的发展和工业制造的升级,越来越多的行业使用机器人(或机械臂)协助或者替代人类完成作业。在机器人分拣、码放、包装与装配等领域,视觉引导机器人作业变得越来越重要。在高精度高速要求的精密制造场景,3D视觉由于计算量大、精度不够等原因,尚未有成熟的应用。而传统的2D视觉因结构简单、精度高、计算量小、成本适中、算法研究广泛等优点,利用其进行位姿估计在已知可控环境下已经得到广泛应用。成为近年来位姿估计的研究热点。
对于2D视觉三维位姿估计问题,传统的做法是PnP(Perspective-n-Point)类算法,该类算法最大的一个缺点是受特征点提取的精度的影响较大,特征点定位精度低位姿的估计精度会低。目前解决的办法是采用合适的靶标、合适的PnP算法与高精度的特征点提取方法,来尽可能获得精确的位姿。靶标的设计有许多,主要根据任务的不同分别设计。对于PnP算法,只要知道n个三维空间点坐标及其对应的二维投影位置时,就可以对位姿进行估计,在具体的实现过程中根据具体的是否迭代和点的个数其可以分为迭代法与非迭代法及P3P,P4P,P5P与等于或多于6点的算法。对于特征点提取方法,由于精度需求,在需要提升到亚像素级别,常用的亚像素定位算法包括插值法,拟合法及矩方法,其中插值法主要分为二次插值、切比雪夫多项式插值与B样条插值法;矩方法包括:空间矩、灰度矩、Zernike矩等方法。但是对于基于2D视觉的三维位姿估计都存在一个问题,就是对于空间的点,2D相机的深度方法的估计能力都是偏差的,求解效果不佳,导致三维姿态的估计存在一定问题。因此需要采用多相机融合的方法解决该问题。
针对2D视觉的方法存在的问题,如何做到可以应用与机器人抓取和装配精度的位姿估计,也成为当前机器视觉领域的研究热点。
发明内容
本发明提供一种基于多2D视觉的零部件高精度三维位姿估计方法及系统,旨在至少解决现有技术中存在的技术问题之一。
本发明的技术方案一方面涉及一种基于多2D视觉的零部件高精度三维位姿估计方法,该零部件包含目标工件,其特征在于,所述方法包括以下步骤:
S0、对在空间互相垂直布置的多个2D视觉采集装置进行预配置,并标定得到所述的多个2D视觉采集装置的相互位置关系;
S1、通过每个2D视觉采集装置获取含有目标工件的场景图像,选用矩形分布的同心圆靶标,并从该场景图像中检测与定位得到与该2D视觉采集装置关联的所设置的特征区域中的目标工件特征点像素的坐标,然后,结合该特征区域的目标工件特征点之间实际相对的已知空间位置,利用PnP算法解算得到所述的目标工件基于该2D视觉采集装置坐标系的位姿;
S2、在单独利用每个2D视觉采集装置进行基于实际的目标工件位姿估计后,通过直接坐标系转换的方式将所有2D视觉采集装置关联的位资估算结果统一到同一坐标系下,使各2D视觉采集装置优势参数融合,以获得目标工件位姿的完整的估算结果。
在一些实施例中,所述步骤S1包括:S10、通过单2D视觉采集装置获取包含目标工件的场景图像;S11、基于ELSDc算法的特征点检测与粗略定位分割;S12、利用基于Zernike矩亚像素检测的方法对分割后的特征点边缘进行亚像素细化,得到实际边缘的亚像素坐标;S13、利用最小二乘椭圆拟合算法,将已得到的亚像素边缘进行拟合,得到拟合后的特征点中心亚像素坐标;S14、针对透视投影模型下特征点空间真实中心投影与图像中特征点拟合中心不一致所产生的偏移现象,结合特征点同心圆与已知半径的性质对拟合中心的偏差进行补偿;S15、根据特征点坐标及物理尺寸,通过PnP算法计算目标工件对应单个2D视觉采集装置的位姿估计。
在一些实施例中,所述步骤S12包括:对2D视觉采集装置采集的图像进行预处理,再对处理后的图像进行Canny边缘检测得到初步边缘;再将处理后图像结合计算得到的Zernike矩模板进行卷积,生成待检测区域的七个Zernike矩;根据角度参数对所生成的Zernike矩进行校正;根据计算得到的灰度差参数与距离参数判断单位圆内各点是否为边缘点,然后输出符合条件的边缘点亚像素坐标。
在一些实施例中,对于不同系数Zernike模板,使用M00、M11R、M11I、M20、M31R、M31I、M40共七个Zernike模板进行运算。
在一些实施例中,所述步骤S14包括:
结合特征点同心圆与已知半径的性质对拟合中心的偏差进行补偿,其中补偿计算公式为
Figure BDA0002451916260000021
其中uB、vB为椭圆中心坐标,uC、vC为补偿后的圆心坐标,K1、K2为两个圆的补偿系数,r1、r2为圆形半径,使得补偿后的圆心坐标用于后续步骤中的位姿解算。
在一些实施例中,所述步骤S0包括:对在空间互相垂直布置的三个2D视觉采集装置进行预配置,该三个2D视觉采集装置包括第一视觉采集装置、第二视觉采集装置和第三视觉采集装置;基于重叠视场标定方法对所述的三个2D视觉采集装置都进行标定,获得多套结果;对各套结果中的两个视觉采集装置标定的直接结果与通过余下的视觉采集装置间接求得结果求差值并设为误差函数;选择使总体误差函数最小的标定结果作为最终的标定结果。
在一些实施例中,所述步骤S2包括:
将标定获得的视觉采集装置的外部参数作为输入,将第二视觉采集装置和第三视觉采集装置的关联的坐标转换到第一视觉采集装置的坐标,其中:
通过第一视觉采集装置所估计出的位姿在基准坐标系下为
cam1Tresultcam1 Tmodel
通过第二视觉采集装置所估计出的位姿在基准坐标系下为
Figure BDA0002451916260000031
通过第三视觉采集装置所估计出的位姿在基准坐标系下为
Figure BDA0002451916260000032
在上式中,cam1Tmodelcam2Tmodelcam3Tmodel分别为第一视觉采集装置、第二视觉采集装置、第三视觉采集装置坐标系到目标工件坐标系的变换矩阵,cam1Tcam2cam1Tcam3分别为所述步骤S0中通过标定获得的视觉采集装置之间的变换矩阵,
Figure BDA0002451916260000033
cam1Rmodelcam1tmodel分别为第一视觉采集装置坐标系到目标工件坐标系的旋转矩阵与平移向量;
在第一视觉采集装置对应的基准坐标系中,根据每个视觉采集装置的特性将各视觉采集装置优势部分拼接,以获得目标工件位姿的完整的估算结果。
本发明的技术方案还涉及一种计算机装置,包括存储器和处理器,所述处理器执行储存在所述存储器中的计算机程序时实施上述的方法。
本发明的技术方案还涉及一种基于多2D视觉的零部件高精度三维位姿估计系统,包括:框架;设置在该框架上的在空间互相垂直布置的多个2D视觉采集装置;以及上述的计算机装置,该计算机装置与所述的多个2D视觉采集装置通信连接。
在一些实施例中,所述的零部件包括3C部件,该3C部件由机械臂带动;所述的多个2D视觉采集装置为三个视觉采集装置,该视觉采集装置包括摄像头、工业相机或数码相机;每个视觉采集装置通过支座可滑动装卸在所述框架上,所述的三个视觉采集装置具有重合的拍摄视场,使得该重合的拍摄视场覆盖由机械臂带动的所述3C部件。优选地,每个2D视觉采集装置通过支座可调地安装在所述框架上,并且每个2D视觉采集装置分布于一预设的空间立方体的面心的位置。
本发明的有益效果如下。
实现对机械臂末端的零部件(尤其3C部件)进行三维位姿估计;采用单视觉采集装置获取高精度优势参数,多视觉采集装置系统的优势估计参数的融合,使三维位姿估计速度快、精度高。
对特征点选用矩形分布的同心圆靶标,针对2D视觉采集装置进行位姿估计所依赖的特征点提取精度问题,对选择的同心圆标志点提出ELSDc粗检测-Zernike矩亚像素检测-最小二乘椭圆拟合的图像处理优化流程,考虑到二维图像在透视投影下产生的中心投影偏差现象,结合透视投影模型与同心圆性质进行补偿,最终实现特征点的准确提取。
针对2D视觉采集装置在深度位移与水平角度等劣势方面的不足,采用坐标变换来对多个视觉采集装置的估计结果进行融合。实验表明位姿估计结果的平移误差在0.2mm内,旋转误差在0.3°内,耗时不超过2s,可实现对3C部件高精度三维位姿估计的预期目标。
附图说明
图1为实施例中根据本发明方法的总体流程简图。
图2为单个2D视觉采集装置进行工件位姿估计的流程图。
图3为基于多个2D视觉采集装置的工件位姿估计结果进行位姿估计结果整合的流程图。
图4为基于ELSDc算法获得特征点检测与粗略定位分割的标志物。
图5为亚像素定位后的特征轮廓图像。
图6为最小二乘拟合的结果图像。
图7为实施例中根据本发明的基于多2D视觉采集装置的零部件三维位姿估计系统的立体图。
具体实施方式
以下将结合实施例和附图对本发明的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本发明的目的、方案和效果。
应理解,本文所用的术语“估计”是指通过技术手段计算或者估算得到具有工业应用性的技术数据或者指标。应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种元件,但这些元件不应限于这些术语。这些术语仅用来将同一类型的元件彼此区分开。例如,在不脱离本公开范围的情况下,第一元件也可以被称为第二元件,类似地,第二元件也可以被称为第一元件。本文所提供的任何以及所有实例或示例性语言(“例如”、“如”等)的使用仅意图更好地说明本发明的实施例,并且除非另外要求,否则不会对本发明的范围施加限制。
概览图1至7,本发明涉及基于点云的工件位姿估计的技术方案,主要用以解决零部件自动化装配领域,特别是小部件(如电路器件、电气模块、成本或半成品电子消费产品等3C部件)装配领域的工件位姿估计问题。参照图7,根据本发明的硬件系统可以包括多个2D视觉采集装置、多个支座102和框架103,其中每个2D视觉采集装置通过每个支座102可调安装至框架103,使得在待估计工件104的外侧垂直地布置多个2D视觉采集装置所组成的空间阵列。2D视觉采集装置包括但不限于:摄像头、工业相机、数码照相机、纯粹的2D图像采集传感器等。为了方便文字描述,下文的实施例中将2D视觉采集装置简称为2D相机。
参照图7,本发明的方案优选地采用三个2D相机101。在实际应用场景下,由机器人系统的机械臂105末端抓取或吸取待估计工件104。优选地,2D相机101分布于空间立方体(如图7所示的虚线立方体)的面心(如图示虚线立方体的上、左后、右后的平面的中心点)。在其它实施例中,根据本发明的系统还可以包括多于三个的2D相机101,比如四、五、甚至六个相机,其中在所述空间立方体的每个面心都可以分布一个2D相机,使得在任何角度都可以有三个以上的相机能拍摄到目标工件,防止遮挡。
此外,多个2D相机101的拍摄方向朝向一点(如图示虚线立方体的立体中心),使得待估计工件104在机械臂夹持过程中仍然在三个2D相机101的拍摄区域的交集处。框架103可以采用铝型材组装件,加上支座102能够可调安装至框架103,由此可以根据实际需求扩张或缩进多个2D相机101的布局,使得拍摄区域扩大或缩小。
根据本发明的系统还包括计算机装置,其中储存和运行的计算机程序实施根据本发明的方法。
根据本发明的基于多2D视觉的3C部件高精度三维位姿估计方法主要包括两大步骤:单个2D相机工件位姿估计;多相机优势参数融合。单个2D相机工件位姿估计,主要是将传感器获取的工件图像进行处理获取初步特征点,作为精提取输入;并对特征点进行亚像素化,通过最小二乘与偏差补偿获得准确的特征点坐标,最后通过PnP算法,获得单相机的工件位姿。多相机优势参数融合部分,基于多视场标定技术获得各个相机的位姿关系,再通过单相机的优势参数,将各个精度较高参数进行融合,实现高精度的位姿估计。该方法可以在计算量较小、计算时间较少的情况下搜索工件的位姿,解决传统单相机位姿估计存在劣势参数和3D相机处理时间过长的问题,具有更高的精度和实用性。此外,所述方法还包括标定步骤,以标定得到多2D视觉系统下各2D相机的相互位姿关系。该标定步骤可以在单相机工件位资估计步骤之前预先执行,也可以在多相机优势参数融合的步骤之前再执行。
参照图1,在一实施例中,根据本发明的方法,包括以下步骤S0至S2。
S0、对在空间互相垂直布置的多个2D相机进行预配置(比如导入相机参数、触发一部分或全部2D相机工作),并标定得到所述的多个2D相机的相互位置关系。这里的标定采用基于重叠视场相机标定方案(如张正友标定法),进行标定获得多套结果,对各套结果中相机之间两两标定的直接结果与通过第三相机间接求得结果求差值并设为误差函数,选择总体误差函数最小的结果作为最终的标定结果。
S1、通过单个2D相机获取包含目标工件的场景图像,并从场景图像中检测与定位得到目标工件中针对该2D相机所设置特征区域中的各特征点的亚像素坐标,其次,结合已知的该区域特征点之间实际相对空间位置,利用PnP算法解算得到3C部件基于该2D相机坐标系下的位姿。
S2、构建垂直布置的多2D相机系统,并单独利用每个2D相机进行基于实际的目标工件位姿估计,通过直接坐标系转换的方式将结果统一到同一坐标系下,并将各相机优势部分拼接得到最终完整的高精度目标工件位姿的估算结果。
下面结合图2至图6通过详细的实施例来描述上述方法步骤。
参照图2,在一实施例中,所述步骤S1包括以下步骤S10-S15。
S10、使单个2D相机采集获取目标工件图像。例如,使用工业相机采到RGB图像。2D相机直接获取的数据可以是RGB或灰度图像信息。
S11、通过ELSDc算法获得特征点检测与粗略定位分割,其结果如图4所示;
S12、利用基于Zernike矩亚像素检测的方法对分割后的特征点边缘进行亚像素细化,其定义为得到实际边缘的亚像素坐标。
优选地,对于不同系数Zernike模板,使用M00、M11R、M11I、M20、M31R、M31I、M40共七个Zernike模板。其具体的方法包括:对2D相机采集的图像进行预处理,再对处理后的图像进行Canny边缘检测得到初步边缘;将处理后图像结合计算得到的Zernike矩模板进行卷积,生成待检测区域的7个Zernike矩;把所生成的矩依照角度参数进行校正;最后通过计算得到灰度差参数与距离参数,判断单位圆内各点是否为边缘点并将符合条件的边缘点亚像素坐标进行输出。例如图5所示的最终亚像素定位图像。
S13、最小二乘椭圆拟合中心亚像素坐标。在获取靶标图像边缘的亚像素坐标后,引入基于最小二乘的椭圆拟合算法来得到最终的高精度椭圆中心坐标。对例如图5所示的轮廓点进行拟合,获得如图6所示的拟合图像。
S14、误差偏移补偿。针对透视投影模型下特征点空间真实中心投影与图像中特征点拟合中心不一致所产生的偏移现象,结合特征点同心圆与已知半径的性质对拟合中心的偏差进行补偿。补偿表达式为
Figure BDA0002451916260000071
其中uB、vB为椭圆中心坐标,K1、K2为两个圆的补偿系数,r1、r2为圆形半径。校正后的中心特征的提取精度可达0.1像素以内。
S15、PnP位姿解算。将S14中补偿后的圆心坐标作为输入,进行位姿解算,获得单个相机位姿。
参照图3,在一实施例中,所述步骤S2包括以下步骤S21-S24。
S21、获取相机的多视场的位资标定数据。
S22、多相机优势参数融合。将S21中获得的标定的相机外参作为输入,将第二、第三相机坐标转换到主相机(第一相机)下。设第一相机、第二相机、第三相机坐标系到3C部件坐标系的变换矩阵分别为cam1Tmodelcam2Tmodelcam3Tmodel,相机之间的变换矩阵为cam1Tcam2cam1Tcam3。由于3C部件本体所建立的坐标系随3C部件的位姿变化,设物体正放时坐标系为基准坐标系,实际应用中以第一相机坐标系或机械臂基座为基准坐标系,将相机估计位姿通过变换矩阵转换到基准坐标系下进行解算。
首先有:
Figure BDA0002451916260000072
式中cam1Rmodelcam1tmodel分别为第一相机坐标系到3C部件坐标系的旋转矩阵与平移向量。
又由于旋转矩阵为正交阵,根据正交阵的性质:
Figure BDA0002451916260000073
则有将第二相机所估计出的位姿在基准坐标系下表示为:
Figure BDA0002451916260000074
同理,第三相机所估计出的位姿在基准坐标系下表示为:
Figure BDA0002451916260000075
又根据第一相机的运算结果:
cam1Tresultcam1 Tmodel
S23、分析每个2D相机优势参数。可以根据2D视觉采集装置平面估计参数精确但深度复现能力较差的特点,选取相机坐标系下的X/Y方向参数为优势位置参数,旋转的ROLL方向参数为优势姿态参数。
S24、根据其最优参数结果与坐标变换,将各相机优势部分(优势参数)变换到主相机坐标系实现融合,得到最终完整的高精度目标工件位姿的估算结果。
应当认识到,本发明实施例中的方法步骤可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
此外,可按任何合适的顺序来执行本文描述的过程的操作,除非本文另外指示或以其他方式明显地与上下文矛盾。本文描述的过程(或变型和/或其组合)可在配置有可执行指令的一个或多个计算机系统的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
进一步,所述方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本文所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的方法和技术编程时,本发明还可以包括计算机本身。
计算机程序能够应用于输入数据以执行本文所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本发明优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
以上所述,只是本发明的较佳实施例而已,本发明并不局限于上述实施方式,只要其以相同的手段达到本发明的技术效果,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。在本发明的保护范围内其技术方案和/或实施方式可以有各种不同的修改和变化。
附图标记列表
101 2D 相机
102 支座
103 框架
104 待估计工件
105 机械臂。

Claims (10)

1.一种基于多2D视觉的零部件高精度三维位姿估计方法,该零部件包含目标工件,其特征在于,所述方法包括以下步骤:
S0、对在空间互相垂直布置的多个2D视觉采集装置进行预配置,并标定得到所述的多个2D视觉采集装置的相互位置关系;
S1、通过每个2D视觉采集装置获取含有目标工件的场景图像,选用矩形分布的同心圆靶标,从该场景图像中检测与定位得到与该2D视觉采集装置关联的所设置的特征区域中的目标工件特征点像素的坐标,然后结合该特征区域的目标工件特征点之间实际相对的已知空间位置,利用PnP算法解算得到所述的目标工件基于该2D视觉采集装置的坐标系的位姿;
S2、在单独利用每个2D视觉采集装置进行基于实际的目标工件位姿估计后,通过直接坐标系转换的方式将所有2D视觉采集装置关联的位资估算结果统一到同一坐标系下,使各2D视觉采集装置优势参数融合,以获得目标工件位姿的完整的估算结果。
2.根据权利要求1所述的基于多2D视觉的零部件高精度三维位姿估计方法,其中,所述步骤S1包括:
S10、通过单2D视觉采集装置获取包含目标工件的场景图像;
S11、基于ELSDc算法的特征点检测与粗略定位分割;
S12、利用基于Zernike矩亚像素检测的方法对分割后的特征点边缘进行亚像素细化,得到实际边缘的亚像素坐标;
S13、利用最小二乘椭圆拟合算法,将已得到的亚像素边缘进行拟合,得到拟合后的特征点中心亚像素坐标;
S14、针对透视投影模型下特征点空间真实中心投影与图像中特征点拟合中心不一致所产生的偏移现象,结合特征点同心圆与已知半径的性质对拟合中心的偏差进行补偿;
S15、根据特征点坐标及物理尺寸,通过PnP算法计算目标工件对应单个2D视觉采集装置的位姿估计。
3.根据权利要求2所述的基于多2D视觉的零部件高精度三维位姿估计方法,其中,所述步骤S12包括:
对2D视觉采集装置采集的图像进行预处理,再对处理后的图像进行Canny边缘检测得到初步边缘;
再将处理后图像结合计算得到的Zernike矩模板进行卷积,生成待检测区域的七个Zernike矩;
根据角度参数对所生成的Zernike矩进行校正;
根据计算得到的灰度差参数与距离参数判断单位圆内各点是否为边缘点,然后输出符合条件的边缘点亚像素坐标。
4.根据权利要求3所述的基于多2D视觉的零部件高精度三维位姿估计方法,其中,对于不同系数Zernike模板,使用M00、M11R、M11I、M20、M31R、M31I、M40共七个Zernike模板进行运算。
5.根据权利要求2所述的基于多2D视觉的零部件高精度三维位姿估计方法,其中,所述步骤S14包括:
结合特征点同心圆与已知半径的性质对拟合中心的偏差进行补偿,其中补偿计算公式为
Figure FDA0002451916250000021
其中uB、vB为椭圆中心坐标,uC、vC为补偿后的圆心坐标,K1、K2为两个圆的补偿系数,r1、r2为圆形半径,
使得补偿后的圆心坐标用于后续步骤中的位姿解算。
6.根据权利要求1所述的方法,其中,所述步骤S0包括:
对在空间互相垂直布置的三个2D视觉采集装置进行预配置,该三个2D视觉采集装置包括第一视觉采集装置、第二视觉采集装置和第三视觉采集装置;
基于重叠视场标定方法对所述的三个2D视觉采集装置都进行标定,获得多套结果;
对各套结果中的两个视觉采集装置标定的直接结果与通过余下的视觉采集装置间接求得结果求差值并设为误差函数;
选择使总体误差函数最小的标定结果作为最终的标定结果。
7.根据权利要求6所述的方法,其中,所述步骤S2包括:
将标定获得的视觉采集装置的外部参数作为输入,将第二视觉采集装置和第三视觉采集装置的关联的坐标转换到第一视觉采集装置的坐标,其中:
通过第一视觉采集装置所估计出的位姿在基准坐标系下为
cam1Tresultcam1Tmodel
通过第二视觉采集装置所估计出的位姿在基准坐标系下为
Figure FDA0002451916250000022
通过第三视觉采集装置所估计出的位姿在基准坐标系下为
Figure FDA0002451916250000023
在上式中,cam1Tmodelcam2Tmodelcam3Tmodel分别为第一视觉采集装置、第二视觉采集装置、第三视觉采集装置坐标系到目标工件坐标系的变换矩阵,cam1Tcam2cam1Tcam3分别为所述步骤S0中通过标定获得的视觉采集装置之间的变换矩阵,
Figure FDA0002451916250000031
cam1Rmodelcam1tmodel分别为第一视觉采集装置坐标系到目标工件坐标系的旋转矩阵与平移向量;
在第一视觉采集装置对应的基准坐标系中,根据每个视觉采集装置的特性将各视觉采集装置优势部分拼接,以获得目标工件位姿的完整的估算结果。
8.一种计算机装置,包括存储器和处理器,其特征在于,所述处理器执行储存在所述存储器中的计算机程序时实施根据权利要求1至7中任一项所述的方法。
9.一种基于多2D视觉的零部件高精度三维位姿估计系统,其特征在于,包括:
框架;
设置在该框架上的在空间互相垂直布置的多个2D视觉采集装置,其中所述的多个视觉采集装置具有重合的拍摄视场,使得该重合的拍摄视场覆盖由机械臂带动的所述3C部件;以及
根据权利要求8所述的计算机装置,该计算机装置与所述的多个2D视觉采集装置通信连接。
10.根据权利要求9所述的基于多2D视觉的零部件高精度三维位姿估计系统,其中:
所述的零部件包括3C部件,该3C部件由机械臂带动;
所述的多个2D视觉采集装置为三个视觉采集装置,该视觉采集装置包括摄像头、工业相机或数码相机;
每个2D视觉采集装置通过支座可调地安装在所述框架上,并且每个2D视觉采集装置分布于一预设的空间立方体的面心的位置。
CN202010295181.0A 2020-04-15 2020-04-15 基于多2d视觉的零部件高精度三维位姿估计方法及系统 Pending CN111612794A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010295181.0A CN111612794A (zh) 2020-04-15 2020-04-15 基于多2d视觉的零部件高精度三维位姿估计方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010295181.0A CN111612794A (zh) 2020-04-15 2020-04-15 基于多2d视觉的零部件高精度三维位姿估计方法及系统

Publications (1)

Publication Number Publication Date
CN111612794A true CN111612794A (zh) 2020-09-01

Family

ID=72195802

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010295181.0A Pending CN111612794A (zh) 2020-04-15 2020-04-15 基于多2d视觉的零部件高精度三维位姿估计方法及系统

Country Status (1)

Country Link
CN (1) CN111612794A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112123028A (zh) * 2020-09-25 2020-12-25 北京机科国创轻量化科学研究院有限公司 一种大铸件粗打磨系统
CN112658643A (zh) * 2020-12-30 2021-04-16 中国科学院自动化研究所 接插件装配方法
CN112700501A (zh) * 2020-12-12 2021-04-23 西北工业大学 一种水下单目亚像素相对位姿估计方法
CN114485468A (zh) * 2022-01-28 2022-05-13 天津大学 多轴联动复合测量系统及微零件全轮廓自动化测量方法
CN114677429A (zh) * 2022-05-27 2022-06-28 深圳广成创新技术有限公司 一种机械手的定位方法、装置、计算机设备和存储介质
CN115609591A (zh) * 2022-11-17 2023-01-17 上海仙工智能科技有限公司 一种基于2D Marker的视觉定位方法和系统、复合机器人
CN117409082A (zh) * 2023-12-13 2024-01-16 南昌工控机器人有限公司 用于手机壳体模块化装配的视觉识别与定位方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070050089A1 (en) * 2005-09-01 2007-03-01 Yunquan Sun Method for detecting the position and orientation of holes using robotic vision system
CN103196370A (zh) * 2013-04-01 2013-07-10 北京理工大学 一种导管接头空间位姿参数的测量方法和装置
CN103273310A (zh) * 2013-05-24 2013-09-04 中国科学院自动化研究所 一种基于多路显微视觉的微零件自动对准装置及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070050089A1 (en) * 2005-09-01 2007-03-01 Yunquan Sun Method for detecting the position and orientation of holes using robotic vision system
CN103196370A (zh) * 2013-04-01 2013-07-10 北京理工大学 一种导管接头空间位姿参数的测量方法和装置
CN103273310A (zh) * 2013-05-24 2013-09-04 中国科学院自动化研究所 一种基于多路显微视觉的微零件自动对准装置及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
QINGZHI MOU等: "Pose Estimation of 3C Components Based on Monocular 2D Camera" *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112123028A (zh) * 2020-09-25 2020-12-25 北京机科国创轻量化科学研究院有限公司 一种大铸件粗打磨系统
CN112700501A (zh) * 2020-12-12 2021-04-23 西北工业大学 一种水下单目亚像素相对位姿估计方法
CN112700501B (zh) * 2020-12-12 2024-03-05 西北工业大学 一种水下单目亚像素相对位姿估计方法
CN112658643A (zh) * 2020-12-30 2021-04-16 中国科学院自动化研究所 接插件装配方法
CN112658643B (zh) * 2020-12-30 2022-07-01 中国科学院自动化研究所 接插件装配方法
CN114485468A (zh) * 2022-01-28 2022-05-13 天津大学 多轴联动复合测量系统及微零件全轮廓自动化测量方法
CN114485468B (zh) * 2022-01-28 2023-09-26 天津大学 多轴联动复合测量系统及微零件全轮廓自动化测量方法
CN114677429A (zh) * 2022-05-27 2022-06-28 深圳广成创新技术有限公司 一种机械手的定位方法、装置、计算机设备和存储介质
CN115609591A (zh) * 2022-11-17 2023-01-17 上海仙工智能科技有限公司 一种基于2D Marker的视觉定位方法和系统、复合机器人
CN115609591B (zh) * 2022-11-17 2023-04-28 上海仙工智能科技有限公司 一种基于2D Marker的视觉定位方法和系统、复合机器人
CN117409082A (zh) * 2023-12-13 2024-01-16 南昌工控机器人有限公司 用于手机壳体模块化装配的视觉识别与定位方法及装置
CN117409082B (zh) * 2023-12-13 2024-02-23 南昌工控机器人有限公司 用于手机壳体模块化装配的视觉识别与定位方法及装置

Similar Documents

Publication Publication Date Title
CN111612794A (zh) 基于多2d视觉的零部件高精度三维位姿估计方法及系统
CN110136208B (zh) 一种机器人视觉伺服系统的联合自动标定方法及装置
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
CN110728715B (zh) 一种智能巡检机器人摄像机角度自适应调整方法
CN106408612B (zh) 机器视觉系统校准
CN112223302B (zh) 基于多传感器的带电作业机器人的快速标定方法及装置
US8600192B2 (en) System and method for finding correspondence between cameras in a three-dimensional vision system
CN110176032B (zh) 一种三维重建方法及装置
US10198829B2 (en) Systems and methods for extrinsic calibration of a plurality of sensors
KR101672732B1 (ko) 객체 추적 장치 및 방법
CN111461963B (zh) 一种鱼眼图像拼接方法及装置
CN115861445B (zh) 一种基于标定板三维点云的手眼标定方法
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JPWO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
CN113643380A (zh) 一种基于单目相机视觉标靶定位的机械臂引导方法
CN114001651B (zh) 一种基于双目视觉测量和先验检测数据的大型细长筒类构件位姿原位测量方法
CN111383264B (zh) 一种定位方法、装置、终端及计算机存储介质
KR102490521B1 (ko) 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법
WO2023083154A1 (zh) 用于三维重建的方法、系统和存储介质
TWI749376B (zh) 3d相機的校正方法
US20230033339A1 (en) Image processing system
US20200376678A1 (en) Visual servo system
Zamanakos et al. A cooperative LiDAR-camera scheme for extrinsic calibration
CN117406185B (zh) 雷达与相机间的外参标定方法、装置、设备及存储介质
KR102631472B1 (ko) 어안 왜곡 이미지의 무손실 보정 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination