CN114029946A - 一种基于3d光栅引导机器人定位抓取的方法、装置及设备 - Google Patents

一种基于3d光栅引导机器人定位抓取的方法、装置及设备 Download PDF

Info

Publication number
CN114029946A
CN114029946A CN202111199573.8A CN202111199573A CN114029946A CN 114029946 A CN114029946 A CN 114029946A CN 202111199573 A CN202111199573 A CN 202111199573A CN 114029946 A CN114029946 A CN 114029946A
Authority
CN
China
Prior art keywords
robot
point cloud
binocular camera
cloud information
grabbing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111199573.8A
Other languages
English (en)
Inventor
崔岩
刘强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Germany Zhuhai Artificial Intelligence Institute Co ltd
Wuyi University
4Dage Co Ltd
Original Assignee
China Germany Zhuhai Artificial Intelligence Institute Co ltd
Wuyi University
4Dage Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Germany Zhuhai Artificial Intelligence Institute Co ltd, Wuyi University, 4Dage Co Ltd filed Critical China Germany Zhuhai Artificial Intelligence Institute Co ltd
Priority to CN202111199573.8A priority Critical patent/CN114029946A/zh
Publication of CN114029946A publication Critical patent/CN114029946A/zh
Priority to PCT/CN2022/099913 priority patent/WO2023060926A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means

Abstract

本发明涉及一种基于3D光栅引导机器人定位抓取的方法、装置及设备,其方法包括将光栅扫描仪嵌入到双目相机之间;对双目相机进行标定;使双目相机与机器人进行手眼标定;使双目相机与机器人通信;使双目相机对待抓取物体进行拍摄,获得包括三维坐标的点云信息;采用双边滤波对点云信息进行平滑滤波,同时保留边界信息;基于滤波的点云信息进行三维物体识别,获得待抓取物体在机器人坐标系里的坐标;通过坐标,计算机器人抓取位姿信息,并将机器人抓取位姿信息返回给机器人;使机器人根据机器人抓取位姿信息进行定位抓取。解决了现有技术引导机器人定位抓取时不能准确定位抓取物体问题。本发明具有准确定位抓取物体的效果。

Description

一种基于3D光栅引导机器人定位抓取的方法、装置及设备
技术领域
本发明涉及工业自动化技术领域,尤其是涉及一种基于3D光栅引导机器人定位抓取的方法、装置及设备。
背景技术
随着科技与计算机工业的进步,自动化机械在制造业中得到了广泛应用。特别地,二维视觉技术通过摄像机拍摄一张平面照片,然后通过图像分析或比较来识别物体,以看到物体上的一个平面特征,进而用于缺失或呈现检测、离散目标分析模式对齐、条形码检查和光学字符验证、各种基于边缘检测的二维几何分析、以及引导机器人定位抓取等等,是自动化机器不可或缺的组成部分。
目前,由于二维视觉技术无法获得物体的空间坐标信息,因此不支持与形状有关的测量,如物体的平整度、表面角度、体积或区分同一颜色物体的特征,或具有接触面的物体位置之间的测量等等。再者,二维视觉技术测量物体的对比度,使得测量精度依赖于光照、颜色、灰度的变化,并且易受不同光照条件的影响。
针对上述中的相关技术,发明人认为存在有现有的二维视觉技术测量精度低,引导机器人定位抓取时不能准确定位抓取物体,在工业上难以应用推广的缺陷。
发明内容
为了准确定位抓取物体,本发明提供了一种基于3D光栅引导机器人定位抓取的方法、装置及设备。
第一方面,本发明提供一种基于3D光栅引导机器人定位抓取的方法,具有准确定位抓取物体的特点。
本发明是通过以下技术方案得以实现的:
一种基于3D光栅引导机器人定位抓取的方法,包括以下步骤:
将光栅扫描仪嵌入到双目相机之间,使所述光栅扫描仪为所述双目相机提供光源;
对所述双目相机进行标定,直至所述双目相机正确获取待抓取物体和双目相机之间的目标深度值;
使所述双目相机与机器人进行手眼标定,获取机器人坐标系和双目相机坐标系之间的关系;
使嵌入所述光栅扫描仪的标定后的所述双目相机与机器人通信;
使所述双目相机对待抓取物体进行拍摄,采集待抓取物体的图象,并获得包括三维坐标的点云信息;
采用双边滤波对所述点云信息进行平滑滤波,同时保留边界信息;
基于滤波的所述点云信息进行三维物体识别,将所述双目相机识别的待抓取物体的坐标转化到机器人的坐标系里,获得待抓取物体在机器人坐标系里的坐标,所述坐标包括待抓取物体的X、Y、Z三维坐标;
通过X、Y、Z三维坐标,计算机器人抓取位姿信息,并将机器人抓取位姿信息返回给机器人;
使机器人根据机器人抓取位姿信息进行定位抓取。
本发明在一较佳示例中可以进一步配置为:所述获得包括三维坐标的点云信息的步骤后,还包括以下步骤:
基于不同的曝光时间的低动态范围图像,选取每个曝光时间相对应的预设的低动态范围图像,合成高动态范围图像,优化所述点云信息。
本发明在一较佳示例中可以进一步配置为:所述采用双边滤波对所述点云信息进行平滑滤波的步骤包括:
预设中心点,通过各个点云信息到中心点的空间临近度,计算各个点云信息到中心点的空间临近度的权值;
基于各个点云信息的像素值相似度,计算各个点云信息的像素值相似度的权值;
基于各个点云信息到中心点的空间临近度的权值和像素值相似度的权值进行乘积,再与图像矩阵作卷积运算。
本发明在一较佳示例中可以进一步配置为:所述通过X、Y、Z三维坐标,计算机器人抓取位姿信息的步骤包括:
根据手眼标定得出的公式进行求逆解,获得机器人坐标中待抓取物体的坐标;
基于奇异值分解方法或最小二乘方法,求解位姿信息中的旋转矩阵与平移矩阵;
参照旋转矩阵与平移矩阵,估算抓取位姿,作为机器人抓取位姿信息。
本发明在一较佳示例中可以进一步配置为:所述基于滤波的所述点云信息进行三维物体识别前,还包括以下步骤:
基于高斯分布,计算每个点云信息与其它所有邻居点云的平均距离;
将平均距离在由全局距离平均值和标准偏差定义的阈值之外的所有点云信息从数据集中去除,去除离群的点云信息。
本发明在一较佳示例中可以进一步配置为:所述使所述双目相机与机器人进行手眼标定的步骤包括:
采用手眼分离的方式,使所述双目相机和机器人的末端固定在一起,或,使所述双目相机固定在机器人外面的底座上,使双目相机的坐标系与机器人的坐标系连通。
通过采用上述技术方案,将光栅扫描仪嵌入到双目相机之间,使得双目相机的两个镜头之间有一个光栅光源,使光栅扫描仪为双目相机提供光源,使得双目相机拍摄的照片质量更好;对双目相机进行标定,获取双目相机的测量结果,并基于测量结果计算目标深度值,以从二维图像中获取三维信息,并得到待抓取物体和双目相机之间的深度,进而利于确定待抓取物体的空间位置;使双目相机与机器人进行手眼标定,以使得双目相机拍摄的图像坐标系与机器人的坐标系连通,进而获取机器人坐标系和双目相机坐标系之间的关系,将双目相机的视觉识别技术的结果转移到机器人坐标系下;再使双目相机与机器人通信,同时,使双目相机对待抓取物体进行拍摄,采集待抓取物体的图象,并获得包括三维坐标的点云信息,以获取待抓取物体的三维信息;采用双边滤波对点云信息进行平滑滤波,且保留边界信息,以考虑空间临近信息与颜色相似信息,在滤除噪声、平滑图像的同时,又做到边缘保存,使得待抓取物体的三维信息更准确完整;基于滤波的点云信息进行三维物体识别,将双目相机识别的待抓取物体的坐标转化到机器人的坐标系里,获得待抓取物体在机器人坐标系里的坐标,且获得待抓取物体的X、Y、Z三维坐标,通过X、Y、Z三维坐标,计算机器人抓取位姿信息,并将机器人抓取位姿信息返回给机器人,使机器人根据机器人抓取位姿信息进行定位抓取;进而基于3D光栅引导机器人定位抓取的方法能够精确获得机器人所要抓取目标的三维坐标和抓取位姿,测量精度较高,能引导机器人准确定位抓取物体,突破了CCD(charge coupled device,电荷耦合器件)相机二维平面的局限,是工业应用上的一次大胆尝试,利于在工业上应用推广。
进一步地,基于低动态范围图像合成高动态范围图像,优化采集的点云信息的图像画质,从而优化采集的点云信息的质量,进而利于更准确地获取待抓取物体的三维信息。
进一步地,采用双边滤波对所述点云信息进行平滑滤波,使各个点云信息到中心点的空间临近度的权值和像素值相似度的权值进行乘积,再与图像矩阵作卷积计算,以实现将二维高斯正态分布放在图像矩阵上做卷积运算的目的,优化采集的点云信息的质量,从而达到保边去噪的效果。
进一步地,对于每个点云,计算从它到其所有邻居点云的平均距离,并通过假设所得到的分布是具有平均值和标准偏差的高斯分布,因此,其平均距离在由全局距离平均值和标准偏差定义的阈值之外的所有点云可以被认为是离群点云,可从数据集中去除,以去除离群点云,有利于更准确地获取待抓取物体的三维信息。
第二方面,本发明提供一种基于3D光栅引导机器人定位抓取的装置,具有准确定位抓取物体的特点。
本发明是通过以下技术方案得以实现的:
一种基于3D光栅引导机器人定位抓取的装置,包括:
光源模块,用于将光栅扫描仪嵌入到双目相机之间,使所述光栅扫描仪为所述双目相机提供光源;
相机标定模块,用于对所述双目相机进行标定,直至所述双目相机正确获取待抓取物体和双目相机之间的目标深度值;
手眼标定模块,用于使所述双目相机与机器人进行手眼标定,获取机器人坐标系和双目相机坐标系之间的关系;
通信模块,用于使嵌入所述光栅扫描仪的标定后的所述双目相机与机器人通信;
点云信息模块,用于使所述双目相机对待抓取物体进行拍摄,采集待抓取物体的图象,并获得包括三维坐标的点云信息;
处理模块,用于采用双边滤波对所述点云信息进行平滑滤波,同时保留边界信息;
识别模块,用于基于滤波的所述点云信息进行三维物体识别,将所述双目相机识别的待抓取物体的坐标转化到机器人的坐标系里,获得待抓取物体在机器人坐标系里的坐标,所述坐标包括待抓取物体的X、Y、Z三维坐标;
位姿模块,用于通过X、Y、Z三维坐标,计算机器人抓取位姿信息,并将机器人抓取位姿信息返回给机器人;
抓取模块,用于使机器人根据机器人抓取位姿信息进行定位抓取。
本发明在一较佳示例中可以进一步配置为:还包括:
优化模块,用于基于不同的曝光时间的低动态范围图像,选取每个曝光时间相对应的预设的低动态范围图像,合成高动态范围图像,优化所述点云信息。
本发明在一较佳示例中可以进一步配置为:还包括:
筛选模块,用于基于高斯分布,计算每个点云信息与其它所有邻居点云的平均距离,将平均距离在由全局距离平均值和标准偏差定义的阈值之外的所有点云信息从数据集中去除,去除离群的点云信息。
第三方面,本发明提供一种计算机设备,具有准确定位抓取物体的特点。
本发明是通过以下技术方案得以实现的:
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于3D光栅引导机器人定位抓取的方法的步骤。
综上所述,本发明包括以下至少一种有益技术效果:
1、一种基于3D光栅引导机器人定位抓取的方法能够精确获得机器人所要抓取目标的三维坐标和抓取位姿,测量精度较高,能引导机器人准确定位抓取物体,利于在工业上应用推广;
2、优化采集的点云信息的图像画质,利于更准确地获取待抓取物体的三维信息;
3、采用双边滤波对点云信息进行平滑滤波,实现将二维高斯正态分布放在图像矩阵上做卷积运算的目的,优化采集的点云信息的质量,从而达到保边去噪的效果;
4、从数据集中去除离群点云,优化3D模型质量,有利于更准确地获取待抓取物体的三维信息。
附图说明
图1是本发明其中一实施例一种基于3D光栅引导机器人定位抓取的方法的流程示意图。
图2是采用双边滤波对点云信息进行平滑滤波的步骤流程示意图。
图3是计算机器人抓取位姿信息的步骤流程示意图。
图4是本发明其中一实施例一种基于3D光栅引导机器人定位抓取的装置的结构框图。
具体实施方式
本具体实施例仅仅是对本发明的解释,其并不是对本发明的限制,本领域技术人员在阅读完本说明书后可以根据需要对本实施例做出没有创造性贡献的修改,但只要在本发明的权利要求范围内都受到专利法的保护。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,如无特殊说明,一般表示前后关联对象是一种“或”的关系。
下面结合说明书附图对本发明实施例作进一步详细描述。
参照图1,本发明实施例提供一种基于3D光栅引导机器人定位抓取的方法,所述方法的主要步骤描述如下。
S1:将光栅扫描仪嵌入到双目相机之间,使光栅扫描仪为双目相机提供光源;
S2:对双目相机进行标定,直至双目相机正确获取待抓取物体和双目相机之间的目标深度值;
S3:使双目相机与机器人进行手眼标定,获取机器人坐标系和双目相机坐标系之间的关系;
S4:使嵌入光栅扫描仪的标定后的双目相机与机器人通信;
S5:使双目相机对待抓取物体进行拍摄,采集待抓取物体的图象,并获得包括三维坐标的点云信息;
S7:采用双边滤波对点云信息进行平滑滤波,同时保留边界信息;
S9:基于滤波的点云信息进行三维物体识别,将双目相机识别的待抓取物体的坐标转化到机器人的坐标系里,获得待抓取物体在机器人坐标系里的坐标,坐标包括待抓取物体的X、Y、Z三维坐标;
S10:通过X、Y、Z三维坐标,计算机器人抓取位姿信息,并将机器人抓取位姿信息返回给机器人;
S11:使机器人根据机器人抓取位姿信息进行定位抓取。
具体地,S1:将光栅扫描仪嵌入到双目相机之间,进而双目相机的两个镜头之间有一个光栅光源,使光栅扫描仪以频段扫描的方式给为双目相机提供光源,本实施例中可以为通过正弦波扫描形式,以使得双目相机拍摄的照片质量更好。
进一步地,S2:对双目相机进行标定的步骤具体包括:基于标定板标定法,通过拍摄一组标定板照片,预设角点,检测标定板的角点坐标,并利用张正友标定算法标定相机的内外参数,得到双目相机的内外参数,即双目相机的测量结果。其中,相机内参数是与相机自身特性相关的参数,比如相机的焦距f、像素大小、左右相机基线b等,相机外参数是在世界坐标系中的参数,比如相机的位置、旋转方向等。
相机标定就是已知标定控制点的世界坐标和像素坐标,获取对应的映射关系,再由点的像素坐标去反推世界坐标,以进行后续测量等其他后续操作。
张正友标定算法,基于单平面棋盘格的相机标定方法,该方法使用简单实用性强,不需要额外的器材,一张打印的棋盘格即可;标定简单,相机和标定板可以任意放置;标定的精度高。
再根据测量结果对原始图像进行校正,使得校正后的两张图像位于同一平面且互相平行。
对校正后的两张图像进行像素点匹配,获得匹配结果,直至双目相机正确获取待抓取物体和双目相机之间的目标深度值。
根据匹配结果计算每个像素的深度,测算拍摄的图像中各个像素点的深度值,获得深度图,使图像转换为深度图。
基于双目相机产生的图像中各个像素点的深度值,即视差,根据公式z=f*b/d,其中,f为相机焦距,b为左右相机基线,d为视差,计算工件和双目相机之间的目标深度值z,以从二维图像中获取三维信息,并得到待抓取物体和双目相机之间的深度,进而确定待抓取物体的空间位置。
S3:使双目相机与机器人进行手眼标定的步骤包括:
采用手眼分离的方式,使双目相机和机器人的末端固定在一起,称之为“眼在手”,或,使双目相机固定在机器人外面的底座上,称之为“眼在外”。
具体地,手眼标定一般采用设置N个特征点,分别获取双目相机坐标系和机器人坐标系中的坐标数据,并将两组数据进行求解,得出旋转矩阵R和转移矩阵T,假设机器人坐标数据矩阵为A,双目相机坐标数据矩阵为B,得到双目相机坐标系与机器人坐标系的转化矩阵公式:B=RA+T。
机器人视觉应用中,手眼标定是一个非常基础且关键的问题。手眼标定的目的是使双目相机的坐标系与机器人的坐标系连通,获取机器人坐标系和相机坐标系的关系,以将双目相机的视觉识别的结果转移到机器人坐标系下。
S4:使嵌入光栅扫描仪的标定后的双目相机与机器人通信。具体地,借助Socket调用接口作为通信信道,通过TCP/IP网络协议发送数据,进行数据传输。
S5:使双目相机对待抓取物体进行拍摄,采集待抓取物体的图象,基于图像获得包括三维坐标的点云信息,进而得到待抓取物体表面特性的海量点集合。
参照图2,S7:采用双边滤波对点云信息进行平滑滤波的步骤包括,
S71:预设中心点,通过各个点云信息到中心点的空间临近度,计算各个点云信息到中心点的空间临近度的权值;
S72:基于各个点云信息的像素值相似度,计算各个点云信息的像素值相似度的权值;
S73:基于各个点云信息到中心点的空间临近度的权值和像素值相似度的权值进行乘积,再与图像矩阵作卷积运算。
双边滤波是非线性滤波中的一种,结合图像的空间邻近度与像素值相似度,采用了两个高斯滤波的结合,一个高斯滤波负责计算空间邻近度的权值,也就是常用的高斯滤波器原理;而另一个高斯滤波负责计算像素值相似度的权值。在滤波时,双边滤波同时考虑空间临近信息与颜色相似信息,在滤除噪声、平滑图像的同时,又做到边缘保存。
其中,S71:预设中心点,对图像中一个像素点,设定一个预设大小的方形邻域,假设定该邻域的原点(0,0)为中心点,像素点的坐标为(x,y)。
基于图像上的每一个像素点的值是由其本身和邻域内其他像素点的值经过加权平均后得到的,通过预设的图像矩阵,扫描图像中的每一个像素点。图像矩阵是一个大小固定、由数值参数组成的数学矩阵,矩阵中的数据为权值。离中心点越近,权重越大。使中心点与方形邻域内的其他像素值进行加权平均后,得到该像素点的值,即该像素点到中心点的空间临近度,依此计算各个点云信息到中心点的空间临近度。
计算各个点云信息到中心点的空间临近度的权值,即加权平均数。
S72:计算各个点云信息的像素值相似度,使该像素点到方形邻域内的其他像素点的像素值的差值的绝对值的平方作为该像素点的像素值相似度,依此计算各个点云信息的像素值相似度。
使各个点云信息的像素值相似度进行加权平均,计算各个点云信息的像素值相似度的权值。
S73:基于各个点云信息的权值和像素值相似度的权值进行乘积,获得优化后的权值,使优化后的权值与预设的图像矩阵进行卷积运算,实现将二维高斯正态分布放在图像矩阵上做卷积运算,从而达到保边去噪的效果。
进而采用双边滤波对点云信息进行平滑滤波,同时保留边界信息,以考虑空间临近信息与颜色相似信息,在滤除噪声、平滑图像的同时,又做到边缘保存,使得待抓取物体的三维信息更准确完整。
S9:基于滤波的点云信息进行三维物体识别,将双目相机识别的待抓取物体的坐标转化到机器人的坐标系里,获得待抓取物体在机器人坐标系里的坐标,坐标包括待抓取物体的X、Y、Z三维坐标。本实施例中,基于3DHough、GrabCut算法对待抓取物体进行三维识别。先由GrabCut算法将工件目标与背景进行图像切割,分割速度快,效果好;通过3DHough算法,将经典的将霍夫投票思想用于三维场景目标识别,票数最高视为目标物体质心在场景中的位置,以得出准确的目标位置。
参照图3,S10:通过X、Y、Z三维坐标,计算机器人抓取位姿信息的步骤包括,
S101:根据手眼标定得出的公式进行求逆解,获得机器人坐标中待抓取物体的坐标;
S102:基于奇异值分解方法或最小二乘方法,求解位姿信息中的旋转矩阵与平移矩阵;
S103:参照旋转矩阵与平移矩阵,估算抓取位姿,作为机器人抓取位姿信息。
S11:使机器人根据机器人抓取位姿信息进行定位抓取。
进而一种基于3D光栅引导机器人定位抓取的方法能够精确获得机器人所要抓取目标的三维坐标和抓取位姿,测量精度较高,能引导机器人准确定位抓取物体,突破了CCD(charge coupled device,电荷耦合器件)相机二维平面的局限,是工业应用上的一次大胆尝试,利于在工业上应用推广。
进一步地,S5:获得包括三维坐标的点云信息的步骤后,还包括以下步骤,
S6:基于不同的曝光时间的低动态范围(Low-Dynamic Range,LDR)图像,选取每个曝光时间相对应的预设的LDR图像,合成高动态范围(High-Dynamic Range,HDR)图像,以利用每个曝光时间相对应最佳细节的LDR图像来合成最终HDR图像,优化采集的点云信息的图像画质,从而优化采集的点云信息的质量,进而利于更准确地获取待抓取物体的三维信息。
进一步地,S9:基于滤波的点云信息进行三维物体识别前,还包括以下步骤,
S8:基于高斯分布,计算每个点云信息与其它所有邻居点云的平均距离,将平均距离在由全局距离平均值和标准偏差定义的阈值之外的所有点云信息从数据集中去除,去除离群的点云信息。
具体地,基于高斯分布的函数,由全局距离平均值和标准偏差来确定该函数边界,将点云信息代入该函数后,将真实值大于计算值的点云信息去除,以去除离群的点云信息,有利于更准确地获取待抓取物体的三维信息。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
参照图4,本发明实施例还提供一种基于3D光栅引导机器人定位抓取的装置,该一种基于3D光栅引导机器人定位抓取的装置与上述实施例中一种基于3D光栅引导机器人定位抓取的方法一一对应。该一种基于3D光栅引导机器人定位抓取的装置包括,
光源模块,用于将光栅扫描仪嵌入到双目相机之间,使光栅扫描仪为双目相机提供光源;
相机标定模块,用于对双目相机进行标定,直至双目相机正确获取待抓取物体和双目相机之间的目标深度值;
手眼标定模块,用于使双目相机与机器人进行手眼标定,获取机器人坐标系和双目相机坐标系之间的关系;
通信模块,用于使嵌入光栅扫描仪的标定后的双目相机与机器人通信;
点云信息模块,用于使双目相机对待抓取物体进行拍摄,采集待抓取物体的图象,并获得包括三维坐标的点云信息;
优化模块,用于基于不同的曝光时间的低动态范围图像,选取每个曝光时间相对应的预设的低动态范围图像,合成高动态范围图像,优化所述点云信息;
处理模块,用于采用双边滤波对点云信息进行平滑滤波,同时保留边界信息;
筛选模块,用于基于高斯分布,计算已滤波的每个点云信息与其它所有邻居点云的平均距离,将平均距离在由全局距离平均值和标准偏差定义的阈值之外的所有点云信息从数据集中去除,去除离群的点云信息;
识别模块,用于基于去除离群点云信息的点云信息进行三维物体识别,将双目相机识别的待抓取物体的坐标转化到机器人的坐标系里,获得待抓取物体在机器人坐标系里的坐标,坐标包括待抓取物体的X、Y、Z三维坐标;
位姿模块,用于通过X、Y、Z三维坐标,计算机器人抓取位姿信息,并将机器人抓取位姿信息返回给机器人;
抓取模块,用于使机器人根据机器人抓取位姿信息进行定位抓取。
关于一种基于3D光栅引导机器人定位抓取的装置的具体限定可以参见上文中对于一种基于3D光栅引导机器人定位抓取的方法的限定,在此不再赘述。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于3D光栅引导机器人定位抓取的方法,执行时实现以下步骤:
S1:将光栅扫描仪嵌入到双目相机之间,使光栅扫描仪为双目相机提供光源;
S2:对双目相机进行标定,直至双目相机正确获取待抓取物体和双目相机之间的目标深度值;
S3:使双目相机与机器人进行手眼标定,获取机器人坐标系和双目相机坐标系之间的关系;
S4:使嵌入光栅扫描仪的标定后的双目相机与机器人通信;
S5:使双目相机对待抓取物体进行拍摄,采集待抓取物体的图象,并获得包括三维坐标的点云信息;
S7:采用双边滤波对点云信息进行平滑滤波,同时保留边界信息;
S9:基于滤波的点云信息进行三维物体识别,将双目相机识别的待抓取物体的坐标转化到机器人的坐标系里,获得待抓取物体在机器人坐标系里的坐标,坐标包括待抓取物体的X、Y、Z三维坐标;
S10:通过X、Y、Z三维坐标,计算机器人抓取位姿信息,并将机器人抓取位姿信息返回给机器人;
S11:使机器人根据机器人抓取位姿信息进行定位抓取。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述系统的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。

Claims (10)

1.一种基于3D光栅引导机器人定位抓取的方法,其特征在于,包括以下步骤:
将光栅扫描仪嵌入到双目相机之间,使所述光栅扫描仪为所述双目相机提供光源;
对所述双目相机进行标定,直至所述双目相机正确获取待抓取物体和双目相机之间的目标深度值;
使所述双目相机与机器人进行手眼标定,获取机器人坐标系和双目相机坐标系之间的关系;
使嵌入所述光栅扫描仪的标定后的所述双目相机与机器人通信;
使所述双目相机对待抓取物体进行拍摄,采集待抓取物体的图象,并获得包括三维坐标的点云信息;
采用双边滤波对所述点云信息进行平滑滤波,同时保留边界信息;
基于滤波的所述点云信息进行三维物体识别,将所述双目相机识别的待抓取物体的坐标转化到机器人的坐标系里,获得待抓取物体在机器人坐标系里的坐标,所述坐标包括待抓取物体的X、Y、Z三维坐标;
通过X、Y、Z三维坐标,计算机器人抓取位姿信息,并将机器人抓取位姿信息返回给机器人;
使机器人根据机器人抓取位姿信息进行定位抓取。
2.根据权利要求1所述的基于3D光栅引导机器人定位抓取的方法,其特征在于,所述获得包括三维坐标的点云信息的步骤后,还包括以下步骤:
基于不同的曝光时间的低动态范围图像,选取每个曝光时间相对应的预设的低动态范围图像,合成高动态范围图像,优化所述点云信息。
3.根据权利要求1所述的基于3D光栅引导机器人定位抓取的方法,其特征在于,所述采用双边滤波对所述点云信息进行平滑滤波的步骤包括:
预设中心点,通过各个点云信息到中心点的空间临近度,计算各个点云信息到中心点的空间临近度的权值;
基于各个点云信息的像素值相似度,计算各个点云信息的像素值相似度的权值;
基于各个点云信息到中心点的空间临近度的权值和像素值相似度的权值进行乘积,再与图像矩阵作卷积运算。
4.根据权利要求1所述的基于3D光栅引导机器人定位抓取的方法,其特征在于,所述通过X、Y、Z三维坐标,计算机器人抓取位姿信息的步骤包括:
根据手眼标定得出的公式进行求逆解,获得机器人坐标中待抓取物体的坐标;
基于奇异值分解方法或最小二乘方法,求解位姿信息中的旋转矩阵与平移矩阵;
参照旋转矩阵与平移矩阵,估算抓取位姿,作为机器人抓取位姿信息。
5.根据权利要求1-4任意一项所述的基于3D光栅引导机器人定位抓取的方法,其特征在于,所述基于滤波的所述点云信息进行三维物体识别前,还包括以下步骤:
基于高斯分布,计算每个点云信息与其它所有邻居点云的平均距离;
将平均距离在由全局距离平均值和标准偏差定义的阈值之外的所有点云信息从数据集中去除,去除离群的点云信息。
6.根据权利要求1-4任意一项所述的基于3D光栅引导机器人定位抓取的方法,其特征在于,使所述双目相机与机器人进行手眼标定的步骤包括:
采用手眼分离的方式,使所述双目相机和机器人的末端固定在一起,或,使所述双目相机固定在机器人外面的底座上,使双目相机的坐标系与机器人的坐标系连通。
7.一种基于3D光栅引导机器人定位抓取的装置,其特征在于,包括:
光源模块,用于将光栅扫描仪嵌入到双目相机之间,使所述光栅扫描仪为所述双目相机提供光源;
相机标定模块,用于对所述双目相机进行标定,直至所述双目相机正确获取待抓取物体和双目相机之间的目标深度值;
手眼标定模块,用于使所述双目相机与机器人进行手眼标定,获取机器人坐标系和双目相机坐标系之间的关系;
通信模块,用于使嵌入所述光栅扫描仪的标定后的所述双目相机与机器人通信;
点云信息模块,用于使所述双目相机对待抓取物体进行拍摄,采集待抓取物体的图象,并获得包括三维坐标的点云信息;
处理模块,用于采用双边滤波对所述点云信息进行平滑滤波,同时保留边界信息;
识别模块,用于基于滤波的所述点云信息进行三维物体识别,将所述双目相机识别的待抓取物体的坐标转化到机器人的坐标系里,获得待抓取物体在机器人坐标系里的坐标,所述坐标包括待抓取物体的X、Y、Z三维坐标;
位姿模块,用于通过X、Y、Z三维坐标,计算机器人抓取位姿信息,并将机器人抓取位姿信息返回给机器人;
抓取模块,用于使机器人根据机器人抓取位姿信息进行定位抓取。
8.根据权利要求7所述的基于3D光栅引导机器人定位抓取的装置,其特征在于,还包括:
优化模块,用于基于不同的曝光时间的低动态范围图像,选取每个曝光时间相对应的预设的低动态范围图像,合成高动态范围图像,优化所述点云信息。
9.根据权利要求7所述的基于3D光栅引导机器人定位抓取的装置,其特征在于,还包括:
筛选模块,用于基于高斯分布,计算每个点云信息与其它所有邻居点云的平均距离,将平均距离在由全局距离平均值和标准偏差定义的阈值之外的所有点云信息从数据集中去除,去除离群的点云信息。
10.一种计算机设备,其特征在于,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现权利要求1-6任意一项所述的基于3D光栅引导机器人定位抓取的方法的步骤。
CN202111199573.8A 2021-10-14 2021-10-14 一种基于3d光栅引导机器人定位抓取的方法、装置及设备 Pending CN114029946A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111199573.8A CN114029946A (zh) 2021-10-14 2021-10-14 一种基于3d光栅引导机器人定位抓取的方法、装置及设备
PCT/CN2022/099913 WO2023060926A1 (zh) 2021-10-14 2022-06-20 一种基于3d光栅引导机器人定位抓取的方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111199573.8A CN114029946A (zh) 2021-10-14 2021-10-14 一种基于3d光栅引导机器人定位抓取的方法、装置及设备

Publications (1)

Publication Number Publication Date
CN114029946A true CN114029946A (zh) 2022-02-11

Family

ID=80134926

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111199573.8A Pending CN114029946A (zh) 2021-10-14 2021-10-14 一种基于3d光栅引导机器人定位抓取的方法、装置及设备

Country Status (2)

Country Link
CN (1) CN114029946A (zh)
WO (1) WO2023060926A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114986521A (zh) * 2022-08-01 2022-09-02 深圳市信润富联数字科技有限公司 物体抓取方法、装置、电子设备及可读存储介质
CN115070779A (zh) * 2022-08-22 2022-09-20 菲特(天津)检测技术有限公司 机器人抓取控制方法、系统及电子设备
WO2023060926A1 (zh) * 2021-10-14 2023-04-20 五邑大学 一种基于3d光栅引导机器人定位抓取的方法、装置及设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116330306B (zh) * 2023-05-31 2023-08-15 之江实验室 一种物体的抓取方法、装置、存储介质及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102445164A (zh) * 2011-10-12 2012-05-09 北京航空航天大学 一种大型构件表面三维形貌视觉测量方法及系统
CN103067671A (zh) * 2012-12-31 2013-04-24 华为技术有限公司 一种显示图像的方法及装置
CN103175485A (zh) * 2013-02-20 2013-06-26 天津工业大学 一种飞机涡轮发动机叶片修复机器人的视觉标定方法
CN103986875A (zh) * 2014-05-29 2014-08-13 宇龙计算机通信科技(深圳)有限公司 一种图像获取装置、方法、终端及视频获取方法
CN104251670A (zh) * 2014-08-28 2014-12-31 合肥斯科尔智能科技有限公司 一种多目光栅三维扫描仪
CN108381549A (zh) * 2018-01-26 2018-08-10 广东三三智能科技有限公司 一种双目视觉引导机器人快速抓取方法、装置及存储介质
CN108656107A (zh) * 2018-04-04 2018-10-16 北京航空航天大学 一种基于图像处理的机械臂抓取系统及方法
CN113330915A (zh) * 2021-05-26 2021-09-03 华南农业大学 双目视觉识别的自适应棉花收获方法及智能机械收获装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10076842B2 (en) * 2016-09-28 2018-09-18 Cognex Corporation Simultaneous kinematic and hand-eye calibration
CN109249392B (zh) * 2018-08-31 2021-03-23 先临三维科技股份有限公司 工件抓取系统的校准方法、标定件、装置、设备和介质
CN109255813B (zh) * 2018-09-06 2021-03-26 大连理工大学 一种面向人机协作的手持物体位姿实时检测方法
CN109927036A (zh) * 2019-04-08 2019-06-25 青岛小优智能科技有限公司 一种三维视觉引导机械手抓取的方法及系统
CN111476841B (zh) * 2020-03-04 2020-12-29 哈尔滨工业大学 一种基于点云和图像的识别定位方法及系统
CN112476434B (zh) * 2020-11-24 2021-12-28 新拓三维技术(深圳)有限公司 一种基于协作机器人的视觉3d取放方法及系统
CN114029946A (zh) * 2021-10-14 2022-02-11 五邑大学 一种基于3d光栅引导机器人定位抓取的方法、装置及设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102445164A (zh) * 2011-10-12 2012-05-09 北京航空航天大学 一种大型构件表面三维形貌视觉测量方法及系统
CN103067671A (zh) * 2012-12-31 2013-04-24 华为技术有限公司 一种显示图像的方法及装置
CN103175485A (zh) * 2013-02-20 2013-06-26 天津工业大学 一种飞机涡轮发动机叶片修复机器人的视觉标定方法
CN103986875A (zh) * 2014-05-29 2014-08-13 宇龙计算机通信科技(深圳)有限公司 一种图像获取装置、方法、终端及视频获取方法
CN104251670A (zh) * 2014-08-28 2014-12-31 合肥斯科尔智能科技有限公司 一种多目光栅三维扫描仪
CN108381549A (zh) * 2018-01-26 2018-08-10 广东三三智能科技有限公司 一种双目视觉引导机器人快速抓取方法、装置及存储介质
CN108656107A (zh) * 2018-04-04 2018-10-16 北京航空航天大学 一种基于图像处理的机械臂抓取系统及方法
CN113330915A (zh) * 2021-05-26 2021-09-03 华南农业大学 双目视觉识别的自适应棉花收获方法及智能机械收获装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
廖广军: "《公安数字影像处理与分析》", 31 March 2017, 广州:华南理工大学出版社 *
牛草源: "基于双目相机的物体识别与点云抓取点估计研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023060926A1 (zh) * 2021-10-14 2023-04-20 五邑大学 一种基于3d光栅引导机器人定位抓取的方法、装置及设备
CN114986521A (zh) * 2022-08-01 2022-09-02 深圳市信润富联数字科技有限公司 物体抓取方法、装置、电子设备及可读存储介质
CN115070779A (zh) * 2022-08-22 2022-09-20 菲特(天津)检测技术有限公司 机器人抓取控制方法、系统及电子设备

Also Published As

Publication number Publication date
WO2023060926A1 (zh) 2023-04-20

Similar Documents

Publication Publication Date Title
CN114029946A (zh) 一种基于3d光栅引导机器人定位抓取的方法、装置及设备
US10899014B2 (en) Multiple lens-based smart mechanical arm and positioning and assembly method thereof
CN111721259B (zh) 基于双目视觉的水下机器人回收定位方法
CN108381549B (zh) 一种双目视觉引导机器人快速抓取方法、装置及存储介质
CN112967339B (zh) 一种车辆位姿的确定方法、车辆控制方法及装置、车辆
CN112233181A (zh) 6d位姿识别的方法、装置及计算机存储介质
CN111897349A (zh) 一种基于双目视觉的水下机器人自主避障方法
CN111738320B (zh) 基于模板匹配的遮挡工件识别方法
Tran et al. Non-contact gap and flush measurement using monocular structured multi-line light vision for vehicle assembly
CN111784655B (zh) 一种水下机器人回收定位方法
CN116958146B (zh) 3d点云的采集方法及装置、电子装置
CN113129383A (zh) 手眼标定方法、装置、通信设备及存储介质
CN111583342A (zh) 一种基于双目视觉的目标快速定位方法及装置
CN113221953B (zh) 基于实例分割和双目深度估计的目标姿态识别系统与方法
Han et al. Target positioning method in binocular vision manipulator control based on improved canny operator
Chen et al. Finding optimal focusing distance and edge blur distribution for weakly calibrated 3-D vision
CN114092428A (zh) 图像数据处理方法、装置、电子设备和存储介质
CN111145254B (zh) 一种基于双目视觉的门阀毛坯定位方法
CN115830018B (zh) 基于深度学习与双目视觉的碳素块检测方法及系统
CN116596987A (zh) 一种基于双目视觉的工件三维尺寸高精度测量方法
CN114782529A (zh) 一种面向带电作业机器人的抓线点高精度定位方法、系统及存储介质
CN114049304A (zh) 一种3d光栅检测方法、装置、计算机设备及可读存储介质
CN112102419B (zh) 双光成像设备标定方法及系统、图像配准方法
CN112785647A (zh) 一种三目立体图像检测方法和系统
CN114022342A (zh) 抓取点信息获取方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination