CN116551701B - 机器人控制方法、装置、电子设备及存储介质 - Google Patents
机器人控制方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116551701B CN116551701B CN202310839810.5A CN202310839810A CN116551701B CN 116551701 B CN116551701 B CN 116551701B CN 202310839810 A CN202310839810 A CN 202310839810A CN 116551701 B CN116551701 B CN 116551701B
- Authority
- CN
- China
- Prior art keywords
- image
- fusion
- current
- workpiece
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 238000003860 storage Methods 0.000 title claims abstract description 11
- 230000004927 fusion Effects 0.000 claims abstract description 302
- 238000007499 fusion processing Methods 0.000 claims abstract description 82
- 238000004364 calculation method Methods 0.000 claims description 20
- 238000004891 communication Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 16
- 238000010606 normalization Methods 0.000 claims description 9
- 230000003287 optical effect Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 6
- 230000002708 enhancing effect Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 4
- 230000009191 jumping Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000003708 edge detection Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000005498 polishing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种机器人控制方法、装置、电子设备及存储介质,所述方法包括:获取待识别工件对应的当前图像,对当前图像进行特征融合处理,得到当前融合图像;确定待识别工件对应的目标模板图像,并查找对目标模板图像进行特征融合处理而得到的目标融合图像;根据当前融合图像与目标融合图像的匹配结果,确定待识别工件的位置信息和角度信息;根据位置信息和角度信息,调整机器人的位姿,并控制机器人对待识别工件执行预设操作。如此对当前图像和目标模板图像分别进行特征融合处理,可以有效提取当前图像中的边缘轮廓特征、目标模板图像中的边缘轮廓特征,可以提高当前融合图像与目标融合图像的匹配准确率和鲁棒性。
Description
技术领域
本申请涉及机器人技术领域,尤其涉及一种机器人控制方法、装置、电子设备及存储介质。
背景技术
目前,电机定子外壳塑封后需要通过上电来检测电机是否合格,其中,通常是人工上电检测电机是否合格。为解决人工上电检测效率低下、检测存在危险性等问题,采用控制机器人的方式,抓取电机来完成上电检测。
相关技术中,在控制机器人抓取电机的过程中,基于传统的模板匹配方法引导机器人抓取电机完成上电检测。然而传统的模板匹配方法在面对电机前景与背景一致性差(即背景复杂)的情况下,匹配准确率较低。
发明内容
为了解决上述传统的模板匹配方法在面对电机前景与背景一致性差(即背景复杂)的情况下,匹配准确率较低的技术问题,本申请提供了一种机器人控制方法、装置、电子设备及存储介质。具体技术方案如下:
第一方面,本申请提供了一种机器人控制方法,所述方法包括:
获取待识别工件对应的当前图像,对所述当前图像进行特征融合处理,得到当前融合图像;
确定所述待识别工件对应的目标模板图像,并查找对所述目标模板图像进行特征融合处理而得到的目标融合图像;
根据所述当前融合图像与所述目标融合图像的匹配结果,确定所述待识别工件的位置信息和角度信息;
根据所述位置信息和所述角度信息,调整所述机器人的位姿,并控制所述机器人对所述待识别工件执行预设操作。
在一个可选的实施方式中,所述机器人末端的法兰盘上设置有图像采集模组,所述获取待识别工件对应的当前图像,包括:
获取机器人末端的初始位姿,并按照所述初始位姿调整机器人末端的位姿;
其中,所述初始位姿为所述图像采集模组位于工作平台的正上方,且所述图像采集模组的光轴垂直于工作平台时机器人末端的位姿;
在工作平台放置待识别工件的情况下,通过所述图像采集模组,获取待识别工件对应的当前俯视图。
在一个可选的实施方式中,所述对所述当前图像进行特征融合处理,得到当前融合图像,包括:
利用预设第一索贝尔算子对所述当前图像进行卷积计算,得到水平方向的第一梯度图;
利用预设第二索贝尔算子对所述当前图像进行卷积计算,得到垂直方向的第二梯度图;
对所述第一梯度图进行增强处理,得到第一图像,对所述第二梯度图进行增强处理,得到第二图像;
对所述第一图像和所述第二图像进行特征融合处理,得到当前融合图像。
在一个可选的实施方式中,所述对所述第一梯度图进行增强处理,得到第一图像,包括:
将所述第一梯度图进行自乘处理,并对自乘处理结果进行归一化处理,得到第一图像;
所述对所述第二梯度图进行增强处理,得到第二图像,包括:
将所述第二梯度图进行自乘处理,并对自乘处理结果进行归一化处理,得到第二图像。
在一个可选的实施方式中,所述对所述第一图像和所述第二图像进行特征融合处理,得到当前融合图像,包括:
获取所述第一图像的第一标准差,获取所述第二图像的第二标准差;
根据所述第一标准差和所述第二标准差,得到所述第一图像的第一融合系数以及所述第二图像的第二融合系数;
根据所述第一融合系数以及所述第二融合系数,对所述第一图像和所述第二图像进行特征融合处理,得到当前融合图像。
在一个可选的实施方式中,所述根据所述第一标准差和所述第二标准差,得到所述第一图像的第一融合系数以及所述第二图像的第二融合系数,包括:
将所述第一标准差和所述第二标准差输入至预设的第一融合系数确定公式,得到所述第一图像的第一融合系数以及所述第二图像的第二融合系数;
其中,所述预设的第一融合系数确定公式包括:
,/>;
所述为所述第一标准差,所述/>为所述第二标准差,所述α1为第一融合系数、β1为所述第二融合系数。
在一个可选的实施方式中,所述根据所述第一融合系数以及所述第二融合系数,对所述第一图像和所述第二图像进行特征融合处理,得到当前融合图像,包括:
将所述第一融合系数、所述第二融合系数、所述第一图像以及所述第二图像输入至预设第一融合公式,得到当前融合图像;
其中,所述预设第一融合公式包括:
;
所述为所述当前融合图像,所述/>为所述第一图像,所述为所述第二图像,所述α1为第一融合系数、β1为所述第二融合系数。
在一个可选的实施方式中,所述确定所述待识别工件对应的目标模板图像,包括:
获取所述待识别工件对应的当前工件类型,以及预设的工件类型与模板图像的对应关系;
根据所述对应关系,查找所述当前工件类型对应的模板图像,并确定为所述待识别工件对应的目标模板图像。
在一个可选的实施方式中,所述对应关系具体通过以下方式得到:
获取机器人末端的初始位姿,并按照所述初始位姿调整机器人末端的位姿;
其中,所述初始位姿为图像采集模组位于工作平台的正上方,且所述图像采集模组的光轴垂直于工作平台时机器人末端的位姿;
在工作平台放置模板工件的情况下,获取所述模板工件的工件类型;
通过所述图像采集模组,获取所述模板工件对应的俯视图;
选取所述俯视图中部分区域作为模板图像,建立所述工件类型与所述模板图像之间的对应关系。
在一个可选的实施方式中,所述方法还包括:
利用预设第一索贝尔算子对所述模板图像进行卷积计算,得到水平方向的第三梯度图;
利用预设第二索贝尔算子对所述模板图像进行卷积计算,得到垂直方向的第四梯度图;
对所述第三梯度图进行增强处理,得到第三图像,对所述第四梯度图进行增强处理,得到第四图像;
对所述第三图像和所述第四图像进行特征融合处理,得到融合图像。
在一个可选的实施方式中,所述对所述第三梯度图进行增强处理,得到第三图像,包括:
将所述第三梯度图进行自乘处理,并对自乘处理结果进行归一化处理,得到第三图像;
所述对所述第四梯度图进行增强处理,得到第四图像,包括:
将所述第四梯度图进行自乘处理,并对自乘处理结果进行归一化处理,得到第四图像。
在一个可选的实施方式中,所述对所述第三图像和所述第四图像进行特征融合处理,得到融合图像,包括:
获取所述第三图像的第三标准差,获取所述第四图像的第四标准差;
根据所述第三标准差和所述第四标准差,得到所述第三图像的第三融合系数以及所述第四图像的第四融合系数;
根据所述第三融合系数和所述第四融合系数,对所述第三图像和所述第四图像进行特征融合处理,得到融合图像。
在一个可选的实施方式中,所述根据所述第三标准差和所述第四标准差,得到所述第三图像的第三融合系数以及所述第四图像的第四融合系数,包括:
将所述第三标准差和所述第四标准差输入至预设的第二融合系数确定公式,得到所述第三图像的第三融合系数以及所述第四图像的第四融合系数;
其中,所述预设的第二融合系数确定公式包括:
,/>;
所述为所述第三标准差,所述/>为所述第四标准差,所述α2为所述第三融合系数、β2为所述第四融合系数。
在一个可选的实施方式中,所述根据所述第三融合系数和所述第四融合系数,对所述第三图像和所述第四图像进行特征融合处理,得到融合图像,包括:
将所述第三融合系数、所述第四融合系数、所述第三图像以及所述第四图像输入至预设第二融合公式,得到融合图像;
其中,所述预设第二融合公式包括:
;
所述为所述融合图像,所述/>为所述第三图像,所述为所述第四图像,所述α2为所述第三融合系数、β2为所述第四融合系数。
在一个可选的实施方式中,所述根据所述当前融合图像与所述目标融合图像的匹配结果,确定所述待识别工件的位置信息和角度信息,包括:
确定所述当前融合图像与所述目标融合图像的匹配分值,并判断所述匹配分值是否大于预设的阈值;
在所述匹配分值大于所述预设的阈值的情况下,确定所述待识别工件在所述当前图像中的二维坐标;
确定所述当前图像中所述待识别工件相较于所述目标模板图像中目标模板工件的旋转角度。
在一个可选的实施方式中,所述确定所述当前融合图像与所述目标融合图像的匹配分值,包括:
获取第一图像和第二图像,其中,所述第一图像和第二图像为在对所述当前图像进行特征融合处理过程中的两个中间图像;
获取第三图像和第四图像,其中,所述第三图像和第四图像为在对所述目标模板图像进行特征融合处理过程中的两个中间图像;
根据所述第一图像、所述第二图像、所述第三图像、所述第四图像、所述当前融合图像以及所述目标融合图像,确定所述当前融合图像与所述目标融合图像的匹配分值。
在一个可选的实施方式中,所述根据所述第一图像、所述第二图像、所述第三图像、所述第四图像、所述当前融合图像以及所述目标融合图像,确定所述当前融合图像与所述目标融合图像的匹配分值,包括:
将所述第一图像、所述第二图像、所述第三图像、所述第四图像、所述当前融合图像以及所述目标融合图像输入至预设匹配公式,得到所述当前融合图像与所述目标融合图像的匹配分值;
其中,所述预设匹配公式包括:
;
所述为所述匹配分值,所述/>为所述第一图像、所述/>为所述第二图像,所述/>为所述第三图像,所述/>为所述第四图像,所述/>为所述当前融合图像,所述/>为所述目标融合图像,所述n为目标模板图像的像素个数。
在一个可选的实施方式中,所述方法还包括:
在所述匹配分值未大于所述预设的阈值的情况下,通过金字塔层级上下采样,变更所述当前图像的尺寸,并跳转至所述对所述当前图像进行特征融合处理,得到当前融合图像的步骤。
在一个可选的实施方式中,所述根据所述位置信息和所述角度信息,调整所述机器人的位姿,包括:
对所述二维坐标进行优化,得到亚像素坐标,并将所述亚像素坐标转换为机器人坐标;
根据所述机器人坐标以及所述旋转角度,调整所述机器人的位姿。
在一个可选的实施方式中,所述对所述二维坐标进行优化,得到亚像素坐标,包括:
获取所述二维坐标对应的灰度值,将所述灰度值输入改进的二阶曲面参数方程,得到亚像素坐标;
其中,所述改进的二阶曲面参数方程包括:
;
所述为所述灰度值,所述j为复数虚部单位,所述W为函数的调制频率,所述/>为常数,所述x,所述y组成所述亚像素坐标。
第二方面,本申请提供了一种机器人控制装置,所述装置包括:
图像获取模块,用于获取待识别工件对应的当前图像;
图像处理模块,用于对所述当前图像进行特征融合处理,得到当前融合图像;
图像确定模块,用于确定所述待识别工件对应的目标模板图像;
图像查找模块,用于查找对所述目标模板图像进行特征融合处理而得到的目标融合图像;
信息确定模块,用于根据所述当前融合图像与所述目标融合图像的匹配结果,确定所述待识别工件的位置信息和角度信息;
位姿调整模块,用于根据所述位置信息和所述角度信息,调整所述机器人的位姿;
机器人控制模块,用于控制所述机器人对所述待识别工件执行预设操作。
第三方面,还提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述第一方面中任一所述的机器人控制方法。
第四方面,还提供了一种存储介质,所述存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第一方面中任一所述的机器人控制方法。
第五方面,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一所述的机器人控制方法。
本申请实施例提供的上述技术方案与现有技术相比具有如下优点:本申请实施例提供的该方法,获取待识别工件对应的当前图像,对当前图像进行特征融合处理,得到当前融合图像,确定待识别工件对应的目标模板图像,并查找对目标模板图像进行特征融合处理而得到的目标融合图像,根据当前融合图像与目标融合图像的匹配结果,确定待识别工件的位置信息和角度信息,根据位置信息和角度信息,调整机器人的位姿,并控制机器人对待识别工件执行预设操作。通过对当前图像和目标模板图像分别进行特征融合处理,得到当前融合图像和目标融合图像,根据当前融合图像与目标融合图像的匹配结果,确定待识别工件的位置信息和角度信息,进而调整机器人的位姿,控制机器人对待识别工件执行预设操作,如此对当前图像和目标模板图像分别进行特征融合处理,可以有效提取当前图像中的边缘轮廓特征、目标模板图像中的边缘轮廓特征,可以提高当前融合图像与目标融合图像的匹配准确率和鲁棒性。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1为本申请实施例提供的一种基于视觉引导机器人抓取电机的整体视觉定位系统的组成示意图;
图2为本申请实施例提供的一种机器人控制方法的实施流程示意图;
图3为本申请实施例提供的一种对应关系建立的方法的实施流程示意图;
图4为本申请实施例提供的一种融合图像生成方法的实施流程示意图;
图5为本申请实施例提供的一种融合图像的示意图;
图6为本申请实施例提供的另一种机器人控制方法的实施流程示意图;
图7为本申请实施例提供的一种机器人控制装置的结构示意图;
图8为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
下文的公开提供了许多不同的实施例或例子用来实现本申请的不同结构。为了简化本申请的公开,下文中对特定例子的部件和设置进行描述。当然,它们仅仅为示例,并且目的不在于限制本申请。此外,本申请可以在不同例子中重复参考数字和/或字母。这种重复是为了简化和清楚的目的,其本身不指示所讨论各种实施例和/或设置之间的关系。
如图1所示,为本申请实施例提供的一种基于视觉引导机器人抓取电机的整体视觉定位系统的组成示意图,整个视觉定位系统包括六轴机器人控制柜、六轴机器人本体、相机镜头一套、环形光源、工控机、电机工件平台、以及光源控制器等。其中,相机镜头固定在机器人末端的法兰盘上,垂直于电机工件平面拍摄电机图像。
基于如图1所示的整体视觉定位系统,如图2所示,为本申请实施例提供的一种机器人控制方法,应用于如上述六轴机器人控制柜,该方法具体可以包括以下步骤:
S201,获取待识别工件对应的当前图像,对当前图像进行特征融合处理,得到当前融合图像。
在本申请实施例中,对于待识别工件,例如可以放置在工件平台,并且在机器人末端的法兰盘上设置有图像采集模组,机器人末端可以携带图像采集模组,以使图像采集模组位于工件平台的正上方,且图像采集模组的光轴垂直于工作平台,此时可以通过图像采集模组,对待识别工件进行图像采集,从而可以获取待识别工件对应的当前图像,这里当前图像一般是俯视图。
例如,以待识别电机工件为例,可以放置在电机工件平台,在机器人末端的法兰盘上设置有相机,机器人末端可以携带相机,以使相机位于电机工件平台的正上方,且相机的光轴垂直于电机工作平台,此时可以通过相机,对待识别电机工件进行图像采集,从而可以获取待识别电机工件对应的当前俯视图。
需要说明的是,对于待识别工件,除了可以是上述待识别电机工件之外,还可以是其他类型的工件,例如马达等,本申请实施例对此不作限定。
此外,对于待识别工件对应的当前图像,本申请实施例中可以借助于改进的Sobel边缘检测算法对当前图像进行特征融合处理,得到当前融合图像。其中,特征融合处理可以有效提取当前图像中的边缘轮廓特征,即当前图像中待识别工件的边缘轮廓特征,意味着当前融合图像中包含了有效的待识别工件的边缘轮廓特征。其中,具体地特征融合处理过程后续进行说明。
S202,确定待识别工件对应的目标模板图像,并查找对目标模板图像进行特征融合处理而得到的目标融合图像。
在本申请实施例中,对于待识别工件,可以确定待识别工件对应的目标模板图像,这里目标模板图像是针对目标模板工件进行图像采集而得到的,目标模板图像中包含了目标模板工件。
此外,在本申请实施例中,对于目标模板图像,与上述当前图像一样,同样进行特征融合处理,得到目标融合图像,由此可以查找对目标模板图像进行特征融合处理而得到的目标融合图像。
需要说明的是,特征融合处理可以有效提取目标模板图像中的边缘轮廓特征,这里目标模板图像中包含了目标模板工件,即可以有效提取目标模板图像中目标模板工件的边缘轮廓特征,也就意味着目标融合图像中包含了有效的目标模板工件的边缘轮廓特征。其中,具体地特征融合处理过程后续进行说明。
S203,根据当前融合图像与目标融合图像的匹配结果,确定待识别工件的位置信息和角度信息。
在本申请实施例中,对于当前融合图像与目标融合图像,可以将两者进行匹配,并可以得到当前融合图像与目标融合图像的匹配结果,这里的匹配结果可以是两者的匹配分值,本申请实施例对此不作限定。
此外,对于当前融合图像,与目标融合图像的匹配结果,可以根据当前融合图像与目标融合图像的匹配结果,确定待识别工件的位置信息和角度信息。
需要说明的是,对于当前融合图像与目标融合图像的匹配结果,影响着待识别工件的位置信息和角度信息的精准度,两者的匹配结果越好,则说明待识别工件的位置信息和角度信息的精准度越高。
S204,根据位置信息和角度信息,调整机器人的位姿,并控制机器人对待识别工件执行预设操作。
在本申请实施例中,对于待识别工件的位置信息和角度信息,可以根据该位置信息和角度信息,调整机器人的位姿。并且在调整机器人的位姿之后,可以控制机器人对待识别工件执行预设操作,例如控制机器人对待识别电机工件进行精确抓取,完成上电检测。
通过上述对本申请实施例提供的技术方案的描述,通过对当前图像和目标模板图像分别进行特征融合处理,得到当前融合图像和目标融合图像,根据当前融合图像与目标融合图像的匹配结果,确定待识别工件的位置信息和角度信息,进而调整机器人的位姿,控制机器人对待识别工件执行预设操作,如此对当前图像和目标模板图像分别进行特征融合处理,可以有效提取当前图像中的边缘轮廓特征、目标模板图像中的边缘轮廓特征,可以提高当前融合图像与目标融合图像的匹配准确率和鲁棒性。
在本申请实施例中,对于本申请提供的机器人控制方法,主要可分为工件信息录入阶段和工件识别阶段。在工件信息录入的过程中,通过示教方式获取模板工件的模板图像,需保证整个模板工件完整地呈现在图像采集模组的视野中,并预留可移动的范围。同时,为提高工件识别精度和鲁棒性,需要进行打光优化,突出边缘轮廓特征,意味着在进行图像采集的时候(包含工件信息录入阶段和工件识别阶段),需要进行打光优化,突出边缘轮廓特征。在工件识别阶段,通过待识别工件的图像与模板工件的模板图像进行图像边缘轮廓特征匹配,自动获取待识别工件与模板工件在像素层面上的摆放差异,进而转换成机器人应当调整的位姿,从而实现待识别工件的自动抓取,如此通过视觉引导的方式引导机器人实现高精度的抓取工件,解决了传统模板匹配对于产品背景复杂的情况,抓取效率低的问题,实现了抓取任务中的高准确、高效率作业,使得机器人在日常工作中更智能化,提高了企业的自动化生产水平,推动了劳动密集型企业自动化智能化改造进程。
其中,在本申请实施例中,对于工件信息录入阶段,主要包括模板图像的采集、模板图像与工件类型之间的对应关系的建立,以及模板图像进行融合特征处理得到融合图像,下面分别进行说明。如图3所示,为本申请实施例提供的一种对应关系建立的方法的实施流程示意图,该方法具体可以包括以下步骤:
S301,获取机器人末端的初始位姿,并按照初始位姿调整机器人末端的位姿。
在本申请实施例中,对于图像采集模组,例如相机,安装在机器人末端的法兰盘上,调整机器人末端的位姿,使相机位于(例如电机)工件平台的正上方,且相机的光轴垂直于工作平台,记录此时机器人末端的位姿T0,并作为相机拍摄工件俯视图的初始位姿。
基于此,选取每类模板工件的一个样件放置在工作平台上,这里模板工件的类型是不同的。然后获取上述机器人末端的初始位姿,并按照初始位姿调整机器人末端的位姿,即控制机器人末端携带例如相机到达上述确定的初始位姿T0处。
需要说明的是,机器人末端的初始位姿指的是机械臂末端在机器人坐标系下的坐标,可以表示为(x,y,z,u,v,w),其中,u,v,w为旋转角。
S302,在工作平台放置模板工件的情况下,获取模板工件的工件类型。
在本申请实施例中,选取每类模板工件的一个样件放置在工作平台上,如此在工作平台放置模板工件的情况下,获取模板工件的工件类型。
需要说明的是,因不同类型的模板工件略有差异,因此针对不同类型的模板工件,需要得到对应的模板图像,进而得到对应的融合图像,本申请实施例对此不作限定。
S303,通过图像采集模组,获取模板工件对应的俯视图。
S304,选取俯视图中部分区域作为模板图像,建立工件类型与模板图像之间的对应关系。
在本申请实施例中,对于机器人末端的法兰盘上设置的图像采集模组,可以通过该图像采集模组,对工作平台上放置的模板工件进行图像采集,从而可以获取模板工件对应的俯视图。
对于模板工件对应的俯视图,可以选取俯视图中部分区域作为模板图像,建立工件类型与模板图像之间的对应关系。其中,可以通过框选的方式选取俯视图中部分区域作为模板图像。
需要说明的是,通过框选的方式选取俯视图中部分区域作为模板图像,可以框选俯视图中边缘轮廓特征比较明显的区域作为模板图像,本申请实施例对此不作限定。
另外,在获取模板工件对应的俯视图之后,可以保持模板工件不动,通过示教的方式控制机器人携带夹具到达模板工件抓取位置,并记录此时机器人末端的位姿TR。
此外,对于模板图像,可以对模板图像进行特征融合处理,得到融合图像。具体地特征融合处理,可以参考图4所示方法。如图4所示,为本申请实施例提供的一种融合图像生成方法的实施流程示意图,该方法具体可以包括以下步骤:
S401,利用预设第一索贝尔算子对模板图像进行卷积计算,得到水平方向的第三梯度图。
S402,利用预设第二索贝尔算子对模板图像进行卷积计算,得到垂直方向的第四梯度图。
S403,对第三梯度图进行增强处理,得到第三图像,对第四梯度图进行增强处理,得到第四图像。
S404,对第三图像和第四图像进行特征融合处理,得到融合图像。
在本申请实施例中,基于改进的Sobel边缘检测算法,对模板图像进行特征融合处理,具体是:利用预设第一索贝尔算子对模板图像进行卷积计算,得到水平方向的第三梯度图,利用预设第二索贝尔算子对模板图像进行卷积计算,得到垂直方向的第四梯度图,对第三梯度图进行增强处理,得到第三图像,对第四梯度图进行增强处理,得到第四图像,对第三图像和第四图像进行特征融合处理,得到融合图像。
需要说明的是,对于预设第一索贝尔算子,例如可以如下A所示,对于预设第二索贝尔算子,例如可以如下B所示,预设第一索贝尔算子与预设第二索贝尔算子不同,本申请实施例对此不作限定。
;/>。
此外,需要说明的是,上述增强处理,在增强图像对比度的同时有效提取边缘轮廓特征。
例如,基于上述Sobel算子A和B对模板图像进行卷积计算,可以得到水平方向的第三梯度图Fx、垂直方向的第四梯度图Fy,对第三梯度图Fx进行增强处理,得到第三图像fx,对第四梯度图Fy进行增强处理,得到第四图像fy,对第三图像fx和第四图像fy进行特征融合处理,得到融合图像。
其中,对于增强处理,可以理解的是,指的是图像自乘并进行归一化操作,如此在增强图像对比度的时候有效提取边缘轮廓特征。基于此,将第三梯度图进行自乘处理,并对自乘处理结果进行归一化处理,得到第三图像,将第四梯度图进行自乘处理,并对自乘处理结果进行归一化处理,得到第四图像。
另外,对于第三图像和第四图像的特征融合处理,可以理解的是对自乘并归一化的图像,求取图像的标准差,然后基于标准差对图像进行特征融合,从而得到融合图像。
基于此,获取第三图像的第三标准差,获取第四图像的第四标准差;根据第三标准差和第四标准差,得到第三图像的第三融合系数以及第四图像的第四融合系数;根据第三融合系数和第四融合系数,对第三图像和第四图像进行特征融合处理,得到融合图像,这里的融合图像例如可以如图5所示,其中有效提取了电机工件的边缘轮廓特征。
其中,将第三标准差和第四标准差输入至预设的第二融合系数确定公式,得到第三图像的第三融合系数以及第四图像的第四融合系数;其中,预设的第二融合系数确定公式包括:
,/>;
为第三标准差,/>为第四标准差,α2为第三融合系数、β2为第四融合系数。
将第三融合系数、第四融合系数、第三图像以及第四图像输入至预设第二融合公式,得到融合图像;其中,预设第二融合公式包括:
;
为融合图像,/>为第三图像,/>为第四图像,α2为第三融合系数、β2为第四融合系数。
如此经过上述处理,可以得到模板工件的模板图像,并且建立模板工件的工件类型与模板图像的对应关系,并且对于模板工件的模板图像,进行特征融合处理,得到融合图像,通过特征融合可以有效提取模板图像中模板工件的边缘轮廓特征。
如此经过上述工件信息录入阶段,可以执行工件识别阶段,在工件识别阶段,包括对待识别工件的当前图像进行特征融合处理,得到当前融合图像,将当前融合图像与目标融合图像进行匹配,以及根据匹配结果,确定待识别工件的位置信息和角度信息,进而调整机器人的位姿,并控制机器人对待识别工件执行例如抓取等操作,具体如图6所示方法。如图6所示,为本申请实施例提供的另一种机器人控制方法的实施流程示意图,该方法具体可以包括以下步骤:
S601,获取待识别工件对应的当前图像,利用预设第一索贝尔算子对当前图像进行卷积计算,得到水平方向的第一梯度图。
S602,利用预设第二索贝尔算子对当前图像进行卷积计算,得到垂直方向的第二梯度图。
S603,对第一梯度图进行增强处理,得到第一图像,对第二梯度图进行增强处理,得到第二图像。
S604,对第一图像和第二图像进行特征融合处理,得到当前融合图像。
在本申请实施例中,机器人末端的法兰盘上设置有图像采集模组,获取机器人末端的初始位姿,并按照初始位姿调整机器人末端的位姿,初始位姿为图像采集模组位于工作平台的正上方,且图像采集模组的光轴垂直于工作平台时机器人末端的位姿,在工作平台放置待识别工件的情况下,通过图像采集模组,对待识别工件进行图像采集,获取待识别工件对应的当前图像,当前图像即当前俯视图。
此外,在本申请实施例中,对于待识别工件对应的当前图像,可以基于改进的Sobel边缘检测算法对当前图像进行特征融合处理,得到当前融合图像。具体地,改进的Sobel边缘检测算法具体为:
利用预设第一索贝尔算子对当前图像进行卷积计算,得到水平方向的第一梯度图;利用预设第二索贝尔算子对当前图像进行卷积计算,得到垂直方向的第二梯度图;利用预设第二索贝尔算子对当前图像进行卷积计算,得到垂直方向的第二梯度图;对第一图像和第二图像进行特征融合处理,得到当前融合图像。
其中,对于第一梯度图,可以将第一梯度图进行自乘处理,并对自乘处理结果进行归一化处理,得到第一图像。如此完成第一梯度图的增强处理,在增强图像对比度的同时有效提取边缘轮廓特征。同理,对于第二梯度图,可以将第二梯度图进行自乘处理,并对自乘处理结果进行归一化处理,得到第二图像。如此完成第二梯度图的增强处理,在增强图像对比度的同时有效提取边缘轮廓特征。
另外,对于第一图像和第二图像的特征融合处理,可以理解的是对自乘并归一化的图像,求取图像的标准差,然后基于标准差对图像进行特征融合,从而得到融合图像。
基于此,获取第一图像的第一标准差,获取第二图像的第二标准差;根据第一标准差和第二标准差,得到第一图像的第一融合系数以及第二图像的第二融合系数;根据第一融合系数以及第二融合系数,对第一图像和第二图像进行特征融合处理,得到当前融合图像。
其中,将第一标准差和第二标准差输入至预设的第一融合系数确定公式,得到第一图像的第一融合系数以及第二图像的第二融合系数;
其中,预设的第一融合系数确定公式包括:
,/>;
为第一标准差,/>为第二标准差,α1为第一融合系数、β1为第二融合系数。
将第一融合系数、第二融合系数、第一图像以及第二图像输入至预设第一融合公式,得到当前融合图像;其中,预设第一融合公式包括:
;
为当前融合图像,/>为第一图像,/>为第二图像,α1为第一融合系数、β1为第二融合系数。
如此经过上述处理,对于待识别工件的当前图像,可以进行特征融合处理,得到当前融合图像,通过特征融合可以有效提取当前图像中待识别工件的边缘轮廓特征。
S605,获取待识别工件对应的当前工件类型,以及预设的工件类型与模板图像的对应关系。
S606,根据对应关系,查找当前工件类型对应的模板图像,并确定为待识别工件对应的目标模板图像。
S607,查找对目标模板图像进行特征融合处理而得到的目标融合图像。
在本申请实施例中,对于待识别工件,可以获取待识别工件对应的当前工件类型,并且获取上述建立的工件类型与模板图像的对应关系,可以根据该对应关系,查找当前工件类型对应的模板图像,并将当前工件类型对应的模板图像确定为待识别工件对应的目标模板图像,继而查找对目标模板图像进行特征融合处理而得到的目标融合图像。其中,对目标模板图像进行特征融合处理,具体可以参考上述模板图像的特征融合处理,本申请实施例在此不再一一赘述。
S608,确定当前融合图像与目标融合图像的匹配分值,并判断匹配分值是否大于预设的阈值。
在本申请实施例中,对于当前融合图像与目标融合图像,可以将两者进行匹配,匹配的实质就是确定当前融合图像与目标融合图像的匹配分值。
需要说明的是,对于匹配分值,可以表征当前融合图像与目标融合图像的匹配效果,分值越高,则说明匹配效果越好。相应的匹配分值也会影响待识别工件在当前图像中的二维坐标的精准度,以及当前图像中待识别工件相较于目标模板图像中目标模板工件的旋转角度的精准度。
基于此,在本申请实施例中,对于匹配分值,判断匹配分值是否大于预设的阈值。如果匹配分值大于预设的阈值,说明匹配完成,如果小于预设的阈值,则说明匹配效果不佳,为了不影响上述二维坐标以及旋转角度的精度,可以通过金字塔层级上下采样,变更当前图像的尺寸,重新进行匹配。
如此,在匹配分值未大于预设的阈值的情况下,可以通过金字塔层级上下采样,改变待识别工件对应的当前图像的尺寸,并跳转至对当前图像进行特征融合处理,得到当前融合图像的步骤,即跳转到利用预设第一索贝尔算子对当前图像进行卷积计算,得到水平方向的第一梯度图的步骤,然后重新执行后续的S502~S508的步骤,重新进行匹配。
其中,对于当前融合图像与目标融合图像的匹配分值的确定,具体可以是:获取第一图像和第二图像,其中,第一图像和第二图像为在对当前图像进行特征融合处理过程中的两个中间图像(即前述的第一图像和第二图像);获取第三图像和第四图像,其中,第三图像和第四图像为在对目标模板图像进行特征融合处理过程中的两个中间图像(即前述的第三图像和第四图像);根据第一图像、第二图像、第三图像、第四图像、当前融合图像以及目标融合图像,确定当前融合图像与目标融合图像的匹配分值。
其中,将第一图像、第二图像、第三图像、第四图像、当前融合图像以及目标融合图像输入至预设匹配公式,得到当前融合图像与目标融合图像的匹配分值;其中,预设匹配公式包括:
;
为匹配分值,/>为第一图像、/>为第二图像,/>为第三图像,/>为第四图像,/>为当前融合图像,/>为目标融合图像,n为目标模板图像的像素个数。
S609,在匹配分值大于预设的阈值的情况下,确定待识别工件在当前图像中的二维坐标。
S610,确定当前图像中待识别工件相较于目标模板图像中目标模板工件的旋转角度。
在本申请实施例中,在匹配分值大于预设的阈值的情况下,说明匹配完成,这时候确定待识别工件在当前图像中的二维坐标,以及确定当前图像中待识别工件相较于目标模板图像中目标模板工件的旋转角度,此时的二维坐标和旋转角度精度较高。
需要说明的是,二维坐标指的是像素坐标系下的坐标,像素坐标系是以图像左上角为坐标原点。并且确定待识别工件在当前图像中的二维坐标这里的当前图像,可以是原始的当前图像,即并未通过金字塔层级上下采样改变其尺寸,也可以是通过金字塔层级上下采样改变尺寸之后的当前图像,本申请实施例对此不作限定。
S611,对二维坐标进行优化,得到亚像素坐标,并将亚像素坐标转换为机器人坐标。
S612,根据机器人坐标以及旋转角度,调整机器人的位姿,控制机器人对待识别工件执行预设操作。
在本申请实施例中,对于二维坐标,可以对二维坐标进行优化,得到亚像素坐标,并将亚像素坐标转换为机器人坐标,根据机器人坐标以及旋转角度,调整机器人的位姿,并在调整机器人的位姿之后,控制机器人对待识别工件执行预设操作。
在本申请实施例中,可以基于改进的二阶曲面参数方程,对二维坐标进行优化,得到亚像素坐标。具体地,获取所述二维坐标对应的灰度值,将所述灰度值输入改进的二阶曲面参数方程,得到亚像素坐标;其中,所述改进的二阶曲面参数方程包括:
;
所述为所述灰度值,所述j为复数虚部单位,所述W为函数的调制频率,所述/>为常数,所述x,所述y组成所述亚像素坐标。
其中,对于二维坐标(x,y),二维坐标对应的g(x,y)为灰度值或者梯度值,则拟合二阶曲面和真实曲面的残差平方和为:
;
根据残差平方和最小原理,使残差最小则可以按照如下公式求导出。
。
需要说明的是,通过二阶曲面参数方程对二维坐标进行优化,准确获取亚像素坐标,从而完成定位。曲面拟合的过程相当于对图像做了一次高斯滤波,有助于提高算法的抗噪声和抗干扰能力,从而提高了模板匹配的定位精度。
如此,通过对当前图像和目标模板图像分别进行特征融合处理,得到当前融合图像和目标融合图像,根据当前融合图像与目标融合图像的匹配结果,确定待识别工件的位置信息和角度信息,进而调整机器人的位姿,控制机器人对待识别工件执行预设操作,如此对当前图像和目标模板图像分别进行特征融合处理,可以有效提取当前图像中的边缘轮廓特征、目标模板图像中的边缘轮廓特征,可以提高当前融合图像与目标融合图像的匹配准确率和鲁棒性。
此外,需要说明的是,本申请实施例提供的机器人控制方法,可以快速定位产线上的电机并实现自动化抓取,降低了机械臂在工作中对环境的要求,降低企业的使用成本且提高了实用性,有效提高了生产效率以及降低了机器人抓取失败的概率。本申请实施例提供的该机器人控制方法不仅可以应用在电机的自动化生产线中,还可应用于各类生产线的搬运中,具有一定的普遍性。
与上述方法实施例相对应,本申请实施例还提供了一种机器人控制装置,如图7所示,该装置可以包括:图像获取模块710、图像处理模块720、图像确定模块730、图像查找模块740、信息确定模块750、位姿调整模块760、机器人控制模块770。
图像获取模块710,用于获取待识别工件对应的当前图像;
图像处理模块720,用于对所述当前图像进行特征融合处理,得到当前融合图像;
图像确定模块730,用于确定所述待识别工件对应的目标模板图像;
图像查找模块740,用于查找对所述目标模板图像进行特征融合处理而得到的目标融合图像;
信息确定模块750,用于根据所述当前融合图像与所述目标融合图像的匹配结果,确定所述待识别工件的位置信息和角度信息;
位姿调整模块760,用于根据所述位置信息和所述角度信息,调整所述机器人的位姿;
机器人控制模块770,用于控制所述机器人对所述待识别工件执行预设操作。
本申请实施例还提供了一种电子设备,如图8所示,包括处理器81、通信接口82、存储器83和通信总线84,其中,处理器81,通信接口82,存储器83通过通信总线84完成相互间的通信,
存储器83,用于存放计算机程序;
处理器81,用于执行存储器83上所存放的程序时,实现如下步骤:
获取待识别工件对应的当前图像,对所述当前图像进行特征融合处理,得到当前融合图像;确定所述待识别工件对应的目标模板图像,并查找对所述目标模板图像进行特征融合处理而得到的目标融合图像;根据所述当前融合图像与所述目标融合图像的匹配结果,确定所述待识别工件的位置信息和角度信息;根据所述位置信息和所述角度信息,调整所述机器人的位姿,并控制所述机器人对所述待识别工件执行预设操作。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本申请提供的又一实施例中,还提供了一种存储介质,该存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的机器人控制方法。
在本申请提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的机器人控制方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在存储介质中,或者从一个存储介质向另一个存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk (SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。
Claims (21)
1.一种机器人控制方法,其特征在于,所述方法包括:
获取待识别工件对应的当前图像,对所述当前图像进行特征融合处理,得到当前融合图像;所述对所述当前图像进行特征融合处理,得到当前融合图像,包括:利用预设第一索贝尔算子对所述当前图像进行卷积计算,得到水平方向的第一梯度图;利用预设第二索贝尔算子对所述当前图像进行卷积计算,得到垂直方向的第二梯度图;对所述第一梯度图进行增强处理,得到第一图像,对所述第二梯度图进行增强处理,得到第二图像;对所述第一图像和所述第二图像进行特征融合处理,得到当前融合图像;
所述对所述第一图像和所述第二图像进行特征融合处理,得到当前融合图像,包括:获取所述第一图像的第一标准差,获取所述第二图像的第二标准差;根据所述第一标准差和所述第二标准差,得到所述第一图像的第一融合系数以及所述第二图像的第二融合系数;根据所述第一融合系数以及所述第二融合系数,对所述第一图像和所述第二图像进行特征融合处理,得到当前融合图像;
确定所述待识别工件对应的目标模板图像,并查找对所述目标模板图像进行特征融合处理而得到的目标融合图像;
根据所述当前融合图像与所述目标融合图像的匹配结果,确定所述待识别工件的位置信息和角度信息;
根据所述位置信息和所述角度信息,调整所述机器人的位姿,并控制所述机器人对所述待识别工件执行预设操作。
2.根据权利要求1所述的方法,其特征在于,所述机器人末端的法兰盘上设置有图像采集模组,所述获取待识别工件对应的当前图像,包括:
获取机器人末端的初始位姿,并按照所述初始位姿调整机器人末端的位姿;
其中,所述初始位姿为所述图像采集模组位于工作平台的正上方,且所述图像采集模组的光轴垂直于工作平台时机器人末端的位姿;
在工作平台放置待识别工件的情况下,通过所述图像采集模组,获取待识别工件对应的当前俯视图。
3.根据权利要求1所述的方法,其特征在于,所述对所述第一梯度图进行增强处理,得到第一图像,包括:
将所述第一梯度图进行自乘处理,并对自乘处理结果进行归一化处理,得到第一图像;
所述对所述第二梯度图进行增强处理,得到第二图像,包括:
将所述第二梯度图进行自乘处理,并对自乘处理结果进行归一化处理,得到第二图像。
4.根据权利要求1所述的方法,其特征在于,所述根据所述第一标准差和所述第二标准差,得到所述第一图像的第一融合系数以及所述第二图像的第二融合系数,包括:
将所述第一标准差和所述第二标准差输入至预设的第一融合系数确定公式,得到所述第一图像的第一融合系数以及所述第二图像的第二融合系数;
其中,所述预设的第一融合系数确定公式包括:
,/>;
所述为所述第一标准差,所述/>为所述第二标准差,所述α1为第一融合系数、β1为所述第二融合系数。
5.根据权利要求1所述的方法,其特征在于,所述根据所述第一融合系数以及所述第二融合系数,对所述第一图像和所述第二图像进行特征融合处理,得到当前融合图像,包括:
将所述第一融合系数、所述第二融合系数、所述第一图像以及所述第二图像输入至预设第一融合公式,得到当前融合图像;
其中,所述预设第一融合公式包括:
;
所述为所述当前融合图像,所述/>为所述第一图像,所述为所述第二图像,所述α1为第一融合系数、β1为所述第二融合系数。
6.根据权利要求1所述的方法,其特征在于,所述确定所述待识别工件对应的目标模板图像,包括:
获取所述待识别工件对应的当前工件类型,以及预设的工件类型与模板图像的对应关系;
根据所述对应关系,查找所述当前工件类型对应的模板图像,并确定为所述待识别工件对应的目标模板图像。
7.根据权利要求6所述的方法,其特征在于,所述对应关系具体通过以下方式得到:
获取机器人末端的初始位姿,并按照所述初始位姿调整机器人末端的位姿;
其中,所述初始位姿为图像采集模组位于工作平台的正上方,且所述图像采集模组的光轴垂直于工作平台时机器人末端的位姿;
在工作平台放置模板工件的情况下,获取所述模板工件的工件类型;
通过所述图像采集模组,获取所述模板工件对应的俯视图;
选取所述俯视图中部分区域作为模板图像,建立所述工件类型与所述模板图像之间的对应关系。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
利用预设第一索贝尔算子对所述模板图像进行卷积计算,得到水平方向的第三梯度图;
利用预设第二索贝尔算子对所述模板图像进行卷积计算,得到垂直方向的第四梯度图;
对所述第三梯度图进行增强处理,得到第三图像,对所述第四梯度图进行增强处理,得到第四图像;
对所述第三图像和所述第四图像进行特征融合处理,得到融合图像。
9.根据权利要求8所述的方法,其特征在于,所述对所述第三梯度图进行增强处理,得到第三图像,包括:
将所述第三梯度图进行自乘处理,并对自乘处理结果进行归一化处理,得到第三图像;
所述对所述第四梯度图进行增强处理,得到第四图像,包括:
将所述第四梯度图进行自乘处理,并对自乘处理结果进行归一化处理,得到第四图像。
10.根据权利要求8所述的方法,其特征在于,所述对所述第三图像和所述第四图像进行特征融合处理,得到融合图像,包括:
获取所述第三图像的第三标准差,获取所述第四图像的第四标准差;
根据所述第三标准差和所述第四标准差,得到所述第三图像的第三融合系数以及所述第四图像的第四融合系数;
根据所述第三融合系数和所述第四融合系数,对所述第三图像和所述第四图像进行特征融合处理,得到融合图像。
11.根据权利要求10所述的方法,其特征在于,所述根据所述第三标准差和所述第四标准差,得到所述第三图像的第三融合系数以及所述第四图像的第四融合系数,包括:
将所述第三标准差和所述第四标准差输入至预设的第二融合系数确定公式,得到所述第三图像的第三融合系数以及所述第四图像的第四融合系数;
其中,所述预设的第二融合系数确定公式包括:
,/>;
所述为所述第三标准差,所述/>为所述第四标准差,所述α2为所述第三融合系数、β2为所述第四融合系数。
12.根据权利要求10所述的方法,其特征在于,所述根据所述第三融合系数和所述第四融合系数,对所述第三图像和所述第四图像进行特征融合处理,得到融合图像,包括:
将所述第三融合系数、所述第四融合系数、所述第三图像以及所述第四图像输入至预设第二融合公式,得到融合图像;
其中,所述预设第二融合公式包括:
;
所述为所述融合图像,所述/>为所述第三图像,所述为所述第四图像,所述α2为所述第三融合系数、β2为所述第四融合系数。
13.根据权利要求1所述的方法,其特征在于,所述根据所述当前融合图像与所述目标融合图像的匹配结果,确定所述待识别工件的位置信息和角度信息,包括:
确定所述当前融合图像与所述目标融合图像的匹配分值,并判断所述匹配分值是否大于预设的阈值;
在所述匹配分值大于所述预设的阈值的情况下,确定所述待识别工件在所述当前图像中的二维坐标;
确定所述当前图像中所述待识别工件相较于所述目标模板图像中目标模板工件的旋转角度。
14.根据权利要求13所述的方法,其特征在于,所述确定所述当前融合图像与所述目标融合图像的匹配分值,包括:
获取第一图像和第二图像,其中,所述第一图像和第二图像为在对所述当前图像进行特征融合处理过程中的两个中间图像;
获取第三图像和第四图像,其中,所述第三图像和第四图像为在对所述目标模板图像进行特征融合处理过程中的两个中间图像;
根据所述第一图像、所述第二图像、所述第三图像、所述第四图像、所述当前融合图像以及所述目标融合图像,确定所述当前融合图像与所述目标融合图像的匹配分值。
15.根据权利要求14所述的方法,其特征在于,所述根据所述第一图像、所述第二图像、所述第三图像、所述第四图像、所述当前融合图像以及所述目标融合图像,确定所述当前融合图像与所述目标融合图像的匹配分值,包括:
将所述第一图像、所述第二图像、所述第三图像、所述第四图像、所述当前融合图像以及所述目标融合图像输入至预设匹配公式,得到所述当前融合图像与所述目标融合图像的匹配分值;
其中,所述预设匹配公式包括:
;
所述为所述匹配分值,所述/>为所述第一图像、所述/>为所述第二图像,所述为所述第三图像,所述/>为所述第四图像,所述/>为所述当前融合图像,所述/>为所述目标融合图像,所述n为目标模板图像的像素个数。
16.根据权利要求13所述的方法,其特征在于,所述方法还包括:
在所述匹配分值未大于所述预设的阈值的情况下,通过金字塔层级上下采样,变更所述当前图像的尺寸,并跳转至所述对所述当前图像进行特征融合处理,得到当前融合图像的步骤。
17.根据权利要求13所述的方法,其特征在于,所述根据所述位置信息和所述角度信息,调整所述机器人的位姿,包括:
对所述二维坐标进行优化,得到亚像素坐标,并将所述亚像素坐标转换为机器人坐标;
根据所述机器人坐标以及所述旋转角度,调整所述机器人的位姿。
18.根据权利要求17所述的方法,其特征在于,所述对所述二维坐标进行优化,得到亚像素坐标,包括:
获取所述二维坐标对应的灰度值,将所述灰度值输入改进的二阶曲面参数方程,得到亚像素坐标;
其中,所述改进的二阶曲面参数方程包括:
;
所述为所述灰度值,所述j为复数虚部单位,所述W为函数的调制频率,所述为常数,所述x,所述y组成所述亚像素坐标。
19.一种机器人控制装置,其特征在于,所述装置包括:
图像获取模块,用于获取待识别工件对应的当前图像;
图像处理模块,用于对所述当前图像进行特征融合处理,得到当前融合图像;所述对所述当前图像进行特征融合处理,得到当前融合图像,包括:利用预设第一索贝尔算子对所述当前图像进行卷积计算,得到水平方向的第一梯度图;利用预设第二索贝尔算子对所述当前图像进行卷积计算,得到垂直方向的第二梯度图;对所述第一梯度图进行增强处理,得到第一图像,对所述第二梯度图进行增强处理,得到第二图像;对所述第一图像和所述第二图像进行特征融合处理,得到当前融合图像;
所述对所述第一图像和所述第二图像进行特征融合处理,得到当前融合图像,包括:获取所述第一图像的第一标准差,获取所述第二图像的第二标准差;根据所述第一标准差和所述第二标准差,得到所述第一图像的第一融合系数以及所述第二图像的第二融合系数;根据所述第一融合系数以及所述第二融合系数,对所述第一图像和所述第二图像进行特征融合处理,得到当前融合图像;
图像确定模块,用于确定所述待识别工件对应的目标模板图像;
图像查找模块,用于查找对所述目标模板图像进行特征融合处理而得到的目标融合图像;
信息确定模块,用于根据所述当前融合图像与所述目标融合图像的匹配结果,确定所述待识别工件的位置信息和角度信息;
位姿调整模块,用于根据所述位置信息和所述角度信息,调整所述机器人的位姿;
机器人控制模块,用于控制所述机器人对所述待识别工件执行预设操作。
20.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-18中任一所述的方法步骤。
21.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-18中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310839810.5A CN116551701B (zh) | 2023-07-10 | 2023-07-10 | 机器人控制方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310839810.5A CN116551701B (zh) | 2023-07-10 | 2023-07-10 | 机器人控制方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116551701A CN116551701A (zh) | 2023-08-08 |
CN116551701B true CN116551701B (zh) | 2023-10-10 |
Family
ID=87486561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310839810.5A Active CN116551701B (zh) | 2023-07-10 | 2023-07-10 | 机器人控制方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116551701B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106570892A (zh) * | 2015-08-18 | 2017-04-19 | 航天图景(北京)科技有限公司 | 一种基于边缘增强模板匹配的运动目标主动跟踪方法 |
CN107067389A (zh) * | 2017-01-05 | 2017-08-18 | 佛山科学技术学院 | 一种基于Sobel边缘检测与图像块亮度特征的图像篡改盲取证方法 |
CN107992881A (zh) * | 2017-11-13 | 2018-05-04 | 广州中国科学院先进技术研究所 | 一种机器人动态抓取方法及系统 |
CN110315525A (zh) * | 2018-03-29 | 2019-10-11 | 天津工业大学 | 一种基于视觉引导的机器人工件抓取方法 |
CN110660104A (zh) * | 2019-09-29 | 2020-01-07 | 珠海格力电器股份有限公司 | 工业机器人视觉识别定位抓取方法、计算机装置以及计算机可读存储介质 |
CN114693959A (zh) * | 2020-12-30 | 2022-07-01 | 东声(苏州)智能科技有限公司 | 图像目标匹配定位方法、存储介质和计算机 |
CN115953465A (zh) * | 2022-09-06 | 2023-04-11 | 哈尔滨工业大学 | 基于模块化机器人实训平台的三维视觉随机抓取处理方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6978454B2 (ja) * | 2019-02-22 | 2021-12-08 | ファナック株式会社 | 物体検出装置、制御装置及び物体検出用コンピュータプログラム |
-
2023
- 2023-07-10 CN CN202310839810.5A patent/CN116551701B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106570892A (zh) * | 2015-08-18 | 2017-04-19 | 航天图景(北京)科技有限公司 | 一种基于边缘增强模板匹配的运动目标主动跟踪方法 |
CN107067389A (zh) * | 2017-01-05 | 2017-08-18 | 佛山科学技术学院 | 一种基于Sobel边缘检测与图像块亮度特征的图像篡改盲取证方法 |
CN107992881A (zh) * | 2017-11-13 | 2018-05-04 | 广州中国科学院先进技术研究所 | 一种机器人动态抓取方法及系统 |
CN110315525A (zh) * | 2018-03-29 | 2019-10-11 | 天津工业大学 | 一种基于视觉引导的机器人工件抓取方法 |
CN110660104A (zh) * | 2019-09-29 | 2020-01-07 | 珠海格力电器股份有限公司 | 工业机器人视觉识别定位抓取方法、计算机装置以及计算机可读存储介质 |
CN114693959A (zh) * | 2020-12-30 | 2022-07-01 | 东声(苏州)智能科技有限公司 | 图像目标匹配定位方法、存储介质和计算机 |
CN115953465A (zh) * | 2022-09-06 | 2023-04-11 | 哈尔滨工业大学 | 基于模块化机器人实训平台的三维视觉随机抓取处理方法 |
Non-Patent Citations (1)
Title |
---|
基于视觉的电子元器件分拣机器人关键技术研究;代瑞恒;中国优秀硕士学位论文全文数据库;第1-67页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116551701A (zh) | 2023-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111986178B (zh) | 产品缺陷检测方法、装置、电子设备和存储介质 | |
US9124873B2 (en) | System and method for finding correspondence between cameras in a three-dimensional vision system | |
US12007546B2 (en) | Determination of contextual information for interchangeable components of an optical system | |
CN108381549B (zh) | 一种双目视觉引导机器人快速抓取方法、装置及存储介质 | |
US11625842B2 (en) | Image processing apparatus and image processing method | |
He et al. | A critical review for machining positioning based on computer vision | |
CN110146017A (zh) | 工业机器人重复定位精度测量方法 | |
CN115810133A (zh) | 基于图像处理和点云处理的焊接控制方法及相关设备 | |
CN105991913A (zh) | 一种基于机器视觉定位特征对象的方法 | |
CN113172636B (zh) | 一种自动手眼标定方法、装置及存储介质 | |
CN116551701B (zh) | 机器人控制方法、装置、电子设备及存储介质 | |
CN113109364B (zh) | 一种芯片缺陷的检测方法及装置 | |
Song et al. | A weld feature points detection method based on improved YOLO for welding robots in strong noise environment | |
Fang et al. | A vision-based method for narrow weld trajectory recognition of arc welding robots | |
CN110060330B (zh) | 一种基于点云图像的三维建模方法、装置和机器人 | |
Fontana et al. | Flexible vision based control for micro-factories | |
CN111415384A (zh) | 一种基于深度学习的工业图像组件精准定位系统 | |
Xing et al. | Depth camera-based algorithm for visual recognition and automated polishing of ship components | |
Li et al. | Motion-based microscopic camera calibration and application on micro tube-hole insertion | |
JP7204504B2 (ja) | 対象物確認装置 | |
CN114749849B (zh) | 焊接控制方法、装置和系统 | |
Wang et al. | A novel approach for robotic welding trajectory recognition based on pseudo-binocular stereo vision | |
US20240139934A1 (en) | Teaching method, program stored in the medium for executing the teaching method and transfer system | |
Li et al. | Weld seam detection and location method based on depth camera and improved YOLOv5 | |
Zhang | Research on visual recognition and positioning of industrial robots based on big data technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |