CN117428777A - 一种拆袋机器人的手眼标定方法 - Google Patents
一种拆袋机器人的手眼标定方法 Download PDFInfo
- Publication number
- CN117428777A CN117428777A CN202311604551.4A CN202311604551A CN117428777A CN 117428777 A CN117428777 A CN 117428777A CN 202311604551 A CN202311604551 A CN 202311604551A CN 117428777 A CN117428777 A CN 117428777A
- Authority
- CN
- China
- Prior art keywords
- calibration
- hand
- cam
- eye
- tool
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 239000011159 matrix material Substances 0.000 claims abstract description 28
- 230000009466 transformation Effects 0.000 claims abstract description 23
- 238000006243 chemical reaction Methods 0.000 claims abstract description 22
- 230000008569 process Effects 0.000 claims abstract description 21
- 238000005516 engineering process Methods 0.000 claims abstract description 12
- 230000000007 visual effect Effects 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000009434 installation Methods 0.000 claims description 3
- 230000036544 posture Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 2
- 230000009471 action Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000013065 commercial product Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Abstract
本发明公开了一种拆袋机器人的手眼标定方法,涉及机器人标定技术领域,通过引入高度精准的3D相机定位技术和变换矩阵算法,快速提取和匹配特征点,克服了传统定位和操作精度限制,加快了标定过程的速度,使标定结果具有高精准性,借助精确的标定结果,机器人能够准确识别袋子位置并执行精准拆袋操作,从而提高拆袋过程的准确性和可靠性。同时通过快速准确的标定过程和自动化操作,无需过多人工干预,解决了传统标定方法依赖人工干预或繁琐的编程设置、导致操作耗时、效率低下等问题,可以适用于不同机器人坐标系、视觉系统坐标系之间的转换,具有广泛的适应性和应用前景。
Description
技术领域
本发明涉及机器人标定技术领域,尤其涉及一种拆袋机器人的手眼标定方法。
背景技术
随着自动化技术的不断发展,机器人在各个领域得到广泛应用。在工业生产中,机器人被用来完成各种任务,例如装配、搬运、包装和拆袋等。然而,在机械臂抓取方面,传统的人工示教方式已经显得效率低下且无法适应生产环境变化的需求。因此,提高机器人的精准控制和高效作业需要一种准确的标定和校准方法。拆袋机器人是一种专门用于拆解包装袋的自动化设备,它能够大幅提高生产效率、减少人工操作,并提高产品质量。然而,要实现机器人的精准控制和高效作业,就需要进行准确的标定和校准。拆袋机器人主要通过控制其机械臂来完成任务,机械臂通常需要依靠手眼系统执行机械加工和安装等任务。手眼系统由摄像机和机械臂构成,其中摄像机相当于人眼,而机械臂末端执行器则相当于人的手。在机器视觉领域,机械臂需要根据视觉系统的信号进行相应的路径规划和操作。由于机械臂坐标系统和视觉坐标系统是独立的模块,因此需要使用手眼标定技术,将视觉系统的坐标与机械臂的坐标进行转换,实现精确的视觉定位和机械臂控制。
虽然手眼标定方法已经得到深入研究并取得了许多成果,但是仍然存在诸多技术缺陷,大多数现有的手眼标定方法耗时且需要人力参与,并且仅适用于特定的设备和场景。这些方法往往没有考虑实际应用中的误差和不确定性,导致标定结果不够准确。因此,开发一种快速、准确、自动化的拆袋机器人手眼标定方法具有重要的现实意义和实际应用价值。
发明内容
本发明要解决的技术问题时针对现有技术的种种不足,提供一种拆袋机器人的手眼标定方法。
为解决上述技术问题,本发明所采取的技术方案如下。
一种拆袋机器人的手眼标定方法,所述方法的实施包括以下步骤:标定板选择和安装、启动标定程序、特征点选择与匹配、计算手眼关系、控制参数校正。
作为本发明的一种优选技术方案,所述标定板选择和安装步骤中标定板为四行三列棋盘标定板,放置在机械臂工作区域内。
作为本发明的一种优选技术方案,所述标定程序基于高分辨率和高精度的3D扫描技术,通过3D相机采集标定板在不同位置和姿态下的图像数据,并对图像数据进行处理和分析。
作为本发明的一种优选技术方案,在采集图像数据时,通过设定阈值和限制条件,保证采集的数据具有代表性和准确性。
作为本发明的一种优选技术方案,所述特征点选择与匹配步骤在3D点云图中选择标定板角点位置作为特征点,计算特征点周围区域的梯度直方图作为特征描述子,通过特征描述子之间的相似度匹配来实现特征点匹配,建立特征点之间的对应关系,获得相机坐标系到标定板坐标系的变换矩阵。
作为本发明的一种优选技术方案,所述计算手眼关系步骤采用变换矩阵算法得到视觉图像定位坐标与机械臂坐标的转换,具体算法模型构建过程如下:利用匹配的特征点对,计算机械臂坐标系与相机坐标系之间的变换矩阵,通过相机坐标系到标定板坐标系的变换矩阵camMcal,标定板坐标系到基地坐标系的变换矩阵calMbase,基地坐标系到机械臂末端坐标系的变换矩阵baseMtool,求解相机坐标系到机械臂末端的变换矩阵camMtool,可得矩阵转换关系为:
camMtool=camMcal*calMbase*baseMtool (1)
变形得:
calMbase=camMcal -1*camMtool*baseMtool -1 (2)
以为对于每张图片,矩阵转换关系都一样,所以得到如下等式:
camM1cal -1*camMtool*baseM1tool -1=camM2cal -1*camMtool*baseM2tool -1 (3)
经变换为:
camM2cal*camM1cal -1*camMtool=camMtool*baseM2tool -1*baseM1tool (4)
即可转换为:AX=XB (5)
对X进行求解,进而实现视觉图像定位坐标与机械臂坐标的转换。
作为本发明的一种优选技术方案,计算手眼关系步骤根据图像处理与坐标转换的结果,计算机械臂的运动轨迹和操作参数,并将计算结果通过与机械臂控制系统的通信发送给机械臂,使其精确地执行拆袋操作。
作为本发明的一种优选技术方案,所述控制参数校正步骤根据机器人控制系统的特点和具体应用需求,确定包括机械臂关节的位置误差补偿、关节速度和加速度限制、控制器增益和补偿在内的需要校正的控制参数。
作为本发明的一种优选技术方案,通过远程控制实时监控和调整手眼标定过程,以确保获取的数据可以满足实际应用需求。
作为本发明的一种优选技术方案,进行负反馈控制,使得机器人能够自我修正其位置偏差。
采用上述技术方案所产生的有益效果在于:本发明引入了高度精准的3D相机定位技术,能够快速提取和匹配特征点,从而加快了标定过程的速度,提供的手眼标定方法克服了传统定位和操作精度限制,使标定结果具有高精准性,借助精确的标定结果,机器人能够准确识别袋子位置并执行精准拆袋操作,从而提高拆袋过程的准确性和可靠性。本发明通过快速准确的标定过程和自动化操作,使得机器人能够快速识别袋子位置并执行拆袋操作,无需过多人工干预,解决了传统标定方法依赖人工干预或繁琐的编程设置、导致操作耗时、效率低下等问题。同时本发明的手眼标定技术具有广泛的适应性,可以适用于不同机器人坐标系、视觉系统坐标系之间的转换。解决了传统标定方法依赖特定的标定物体,对环境和机器人姿态要求严格的问题。该技术更加灵活、适应性强,可以在各种场景和环境中进行标定,使得机器人根据相机图像准确计算并调整其位置和姿态,实现各种拆袋操作的需求,在工业自动化、机器人导航、视觉检测等领域具有广泛的应用前景。
下文的实施例详细介绍了本发明各项技术细节的技术优势及其有益效果。
附图说明
图1是本发明一个具体实施方式的结构示意图。
图2是本发明一个具体实施方式的流程图。
具体实施方式
以下实施例详细说明了本发明。本发明所使用的各项设备均为常规市售产品,均能够通过市场购买直接获得。在以下实施例的描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
实施例1
本发明通过以下步骤实现拆袋机器人的手眼标定:标定板选择和安装、启动标定程序、特征点选择与匹配、计算手眼关系、控制参数校正。
选择一块四行三列棋盘标定板,并将其放置在机械臂工作区域内,与传统方法相比,其具有更明显的特征点和模式,以提供更准确的特征点提取和匹配。
为了实现精准定位,利用3D相机系统采集一系列标定板在不同位置和姿态下的图像数据,采用高分辨率和高精度的3D扫描技术,详细扫描工业场景,包括吨包袋以及周围环境,能够快速而准确地采集所需的数据。
在采集图像数据过程中,通过设置合理的阈值和限制条件,选择最合适的图像数据进行分析。这意味着,为了保证数据的代表性和准确性,系统会预先定义特定的图像特征参数阈值,比如颜色深浅、轮廓清晰度或是形状的特征度量,以筛选出清晰且具有高信息量的图像。同时,限制条件也会被施加以排除由于环境因素如光照变化或是背景干扰等导致的低质量数据。这些阈值和条件的设置,使得所采集的图像数据更加稳定可靠,从而提高后续手眼标定的精度,确保机器人在实际操作中按照预期的轨迹和方式精准拆袋。这种方法通过精细控制图像采集过程中的数据质量,优化了手眼校准的结果,使机器人能够更准确地根据视觉信息执行任务。
在3D点云图中选择标定板角点位置作为特征点,计算特征点周围区域的梯度直方图作为特征描述子,通过特征描述子之间的相似度匹配来实现特征点匹配,建立特征点之间的对应关系,从而获得相机坐标系到标定板坐标系的变换矩阵camMcal。由于3D点云中存储更多的几何信息,能够提取更为准确的局部特征点,与传统2D特征点选择匹配方法相比,能够获得更高的标定精度。
采用变换矩阵算法得到视觉图像定位坐标与机械臂坐标的转换,具体算法模型构建过程如下:利用匹配的特征点对,计算机械臂坐标系与相机坐标系之间的变换矩阵,通过相机坐标系到标定板坐标系的变换矩阵camMcal,标定板坐标系到基地坐标系的变换矩阵calMbase,基地坐标系到机械臂末端坐标系的变换矩阵baseMtool,求解相机坐标系到机械臂末端的变换矩阵camMtool,可得矩阵转换关系为:
camMtool=camMcal*calMbase*baseMtool (1)
变形得:calMbase=camMcal -1*camMtool*baseMtool -1 (2)
以为对于每张图片,矩阵转换关系都一样,所以得到如下等式:
camM1cal -1*camMtool*baseM1tool -1=camM2cal -1*camMtool*baseM2tool -1 (3)
经变换为:
camM2cal*camM1cal -1*camMtool=camMtool*baseM2tool -1*baseM1tool (4)
即可转换为:AX=XB (5)
对X进行求解,进而实现视觉图像定位坐标与机械臂坐标的转换。
根据图像处理与坐标转换的结果,计算机械臂的运动轨迹和操作参数,并将计算结果通过与机械臂控制系统的通信发送给机械臂,使其精确地执行拆袋操作。系统首先使用高级图像处理算法分析由摄像头所捕获的视觉数据,以辨识袋子的位置、形状以及其他可能影响拆袋操作的相关特征。随后,应用坐标转换技术将摄像头坐标系下得到的视觉信息转换到机械臂的运动坐标系中,确保视觉系统与机械臂之间的空间对应关系准确无误。接着,基于这些转换后的数据,计算机将确定机械臂的最优运动轨迹和操作参数,如关节角度、速度以及力度等,这是为了确保机械臂能够准确、高效地进行拆袋动作。计算出这些参数后,结果会通过与机械臂控制系统的通信接口发送给机械臂。机械臂控制系统接收到这些指令后,便会调动机械臂精确执行拆袋动作。该过程涉及到复杂的数据处理、精确的坐标变换以及实时的控制系统通信,确保了机械臂在执行拆袋操作时的高精准度和高效率。
根据机器人控制系统的特点和具体应用需求,确定包括机械臂关节的位置误差补偿、关节速度和加速度限制、控制器增益和补偿在内的需要校正的控制参数。
实施例2
通过远程控制系统来实现手眼标定过程的实时监控与调整,可以有效地确保所获取数据的准确性与适用性。这一过程通常涉及到利用高精度摄像头与传感器,实时捕捉机器人的运动状态和物体的空间位置,以及工作环境中的其他关键视觉信息。同时,专业人员可以通过远程接入控制系统,监视标定过程中生成的实时数据流,如果数据与预期存在偏差,可以及时调整相关的参数或修正机器人的动作轨迹,这样不仅优化了手眼系统的性能,也提升了机器人操作的精准度。此外,这种远程控制机制支撑了在不同环境中对机器人系统的快速部署和适应,进而确保所收集的数据能够满足特定实际应用的需求。
同时,本发明进行负反馈控制,使得机器人能够自我修正其位置偏差。首先要定义机器人的位置控制目标,即机器人的期望位置或运动轨迹,选择合适的传感器来监测机器人的实际位置,这些传感器可以是编码器、激光传感器、视觉系统等。建立反馈回路,将传感器的读数(实际位置)和控制目标(期望位置)进行比对,生成位置偏差信号。其次选择控制器类型,常见的控制器包括PID控制器,是最通用的一种负反馈控制器,设定控制器的各个参数。PID控制器分别对位置偏差的比例、积分和微分进行计算。将控制算法实现在控制软件中,使控制器可以对偏差信号进行处理,生成相应的控制命令。然后控制器输出的命令信号驱动执行器实施动作,以减少位置偏差,控制器会实时地根据传感器反馈的实际位置,调整输出以细微地修正执行器的动作。实现闭环控制系统,持续监测位置偏差,并周期性地调整控制输出,以不断减少偏差同时能够进行实时分析,确保响应时间满足要求,以及各部件协同工作平稳可靠。
实施例3
本发明还包含一种用于执行拆袋机器人的手眼标定方法的装置,包括机器人本体、机器视觉系统、坐标转换模块、通信接口、标定精度反馈模块,通过以上装置的协同合作,使拆袋机器人在实际操作中实现高精度和高稳定性的手眼协调。
机器视觉系统,包括3D相机和图像处理单元,3D相机用于获取袋子的图像,图像处理单元用于对图像进行处理和分析。对安装的机器视觉系统进行校准,确保图像获取的准确性和稳定性。校准过程包括相机内参标定和相机外参标定,以获得摄像头的内部参数和相机与机械臂之间的外部参数。通过机器视觉系统采集吨包袋图像,使用不同的视角和光照条件获取多个图像,以提高识别和定位的准确性。进而对采集到的吨包袋图像进行图像处理和识别检测。机器视觉系统配置有用于分析图像特征的算法,以及筛选出最适合手眼标定的图像帧的机制。
坐标转换模块负责将摄像头坐标系下的图像数据转换为机器人本体坐标系下的数据,确保图像信息和机器人动作之间的精准映射。坐标转换作为手眼标定技术的关键所在,相机固定在工业机器人末端上,称为眼在手上,在这种方式下,将视觉系统的坐标和机械臂的坐标进行标定与匹配,使视觉定位的坐标转换为机械臂坐标。
通信接口用于将标定后的数据发送至拆袋机器人的控制系统,从而指导机器人的操作行为。支持有线和无线两种通信模式,并且具有高数据传输稳定性和抗干扰能力,确保标定数据传递的准确性和及时性。根据图像处理与坐标转换的结果,计算机械臂的运动轨迹和操作参数。通过通信接口将计算得到的运动指令发送给机械臂,使其精确地执行拆袋操作。机械臂根据袋子的位置和方向进行准确的拆袋动作,以实现无损拆包。
标定精度反馈模块用于在实际操作中实时监测和校正手眼标定参数,确保长时间运行中标定精度的稳定性。
通过以上步骤,本发明的拆袋机器人的手眼标定方法实现机器视觉系统和机械臂的配合,然后通过机械臂控制系统实现准确的拆袋动作。这种手眼标定方法具有精度高、自动化、效率高、节约成本和广泛适用性等优点,为拆袋操作带来了重大的技术突破和改进。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。在各个实施例中,技术的硬件实现可以直接采用现有的智能设备,包括但不限于工控机、PC机、智能手机、手持单机、落地式单机等。其输入设备优选采用屏幕键盘,其数据存储和计算模块采用现有的存储器、计算器、控制器,其内部通信模块采用现有的通信端口和协议,其远程通信采用现有的gprs网络、万维互联网等。所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种拆袋机器人的手眼标定方法,其特征在于:所述方法的实施包括以下步骤:标定板选择和安装、启动标定程序、特征点选择与匹配、计算手眼关系、控制参数校正。
2.根据权利要求1所述的拆袋机器人的手眼标定方法,其特征在于:所述标定板选择和安装步骤中标定板为四行三列棋盘标定板,放置在机械臂工作区域内。
3.根据权利要求1所述的拆袋机器人的手眼标定方法,其特征在于:所述标定程序基于高分辨率和高精度的3D扫描技术,通过3D相机采集标定板在不同位置和姿态下的图像数据,并对图像数据进行处理和分析。
4.根据权利要求3所述的拆袋机器人的手眼标定方法,其特征在于:在采集图像数据时,通过设定阈值和限制条件,保证采集的数据具有代表性和准确性。
5.根据权利要求1所述的拆袋机器人的手眼标定方法,其特征在于:所述特征点选择与匹配步骤在3D点云图中选择标定板角点位置作为特征点,计算特征点周围区域的梯度直方图作为特征描述子,通过特征描述子之间的相似度匹配来实现特征点匹配,建立特征点之间的对应关系,获得相机坐标系到标定板坐标系的变换矩阵。
6.根据权利要求1所述的拆袋机器人的手眼标定方法,其特征在于:所述计算手眼关系步骤采用变换矩阵算法得到视觉图像定位坐标与机械臂坐标的转换,具体算法模型构建过程如下:利用匹配的特征点对,计算机械臂坐标系与相机坐标系之间的变换矩阵,通过相机坐标系到标定板坐标系的变换矩阵camMcal,标定板坐标系到基地坐标系的变换矩阵calMbase,基地坐标系到机械臂末端坐标系的变换矩阵baseMtool,求解相机坐标系到机械臂末端的变换矩阵camMtool,可得矩阵转换关系为:
camMtool=camMcal*calMbase*baseMtool (1)
变形得:calMbase=camMcal -1*camMtool*baseMtool -1 (2)
以为对于每张图片,矩阵转换关系都一样,所以得到如下等式:
camM1cal -1*camMtool*baseM1tool -1=camM2cal -1*camMtool*baseM2tool -1 (3)
经变换为:camM2cal*camM1cal -1*camMtool=camMtool*baseM2tool -1*baseM1tool (4)
即可转换为:AX=XB (5)
对X进行求解,进而实现视觉图像定位坐标与机械臂坐标的转换。
7.根据权利要求1所述的拆袋机器人的手眼标定方法,其特征在于:计算手眼关系步骤根据图像处理与坐标转换的结果,计算机械臂的运动轨迹和操作参数,并将计算结果通过与机械臂控制系统的通信发送给机械臂,使其精确地执行拆袋操作。
8.根据权利要求1所述的拆袋机器人的手眼标定方法,其特征在于:所述控制参数校正步骤根据机器人控制系统的特点和具体应用需求,确定包括机械臂关节的位置误差补偿、关节速度和加速度限制、控制器增益和补偿在内的需要校正的控制参数。
9.根据权利要求1至7中的任何一项所述的拆袋机器人的手眼标定方法,其特征在于:通过远程控制实时监控和调整手眼标定过程,以确保获取的数据可以满足实际应用需求。
10.根据权利要求8所述的拆袋机器人的手眼标定方法,其特征在于:进行负反馈控制,使得机器人能够自我修正其位置偏差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311604551.4A CN117428777A (zh) | 2023-11-28 | 2023-11-28 | 一种拆袋机器人的手眼标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311604551.4A CN117428777A (zh) | 2023-11-28 | 2023-11-28 | 一种拆袋机器人的手眼标定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117428777A true CN117428777A (zh) | 2024-01-23 |
Family
ID=89555317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311604551.4A Pending CN117428777A (zh) | 2023-11-28 | 2023-11-28 | 一种拆袋机器人的手眼标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117428777A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109674647A (zh) * | 2019-03-07 | 2019-04-26 | 西安伊蔓蒂电子科技有限公司 | 一种按摩机器人 |
CN110136208A (zh) * | 2019-05-20 | 2019-08-16 | 北京无远弗届科技有限公司 | 一种机器人视觉伺服系统的联合自动标定方法及装置 |
CN110514906A (zh) * | 2019-08-19 | 2019-11-29 | 中国地质大学(武汉) | 基于手眼协调的高精度微波腔体滤波器调试方法及系统 |
CN110555889A (zh) * | 2019-08-27 | 2019-12-10 | 西安交通大学 | 一种基于CALTag和点云信息的深度相机手眼标定方法 |
WO2021208230A1 (zh) * | 2020-04-15 | 2021-10-21 | 上海工程技术大学 | 智能装配控制系统 |
CN115741666A (zh) * | 2022-08-31 | 2023-03-07 | 深圳前海瑞集科技有限公司 | 机器人手眼标定方法、机器人及机器人作业方法 |
CN116544753A (zh) * | 2023-03-06 | 2023-08-04 | 北京瓦特曼智能科技有限公司 | 基于多感知融合的自动插拔方法、系统及可读存储介质 |
-
2023
- 2023-11-28 CN CN202311604551.4A patent/CN117428777A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109674647A (zh) * | 2019-03-07 | 2019-04-26 | 西安伊蔓蒂电子科技有限公司 | 一种按摩机器人 |
CN110136208A (zh) * | 2019-05-20 | 2019-08-16 | 北京无远弗届科技有限公司 | 一种机器人视觉伺服系统的联合自动标定方法及装置 |
CN110514906A (zh) * | 2019-08-19 | 2019-11-29 | 中国地质大学(武汉) | 基于手眼协调的高精度微波腔体滤波器调试方法及系统 |
CN110555889A (zh) * | 2019-08-27 | 2019-12-10 | 西安交通大学 | 一种基于CALTag和点云信息的深度相机手眼标定方法 |
WO2021208230A1 (zh) * | 2020-04-15 | 2021-10-21 | 上海工程技术大学 | 智能装配控制系统 |
CN115741666A (zh) * | 2022-08-31 | 2023-03-07 | 深圳前海瑞集科技有限公司 | 机器人手眼标定方法、机器人及机器人作业方法 |
CN116544753A (zh) * | 2023-03-06 | 2023-08-04 | 北京瓦特曼智能科技有限公司 | 基于多感知融合的自动插拔方法、系统及可读存储介质 |
Non-Patent Citations (2)
Title |
---|
宋丽梅、朱新军: "《机器视觉与机器学习》", 30 June 2020, 机械工业出版社, pages: 106 - 110 * |
崔王旭: "基于视觉的协作机器人动态目标抓取技术的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, 15 May 2023 (2023-05-15), pages 9 - 10 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2023056670A1 (zh) | 复杂光照条件下基于视触融合的机械臂自主移动抓取方法 | |
CN110580725A (zh) | 一种基于rgb-d相机的箱体分拣方法及系统 | |
JP4021413B2 (ja) | 計測装置 | |
WO2019114339A1 (zh) | 机械臂运动的校正方法和装置 | |
US20110320039A1 (en) | Robot calibration system and calibrating method thereof | |
CN111127568B (zh) | 一种基于空间点位信息的相机位姿标定方法 | |
CN111476841B (zh) | 一种基于点云和图像的识别定位方法及系统 | |
CN113379849B (zh) | 基于深度相机的机器人自主识别智能抓取方法及系统 | |
CN109465829A (zh) | 一种基于转换矩阵误差模型的工业机器人几何参数辨识方法 | |
CN114519738A (zh) | 一种基于icp算法的手眼标定误差修正方法 | |
CN115070781B (zh) | 一种物体抓取方法及双机械臂协作系统 | |
CN105783851A (zh) | 一种粗糙度检测系统及检测方法 | |
CN111331604A (zh) | 一种基于机器视觉的阀门旋拧柔顺作业方法 | |
Zhou et al. | Design and test of a sorting device based on machine vision | |
CN114536346B (zh) | 一种基于人机协作和视觉检测的机械臂精确路径规划方法 | |
CN116766194A (zh) | 基于双目视觉的盘类工件定位与抓取系统和方法 | |
CN115042175A (zh) | 一种机器人机械臂末端姿态的调整方法 | |
CN115294198A (zh) | 一种基于视觉的机械臂全局性能测量系统及方法 | |
Han et al. | Grasping control method of manipulator based on binocular vision combining target detection and trajectory planning | |
CN109079777B (zh) | 一种机械臂手眼协调作业系统 | |
CN113334380A (zh) | 基于双目视觉的机器人视觉标定方法、控制系统及装置 | |
CN110421565B (zh) | 一种用于实训的机器人全局定位与测量系统和方法 | |
Xu et al. | Industrial robot base assembly based on improved Hough transform of circle detection algorithm | |
CN111571596A (zh) | 利用视觉修正冶金接插装配作业机器人误差的方法及系统 | |
CN117428777A (zh) | 一种拆袋机器人的手眼标定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |