CN114800524B - 一种人机交互协作机器人主动避碰的系统及方法 - Google Patents

一种人机交互协作机器人主动避碰的系统及方法 Download PDF

Info

Publication number
CN114800524B
CN114800524B CN202210581002.9A CN202210581002A CN114800524B CN 114800524 B CN114800524 B CN 114800524B CN 202210581002 A CN202210581002 A CN 202210581002A CN 114800524 B CN114800524 B CN 114800524B
Authority
CN
China
Prior art keywords
data
mechanical arm
unit
joint point
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210581002.9A
Other languages
English (en)
Other versions
CN114800524A (zh
Inventor
陈文明
梁冬泰
高金峰
郑聪聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo Polytechnic
Original Assignee
Ningbo Polytechnic
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo Polytechnic filed Critical Ningbo Polytechnic
Priority to CN202210581002.9A priority Critical patent/CN114800524B/zh
Publication of CN114800524A publication Critical patent/CN114800524A/zh
Application granted granted Critical
Publication of CN114800524B publication Critical patent/CN114800524B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/087Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J18/00Arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及机器人避碰技术领域,公开了一种人机交互协作机器人主动避碰的系统,包括人机交互协作机器人,人机交互协作机器人包括机械臂单元,人体姿态数据信息获取模块;机械臂姿态识别模块;主动避碰模块;人体姿态数据信息获取模块用于获取人体姿态估计数据;机械臂姿态识别模块用于建立机械臂关节点检测模型,获取机械臂的姿态估计数据;主动避碰模块,用于接收人体姿态估计数据和机械臂的姿态估计数据,并当人体姿态数据和机械臂姿态数据在预设空间邻域范围内,控制机械臂按照对应的预设路线自动避让。采用本系统,能够获取更加丰富、鲁棒的机械臂周围场景,人体姿态和机械臂姿态估计精度更高,保障生产作业人机协调安全有序。

Description

一种人机交互协作机器人主动避碰的系统及方法
技术领域
本发明涉及机器人避碰技术领域,尤其涉及一种人机交互协作机器人主动避碰的系统及方法。
背景技术
我国制造业进入到转型升级期,大量工业机械臂应用到生产作业中,其应用场景越来越广泛。工业机械臂替代人完成生产作业任务,例如,搬运、码垛、焊接、救援、喷涂、装配等等,不但可以提高工作效率,还可以保证产品质量的稳定性。一般的机械臂应用场景中,大多采用人机分离等物理空间隔离方式保护操作人员的人身安全,但在很多特殊生产流程和复杂工作环境中,仍然需要人的参与,由此产生了人与工业机械臂协同工作的应用场景。对于人机近距离协作的生产应用需求,如何保证机械臂作业过程中人的安全成为至关重要的问题。
为了实现人机协作过程中的安全交互,目前在机械臂端主要涉及三个方面的研究,一是机械臂对进入工作空间内的操作人员进行感知和识别,获取操作人员的实时位置和姿态,即人体位置姿态识别检测;二是机械臂与操作人员的相对位置和空间距离的测量估计,首先通过机械臂操作系统或者外部传感设备对机械臂自身姿态进行感知,然后与感知的操作人员位置姿态信息进行融合,进而获取空间距离测量估计;三是机械臂安全避碰策略和路径规划研究,通过操作人员与机械臂的相对位置和距离等信息,针对不同的输入信息采取不同的安全避碰策略,实现相应的路径规划,从而达到自适应感知的主动减速、反方向避让、停止作业等不同的安全防碰撞交互。
传统的机械臂避碰路径规划是人工示教,通过离线计算获取规划路径,一旦工作环境变化,原来的数据将无法适用于新环境。
目前基于视觉感知路径规划是通过相机、双目视觉或多目视觉获取立体信息,还有采用单个3D深度传感设备进行信息采集;其中通过相机获取的信息有限;采用双目视觉或多目视觉获取立体信息,存在计算量大、复杂度高、现场部署困难等问题;采用单个3D深度传感设备,例如RGB-D深度摄像机等,进行机械臂周围环境信息的采集,深度摄像机不但能够获取2D平面彩色图像,还能获取空间3D点云数据,极大的丰富了机械臂对周围环境感知的信息量。但是,实际应用场景中一般存在环境复杂、光照变化大、视线遮挡、单模态信息数据漂移等问题,导致单个深度摄像机获取的点云数据不完整,后期处理难度大。
因此,如何实现更加精确的实时获取机械臂避碰轨迹规划,在生产过程中改善生产节拍,提高人机协调效率,降低风险,是目前需要解决的重要问题。
发明内容
本发明实施例所要解决的技术问题在于解决如何获得更加丰富、鲁棒的机械臂周围场景信息数据,如何提高人体姿态和机械臂本体自身姿态估计精度,如何实现实时机械臂避碰轨迹规划,提供了一种人机交互协作机器人主动避碰的系统及方法。
本发明实施例提供了一种人机交互协作机器人主动避碰的系统,包括人机交互协作机器人,所述人机交互协作机器人包括机械臂单元,所述机械臂单元包括至少一个机械臂;还包括人体姿态数据信息获取模块、机械臂姿态识别模块;主动避碰模块;
所述人体姿态数据信息获取模块,用于获取人体姿态估计数据;
所述机械臂姿态识别模块,用于建立机械臂关节点检测模型,按照预设回归算法,获取机械臂的姿态估计数据;
所述主动避碰模块,用于接收人体姿态数据信息获取模块的人体姿态估计数据和机械臂姿态识别模块的机械臂的姿态估计数据,并当人体姿态数据和机械臂姿态数据在预设空间接触范围内,控制机械臂按照对应的预设路线避让。
进一步地,所述人体姿态数据信息获取模块包括多台深度传感器摄像机、数据融合处理单元,数据提取单元,第一回归拟合单元;
所述多台深度传感器摄像机,分别设置在预设位置,每个位置对应的方位不同,用于获取人体不同方位的深度传感数据、点云数据以及图像数据;
所述数据融合处理单元,用于通过预设融合算法,将获取的不同方位的深度传感数据融合获取对应的人体深度传感数据;
所述数据提取单元,用于通过预设提取算法,提取获取的人体深度传感数据中人体骨骼三维关节点数据;
所述第一回归拟合单元,用于通过预设融合算法,融合并匹配获取的人体深度传感数据和提取的人体骨骼三维关节点数据,通过预设回归拟合算法,获取对应的人体姿态估计数据。
进一步地,所述数据融合处理单元包括人体深度数据标定单元、第一融合单元;
所述人体深度数据标定单元,用于通过预设标定算法,将获取的不同方位的深度传感数据标定到预设标定深度传感设备的坐标系中,并获取标定后的深度传感数据;
所述第一融合单元,用于通过分布式卡尔曼一致性滤波处理算法对标定后的深度传感数据融合处理,并通过预设点云数据处理算法库对融合后的深度传感数据进行拟合,获取对应的人体深度传感数据。
进一步地,所述第一回归拟合单包括人体骨骼三维关节点数据标定单元、回归拟合单元以及第二融合单元;
所述人体骨骼三维关节点数据标定单元,用于通过预设标定算法,将获取的人体骨骼三维关节点数据标定到预设标定深度传感设备的坐标系中,并获取标定后的人体骨骼三维关节点数据;
所述回归拟合单元,用于通过分布式卡尔曼一致性滤波处理算法对标定后的人体骨骼三维关节点数据进行回归拟合,获取一致性人体骨骼三维关节点数据;
所述第二融合单元,用于将人体深度传感数据和一致性人体骨骼三维关节点数据通过预设多元数据融合算法融合匹配,获取人体姿态估计数据。
进一步地,机械臂姿态识别模块包括样本数据库建立单元、模型搭建单元、实时估计姿态单元;
所述样本数据库建立单元,包括彩色图像坐标建立单元、深度图像坐标建立单元以及点云数据坐标建立单元,用于通过彩色图像坐标建立单元获取彩色图像内对应的机械臂关节点坐标,通过深度图像坐标建立单元获取深度图像内对应的关节点坐标,通过点云数据坐标建立单元获取点云数据内对应的关节点坐标;
模型搭建单元,用于将样本数据库建立单元中获取的彩色图像内对应的机械臂关节点坐标、深度图像内对应的关节点坐标以及点云数据内对应的关节点坐标作为输入数据,通过预设级联沙漏卷积神经网络提取特征,并将提取的特征通过热图网络回归机械臂对应关节点的概率,根据回归机械臂对应关节点的概率建立机械臂关节点检测模型;
实时估计姿态单元,用于对机械臂关节点的每一个像素位置进行预测,获取机械臂的姿态估计数据。
进一步地,所述样本数据库建立单元还包括图像数据收集单元、样本标注单元;
图像数据收集单元,用于收集预设角度以及预设光照下机械臂不同姿态的图像数据以及收集所述多个深度深度传感器摄像机采集机械臂对应的深度传感数据和点云数据;
所述样本标注单元,用于通过预设样本标注工具对机械臂的预设关节点进行标注,并获取对应的标注数据。
进一步地,所述模型搭建单元还包括效率提高单元,所述效率提高单元,用于对机械臂关节点检测模型进行轻量化裁剪,提升系统响应。
一种人机交互协作机器人主动避碰的方法,包括步骤:
S1:通过人体姿态数据信息获取模块获取人体姿态估计数据;
S2:通过机械臂姿态识别模块建立机械臂关节点检测模型,按照预设回归算法,获取机械臂的姿态估计数据;
S3:通过主动避碰模块接收人体姿态数据信息获取模块的人体姿态估计数据和机械臂姿态识别模块的机械臂的姿态估计数据,并当人体姿态数据和机械臂姿态数据在预设空间接触范围内,控制机械臂按照对应的预设路线避让。
进一步地,步骤S1包括步骤:
S11:通过分别设置在预设位置的多台深度传感器摄像机,获取人体不同方位的深度传感数据、点云数据以及图像数据;
S12:通过数据融合处理单元采用预设融合算法,将获取的不同方位的深度传感数据融合获取对应的人体深度传感数据;
S13:通过数据提取单元采用预设提取算法,提取获取的人体深度传感数据中人体骨骼三维关节点数据;
S14:通过第一回归拟合单元采用预设融合算法,融合并匹配获取的人体深度传感数据和提取的人体骨骼三维关节点数据,通过预设回归拟合算法,获取对应的人体姿态估计数据。
进一步地,步骤S2包括:
S21:通过样本数据库建立单元获取彩色图像内对应的机械臂关节点坐标,深度图像内对应的关节点坐标以及点云数据内对应的关节点坐标;
S22:通过模型搭建单元,将样本数据库建立单元中获取的彩色图像内对应的机械臂关节点坐标、深度图像内对应的关节点坐标以及点云数据内对应的关节点坐标作为输入数据,通过预设级联沙漏卷积神经网络提取特征,并将提取的特征通过热图网络回归机械臂对应关节点的概率,根据回归机械臂对应关节点的概率建立机械臂关节点检测模型;
S23:通过实时估计姿态单元,对机械臂关节点的每一个像素位置进行预测,获取机械臂的姿态估计数据。
本发明至少包括以下有益效果:
(1)通过多视角深度传感数据融合,提高人体深度融合数据的稳定性,保证在人体部分肢体被遮挡的情况下仍能获取完整的人体深度传感信息。
(2)引入多视角人体骨骼三维关节点数据,结合多视角深度传感融合数据,对人体姿态估计进行约束和补偿,解决复杂环境不同光照变化下的人体姿态关节信息丢失的问题,提高人体姿态信息的鲁棒性。
(3)将彩色图像、深度图像和点云数据作为模型建立的输入数据,通过级联沙漏模块提取特征,进而通过热图网络直接回归出每一类关节点的概率,对每一个点都进行监督学习,提高网络收敛速度,同时对每一个像素位置进行预测,提高机械臂关节点的定位精度。
(4)对网络模型进行轻量化裁剪,在保证识别检测精度的前提下,降低模型复杂度,压缩模型参数,提高模型预测效率,最终实现多模态数据端到端深度学习机械臂姿态实时识别的效果。
附图说明
为了更清楚地说明本发明实施例或背景技术中的技术方案,下面将对本发明实施例或背景技术中所需要使用的附图进行说明。
图1是人机交互协作机器人主动避碰的系统结构图一;
图2是人机交互协作机器人主动避碰的系统结构图二;
图3是人机交互协作机器人主动避碰的系统结构图三;
图4是人机交互协作机器人主动避碰的方法流程图一;
图5是人机交互协作机器人主动避碰的方法流程图二。
具体实施方式
下面结合本发明实施例中的附图对本发明实施例进行描述。
实施例一
本实施例提供了一种人机交互协作机器人主动避碰的系统,如图1至3所示,包括人机交互协作机器人,所述人机交互协作机器人包括机械臂单元,所述机械臂单元包括至少一个机械臂;还包括人体姿态数据信息获取模块、机械臂姿态识别模块;主动避碰模块;
所述人体姿态数据信息获取模块,用于获取人体姿态估计数据;
所述机械臂姿态识别模块,用于建立机械臂关节点检测模型,按照预设回归算法,获取机械臂的姿态估计数据;
所述主动避碰模块,用于接收人体姿态数据信息获取模块的人体姿态估计数据和机械臂姿态识别模块的机械臂的姿态估计数据,并当人体姿态数据和机械臂姿态数据在预设空间接触范围内,控制机械臂按照对应的预设路线避让。
本系统采用多视角深度传感融合数据与人体骨骼三维关节点多源数据融合算法进行人体姿态估计数据的获取。
其中多视角深度传感融合数据的获取通过所述多台深度传感器摄像机进行获取,所述多台深度传感器摄像机分别设置在预设位置,不同角度,每个位置对应的方位不同,用于获取人体不同方位的深度传感数据、点云数据以及图像数据;
所述数据融合处理单元,用于通过预设融合算法,将获取的不同方位的深度传感数据融合获取对应的人体深度传感数据;
由于不同角度的深度传感设备获取的深度数据是相对于本传感器下的空间坐标系,因此本系统通过所述人体深度数据标定单元,通过预设标定算法,将获取的不同方位的深度传感数据标定到预设标定深度传感设备的坐标系中,并获取标定后的深度传感数据;即将多视角深度传感数据统一到以一台深度传感设备为参照的全局坐标系下。
其中,数据融合处理单元包括人体深度数据标定单元、第一融合单元;所述第一融合单元,用于通过分布式卡尔曼一致性滤波处理算法对标定后的深度传感数据融合处理,并通过预设点云数据处理算法库对融合后的深度传感数据进行拟合,获取对应的人体深度传感数据。即利用分布式卡尔曼一致性滤波处理算法对多视角深度传感数据进行融合处理,通过点云数据处理算法库对多视角深度传感点云数据进行拟合处理,获取坐标对齐的多视角深度传感融合数据。通过多视角深度传感数据融合,提高人体深度融合数据的稳定性,保证在人体部分肢体被遮挡的情况下仍能获取完整的人体深度传感信息。
所述数据提取单元,用于通过预设提取算法,提取获取的人体深度传感数据中人体骨骼三维关节点数据;
本实施例中的预设提取算法利用基于端到端图像人体关键点的提取方法获取多视角人体骨骼三维关节点数据。
进一步地,所述数据融合处理单元包括人体深度数据标定单元、第一融合单元。
进一步地,所述第一回归拟合单包括人体骨骼三维关节点数据标定单元、回归拟合单元以及第二融合单元;
所述人体骨骼三维关节点数据标定单元,用于通过预设标定算法,将获取的人体骨骼三维关节点数据标定到预设标定深度传感设备的坐标系中,并获取标定后的人体骨骼三维关节点数据;
所述回归拟合单元,用于通过分布式卡尔曼一致性滤波处理算法对标定后的人体骨骼三维关节点数据进行回归拟合,获取一致性人体骨骼三维关节点数据;
所述第二融合单元,用于将人体深度传感数据和一致性人体骨骼三维关节点数据通过预设多元数据融合算法融合匹配,获取人体姿态估计数据。
其中深度传感摄像机除了提供深度传感数据和点云数据之外,还支持彩色图像数据,彩色图像数据包含的部分信息是以上两种数据中无法提供的,利用多源数据进行交叉互补。通过标定数据,将多视角人体骨骼三维关节点数据转换至与深度传感数据一致的全局坐标系下,利用分布式卡尔曼一致性滤波算法对多视角人体骨骼三维关节点进行回归拟合,获取坐标一致性的人体骨骼三维关节点数据。即通过所述第一回归拟合单元采用预设融合算法,融合并匹配获取的人体深度传感数据和提取的人体骨骼三维关节点数据,通过预设回归拟合算法,获取对应的人体姿态估计数据。
本实施例提供的人机交互协作机器人主动避碰的系统,通过多视角深度传感融合数据提供了完整有效可靠的人体深度传感信息,为获取完整人体姿态数据以及人体行为识别提供重要数据支撑。为了提高拟合的精度,引入多视角人体骨骼三维关节点数据,结合多视角深度传感融合数据,对人体姿态估计进行约束和补偿,解决复杂环境不同光照变化下的人体姿态关节信息丢失的问题,提高人体姿态信息的鲁棒性。
进一步地,机械臂姿态识别模块包括样本数据库建立单元、模型搭建单元、实时估计姿态单元;
所述样本数据库建立单元,包括彩色图像坐标建立单元、深度图像坐标建立单元以及点云数据坐标建立单元,用于通过彩色图像坐标建立单元获取彩色图像内对应的机械臂关节点坐标,通过深度图像坐标建立单元获取深度图像内对应的关节点坐标,通过点云数据坐标建立单元获取点云数据内对应的关节点坐标。
进一步地,所述样本数据库建立单元还包括图像数据收集单元、样本标注单元;
图像数据收集单元,用于收集预设角度以及预设光照下机械臂不同姿态的图像数据以及收集所述多个深度深度传感器摄像机采集机械臂对应的深度传感数据和点云数据;
所述样本标注单元,用于通过预设样本标注工具对机械臂的预设关节点进行标注,并获取对应的标注数据。
模型搭建单元,用于将样本数据库建立单元中获取的彩色图像内对应的机械臂关节点坐标、深度图像内对应的关节点坐标以及点云数据内对应的关节点坐标作为输入数据,通过预设级联沙漏卷积神经网络提取特征,并将提取的特征通过热图网络回归机械臂对应关节点的概率,根据回归机械臂对应关节点的概率建立机械臂关节点检测模型;
实时估计姿态单元,用于对机械臂关节点的每一个像素位置进行预测,获取机械臂的姿态估计数据。
本实施例中,机械臂姿态识别模块采用深度学习级联沙漏神经网络,将基于图像识别的2D机械臂关节点数据和基于深度传感器摄像机的点云数据进行信息融合,构建多模态信息融合数据,进而对机械臂姿态进行实时估计。
其中一个实施例,其中机械臂为六轴协作机器人的机械臂,首先收集制作六轴协作机器人关节点样本集,在不同角度、不同光照下采集协作机器人不同姿态下的图像数据,利用样本标注工具进行样本标注,主要对六轴协作机器人的各个关节点进行标注,这里对六个关节点进行了标注。在采集图像的同时,利用深度传感设备同步采集深度图像和点云数据并进行保存,通过标注工具完成图像数据标注之后,通过深度传感摄像机内部参数,计算获取每张样本图像下六个关节点对应的深度图像和点云数据坐标,从而获取了三组标注的已知样本数据,即分别在彩色图像、深度图像和点云数据下的三组六关节点坐标的标注数据。
进一步地,所述模型搭建单元还包括效率提高单元,所述效率提高单元,用于对机械臂关节点检测模型进行轻量化裁剪,提升系统响应。
本实施例采用自下而上的检测方式,实现基于级联沙漏的卷积神经网络的机械臂关节点检测模型搭建,将彩色图像、深度图像和点云数据作为基于级联沙漏的卷积神经网络的输入数据,通过级联沙漏模块提取特征,进而通过热图网络直接回归出每一类关节点的概率,对每一个点都进行监督学习,提高网络收敛速度,同时对每一个像素位置进行预测,提高机械臂关节点的定位精度。最后对构建好的网络模型进行轻量化裁剪,在保证识别检测精度的前提下,降低模型复杂度,压缩模型参数,提高模型预测效率,最终实现多模态数据端到端深度学习机械臂姿态实时识别的效果。
在接收人体姿态数据信息获取模块的人体姿态估计数据和机械臂姿态识别模块的机械臂的姿态估计数据,本实施例中通过主动避碰模块,当人体姿态数据和机械臂姿态数据在预设空间接触范围内,控制机械臂按照对应的预设路线避让。其中一个实施例为人体姿态的数据和机械臂姿态的数据进行空间上的位置最临近判断,当距离小于设定的一个阈值时,机械臂向人机连线的反方向避让。
本实施例提供的一种人机交互协作机器人主动避碰的系统,通过将多视角深度传感器摄像机获取的深度传感数据和点云数据进行深度数据融合,解决单一深度传感器人体深度信息因遮挡等缺失的问题,提取稳态的人体深度融合数据;通过融合数据与人体骨骼三维关节点多源人体姿态估计算法,解决复杂环境不同光照变化下的人体姿态关节信息漂移的问题,提高人体姿态信息的精度;研究基于图像和点云的多模态机械臂姿态识别技术,获取实时的机械臂空间位姿信息,为生产过程中人机安全避碰路径规划提供鲁棒的数据支撑,从而保障生产安全有序进行。
实施例二
本实施例提供了一种人机交互协作机器人主动避障的方法,如图4至5所示,本方法基于实施例一的一种人机交互协作机器人主动避碰的系统,包括步骤:
S1:通过人体姿态数据信息获取模块获取人体姿态估计数据;
S2:通过机械臂姿态识别模块建立机械臂关节点检测模型,按照预设回归算法,获取机械臂的姿态估计数据;
进一步地,步骤S1包括步骤:
S11:通过分别设置在预设位置的多台深度传感器摄像机,获取人体不同方位的深度传感数据、点云数据以及图像数据;
S12:通过数据融合处理单元采用预设融合算法,将获取的不同方位的深度传感数据融合获取对应的人体深度传感数据;
S13:通过数据提取单元采用预设提取算法,提取获取的人体深度传感数据中人体骨骼三维关节点数据;
S14:通过第一回归拟合单元采用预设融合算法,融合并匹配获取的人体深度传感数据和提取的人体骨骼三维关节点数据,通过预设回归拟合算法,获取对应的人体姿态估计数据。
S2:通过主动避碰模块接收人体姿态数据信息获取模块的人体姿态估计数据和机械臂姿态识别模块的机械臂的姿态估计数据,并当人体姿态数据和机械臂姿态数据在预设空间接触范围内,控制机械臂按照对应的预设路线避让。
进一步地,步骤S3包括:
S21:通过样本数据库建立单元获取彩色图像内对应的机械臂关节点坐标,深度图像内对应的关节点坐标以及点云数据内对应的关节点坐标;
S22:通过模型搭建单元,将样本数据库建立单元中获取的彩色图像内对应的机械臂关节点坐标、深度图像内对应的关节点坐标以及点云数据内对应的关节点坐标作为输入数据,通过预设级联沙漏卷积神经网络提取特征,并将提取的特征通过热图网络回归机械臂对应关节点的概率,根据回归机械臂对应关节点的概率建立机械臂关节点检测模型;
S23:通过实时估计姿态单元,对机械臂关节点的每一个像素位置进行预测,获取机械臂的姿态估计数据。
步骤S3,通过主动避碰模块接收人体姿态数据信息获取模块的人体姿态估计数据和机械臂姿态识别模块的机械臂的姿态估计数据,并当人体姿态数据和机械臂姿态数据在预设空间接触范围内,控制机械臂按照对应的预设路线避让;其中一个实施例为人体姿态的数据和机械臂姿态的数据进行空间上的位置最临近判断,当距离小于设定的一个阈值时,机械臂向人机连线的反方向避让。
人体姿态检测和机械臂实时路径规划是人机交互安全避碰的核心技术,但实际应用场景中的复杂环境和条件,限制了现有技术的普及和应用。
本实施例提供的方法,通过将多视角深度传感器摄像机获取的深度传感数据和点云数据进行深度数据融合,解决单一深度传感器人体深度信息因遮挡等缺失的问题,提取稳态的人体深度融合数据;通过融合数据与人体骨骼三维关节点多源人体姿态估计算法,解决复杂环境不同光照变化下的人体姿态关节信息漂移的问题,提高人体姿态信息的精度;研究基于图像和点云的多模态机械臂姿态识别技术,获取实时的机械臂空间位姿信息,为生产过程中人机安全避碰路径规划提供鲁棒的数据支撑,从而保障生产安全有序进行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,该流程可以由计算机程序来指令相关的硬件完成,该程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。而前述的存储介质包括:ROM或随机存储记忆体RAM、磁碟或者光盘等各种可存储程序代码的介质。

Claims (6)

1.一种人机交互协作机器人主动避碰的系统,包括人机交互协作机器人,其特征在于,所述人机交互协作机器人包括机械臂单元,所述机械臂单元包括至少一个机械臂;还包括人体姿态数据信息获取模块、机械臂姿态识别模块;主动避碰模块;
所述人体姿态数据信息获取模块,用于获取人体姿态估计数据;
所述机械臂姿态识别模块,用于建立机械臂关节点检测模型,按照预设回归算法,获取机械臂的姿态估计数据;
所述主动避碰模块,用于接收人体姿态数据信息获取模块的人体姿态估计数据和机械臂姿态识别模块的机械臂的姿态估计数据,并当人体姿态数据和机械臂姿态数据在预设空间接触范围内,控制机械臂按照对应的预设路线避让;
所述人体姿态数据信息获取模块包括多台深度传感器摄像机、数据融合处理单元,数据提取单元,第一回归拟合单元;
所述多台深度传感器摄像机,分别设置在预设位置,每个位置对应的方位不同,用于获取人体不同方位的深度传感数据、点云数据以及图像数据;
所述数据融合处理单元,用于通过预设融合算法,将获取的不同方位的深度传感数据融合获取对应的人体深度传感数据;
所述数据提取单元,用于通过预设提取算法,提取获取的人体深度传感数据中人体骨骼三维关节点数据;
所述第一回归拟合单元,用于通过预设融合算法,融合并匹配获取的人体深度传感数据和提取的人体骨骼三维关节点数据,通过预设回归拟合算法,获取对应的人体姿态估计数据;
所述数据融合处理单元包括人体深度数据标定单元、第一融合单元;
所述人体深度数据标定单元,用于通过预设标定算法,将获取的不同方位的深度传感数据标定到预设标定深度传感设备的坐标系中,并获取标定后的深度传感数据;
所述第一融合单元,用于通过分布式卡尔曼一致性滤波处理算法对标定后的深度传感数据融合处理,并通过预设点云数据处理算法库对融合后的深度传感数据进行拟合,获取对应的人体深度传感数据;
所述第一回归拟合单元包括人体骨骼三维关节点数据标定单元、回归拟合单元以及第二融合单元;
所述人体骨骼三维关节点数据标定单元,用于通过预设标定算法,将获取的人体骨骼三维关节点数据标定到预设标定深度传感设备的坐标系中,并获取标定后的人体骨骼三维关节点数据;
所述回归拟合单元,用于通过分布式卡尔曼一致性滤波处理算法对标定后的人体骨骼三维关节点数据进行回归拟合,获取一致性人体骨骼三维关节点数据;
所述第二融合单元,用于将人体深度传感数据和一致性人体骨骼三维关节点数据通过预设多元数据融合算法融合匹配,获取人体姿态估计数据;
机械臂姿态识别模块包括样本数据库建立单元、模型搭建单元、实时估计姿态单元;
所述样本数据库建立单元,包括彩色图像坐标建立单元、深度图像坐标建立单元以及点云数据坐标建立单元,用于通过彩色图像坐标建立单元获取彩色图像内对应的机械臂关节点坐标,通过深度图像坐标建立单元获取深度图像内对应的关节点坐标,通过点云数据坐标建立单元获取点云数据内对应的关节点坐标;
模型搭建单元,用于将样本数据库建立单元中获取的彩色图像内对应的机械臂关节点坐标、深度图像内对应的关节点坐标以及点云数据内对应的关节点坐标作为输入数据,通过预设级联沙漏卷积神经网络提取特征,并将提取的特征通过热图网络回归机械臂对应关节点的概率,根据回归机械臂对应关节点的概率建立机械臂关节点检测模型;
实时估计姿态单元,用于对机械臂关节点的每一个像素位置进行预测,获取机械臂的姿态估计数据。
2.根据权利要求1所述的一种人机交互协作机器人主动避碰的系统,其特征在于,所述样本数据库建立单元还包括图像数据收集单元、样本标注单元;
图像数据收集单元,用于收集预设角度以及预设光照下机械臂不同姿态的图像数据以及收集多个所述深度传感器摄像机采集机械臂对应的深度传感数据和点云数据;
所述样本标注单元,用于通过预设样本标注工具对机械臂的预设关节点进行标注,并获取对应的标注数据。
3.根据权利要求1所述的一种人机交互协作机器人主动避碰的系统,其特征在于,所述模型搭建单元还包括效率提高单元,所述效率提高单元,用于对机械臂关节点检测模型进行轻量化裁剪。
4.一种基于权利要求1至3任一项所述的一种人机交互协作机器人主动避碰的系统的方法,其特征在于,包括步骤:
S1:通过人体姿态数据信息获取模块获取人体姿态估计数据;
S2:通过机械臂姿态识别模块建立机械臂关节点检测模型,按照预设回归算法,获取机械臂的姿态估计数据;
S3:通过主动避碰模块接收人体姿态数据信息获取模块的人体姿态估计数据和机械臂姿态识别模块的机械臂的姿态估计数据,并当人体姿态数据和机械臂姿态数据在预设空间接触范围内,控制机械臂按照对应的预设路线避让。
5.根据权利要求4所述的方法,其特征在于,步骤S1包括步骤:
S11:通过分别设置在预设位置的多台深度传感器摄像机,获取人体不同方位的深度传感数据、点云数据以及图像数据;
S12:通过数据融合处理单元采用预设融合算法,将获取的不同方位的深度传感数据融合获取对应的人体深度传感数据;
S13:通过数据提取单元采用预设提取算法,提取获取的人体深度传感数据中人体骨骼三维关节点数据;
S14:通过第一回归拟合单元采用预设融合算法,融合并匹配获取的人体深度传感数据和提取的人体骨骼三维关节点数据,通过预设回归拟合算法,获取对应的人体姿态估计数据。
6.根据权利要求4所述的方法,其特征在于,步骤S2包括:
S21:通过样本数据库建立单元获取彩色图像内对应的机械臂关节点坐标,深度图像内对应的关节点坐标以及点云数据内对应的关节点坐标;
S22:通过模型搭建单元,将样本数据库建立单元中获取的彩色图像内对应的机械臂关节点坐标、深度图像内对应的关节点坐标以及点云数据内对应的关节点坐标作为输入数据,通过预设级联沙漏卷积神经网络提取特征,并将提取的特征通过热图网络回归机械臂对应关节点的概率,根据回归机械臂对应关节点的概率建立机械臂关节点检测模型;
S23:通过实时估计姿态单元,对机械臂关节点的每一个像素位置进行预测,获取机械臂的姿态估计数据。
CN202210581002.9A 2022-05-25 2022-05-25 一种人机交互协作机器人主动避碰的系统及方法 Active CN114800524B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210581002.9A CN114800524B (zh) 2022-05-25 2022-05-25 一种人机交互协作机器人主动避碰的系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210581002.9A CN114800524B (zh) 2022-05-25 2022-05-25 一种人机交互协作机器人主动避碰的系统及方法

Publications (2)

Publication Number Publication Date
CN114800524A CN114800524A (zh) 2022-07-29
CN114800524B true CN114800524B (zh) 2023-06-20

Family

ID=82516873

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210581002.9A Active CN114800524B (zh) 2022-05-25 2022-05-25 一种人机交互协作机器人主动避碰的系统及方法

Country Status (1)

Country Link
CN (1) CN114800524B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117912093A (zh) * 2022-10-12 2024-04-19 华人运通(上海)云计算科技有限公司 人体姿态检测方法和基于视觉感知的安全人机交互方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019028075A1 (en) * 2017-08-01 2019-02-07 Enova Technology, Inc. INTELLIGENT ROBOTS
WO2020188064A1 (fr) * 2019-03-21 2020-09-24 Squaremind Procede de guidage d'un bras robot, systeme de guidage
CN112706158A (zh) * 2019-10-25 2021-04-27 中国科学院沈阳自动化研究所 基于视觉和惯导定位的工业人机交互系统及方法
CN113829343A (zh) * 2021-09-23 2021-12-24 浙江工业大学 基于环境感知的实时多任务多人人机交互系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019028075A1 (en) * 2017-08-01 2019-02-07 Enova Technology, Inc. INTELLIGENT ROBOTS
WO2020188064A1 (fr) * 2019-03-21 2020-09-24 Squaremind Procede de guidage d'un bras robot, systeme de guidage
CN112706158A (zh) * 2019-10-25 2021-04-27 中国科学院沈阳自动化研究所 基于视觉和惯导定位的工业人机交互系统及方法
CN113829343A (zh) * 2021-09-23 2021-12-24 浙江工业大学 基于环境感知的实时多任务多人人机交互系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
面向人机协作的机器人视觉感知与运动规划方法研究;许辉;《中国优秀硕士学位论文全文数据库 信息科技辑》;全文 *

Also Published As

Publication number Publication date
CN114800524A (zh) 2022-07-29

Similar Documents

Publication Publication Date Title
CN111897332B (zh) 一种语义智能变电站机器人仿人巡视作业方法及系统
CN110561432B (zh) 一种基于人机共融的安全协作方法及装置
JP5852364B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
CN111968262A (zh) 一种语义智能变电站巡视作业机器人导航系统及方法
CN107662195A (zh) 一种具有临场感的机器手主从异构遥操作控制系统及控制方法
CN111813130A (zh) 一种输变电站智能巡检机器人自主导航避障系统
CN106527239B (zh) 一种多机器人协同操作模式的方法及系统
CN116630394B (zh) 一种三维建模约束的多模态目标物体姿态估计方法及系统
CN113379849A (zh) 基于深度相机的机器人自主识别智能抓取方法及系统
CN114800524B (zh) 一种人机交互协作机器人主动避碰的系统及方法
CN212515475U (zh) 一种输变电站智能巡检机器人自主导航避障系统
CN114407015A (zh) 一种基于数字孪生的遥操作机器人在线示教系统及方法
Tellaeche et al. Human robot interaction in industrial robotics. Examples from research centers to industry
Xin et al. 3D augmented reality teleoperated robot system based on dual vision
CN114299039B (zh) 一种机器人及其碰撞检测装置和方法
CN114419154A (zh) 基于视觉与人机协同的机械臂双模式控制方法及系统
Wang et al. The design of an augmented reality system for urban search and rescue
CN117893998A (zh) 基于机器视觉的人机位姿智能防碰方法
CN111645067B (zh) 一种高智能机器人环境感知方法及系统
Wang et al. A visual servoing system for interactive human-robot object transfer
CN116189054A (zh) 基于神经网络的人机协作方法及人机协作系统
Wang et al. Design of multi-robot cooperative transport system
CN115588036A (zh) 图像采集方法及装置、机器人
CN115194774A (zh) 一种基于多目视觉的双机械臂抓握系统控制方法
CN107203211A (zh) 一种机器人交互运动的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant