CN114367985A - 一种基于人机共融的智能制造方法及系统 - Google Patents
一种基于人机共融的智能制造方法及系统 Download PDFInfo
- Publication number
- CN114367985A CN114367985A CN202210021288.5A CN202210021288A CN114367985A CN 114367985 A CN114367985 A CN 114367985A CN 202210021288 A CN202210021288 A CN 202210021288A CN 114367985 A CN114367985 A CN 114367985A
- Authority
- CN
- China
- Prior art keywords
- action
- data
- motion
- time
- machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本申请涉及一种基于人机共融的智能制造方法,包括:收集人工作业数据,得出最终作业标准;根据不同动作的特征,将不同动作分配不同工作模式;对工作进行实时监控,并将监控数据上传;将实时监控得到的动作数据与预设模式中的进行比对,并进行动作修正。本申请通过收集人工动作数据为机器提供了标准参考数据,提高了机器动作的准确性;将作业的不同动作分解后进行工作模式分配,形成人机共融的作业形态,同时保留人工作业和机器作业的优势,提高了作业的工作效率;通过实时监控作业动作和主动修正功能,既保留了作业动作的监控数据,可用于后续对历史作业动作的检查,又保证了实际动作与标准动作的一致性,提高了机器作业和人工作业的防错能力。
Description
技术领域
本申请涉及智能制造的领域,尤其是涉及一种基于人机共融的智能制造方法及系统。
背景技术
CN202110130039.5公开了一种人机协作智能制造方法及系统,其技术方案为:根据操作任务判断任务场景中是否需要用户发送操作指令,若不需要则将操作模式划分为监督处置模式,由机器人执行操作任务;若需要用户发送操作指令则根据所述操作指令将协作方式划分为人机联合作业模式和仿人学习模式;在仿人学习模式下,机器人根据其获取的视觉信息或用户的操作视频以学习用户的操作经验,以使机器人具备仿人操作能力;在人机联合作业模式下,将操作任务分解为机器人根据用户操作指令和机器人独自执行的子任务序列,根据人的视觉信息和机器人的传感信息判断执行任务所属的状态,并根据状态信息驱动机器人完成相应的局部调整;所述学习用户的操作经验具体包括:追踪人手操作点序列以及人手腕部点与备操作对象之间的位姿关系,通过强化学习以及权重调节的方式将人手操作目标对象的经验操作点序列映射到机器人的机械臂上。
该人机协作智能制造方法及系统具有以下优点:根据操作任务场景中是否需要用户发送操作指令,将操作模式划分为监督处置模式、仿人学习模式和人机联合作业模式,可以根据具体操作任务在各模式中快速切换,提高了人机协作操作的效率,以适应制造个性定制化产品的需求;设置仿人学习模块,能够通过机器视觉学习人的操作经验,从而自主进行操作规划,代替了传统的拖动示教等规划方式,使得机器人快速具备了操作新对象以完成复杂任务的能力;设置行为安全模块,根据视觉传感器获得的深度信息和机器人的各关节信息构建虚拟人-机器人-动力学数字孪生系统,通过人机距离估算虚拟力的大小,从而判断所处的安全状态并进行路径规划,既提高了人机协作操作效率,又保障了协作任务重的人机安全。
但是,该人机协作智能制造方法及系统也具有以下缺点:对操作模式的选择判断标准不清晰,存在主观性;由于机器的结构特性,长时间进行容易发生作业偏差,未设置主动修正功能,易使生产标准长期偏离。
因此,需要一种人机操作模式判断标准统一、能主动修正机器偏差的方法及系统。
发明内容
为了解决人机操作模式判断标准存在主观性、不能主动修正机器偏差的问题,本申请提供一种基于人机共融的智能制造方法及系统。
本申请提供一种基于人机共融的智能制造方法,包括以下步骤:
步骤S1,确定作业标准,收集人工作业数据,根据人工作业结果,分析作业要素和作业成果,得出最终作业标准;
步骤S2,工作模式分配,根据不同动作的特征,将不同动作分配不同工作模式;
步骤S3,动作监控,对工作进行实时监控,并将监控数据上传;
步骤S4,动作确认,将实时监控得到的动作数据与预设模式中的进行比对,并进行动作修正。
进一步的,所述步骤S1包括:步骤S11,收集作业数据,有选择地挑选若干人员进行作业动作扫描,并实时捕捉人员完成动作时人手的空间位置信息,以动作捕捉装置为原点形成坐标系,并将人手的空间位置信息转化为以动作捕捉装置为原点形成坐标系的空间坐标数据;步骤S12,动作数据分析,对捕捉到的人手的空间坐标数据进行分析,结合不同坐标数据对应的时间信息,得到人手在不同空间坐标对应位置点时的速度参数以及速度方向角;步骤S13,关键要素提取,对不同人员的作业完成后的产品进行检测,检测后规格符合要求的产品对应的人员的动作数据进行集中对比,将差距较大的动作数据标记为非关键要素,将差距小的动作数据标记为关键要素;步骤S14,确定最终作业标准,将检测后规格符合要求的产品对应的人员的动作数据再次对比,得出最标准的动作数据。
进一步的,所述步骤S13中,关键要素的提取方法具体为:捕捉人手在不同时刻对应位置的空间坐标、速度参数以及速度方向角;以空间坐标在不同坐标轴上的坐标数据为纵坐标,时间为横坐标绘制出X-t、Y-t、Z-t,将速度参数按速度方向角沿空间坐标系的X、Y、Z坐标轴分解,得到不同时刻对应位置点的速度在不同坐标轴上的分速度,并分别以速度在不同坐标轴上的分速度为纵坐标,时间为横坐标绘制出Vx-t、Vy-t、Vz-t的曲线;分别将不同人员的动作数据进行对比,某时刻所有曲线纵坐标极差小于最大纵坐标5%的即为关键要素。
通过采用上述技术方案,将作业过程中作业精度要求高的关键作业动作识别出来,针对性地提高了对作业动作识别的准确性。
进一步的,所述步骤S14中,不同人员之间的动作数据的对比方法为:将不同人员两两进行动作数据的对比,分别评价两两人员之间的动作相似度,统计每个人员分别与所有其他人员的动作相似度并取中位数,将每个人员的动作相似度的中位数进行排序,动作相似度中位数最高的人的动作数据即为最终作业标准动作数据;
其中,λ表示为人员乙对人员甲的动作相似度;t表示为动作时间;
λx表示为人员乙对人员甲的在X轴向动作相似度;xi表示为人员甲在i时刻的动作的X轴坐标;xi′表示为人员乙在i时刻的动作的X轴坐标;`xi表示为所有人员在i时刻的动作的X轴坐标的平均值;
λy表示为人员乙对人员甲的在Y轴向动作相似度;yi表示为人员甲在i时刻的动作的Y轴坐标;yi′表示为人员乙在i时刻的动作的Y轴坐标;`yi表示为所有人员在i时刻的动作的Y轴坐标的平均值;
λz表示为人员乙对人员甲的在Z轴向动作相似度;zi表示为人员甲在i时刻的动作的Z轴坐标;zi′表示为人员乙在i时刻的动作的Z轴坐标;`zi表示为所有人员在i时刻的动作的Z轴坐标的平均值。
通过采用上述技术方案,在保证规格要求合格的前提下,得出人工作业动作中的最标准、规范的作业动作,为机器动作模式提供了标准参考数据,提高了机器动作的准确性。
进一步的,所述步骤S2中,步骤S21,动作拆解,将作业人员的完整作业动作根据动作停顿点拆解为若干个动作,根据评估结果,将拆解后的各个动作分别选择工作模式,各工作模式组合完成工作;步骤S22,动作分析,分别对各个动作进行评估,根据采集的动作信息和工作相关信息,对工作对人的依赖程度进行分析;步骤S23,动作模式选择,根据动作分析结果,对各个动作进行工作模式选择;
其中,P表示为某动作的人机选择参数;A表示为该动作的操作系数,若操作简单则A为1,若操作困难则A为0;B表示为该动作的危险系数,若危险系数高则B为1,若危险系数低则B为0;C表示为该动作的精度系数,若操作精度高则C为1,若操作精度低则C为0;D表示为该动作的作业量系数,若作业量大则D为1,若作业量小则D为0;
所述操作系数和精度系数根据动作数据判断,若该动作空间坐标的极差大,则操作困难,若该动作空间坐标的极差小,则操作简单;若该动作包含步骤S13中标记的关键要素,则操作精度高,若该动作包含步骤S13中标记的关键要素,则操作精度低;
所述危险系数、作业量系数由专家评审模块根据工作环境以及工作内容实际情况评审判定;
所述步骤S23中,各动作的模式选择由人机选择参数决定:若P为1,则为人工作业;若P为0,则为机器作业。
通过采用上述技术方案,将作业的不同动作分解后根据作业动作的实际情况进行人工或机器的工作模式分配,在作业中进行人机共融的作业形态,同时保留人工作业和机器作业的优势,并将各自优势发挥在其擅长的领域,提高了作业动作的准确性,增强了作业的安全性,并提高了作业的工作效率。
进一步的,所述步骤S3中,监控装置将各动作的实时空间坐标上传至区块链平台并存储在数据库内,并广播至全平台,其他区块链节点可通过区块链平台查看历史作业数据。
通过采用上述技术方案,实时保留了作业动作的监控数据,用于后续对历史作业动作的检查。
进一步的,所述步骤S4包括:步骤S41,数据比对,将监控装置收集的实际动作数据的空间坐标分别与作业标准数据对比;步骤S42,动作修正,对拟合度低的动作进行修正,直至拟合度达到设定阈值合格范围内;
所述步骤S41中,拟合度计算方法为:
若ε大于设定阈值,则数据合格,若ε小于设定阈值,则数据不合格。
通过采用上述技术方案,保证了实际动作与标准动作的一致性,提高了机器作业和人工作业的防错能力。
一种基于人机共融的智能制造系统,包括:区块链平台和与区块链平台连接地动作捕捉装置;
所述区块链平台包括:数据库,用于存储大量动作数据;动作记录模块,用于对人工动作数据进行收集,辅助判断最终作业标准,并将动作数据存储在数据库内;模式输入模块,与动作记录模块连接,用于接收最终作业标准的动作数据并进行动作模式数据输入,并存储在数据库内;监控模块,用于对机器人和人工作业进行实时监控,确定与标准的偏差量,并将动作数据存储在数据库内;动作修正模块,与监控模块连接,用于接受实时动作数据,并进行动作调整和修正;
所述动作捕捉装置固定在空间内一处,分别与动作记录模块和监控模块通过区块链节点连接。
进一步的,所诉动作捕捉装置包括:图像采集装置,用于采集作业动作的实时图像信息,并上传至区块链平台;超声波雷达,用于采集作业动作的实时空间坐标数据,并上传至区块链平台;标记点位贴片,设置在作业人员和机器人上,用于进行点位标记,辅助图像采集装置和超声波雷达采集动作数据。
综上所述,本申请包括以下有益技术效果:
1.在保证规格要求合格的前提下,得出人工作业动作中的最标准、规范的作业动作,为机器动作模式提供了标准参考数据,提高了机器动作的准确性;
2.将作业的不同动作分解后根据作业动作的实际情况进行人工或机器的工作模式分配,在作业中进行人机共融的作业形态,同时保留人工作业和机器作业的优势,并将各自优势发挥在其擅长的领域,提高了作业动作的准确性,增强了作业的安全性,并提高了作业的工作效率;
3.通过实时监控作业动作和主动修正功能,既保留了作业动作的监控数据,可用于后续对历史作业动作的检查,又保证了实际动作与标准动作的一致性,提高了机器作业和人工作业的防错能力。
附图说明
图1是本申请实施例的一种基于人机共融的智能制造方法的步骤图;
图2是本申请实施例的一种基于人机共融的智能制造系统的结构图。
附图标记说明:
1、区块链平台;2、数据库;3、动作记录模块;4、模式输入模块;5、监控模块;6、动作修正模块;
7、动作捕捉装置;71、图像采集装置;72、超声波雷达;73、标记点位贴片。
具体实施方式
下面对照附图,通过对实施例的描述,本申请的具体实施方式如所涉及的各构件的形状、构造、各部分之间的相互位置及连接关系、各部分的作用及工作原理、制造工艺及操作使用方法等,作进一步详细的说明,以帮助本领域技术人员对本发明的发明构思、技术方案有更完整、准确和深入的理解。为方便说明,本申请提及方向以附图所示方向为准。
参照图1-图2所示,一种基于人机共融的智能制造方法,包括以下步骤:
步骤S1,确定作业标准,收集人工作业数据,根据人工作业结果,分析作业要素和作业成果,得出最终作业标准;
步骤S2,工作模式分配,根据不同动作的特征,将不同动作分配不同工作模式;
步骤S3,动作监控,对工作进行实时监控,并将监控数据上传;
步骤S4,动作确认,将实时监控得到的动作数据与预设模式中的进行比对,并进行动作修正。
所述步骤S1包括:步骤S11,收集作业数据,有选择地挑选若干人员进行作业动作扫描,并实时捕捉人员完成动作时人手的空间位置信息,以动作捕捉装置7为原点形成坐标系,并将人手的空间位置信息转化为以动作捕捉装置7为原点形成坐标系的空间坐标数据;步骤S12,动作数据分析,对捕捉到的人手的空间坐标数据进行分析,结合不同坐标数据对应的时间信息,得到人手在不同空间坐标对应位置点时的速度参数以及速度方向角;步骤S13,关键要素提取,对不同人员的作业完成后的产品进行检测,检测后规格符合要求的产品对应的人员的动作数据进行集中对比,将差距较大的动作数据标记为非关键要素,将差距小的动作数据标记为关键要素;步骤S14,确定最终作业标准,将检测后规格符合要求的产品对应的人员的动作数据再次对比,得出最标准的动作数据。
所述步骤S13中,关键要素的提取方法具体为:捕捉人手在不同时刻对应位置的空间坐标、速度参数以及速度方向角;以空间坐标在不同坐标轴上的坐标数据为纵坐标,时间为横坐标绘制出X-t、Y-t、Z-t,将速度参数按速度方向角沿空间坐标系的X、Y、Z坐标轴分解,得到不同时刻对应位置点的速度在不同坐标轴上的分速度,并分别以速度在不同坐标轴上的分速度为纵坐标,时间为横坐标绘制出Vx-t、Vy-t、Vz-t的曲线;分别将不同人员的动作数据进行对比,某时刻所有曲线纵坐标极差小于最大纵坐标5%的即为关键要素。
所述步骤S14中,不同人员之间的动作数据的对比方法为:将不同人员两两进行动作数据的对比,分别评价两两人员之间的动作相似度,统计每个人员分别与所有其他人员的动作相似度并取中位数,将每个人员的动作相似度的中位数进行排序,动作相似度中位数最高的人的动作数据即为最终作业标准动作数据;
其中,λ表示为人员乙对人员甲的动作相似度;t表示为动作时间;
λx表示为人员乙对人员甲的在X轴向动作相似度;xi表示为人员甲在i时刻的动作的X轴坐标;xi′表示为人员乙在i时刻的动作的X轴坐标;`xi表示为所有人员在i时刻的动作的X轴坐标的平均值;
λy表示为人员乙对人员甲的在Y轴向动作相似度;yi表示为人员甲在i时刻的动作的Y轴坐标;yi′表示为人员乙在i时刻的动作的Y轴坐标;`yi表示为所有人员在i时刻的动作的Y轴坐标的平均值;
λz表示为人员乙对人员甲的在Z轴向动作相似度;zi表示为人员甲在i时刻的动作的Z轴坐标;zi′表示为人员乙在i时刻的动作的Z轴坐标;`zi表示为所有人员在i时刻的动作的Z轴坐标的平均值。
所述步骤S2中,步骤S21,动作拆解,将作业人员的完整作业动作根据动作停顿点拆解为若干个动作,根据评估结果,将拆解后的各个动作分别选择工作模式,各工作模式组合完成工作;步骤S22,动作分析,分别对各个动作进行评估,根据采集的动作信息和工作相关信息,对工作对人的依赖程度进行分析;步骤S23,动作模式选择,根据动作分析结果,对各个动作进行工作模式选择;
其中,P表示为某动作的人机选择参数;A表示为该动作的操作系数,若操作简单则A为1,若操作困难则A为0;B表示为该动作的危险系数,若危险系数高则B为1,若危险系数低则B为0;C表示为该动作的精度系数,若操作精度高则C为1,若操作精度低则C为0;D表示为该动作的作业量系数,若作业量大则D为1,若作业量小则D为0;
所述操作系数和精度系数根据动作数据判断,若该动作空间坐标的极差大,则操作困难,若该动作空间坐标的极差小,则操作简单;若该动作包含步骤S13中标记的关键要素,则操作精度高,若该动作包含步骤S13中标记的关键要素,则操作精度低;
所述危险系数、作业量系数由专家评审模块根据工作环境以及工作内容实际情况评审判定;
所述步骤S23中,各动作的模式选择由人机选择参数决定:若P为1,则为人工作业;若P为0,则为机器作业。
所述步骤S3中,监控装置将各动作的实时空间坐标上传至区块链平台1并存储在数据库内2,并广播至全平台,其他区块链节点可通过区块链平台1查看历史作业数据。
所述步骤S4包括:步骤S41,数据比对,将监控装置收集的实际动作数据的空间坐标分别与作业标准数据对比;步骤S42,动作修正,对拟合度低的动作进行修正,直至拟合度达到设定阈值合格范围内;
所述步骤S41中,拟合度计算方法为:
若ε大于设定阈值,则数据合格,若ε小于设定阈值,则数据不合格。
一种基于人机共融的智能制造系统,包括:区块链平台1和与区块链平台1连接地动作捕捉装置7;
所述区块链平台1包括:数据库2,用于存储大量动作数据;动作记录模块3,用于对人工动作数据进行收集,辅助判断最终作业标准,并将动作数据存储在数据库2内;模式输入模块4,与动作记录模块3连接,用于接收最终作业标准的动作数据并进行动作模式数据输入,并存储在数据库2内;监控模块5,用于对机器人和人工作业进行实时监控,确定与标准的偏差量,并将动作数据存储在数据库2内;动作修正模块6,与监控模块5连接,用于接受实时动作数据,并进行动作调整和修正;
所述动作捕捉装置7固定在空间内一处,分别与动作记录模块3和监控模块5通过区块链节点连接。
所诉动作捕捉装置7包括:图像采集装置71,用于采集作业动作的实时图像信息,并上传至区块链平台1;超声波雷达72,用于采集作业动作的实时空间坐标数据,并上传至区块链平台1;标记点位贴片73,设置在作业人员和机器人上,用于进行点位标记,辅助图像采集装置71和超声波雷达72采集动作数据。
本申请实施例,一种基于人机共融的智能制造方法及系统的工作原理为:将作业的不同动作分解后根据作业动作的实际情况进行人工或机器的工作模式分配,在作业中进行人机共融的作业形态,同时保留人工作业和机器作业的优势,并将各自优势发挥在其擅长的领域,提高了作业动作的准确性,增强了作业的安全性,并提高了作业的工作效率。
本申请实施例中,将作业过程中作业精度要求高的关键作业动作识别出来,针对性地提高了对作业动作识别的准确性;在保证规格要求合格的前提下,得出人工作业动作中的最标准、规范的作业动作,为机器动作模式提供了标准参考数据,提高了机器动作的准确性。
通过实时监控作业动作和主动修正功能,既保留了作业动作的监控数据,用于后续对历史作业动作的检查,又保证了实际动作与标准动作的一致性,提高了机器作业和人工作业的防错能力。
以上示意性地对本发明及其实施方式进行了描述,该描述没有限制性,附图所示的也只是本发明的实施方式之一,实际的结构并不局限与此。所以,如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不创造性地设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。
Claims (10)
1.一种基于人机共融的智能制造方法,其特征在于,包括以下步骤:
步骤S1,确定作业标准,收集人工作业数据,根据人工作业结果,分析作业要素和作业成果,得出最终作业标准;
步骤S2,工作模式分配,根据不同动作的特征,将不同动作分配不同工作模式;
步骤S3,动作监控,对工作进行实时监控,并将监控数据上传;
步骤S4,动作确认,将实时监控得到的动作数据与预设模式中的进行比对,并进行动作修正。
2.根据权利要求1所述的一种基于人机共融的智能制造方法,其特征在于:
所述步骤S1包括:步骤S11,收集作业数据,有选择地挑选若干人员进行作业动作扫描,并实时捕捉人员完成动作时人手的空间位置信息,以动作捕捉装置(7)为原点形成坐标系,并将人手的空间位置信息转化为以动作捕捉装置(7)为原点形成坐标系的空间坐标数据;步骤S12,动作数据分析,对捕捉到的人手的空间坐标数据进行分析,结合不同坐标数据对应的时间信息,得到人手在不同空间坐标对应位置点时的速度参数以及速度方向角;步骤S13,关键要素提取,对不同人员的作业完成后的产品进行检测,检测后规格符合要求的产品对应的人员的动作数据进行集中对比,将差距较大的动作数据标记为非关键要素,将差距小的动作数据标记为关键要素;步骤S14,确定最终作业标准,将检测后规格符合要求的产品对应的人员的动作数据再次对比,得出最标准的动作数据。
3.根据权利要求2所述的一种基于人机共融的智能制造方法,其特征在于:
所述步骤S13中,关键要素的提取方法具体为:捕捉人手在不同时刻对应位置的空间坐标、速度参数以及速度方向角;以空间坐标在不同坐标轴上的坐标数据为纵坐标,时间为横坐标绘制出X-t、Y-t、Z-t,将速度参数按速度方向角沿空间坐标系的X、Y、Z坐标轴分解,得到不同时刻对应位置点的速度在不同坐标轴上的分速度,并分别以速度在不同坐标轴上的分速度为纵坐标,时间为横坐标绘制出Vx-t、Vy-t、Vz-t的曲线;分别将不同人员的动作数据进行对比,某时刻所有曲线纵坐标极差小于最大纵坐标5%的即为关键要素。
4.根据权利要求2所述的一种基于人机共融的智能制造方法,其特征在于:
所述步骤S14中,不同人员之间的动作数据的对比方法为:将不同人员两两进行动作数据的对比,分别评价两两人员之间的动作相似度,统计每个人员分别与所有其他人员的动作相似度并取中位数,将每个人员的动作相似度的中位数进行排序,动作相似度中位数最高的人的动作数据即为最终作业标准动作数据;
其中,λ表示为人员乙对人员甲的动作相似度;t表示为动作时间;
λx表示为人员乙对人员甲的在X轴向动作相似度;xi表示为人员甲在i时刻的动作的X轴坐标;xi′表示为人员乙在i时刻的动作的X轴坐标;`xi表示为所有人员在i时刻的动作的X轴坐标的平均值;
λy表示为人员乙对人员甲的在Y轴向动作相似度;yi表示为人员甲在i时刻的动作的Y轴坐标;yi′表示为人员乙在i时刻的动作的Y轴坐标;`yi表示为所有人员在i时刻的动作的Y轴坐标的平均值;
λz表示为人员乙对人员甲的在Z轴向动作相似度;zi表示为人员甲在i时刻的动作的Z轴坐标;zi′表示为人员乙在i时刻的动作的Z轴坐标;`zi表示为所有人员在i时刻的动作的Z轴坐标的平均值。
5.根据权利要求1所述的一种基于人机共融的智能制造方法,其特征在于:
所述步骤S2中,步骤S21,动作拆解,将作业人员的完整作业动作根据动作停顿点拆解为若干个动作,根据评估结果,将拆解后的各个动作分别选择工作模式,各工作模式组合完成工作;步骤S22,动作分析,分别对各个动作进行评估,根据采集的动作信息和工作相关信息,对工作对人的依赖程度进行分析;步骤S23,动作模式选择,根据动作分析结果,对各个动作进行工作模式选择;
其中,P表示为某动作的人机选择参数;A表示为该动作的操作系数,若操作简单则A为1,若操作困难则A为0;B表示为该动作的危险系数,若危险系数高则B为1,若危险系数低则B为0;C表示为该动作的精度系数,若操作精度高则C为1,若操作精度低则C为0;D表示为该动作的作业量系数,若作业量大则D为1,若作业量小则D为0;
所述操作系数和精度系数根据动作数据判断,若该动作空间坐标的极差大,则操作困难,若该动作空间坐标的极差小,则操作简单;若该动作包含步骤S13中标记的关键要素,则操作精度高,若该动作包含步骤S13中标记的关键要素,则操作精度低;
所述危险系数、作业量系数由专家评审模块根据工作环境以及工作内容实际情况评审判定;
所述步骤S23中,各动作的模式选择由人机选择参数决定:若P为1,则为人工作业;若P为0,则为机器作业。
6.根据权利要求1所述的一种基于人机共融的智能制造方法,其特征在于:
所述步骤S3中,监控装置将各动作的实时空间坐标上传至区块链平台(1)并存储在数据库(2)内,并广播至全平台,其他区块链节点可通过区块链平台(1)查看历史作业数据。
7.根据权利要求1所述的一种基于人机共融的智能制造方法,其特征在于:
所述步骤S4包括:步骤S41,数据比对,将监控装置收集的实际动作数据的空间坐标分别与作业标准数据对比;步骤S42,动作修正,对拟合度低的动作进行修正,直至拟合度达到设定阈值合格范围内;
所述步骤S41中,拟合度计算方法为:
若ε大于设定阈值,则数据合格,若ε小于设定阈值,则数据不合格。
8.一种基于人机共融的智能制造系统,其特征在于适用权利要求1-7任一项的一种基于人机共融的智能制造方法:
所述基于人机共融的智能制造系统包括:区块链平台(1)和与区块链平台(1)连接地动作捕捉装置(7);
所述区块链平台(1)包括:数据库(2),用于存储大量动作数据;动作记录模块(3),用于对人工动作数据进行收集,辅助判断最终作业标准,并将动作数据存储在数据库(2)内;模式输入模块(4),与动作记录模块(3)连接,用于接收最终作业标准的动作数据并进行动作模式数据输入,并存储在数据库(2)内;监控模块(5),用于对机器人和人工作业进行实时监控,确定与标准的偏差量,并将动作数据存储在数据库(2)内;动作修正模块(6),与监控模块(5)连接,用于接受实时动作数据,并进行动作调整和修正;
所述动作捕捉装置(7)固定在空间内一处,分别与动作记录模块(3)和监控模块(5)通过区块链节点连接。
9.根据权利要求8所述的一种基于人机共融的智能制造系统,其特征在于:
所诉动作捕捉装置(7)包括:图像采集装置(71),用于采集作业动作的实时图像信息,并上传至区块链平台(1);超声波雷达(72),用于采集作业动作的实时空间坐标数据,并上传至区块链平台(1);标记点位贴片(73),设置在作业人员和机器人上,用于进行点位标记,辅助图像采集装置(71)和超声波雷达(72)采集动作数据。
10.一种电子设备,包括存储器、处理器和存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时,实现如权利要求1-7任一项的一种基于人机共融的智能制造方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210021288.5A CN114367985A (zh) | 2022-01-10 | 2022-01-10 | 一种基于人机共融的智能制造方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210021288.5A CN114367985A (zh) | 2022-01-10 | 2022-01-10 | 一种基于人机共融的智能制造方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114367985A true CN114367985A (zh) | 2022-04-19 |
Family
ID=81143681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210021288.5A Withdrawn CN114367985A (zh) | 2022-01-10 | 2022-01-10 | 一种基于人机共融的智能制造方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114367985A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116433029A (zh) * | 2023-04-23 | 2023-07-14 | 国网四川省电力公司巴中供电公司 | 电力作业风险评估方法、系统、设备及存储介质 |
CN116703161A (zh) * | 2023-06-13 | 2023-09-05 | 湖南工商大学 | 一种人机共融风险的预测方法、装置、终端设备及介质 |
-
2022
- 2022-01-10 CN CN202210021288.5A patent/CN114367985A/zh not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116433029A (zh) * | 2023-04-23 | 2023-07-14 | 国网四川省电力公司巴中供电公司 | 电力作业风险评估方法、系统、设备及存储介质 |
CN116703161A (zh) * | 2023-06-13 | 2023-09-05 | 湖南工商大学 | 一种人机共融风险的预测方法、装置、终端设备及介质 |
CN116703161B (zh) * | 2023-06-13 | 2024-05-28 | 湖南工商大学 | 一种人机共融风险的预测方法、装置、终端设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2023056670A1 (zh) | 复杂光照条件下基于视触融合的机械臂自主移动抓取方法 | |
CN114367985A (zh) | 一种基于人机共融的智能制造方法及系统 | |
US9566004B1 (en) | Apparatus, method and system for measuring repetitive motion activity | |
CN111459166A (zh) | 一种灾后救援环境下含受困人员位置信息的情景地图构建方法 | |
CN108596148B (zh) | 一种基于计算机视觉的建筑工人劳动状态分析系统及方法 | |
CN107662195A (zh) | 一种具有临场感的机器手主从异构遥操作控制系统及控制方法 | |
CN112706158A (zh) | 基于视觉和惯导定位的工业人机交互系统及方法 | |
Zhang et al. | A real-time upper-body robot imitation system | |
Zhou et al. | Design and test of a sorting device based on machine vision | |
Wang et al. | Vision sensor based action recognition for improving efficiency and quality under the environment of industry 4.0 | |
Liu et al. | A mixed perception-based human-robot collaborative maintenance approach driven by augmented reality and online deep reinforcement learning | |
Diego-Mas et al. | Using RGB-D sensors and evolutionary algorithms for the optimization of workstation layouts | |
Liang et al. | Fast dataset collection approach for articulated equipment pose estimation | |
CN115464651A (zh) | 一种六组机器人物体抓取系统 | |
CN114565852A (zh) | 一种基于机器视觉工业机器人安全防护系统及安全防护方法 | |
Kunz et al. | Vision-based ergonomic and fatigue analyses for advanced manufacturing | |
CN112847374B (zh) | 一种抛物-接物机械人系统 | |
CN111002292B (zh) | 基于相似性度量的机械臂仿人运动示教方法 | |
CN112347974A (zh) | 人体头部姿态估计算法及操作员工作状态识别系统 | |
Zhang et al. | Human motion recognition for industrial human-robot collaboration based on a novel skeleton descriptor | |
CN112785564A (zh) | 一种基于机械臂的行人检测跟踪系统与方法 | |
Madasamy et al. | Enhancing Human-Robot Collaboration through 5G-Enabled Transformation and Image-Guided Control with TYOLOV5 Algorithms | |
JP7467311B2 (ja) | 点検システムおよび点検方法 | |
Yu et al. | 3D posture estimation from 2D posture data for construction workers | |
TWI788253B (zh) | 適應性移動操作設備及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20220419 |