CN111230872A - 一种基于多传感器的物体递交意图识别系统及方法 - Google Patents
一种基于多传感器的物体递交意图识别系统及方法 Download PDFInfo
- Publication number
- CN111230872A CN111230872A CN202010077675.1A CN202010077675A CN111230872A CN 111230872 A CN111230872 A CN 111230872A CN 202010077675 A CN202010077675 A CN 202010077675A CN 111230872 A CN111230872 A CN 111230872A
- Authority
- CN
- China
- Prior art keywords
- user
- mechanical arm
- intention
- wrist
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Prostheses (AREA)
- User Interface Of Digital Computer (AREA)
- Manipulator (AREA)
Abstract
本发明所涉及的一种基于多传感器的物体递交意图识别系统及方法,其方法用到的设备包括机械臂、PC上位机、MYO腕带以及Vicon动作捕捉系统。运用Vicon精确的对空间位置进行定位,获得人体手腕位置信息,再通过MYO腕带得到肌电信号的数据,准确识别人手不同抓握状态,最后通过模型训练,数据融合进行意图估计。
Description
技术领域
本发明涉及机器人技术领域,尤其涉及一种基于多传感器的物体递交意图识别系统及方法。
背景技术
机器人应用领域的不断扩张和对机器人的要求不断提高,促使人机协作成为机器人领域的热门话题之一。人机协作可以让机器人更好地与人配合,提高生产效率,更好地适应当前的需求。意图识别能快速、准确地识别操作者的抓取意图,为人机协作服务。为了确保机器人可以在复杂的工作环境中与用户有效地进行物体递交,需要提高机器人的人机协作水平、使其充分理解用户的操作意图。在物体递交场景中,大多数的机器人只能完成指令操作,缺乏识别用户操作意图的能力。
为了实现更有效的人机协助物体递交,需要得到精确的目标物体位置信息。由于物体递交时用户是手拿着目标物在测试范围内自由运动的,所以,需要识别出用户物体递交的意图,并得到用户的位置以便更好的进行物体递交。
现有的物体递交意图识别研究主要使用的传感器有:视觉传感器、sEMG传感器、力传感器等几个方面。其中,基于视觉的识别很大程度上受到环境影响,虽然静态识别效果较好,但动态识别效果欠佳;基于sEMG传感器的识别在康复机器人,外骨骼机器人中应用较多,多用于患者康复或协助抓取等方面,但无论是离散动作分类,还是连续动作估计,其都存在识别误差,且sEMG为非平稳时变信号,在连续使用中,信号幅值、频率会发生改变,影响人机交互系统的稳定性;基于力传感器人机交互虽存在精度高、反应快、技术成熟等优点,但接触式力反馈硬件设备大多为固定式装置,运动范围受其约束限制,交互不灵活。由于单一传感器的数据具有偶然性以及不可避免的误差存在,且难以描述复杂环境变化特征,故本方案采用多信息融合技术,将视觉信号、sEMG信号进行协调优化处理,消除冗余信息,综合各传感器的有效信息形成互补、更加全面的信息、更好地表征机器人的内外环境状态,从而能够实时的对环境做出调整,实现更好的人机交互意图识别。
发明内容
针对上述问题,本发明所涉及的一种基于多传感器的物体递交的装置及意图识别方法,运用Vicon精确的对空间位置进行定位,获得人体手腕位置信息,再通过MYO腕带得到肌电信号的数据,准确识别人手不同抓握状态,最后通过模型训练,数据融合进行意图估计。
本发明为一种基于多传感器的物体递交意图识别系统,其特征在于:包括
机械臂:机械臂在PC上位机的控制指令下运动;
PC上位机:控制机械臂运动,并进行数据传输和计算;
MYO腕带:基于ROS的驱动程序,用来获取人递交过程中的手腕位置;
Vicon动作捕捉系统:安装在递交场景上方,用来获取人递交过程中的手臂肌电信号。
一种基于多传感器的物体递意图识别的方法,其特征在于,包括以下步骤:
步骤1:采集用户递交物体时的手臂肌电信号和手腕位置信息,并制作数据集;
步骤2:PC上位机对采集到的数据进行模型训练;
步骤3:融合肌电信号和手腕位置信息,识别用户意图。
在上述的一种基于多传感器的物体递交意图识别方法,步骤1中所述的采集用户递交物体时的肌电信号和手腕位置信息,肌电信号用MYO内置的肌肉运动感应器感应大脑控制肌肉运动产生的生物电得到;手腕位置通过Vicon动作捕捉系统定位贴在手腕上的反光球得到;具体步骤可以分为以下几步:A,将用户递交物体意图识别分为四种场景,分别为用户递交物体给机械臂,机械臂递交物体给用户和交接物体时手准备松开和抓住;B,采集用户递交物体给机械臂和机械臂递交物体给用户这两个场景的肌电信号数据,每个场景重复操作N次,并记录采集到N个数据点 为人体抓握状态时手臂的肌电信号,i代表第i组数据。
在上述的一种基于多传感器的物体递交意图识别方法,步骤2中的模型训练首先采用K-Means算法进行GMM模型参数初始化,然后使用EM算法进行模型训练,得到GMM模型;
所述K-Means聚类算法,计算出初始的K个组分,根据采集肌电信号的两个场景:用户递交物体给机械臂和机械臂递交物体给用户,得到K=2;K-Means聚类算法具体步骤如下:
步骤2.01,随机选取K个聚类中心点μ1,…,μK;
步骤2.02,重复下面过程直到收敛,对于每一组场景数据i,计算其应该属于的类
对于每一个类j,重新计算该类的质心
J函数表示每个样本点到其质心的距离平方和
用J函数来表示K-Means聚类算法得到的结果是否收敛,J函数未达到最小值则重复上述步骤直至达到最小值;
所述EM算法主要分为迭代期望步骤和迭代最大化步骤,直至参数的估计收敛;具体计算过程如下:
步骤2.11,迭代期望步骤:
步骤2.12,迭代最大化步骤:
在上述的一种基于多传感器的物体递交意图识别方法,步骤3中的信息融合说明如下:所述信息融合以训练好的模型为参考,并结合手腕位置信息估计用户递交物体的意图,从不同传感器的角度观察物体,对数据作出预处理、特征提取、识别,通过不同层次的多传感器所得的信息进行融合最终得到结果,从而提高识别效果的目的;动作捕捉系统检测到手腕不断靠近机械臂末端可判定为用户有递交物体的意图,手腕位置在机械臂末端附近且变化不大时可判定用户打算交接物体且该位置为用户交接物体时的位置,再利用训练好的手臂肌电信号模型与采集到的肌电信号及其变化则可以进一步判定属于4种交互意图中的一种,最后机械臂依据意图识别的结果做出相应动作。
本发明的有益效果是:
1.融合多种传感器信息对用户进行意图估计,协调优化处理,综合手腕位置信息和肌电信号等有效信息形成互补、更加全面的信息,更好地识别用户意图;
2.本方法使用Vicon动作捕捉系统和MYO腕带,在物体递交场景中,具有反应灵敏,数据采集和响应速度快的优点;
3.解决了抗噪性差、计算量较大和定位不准确的问题,同时不受摄像头视野所限制,适用于多自由度机器人在协作工作中的意图模糊的场景。
附图说明
图1是人机协作物体递交装置的示意图。
图2是本发明的基于多传感器的物体递交中的用户意图识别流程图。
具体实施方法
以下结合附图对本发明涉及的一种基于多传感器的物体递交意图识别方法进行清楚、完整的描述。显然,所描述的实施例是本发明一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所以其他实施例,都属于本发明保护的范围。
如图1所示,本发明为一种基于多传感器的物体递交意图识别方法,使用的设备包括机械臂1、PC上位机2、MYO腕带3以及Vicon动作捕捉系统4。本实施例中,所述机械臂1为UR5e机械臂,有基于ROS的驱动程序和功能包,安装完成即可实现基本的运动控制与编码器数据读取。所述MYO腕带3和Vicon动作捕捉系统4有基于ROS的驱动程序,分别用来获取人递交过程中的手臂肌电信号和手腕位置,MYO腕带3穿戴在人手上,Vicon动作捕捉系统4安装在递交场景上方。运行过程中,机械臂1在PC上位机2的控制指令下运动。
如图2所示,本发明的实施例提供的一种基于多传感器的物体递交意图识别方法,包括如下步骤:
步骤1:采集用户递交物体时的手臂肌电信号和手腕位置信息,并制作数据集;
步骤2:PC上位机对采集到的数据进行模型训练;
步骤3:融合肌电信号和手腕位置信息,识别用户意图。
步骤1中所述的采集用户递交物体时的肌电信号和手腕位置信息,肌电信号用MYO内置的肌肉运动感应器感应大脑控制肌肉运动产生的生物电得到;手腕位置通过Vicon动作捕捉系统定位贴在手腕上的反光球得到。具体步骤可以分为以下几步:A,将用户递交物体意图识别分为四种场景,分别为用户递交物体给机械臂,机械臂递交物体给用户和交接物体时手准备松开和抓住。B,采集用户递交物体给机械臂和机械臂递交物体给用户这两个场景的肌电信号数据,每个场景重复操作N次,并记录采集到N个数据点 为人体抓握状态时手臂的肌电信号,i代表第i组数据。
步骤2中所述模型训练首先采用K-Means算法进行GMM模型参数初始化,然后使用EM算法进行模型训练,得到GMM模型。
所述K-Means聚类算法,用距离作为相似性指标,从而发现给定数据集中的K个类,每个类的中心用聚类中心来描述。用K-Means聚类的算法对数据集进行初始化,计算出初始的K个组分,根据采集肌电信号的两个场景:用户递交物体给机械臂和机械臂递交物体给用户,得到K=2。K-Means聚类算法具体步骤如下:
第一步,随机选取K个聚类中心点μ1,…,μK;
第二步,重复下面过程直到收敛,对于每一组场景数据i,计算其应该属于的类
对于每一个类j,重新计算该类的质心
J函数表示每个样本点到其质心的距离平方和
用J函数来表示K-Means聚类算法得到的结果是否收敛,J函数未达到最小值则重复上述步骤直至达到最小值。
所述EM算法主要分为迭代E步骤和M步骤,直至参数的估计收敛。具体计算过程如下:
期望(E)步:
其中
表示xi来自于组分Ck的概率。
最大化(M)步:
步骤3中所述用户意图包括用户递交物体给机械臂,机械臂递交物体给用户和交接物体时手准备松开和抓住。所述信息融合以训练好的模型为参考,并结合手腕位置信息估计用户递交物体的意图。动作捕捉系统检测到手腕不断靠近或者远离机械臂末端可判定为递交物体,手腕位置在机械臂末端附近且变化不大判定为交接物体时用户手松开或者闭合,再利用训练好的手臂肌电信号模型则可以进一步判定属于4种交互意图中的一种,最后机械臂依据意图识别的结果做出相应动作。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (5)
1.一种基于多传感器的物体递交意图识别系统,其特征在于:包括
机械臂:机械臂在PC上位机的控制指令下运动;
PC上位机:控制机械臂运动,并进行数据传输和计算;
MYO腕带:基于ROS的驱动程序,用来获取人递交过程中的手腕位置;
Vicon动作捕捉系统:安装在递交场景上方,用来获取人递交过程中的手臂肌电信号。
2.一种基于多传感器的物体递意图识别的方法,其特征在于,包括以下步骤:
步骤1:采集用户递交物体时的手臂肌电信号和手腕位置信息,并制作数据集;
步骤2:PC上位机对采集到的数据进行模型训练;
步骤3:融合肌电信号和手腕位置信息,识别用户意图。
4.根据权利要求2所述的一种基于多传感器的物体递交意图识别方法,其特征在于,步骤2中的模型训练首先采用K-Means算法进行GMM模型参数初始化,然后使用EM算法进行模型训练,得到GMM模型;
所述K-Means聚类算法,计算出初始的K个组分,根据采集肌电信号的两个场景:用户递交物体给机械臂和机械臂递交物体给用户,得到K=2;K-Means聚类算法具体步骤如下:
步骤2.01,随机选取K个聚类中心点μ1,…,μK;
步骤2.02,重复下面过程直到收敛,对于每一组场景数据i,计算其应该属于的类
对于每一个类j,重新计算该类的质心
J函数表示每个样本点到其质心的距离平方和
用J函数来表示K-Means聚类算法得到的结果是否收敛,J函数未达到最小值则重复上述步骤直至达到最小值;
所述EM算法主要分为迭代期望步骤和迭代最大化步骤,直至参数的估计收敛;具体计算过程如下:
步骤2.11,迭代期望步骤:
步骤2.12,迭代最大化步骤:
5.根据权利要求2所述的一种基于多传感器的物体递交意图识别方法,其特征在于,步骤3中的信息融合说明如下:所述信息融合以训练好的模型为参考,并结合手腕位置信息估计用户递交物体的意图,从不同传感器的角度观察物体,对数据作出预处理、特征提取、识别,通过不同层次的多传感器所得的信息进行融合最终得到结果,从而提高识别效果的目的;动作捕捉系统检测到手腕不断靠近机械臂末端可判定为用户有递交物体的意图,手腕位置在机械臂末端附近且变化不大时可判定用户打算交接物体且该位置为用户交接物体时的位置,再利用训练好的手臂肌电信号模型与采集到的肌电信号及其变化则可以进一步判定属于4种交互意图中的一种,最后机械臂依据意图识别的结果做出相应动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010077675.1A CN111230872B (zh) | 2020-01-31 | 2020-01-31 | 一种基于多传感器的物体递交意图识别系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010077675.1A CN111230872B (zh) | 2020-01-31 | 2020-01-31 | 一种基于多传感器的物体递交意图识别系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111230872A true CN111230872A (zh) | 2020-06-05 |
CN111230872B CN111230872B (zh) | 2021-07-20 |
Family
ID=70867042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010077675.1A Active CN111230872B (zh) | 2020-01-31 | 2020-01-31 | 一种基于多传感器的物体递交意图识别系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111230872B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115635482A (zh) * | 2022-10-18 | 2023-01-24 | 深圳市人工智能与机器人研究院 | 基于视觉的机器人到人物体传递方法、装置、介质及终端 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106155300A (zh) * | 2015-04-23 | 2016-11-23 | 宁波市美灵思医疗科技有限公司 | 一种基于肌电流和多传感器协同作用的人机交互设备及其使用方法 |
CN108921935A (zh) * | 2018-06-05 | 2018-11-30 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于加速高斯混合模型的空间目标重建方法 |
CN109453509A (zh) * | 2018-11-07 | 2019-03-12 | 龚映清 | 一种基于肌电和运动捕捉的虚拟上肢控制系统及其方法 |
CN109480838A (zh) * | 2018-10-18 | 2019-03-19 | 北京理工大学 | 一种基于表层肌电信号的人体连续复杂运动意图预测方法 |
CN110390816A (zh) * | 2019-07-18 | 2019-10-29 | 电子科技大学 | 一种基于多模型融合的状态判别方法 |
US20190371344A1 (en) * | 2018-05-31 | 2019-12-05 | Electronics And Telecommunications Research Institute | Apparatus and method for predicting/recognizing occurrence of personal concerned context |
-
2020
- 2020-01-31 CN CN202010077675.1A patent/CN111230872B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106155300A (zh) * | 2015-04-23 | 2016-11-23 | 宁波市美灵思医疗科技有限公司 | 一种基于肌电流和多传感器协同作用的人机交互设备及其使用方法 |
US20190371344A1 (en) * | 2018-05-31 | 2019-12-05 | Electronics And Telecommunications Research Institute | Apparatus and method for predicting/recognizing occurrence of personal concerned context |
CN108921935A (zh) * | 2018-06-05 | 2018-11-30 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于加速高斯混合模型的空间目标重建方法 |
CN109480838A (zh) * | 2018-10-18 | 2019-03-19 | 北京理工大学 | 一种基于表层肌电信号的人体连续复杂运动意图预测方法 |
CN109453509A (zh) * | 2018-11-07 | 2019-03-12 | 龚映清 | 一种基于肌电和运动捕捉的虚拟上肢控制系统及其方法 |
CN110390816A (zh) * | 2019-07-18 | 2019-10-29 | 电子科技大学 | 一种基于多模型融合的状态判别方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115635482A (zh) * | 2022-10-18 | 2023-01-24 | 深圳市人工智能与机器人研究院 | 基于视觉的机器人到人物体传递方法、装置、介质及终端 |
CN115635482B (zh) * | 2022-10-18 | 2024-01-30 | 深圳市人工智能与机器人研究院 | 基于视觉的机器人到人物体传递方法、装置、介质及终端 |
Also Published As
Publication number | Publication date |
---|---|
CN111230872B (zh) | 2021-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4878842B2 (ja) | ロボットの駆動方法 | |
Xue et al. | Multimodal human hand motion sensing and analysis—A review | |
Mahmud et al. | Interface for human machine interaction for assistant devices: A review | |
JP4766101B2 (ja) | 触行動認識装置及び触行動認識方法、情報処理装置、並びにコンピューター・プログラム | |
CN110262664B (zh) | 一种具有认知能力的智能交互手套 | |
CN109993073B (zh) | 一种基于Leap Motion的复杂动态手势识别方法 | |
US20210132681A1 (en) | Natural human-computer interaction system based on multi-sensing data fusion | |
Zhang et al. | Recognizing hand gestures with pressure-sensor-based motion sensing | |
CN111531537B (zh) | 基于多传感器的机械臂控制方法 | |
Wang et al. | Joining force of human muscular task planning with robot robust and delicate manipulation for programming by demonstration | |
CN107346207B (zh) | 一种基于隐马尔科夫模型的动态手势切分识别方法 | |
CN113849068A (zh) | 一种手势多模态信息融合的理解与交互方法及其系统 | |
CN116236328A (zh) | 基于视觉的可实现自然抓取的智能假肢系统 | |
Liu et al. | Dynamic hand gesture recognition using LMC for flower and plant interaction | |
CN115576426A (zh) | 一种针对混合现实飞行模拟器的手部交互方法 | |
CN111230872B (zh) | 一种基于多传感器的物体递交意图识别系统及方法 | |
Kang et al. | A robot system that observes and replicates grasping tasks | |
CN113423341A (zh) | 用于可穿戴电极传感器系统的自动校准的方法和装置 | |
Adhikari et al. | A Novel Machine Learning-Based Hand Gesture Recognition Using HCI on IoT Assisted Cloud Platform. | |
CN115120429B (zh) | 一种基于表面肌电信号的智能轮椅人体跟随控制系统 | |
Gutzeit et al. | Automatic Detection and Recognition of Human Movement Patterns in Manipulation Tasks. | |
Chu et al. | Hands-free assistive manipulator using augmented reality and tongue drive system | |
Srinivas et al. | Study of hand gesture recognition and classification | |
TK et al. | Real-Time Virtual Mouse using Hand Gestures for Unconventional Environment | |
CN113552945B (zh) | 一种人机交互的手套系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |