CN115946130A - 基于黎曼流形的人机协同方法 - Google Patents

基于黎曼流形的人机协同方法 Download PDF

Info

Publication number
CN115946130A
CN115946130A CN202310231998.5A CN202310231998A CN115946130A CN 115946130 A CN115946130 A CN 115946130A CN 202310231998 A CN202310231998 A CN 202310231998A CN 115946130 A CN115946130 A CN 115946130A
Authority
CN
China
Prior art keywords
human
probability distribution
robot
distribution
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310231998.5A
Other languages
English (en)
Other versions
CN115946130B (zh
Inventor
王国嫣
胡谋法
卢大威
范红旗
何俊
蒋彦雯
傅瑞罡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202310231998.5A priority Critical patent/CN115946130B/zh
Publication of CN115946130A publication Critical patent/CN115946130A/zh
Application granted granted Critical
Publication of CN115946130B publication Critical patent/CN115946130B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于黎曼流形的人机协同方法,包括建立人机交互模型,机器人的预测状态量与人的行为观测量采用基于黎曼流形的双四元数表示;采用泰勒展开求解先验概率分布,利用联合概率分布来求解边际概率分布,获得机器人的预测状态的后验概率分布。为了提高运行精度,将人机交互模型的建模数据划分为K个独立的数据集,并求得每个数据集的后验概率分布,构建预测框架,得到基于K个数据集融合的分布式后验概率分布。本发明应用于人机协同领域,基于黎曼流形和其切空间中建立无运动奇点的人机协作交互模型,随着机器人的隐态预测传播对人类观测的不确定性,采用分布式框架推断出更精确的机器人笛卡尔轨迹,有效提高人机协同的精度。

Description

基于黎曼流形的人机协同方法
技术领域
本发明涉及人机协同技术领域,具体是一种基于黎曼流形的人机协同方法。
背景技术
客户满意度加剧了全球竞争,对企业提高产品和服务的灵活性提出了重要要求。解决这一需求的方法通常是引入人工操作人员来完成具有挑战性的任务,这些任务要求高度的灵活性和决策认知能力。然而,从另一个角度来看,机器人可以在处理高精度、重复性和非人体工程学的制造任务时提供帮助。鉴于人类操作员与机器人的功能互补,研究操作员与机器人协同工作的共享工作空间是很自然的,这促进了人机协同研究的动力。
最近的人机协同研究主要集中在协同操作、切换任务和在线轨迹规划应用中交互和感知模型的结合。例如,一项类似的研究通过模拟人类接触行为来解决人类互动和碰撞检测等问题。
此外,根据惯性测量单元和机器视觉等各种观测结果正确解释人类意图,对于人类机器人协作非常重要,因为运动可读性会显著影响协作效率。第一种方法是将人机协作问题建立为一个混合规划问题,以理解人类的运动。更具体地说,利用多个定界层的思想,将联合符号和几何规划视为一种复杂的逼近方案。第二种方法可以被称为运动原语方法,它对人类和机器人的运动进行概率编码,并在变化的环境下输出可适应的机器人轨迹。
关于时间对齐,在人机协作中也很重要。解决时间对齐问题的一个基本和直接的方法是动态时间归整方法。然而,在实时应用中,它计算花费的时间巨大。另外,时间对齐问题也可以用隐马尔可夫模型建模,如人类动作预测和工具交付。然而,隐马尔可夫模型只能模拟离散的时间序列问题,不能明确地模拟机器人的运动。
此外,时间对齐也可以通过利用运动原语方法实现。例如,时间变化由动态运动原语派生的显式相位指示器控制,该相位指示器可以同时控制多个机器人轨迹。基于数据驱动黑盒映射的时间运动可以与核回归(Kernelizedmovement Primitives, KMP)和基函数回归(Probabilistic movement Primitives,ProMP)对齐。相应的应用已经扩展到定向行为克隆的人机交互协同计算中。
在现实世界的人机协作中,操作者几乎不可能重复相同的动作,因此需要一个人-机混合运动规划系统的联合建模。来自操作者和交互环境的变化都可能给协作框架带来更多的挑战,其是当人类的观察被测量带有严重的噪声时,往往很难建立一个精确的协作模型。
发明内容
针对上述现有技术中的不足,本发明提供一种基于黎曼流形的人机协同方法,在基于黎曼流形空间中建立无运动奇点且可利用隐状态的预测传递对人类观测的不确定性的人机协同模型,能够有效地提高人机协同的精度。
为实现上述目的,本发明提供一种基于黎曼流形的人机协同方法,包括如下步骤:
步骤1,建立人机交互模型,在所述人机交互模型中,机器人的预测状态量与人的行为观测量采用基于黎曼流形的双四元数表示;
步骤2,采用泰勒展开求解状态的先验概率分布,并利用联合概率分布来求解状态的边际概率分布,从而获得机器人的预测状态的后验概率分布;
步骤3,将人机交互模型的建模数据划分为K个独立的数据集,并基于上述人机交互模型求得每个数据集对应的后验概率分布;
步骤4,利用贝叶斯委员会机器理论推断预测框架,得到基于K个数据集融合的分布式后验概率分布。
本发明提供的一种基于黎曼流形的人机协同方法,机器人可对人类行为进行定向克隆,对机器人的旋转和平移运动进行概率编码。此外,在黎曼流形的切线空间中建立的人机协作交互模型,可让随着机器人预测传播对人类观测的不确定性。同时,采用分布式框架通过利用其内部不确定性的传递可推断出更精确的机器人轨迹,可有效地提高人机协同的精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例中黎曼流形的人机协同方法的流程图;
图2为本发明实施例中运动奇点的解释示意图;
图3为本发明实施例示例中从第1个人机交互模型得到的机器人轨迹推论示意图,其中:(a)为旋转量rx在X轴上的轨迹推论示意图,(b)为旋转量ry在Y轴上的轨迹推论示意图,(c)为旋转量rz在Z轴上的轨迹推论示意图,(d)为平移量ox在X轴上的轨迹推论示意图,(e)为平移量oy在Y轴上的的轨迹推论示意图,(f)为平移量oz在Z轴上的轨迹推论示意图,(g)为归一化参数s的轨迹推论示意图,Var为方差;
图4为本发明实施例示例中从第2个人机交互模型得到的机器人轨迹推论示意图,其中:(a)为旋转量rx在X轴上的轨迹推论示意图,(b)为旋转量ry在Y轴上的轨迹推论示意图,(c)为旋转量rz在Z轴上的轨迹推论示意图,(d)为平移量ox在X轴上的轨迹推论示意图,(e)为平移量oy在Y轴上的的轨迹推论示意图,(f)为平移量oz在Z轴上的轨迹推论示意图,(g)为归一化参数s的轨迹推论示意图,Var为方差;
图5为本发明实施例示例中从第3个人机交互模型得到的机器人轨迹推论示意图,其中:(a)为旋转量rx在X轴上的轨迹推论示意图,(b)为旋转量ry在Y轴上的轨迹推论示意图,(c)为旋转量rz在Z轴上的轨迹推论示意图,(d)为平移量ox在X轴上的轨迹推论示意图,(e)为平移量oy在Y轴上的的轨迹推论示意图,(f)为平移量oz在Z轴上的轨迹推论示意图,(g)为归一化参数s的轨迹推论示意图,Var为方差;
图6为本发明实施例示例中从第4个人机交互模型得到的机器人轨迹推论示意图,其中:(a)为旋转量rx在X轴上的轨迹推论示意图,(b)为旋转量ry在Y轴上的轨迹推论示意图,(c)为旋转量rz在Z轴上的轨迹推论示意图,(d)为平移量ox在X轴上的轨迹推论示意图,(e)为平移量oy在Y轴上的的轨迹推论示意图,(f)为平移量oz在Z轴上的轨迹推论示意图,(g)为归一化参数s的轨迹推论示意图,Var为方差;
图7为本发明实施例示例中从第5个人机交互模型得到的机器人轨迹推论示意图,其中:(a)为旋转量rx在X轴上的轨迹推论示意图,(b)为旋转量ry在Y轴上的轨迹推论示意图,(c)为旋转量rz在Z轴上的轨迹推论示意图,(d)为平移量ox在X轴上的轨迹推论示意图,(e)为平移量oy在Y轴上的的轨迹推论示意图,(f)为平移量oz在Z轴上的轨迹推论示意图,(g)为归一化参数s的轨迹推论示意图,Var为方差;
图8为本发明实施例示例中从第6个人机交互模型得到的机器人轨迹推论示意图,其中:(a)为旋转量rx在X轴上的轨迹推论示意图,(b)为旋转量ry在Y轴上的轨迹推论示意图,(c)为旋转量rz在Z轴上的轨迹推论示意图,(d)为平移量ox在X轴上的轨迹推论示意图,(e)为平移量oy在Y轴上的的轨迹推论示意图,(f)为平移量oz在Z轴上的轨迹推论示意图,(g)为归一化参数s的轨迹推论示意图,Var为方差;
图9为本发明实施例示例中从第7个人机交互模型得到的机器人轨迹推论示意图,其中:(a)为旋转量rx在X轴上的轨迹推论示意图,(b)为旋转量ry在Y轴上的轨迹推论示意图,(c)为旋转量rz在Z轴上的轨迹推论示意图,(d)为平移量ox在X轴上的轨迹推论示意图,(e)为平移量oy在Y轴上的的轨迹推论示意图,(f)为平移量oz在Z轴上的轨迹推论示意图,(g)为归一化参数s的轨迹推论示意图,Var为方差;
图10为本发明实施例示例中从第8个人机交互模型得到的机器人轨迹推论示意图,其中:(a)为旋转量rx在X轴上的轨迹推论示意图,(b)为旋转量ry在Y轴上的轨迹推论示意图,(c)为旋转量rz在Z轴上的轨迹推论示意图,(d)为平移量ox在X轴上的轨迹推论示意图,(e)为平移量oy在Y轴上的的轨迹推论示意图,(f)为平移量oz在Z轴上的轨迹推论示意图,(g)为归一化参数s的轨迹推论示意图,Var为方差;
图11为本发明实施例中分布式地融合了所有8个人机交互模型的机器人轨迹推论示意图,其中:(a)为旋转量rx在X轴上的轨迹推论示意图,(b)为旋转量ry在Y轴上的轨迹推论示意图,(c)为旋转量rz在Z轴上的轨迹推论示意图,(d)为平移量ox在X轴上的轨迹推论示意图,(e)为平移量oy在Y轴上的的轨迹推论示意图,(f)为平移量oz在Z轴上的轨迹推论示意图,(g)为归一化参数s的轨迹推论示意图,Var为方差。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
如图1所示为本实施例公开的一种基于黎曼流形的人机协同方法,其包括如下步骤:
步骤1,建立人机交互模型,在所述人机交互模型中,机器人的预测状态量与人的行为观测量采用基于黎曼流形的双四元数表示;
步骤2,采用泰勒展开求解状态的先验概率分布,并利用联合概率分布来求解状态的边际概率分布,从而获得机器人的预测状态的后验概率分布;
步骤3,将人机交互模型的建模数据划分为K个独立的数据集,并基于上述人机交互模型求得每个数据集对应的后验概率分布;
步骤4,利用贝叶斯委员会机器理论推断预测框架,得到基于K个数据集融合的分布式后验概率分布。
本实施例中的基于黎曼流形及其切空间的笛卡尔坐标系下人类行为克隆的人机协同,先通过对数映射将状态转化为黎曼流形的切线空间,然后,在切线空间中概率地进行模仿学习。在笛卡尔空间中,物体的位姿包括旋转和平移,可以表示为双四元数,但是双四元数之间的距离在黎曼流形上不是欧几里德的,直接在其上进行回归学习会打破单位约束,造成运动奇点,导致运动轨迹不准确,即如图2所示:图2中,球形是单位里面流形,黑色核回归线已经超出单位约束,实际轨迹不能超出单位约束,故黎曼流形下运动轨迹的回归存在奇点。因此本实施例中在黎曼流形的切线空间中进行了人类行为克隆的回归学习,通过对数映射,一个双四元数可以映射到黎曼流形的切线空间,可以表示成一个7维向量,为:
Figure SMS_1
(1)
其中,
Figure SMS_2
为且空间中回归状态量,
Figure SMS_3
为旋转状态量,
Figure SMS_4
为平移状态量;
Figure SMS_5
为归一化参数。
在人机协同的过程中,假设两个不同的智能体分别表现出两种协作轨迹。例如,这些轨迹一个来自机械臂,另一个来自操作员。这个两种协作轨迹在笛卡尔坐标系中可表示为黎曼流形上的双四元数
Figure SMS_6
Figure SMS_7
,其中,
Figure SMS_8
为机器人的预测状态量,
Figure SMS_9
即为行为观测量。本实施例中基于双四元数
Figure SMS_10
Figure SMS_11
进行交互模型建模,通过双四元数在黎曼流行的切空间中进行回归学习,得到机器人的预测状态量和对人的行为观测量,进而能够有效地解决上述人机协同过程中的奇点问题。
对于一个具有高斯分布的动态系统,其动态系统方程可以表示为
Figure SMS_12
,其中,
Figure SMS_13
为动态系统噪声。另外,给定来自另一个智能体的观测值,其观测系统方程为
Figure SMS_14
,其中,
Figure SMS_15
为观测系统噪声。因此,本实施例中步骤1的人机交互模型为:
Figure SMS_16
(2)
Figure SMS_17
(3)
其中,
Figure SMS_18
Figure SMS_19
是非线性函数。
为了推断协同机器人的位姿或者说状态量,预测状态量应考虑对人类操作者在时间和空间上的观察。因此,基于贝叶斯理论,将给定观测值
Figure SMS_20
的预测量
Figure SMS_21
的后验分布
Figure SMS_22
定义为:
Figure SMS_23
(4)
其中,
Figure SMS_24
为似然函数,可通过式(3)得到;
Figure SMS_25
为先验概率分布,可表示为:
Figure SMS_26
(5)
其中,
Figure SMS_27
可通过泰勒展开推断得到,
Figure SMS_28
为上一时刻推断得到的后验概率分布;
Figure SMS_29
为边际分布概率函数,可表示为:
Figure SMS_30
(6)
因为公式(6)边际分布概率函数
Figure SMS_31
很难获得解析解,从而无法得到最终的后验概率。因此本实施例通过机器人状态和对人行为观测量的联合概率分布,来求解边际分布概率函数。
联合分布函数
Figure SMS_32
,为:
Figure SMS_33
(7)
式中,
Figure SMS_34
为先验分布概率(公式(5)),可利用泰勒展开公式求得,
Figure SMS_37
Figure SMS_40
的均值,
Figure SMS_35
Figure SMS_38
的均值,
Figure SMS_41
Figure SMS_43
的方差,
Figure SMS_36
Figure SMS_39
的方差,
Figure SMS_42
为联合分布方差,其计算公式为:
Figure SMS_44
Figure SMS_45
Figure SMS_46
Figure SMS_47
式中,
Figure SMS_48
是高斯函数的高斯核,
Figure SMS_49
是超参数,可通过梯度下降法求得,
Figure SMS_50
是单位矩阵。
最后,基于上述已知量,可求解能得到联合分布函数
Figure SMS_51
以及边际分布函数
Figure SMS_52
。因此具有不确定性的后验分布
Figure SMS_53
可进一步表示为:
Figure SMS_54
(8)
Figure SMS_55
(9)
Figure SMS_56
(10)
其中,
Figure SMS_57
Figure SMS_58
为后验概率分布的均值和方差,其他参数意义同公式(7)。
虽然通过式(1)-式(10)能够得到机器人预测状态量的后验分布
Figure SMS_59
,但其整个过程需要耗费较大的计算资源,还具有过拟合的缺点。因此,本实施例中公开了一种分布式预测框架,即将人机交互模型的建模数据划分为
Figure SMS_60
个数据集,其具体实施过程为:
首先,根据专家数据集的独立假设,将建模数据集
Figure SMS_61
分解为K个专家数据集为
Figure SMS_62
,其中n和独立数据集中数据的个数,且
Figure SMS_63
Figure SMS_64
。并通过公式(1)-(10)解第i个专家数据集
Figure SMS_65
的后验概率分布
Figure SMS_66
在每个数据集的独立假设下,为了将
Figure SMS_67
个独立数据集应用到分布式预测框架中,本实施例采用贝叶斯委员会机器理论,对于任意两个独立数据集
Figure SMS_68
Figure SMS_69
,计算具有高斯过程的预测分布
Figure SMS_70
,为:
Figure SMS_71
(11)
其中,贝叶斯委员会机器理论具体可参考论文的“Tresp, Volker. A BayesianCommittee Machine. Neural Computation, 12(11):2719–2741, 2000. URL http://www.dbs.ifi.lmu.de/˜tresp/papers/bcm6.pdf.”;
基于公式(11)的理论,可得到
Figure SMS_72
个独立数据集协作建模的后验预测分布
Figure SMS_73
,为:
Figure SMS_74
式中,
Figure SMS_75
为先验概率分布;
最后,分布式后验分布概率的均值
Figure SMS_76
和方差
Figure SMS_77
可表示为:
Figure SMS_78
Figure SMS_79
式中,
Figure SMS_80
是先验概率分布
Figure SMS_81
的方差。
下面结合具体的示例对本实施例中基于黎曼流形的人机协同方法作出进一步的说明。
通过一个YuMi机器人、一个HTCVIVE虚拟现实设备和一台Alienware笔记本电脑组成实验平台,Alienware笔记本电脑可为为HTCVIVE虚拟现实设备与YuMi机器人提供通信,HTCVIVE虚拟现实设备包括头戴式设备、两个定位器和两个操作手柄。在这一示例中,人类的观察结果是通过两个定位传感器获得的。
首先,收集8组训练数据集
Figure SMS_82
,来训练8个人机交互模型,用于完成机械臂向人类移交物品的任务。
训练完成后,通过训练的人际交互模型预测机械臂的轨迹。其中,观测数据来自于HTCVIVE虚拟现实设备。通过8个人机交互模型得到机器人推论轨迹如图3-10所示,图3-10中每个机器人轨迹推论都包括七个子图,分别是三个平移变量、三个旋转变量和一个归一化参数。
虽然每个人机交互模型对人类观测数据的输入是相同的,但在不同的人际交互模型的切空间中每个分量的预测是不相同的。这是因为每个人际交互建模都是数据驱动的,非参数的,系统不依赖一个单一的人机交互模型来解决所有的任务。因此,通过采用本实施例提出的分布式框架可组合了8种人机交互模型,如图11所示,与图3-10中的8种人机交互建模相比,图11中的分布式框架的置信区间(传播不确定度)要小得多,表明了本实施例中的分布式框架对新轨迹预测具有更高的可信度。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的发明构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。

Claims (6)

1.一种基于黎曼流形的人机协同方法,其特征在于,包括如下步骤:
步骤1,建立人机交互模型,在所述人机交互模型中,机器人的预测状态量与人的行为观测量采用基于黎曼流形的双四元数表示;
步骤2,采用泰勒展开求解状态的先验概率分布,并利用联合概率分布来求解状态的边际概率分布,从而获得机器人的预测状态的后验概率分布;
步骤3,将人机交互模型的建模数据划分为K个独立的数据集,并基于上述人机交互模型求得每个数据集对应的后验概率分布;
步骤4,利用贝叶斯委员会机器理论推断预测框架,得到基于K个数据集融合的分布式后验概率分布。
2.根据权利要求1所述的基于黎曼流形的人机协同方法,其特征在于,步骤1中,所述人机交互模型为:
Figure QLYQS_1
Figure QLYQS_2
式中,
Figure QLYQS_3
为机器人的预测状态量,
Figure QLYQS_4
为人行为观测状态量,
Figure QLYQS_5
Figure QLYQS_6
为非线性函数,
Figure QLYQS_7
为动态系统噪声,
Figure QLYQS_8
为观测系统噪声;
其中,机器人的预测状态量
Figure QLYQS_9
与人的行为观测量
Figure QLYQS_10
均为双四元数,分别表示基于黎曼流形的笛卡尔空间中运动无奇点的机器人状态轨迹与人的行为状态轨迹。
3.根据权利要求2所述的基于黎曼流形的人机协同方法,其特征在于,步骤2中,所述先验概率分布为:
Figure QLYQS_11
式中,
Figure QLYQS_12
为先验概率分布函数,
Figure QLYQS_13
为前一时刻求得的后验概率分布;
Figure QLYQS_14
通过泰勒展开方法求得。
4.根据权利要求2所述的基于黎曼流形的人机协同方法,其特征在于,步骤2中,机器人的预测状态的后验概率分布为:
首先,建立机器人状态和人类行为观测状态的联合分布函数
Figure QLYQS_15
为:
Figure QLYQS_16
式中,
Figure QLYQS_17
为边际分布函数,
Figure QLYQS_20
Figure QLYQS_23
的均值,
Figure QLYQS_18
Figure QLYQS_22
的均值,
Figure QLYQS_25
Figure QLYQS_26
的方差,
Figure QLYQS_19
Figure QLYQS_21
的方差,
Figure QLYQS_24
为联合分布方差,其计算公式为:
Figure QLYQS_27
Figure QLYQS_28
Figure QLYQS_29
Figure QLYQS_30
式中,
Figure QLYQS_32
为非线性函数,
Figure QLYQS_34
Figure QLYQS_37
为中间参数符号,
Figure QLYQS_33
为条件概率,
Figure QLYQS_35
为条件概率分布,
Figure QLYQS_38
是高斯函数的高斯核,
Figure QLYQS_39
是超参数,
Figure QLYQS_31
为常数,
Figure QLYQS_36
是单位矩阵;
最后,基于上述已知量
Figure QLYQS_40
Figure QLYQS_41
Figure QLYQS_42
Figure QLYQS_43
Figure QLYQS_44
,得到边际分布函数
Figure QLYQS_45
,从而得到机器人的预测状态的后验分布概率
Figure QLYQS_46
5.根据权利要求1至4任一项所述的基于黎曼流形的人机协同方法,其特征在于,步骤3具体为:
首先,根据专家数据集的独立假设,将建模数据集
Figure QLYQS_47
分解为K个数据集为D=
Figure QLYQS_48
,其中,
Figure QLYQS_49
N为数据集个数,且
Figure QLYQS_50
其次,通过步骤2得到第
Figure QLYQS_51
个专家数据集
Figure QLYQS_52
的后验概率分布
Figure QLYQS_53
6.根据权利要求5所述的基于黎曼流形的人机协同方法,其特征在于,步骤4具体为:
首先,根据贝叶斯委员会机器理论推断的K个独立数据集融合协作建模的后验预测分布
Figure QLYQS_54
,为:
Figure QLYQS_55
式中,
Figure QLYQS_56
为先验概率分布;
然后,分布式后验分布概率的均值
Figure QLYQS_57
和方差
Figure QLYQS_58
可表示为:
Figure QLYQS_59
Figure QLYQS_60
式中,
Figure QLYQS_61
是先验概率分布
Figure QLYQS_62
的方差,
Figure QLYQS_63
Figure QLYQS_64
为第
Figure QLYQS_65
个独立数据集的后验概率分布。
CN202310231998.5A 2023-03-13 2023-03-13 基于黎曼流形的人机协同方法 Active CN115946130B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310231998.5A CN115946130B (zh) 2023-03-13 2023-03-13 基于黎曼流形的人机协同方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310231998.5A CN115946130B (zh) 2023-03-13 2023-03-13 基于黎曼流形的人机协同方法

Publications (2)

Publication Number Publication Date
CN115946130A true CN115946130A (zh) 2023-04-11
CN115946130B CN115946130B (zh) 2023-05-23

Family

ID=85896317

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310231998.5A Active CN115946130B (zh) 2023-03-13 2023-03-13 基于黎曼流形的人机协同方法

Country Status (1)

Country Link
CN (1) CN115946130B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150317516A1 (en) * 2012-12-05 2015-11-05 Inuitive Ltd. Method and system for remote controlling
CN107150347A (zh) * 2017-06-08 2017-09-12 华南理工大学 基于人机协作的机器人感知与理解方法
CN111443725A (zh) * 2020-04-24 2020-07-24 上海交通大学 基于黎曼子流形表示与优化的航天器机械臂轨迹规划方法
CN113858217A (zh) * 2021-12-01 2021-12-31 常州唯实智能物联创新中心有限公司 多机器人交互的三维视觉位姿感知方法及系统
CN114102600A (zh) * 2021-12-02 2022-03-01 西安交通大学 一种多空间融合的人机技能迁移与参数补偿方法及系统
CN114454174A (zh) * 2022-03-08 2022-05-10 江南大学 机械臂动作捕捉方法、介质、电子设备及系统
US20220314446A1 (en) * 2021-03-30 2022-10-06 Honda Research Institute Europe Gmbh Controlling a robot using predictive decision making
CN115351780A (zh) * 2021-05-17 2022-11-18 罗伯特·博世有限公司 用于控制机器人设备的方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150317516A1 (en) * 2012-12-05 2015-11-05 Inuitive Ltd. Method and system for remote controlling
CN107150347A (zh) * 2017-06-08 2017-09-12 华南理工大学 基于人机协作的机器人感知与理解方法
CN111443725A (zh) * 2020-04-24 2020-07-24 上海交通大学 基于黎曼子流形表示与优化的航天器机械臂轨迹规划方法
US20220314446A1 (en) * 2021-03-30 2022-10-06 Honda Research Institute Europe Gmbh Controlling a robot using predictive decision making
CN115351780A (zh) * 2021-05-17 2022-11-18 罗伯特·博世有限公司 用于控制机器人设备的方法
CN113858217A (zh) * 2021-12-01 2021-12-31 常州唯实智能物联创新中心有限公司 多机器人交互的三维视觉位姿感知方法及系统
CN114102600A (zh) * 2021-12-02 2022-03-01 西安交通大学 一种多空间融合的人机技能迁移与参数补偿方法及系统
CN114454174A (zh) * 2022-03-08 2022-05-10 江南大学 机械臂动作捕捉方法、介质、电子设备及系统

Also Published As

Publication number Publication date
CN115946130B (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
Li et al. Semantic-enhanced digital twin system for robot–environment interaction monitoring
CN113290555B (zh) 一种工业机器人时间最优控制轨迹的优化方法
Tahriri et al. Optimizing the robot arm movement time using virtual reality robotic teaching system
Kim et al. Learning reachable manifold and inverse mapping for a redundant robot manipulator
Zhao et al. A learning-based multiscale modelling approach to real-time serial manipulator kinematics simulation
Dong et al. Friction modeling and compensation for haptic master manipulator based on deep Gaussian process
Tian et al. A general approach for robot pose error compensation based on an equivalent joint motion error model
Ozakyol et al. Advanced robotics analysis toolbox for kinematic and dynamic design and analysis of high‐DOF redundant serial manipulators
Nandikolla et al. Teleoperation Robot Control of a Hybrid EEG‐Based BCI Arm Manipulator Using ROS
Cursi et al. Task accuracy enhancement for a surgical macro-micro manipulator with probabilistic neural networks and uncertainty minimization
Palm et al. Recognition of human grasps by time-clustering and fuzzy modeling
Almaghout et al. Robotic co-manipulation of deformable linear objects for large deformation tasks
Iklima et al. Self-collision avoidance of arm robot using generative adversarial network and particles swarm optimization (gan-pso)
Du et al. A novel natural mobile human-machine interaction method with augmented reality
Bouzid et al. Investigating feed-forward back-propagation neural network with different hyperparameters for inverse kinematics of a 2-DoF robotic manipulator: A comparative study
Diprasetya et al. Homogeneous transformation matrix based neural network for model based reinforcement learning on robot manipulator
CN115946130A (zh) 基于黎曼流形的人机协同方法
Salman et al. Augmented reality-assisted gesture-based teleoperated system for robot motion planning
Theodoropoulos et al. Cyber-physical systems in non-rigid assemblies: A methodology for the calibration of deformable object reconstruction models
Marlier et al. Simulation-based Bayesian inference for robotic grasping
Soh et al. Trust Dynamics and Transfer across Human-Robot Interaction Tasks: Bayesian and Neural Computational Models.
Wang et al. Learning adaptive reaching and pushing skills using contact information
Wang et al. Uncertainty-propagated Cartesian coordinated human–robot collaboration on Riemannian manifold with hidden state-space model
Wang et al. Human–robot kinematic mapping method based on index constraint
Elhadidy et al. Assessing the accuracy and efficiency of kinematic analysis tools for six-DOF industrial manipulators: The KUKA robot case study

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Wang Guoyan

Inventor after: Hu Moufa

Inventor after: Lu Dawei

Inventor after: Fan Hongqi

Inventor after: He Jun

Inventor after: Jiang Yanwen

Inventor after: Fu Ruigang

Inventor before: Wang Guoyan

Inventor before: Hu Moufa

Inventor before: Lu Dawei

Inventor before: Fan Hongqi

Inventor before: He Jun

Inventor before: Jiang Yanwen

Inventor before: Fu Ruigang