CN106965183A - 一种基于景深感知机制的机器人操控系统及其工作方法 - Google Patents

一种基于景深感知机制的机器人操控系统及其工作方法 Download PDF

Info

Publication number
CN106965183A
CN106965183A CN201710301380.6A CN201710301380A CN106965183A CN 106965183 A CN106965183 A CN 106965183A CN 201710301380 A CN201710301380 A CN 201710301380A CN 106965183 A CN106965183 A CN 106965183A
Authority
CN
China
Prior art keywords
depth
robot
collecting device
human body
processing terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710301380.6A
Other languages
English (en)
Inventor
谢磊
薛涛
陆桑璐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201710301380.6A priority Critical patent/CN106965183A/zh
Publication of CN106965183A publication Critical patent/CN106965183A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed

Abstract

本发明公开了一种基于景深感知机制的机器人操控系统及其工作方法,系统包括处理终端、通信设备、机器人以及景深信息采集设备,该机器人具备类似于人体的骨骼关节,且每个关节包含相应的控制关节活动的自由度;景深信息采集设备将人体抽象为一个骨骼结构,将各个人体关节抽象为相应的骨骼点;处理终端根据景深信息采集设备获取的人体骨骼点坐标数据计算出人体关节的相应自由度及行走方向,然后将这些关节的自由度信息和人体的行走方向信息通过无线连接传输到机器人的控制中心;机器人的控制中心从处理终端获取相关信息之后,驱动机器人完成人体的动作指令。本发明利用景深信息采集设备获取人体骨骼点坐标的特点,实现了基于景深感知机制的机器人操控。

Description

一种基于景深感知机制的机器人操控系统及其工作方法
技术领域
本发明涉及景深感知以及智能机器人技术领域,具体是一种基于景深感知机制的机器人操控系统及其工作方法。
背景技术
目前,智能机器人行业发展迅猛,很多行业都离不开机器人的身影,包括一些高危险行业。但是,如何更好的与机器人进行交互,对机器人进行操控,是一个难题。传统意义上的机器人操控主要是通过遥控器,操作手柄等实现。但是随着机器人功能的不断增强以及机器人的越来越人性化的特点,利用传统的机器人操控方式对机器人进行操控,一来,操控方式单调乏味,二来,通过遥控器上的几个按钮也不能很好的发挥出机器人的所有潜能。因此,在机器人硬件能力得到加强的同时,机器人的软件控制能力也要进一步增强。
发明内容
针对于上述现有技术的不足,本发明的目的在于提供一种基于景深感知机制的机器人操控系统及其工作方法,以解决现有技术中传统的机器人控制方式无法发挥机器人的所有潜能等问题。本发明通过充分利用景深信息采集设备具有抽象人体骨骼结构以及采集骨骼点坐标的特点,结合相应的数学模型和算法实现了对机器人的操控。
为达到上述目的,本发明的一种基于景深感知机制的机器人操控系统,包括:
机器人,其拥有类似于人体的骨骼关节,每个骨骼关节包含若干个相关的自由度,在各个骨骼关节的自由度的允许范围内,关节自由活动;
景深信息采集设备,其以自身为原点建立一个三维的空间坐标系,当人体处于其照射范围内时,即处于该空间坐标系之中;该景深信息采集设备将照射范围内的人体抽象为一个骨骼结构,该骨骼结构由若干个骨骼点构成,每个骨骼点由一组三维空间坐标进行标识;
处理终端,其能够与景深信息采集设备进行互联,同时获取景深信息采集设备采集到的骨骼点的坐标数据,能够运行基于参考位置的算法以将这些坐标数据转换为相应骨骼关节的自由度,能够运行基于双脚位置信息的状态机判断人体的行走方向,最终能够将自由度和行走方向信息通过无线连接传输到机器人的控制中心;机器人根据接收到的上述信息来执行相应的动作;
通信设备,用于处理终端与机器人的控制中心之间的信息传输。
优选地,上述的景深信息采集设备将人体抽象为一个骨骼结构,通过景深信息采集设备建立的空间坐标系,根据空间坐标来标识每个骨骼点的位置,从而确定每个骨骼点的形态。
优选地,上述的景深信息采集设备传输到处理终端的坐标数据含有环境噪声,采用滤波算法来滤除原始坐标数据中的环境噪声;滤除噪声后,处理终端根据双脚的相对位置关系和双臂的相对位置关系判断出是人体在行走还是人体在做出手臂的相关动作。
优选地,上述的处理终端判断情况具体包括如下:
a.当处理终端判断人体在行走时,处理终端启动基于双脚位置信息的状态机对人体的行走方向进行判断;
b.当处理终端判断人体的手臂在做动作时,处理终端运行基于参考位置的算法,将人体骨骼点的坐标信息转化为人体关节的自由度信息;
c.通过通信设备将方向信息以及自由度信息传输到机器人的控制中心。
优选地,上述的状态机包含两个转移条件,分别是abs(lz-Lz)>abs(rz-Rz),以及abs(lz-Lz)<abs(rz-Rz),其中lz和Lz分别表示前一个状态左脚骨骼点到景深信息采集设备的距离和当前状态左脚到景深信息采集设备的距离,rz和Rz分别表示前一个状态右脚骨骼点到景深信息采集设备的距离和当前状态右脚到景深信息采集设备的距离,abs表示对括号中的数值取绝对值。
优选地,上述的状态机包含五个状态,分别是左脚向前、左脚向后、右脚向前、右脚向后以及起始状态,其中,起始状态表示左脚和右脚到景深信息采集设备的距离相等。
优选地,上述基于参考位置的算法包括两部分,第一部分根据景深信息采集设备采集到的坐标数据得到骨骼点间的向量特征,进而根据向量间的夹角计算公式得到部分肘关节自由度和肩关节自由度,即肘关节翻滚角和肩关节翻滚角;第二部分根据构造出的参考点和参考平面计算出剩下的肘关节自由度和肩关节自由度,即肘关节偏航角和肩关节俯仰角。
本发明的一种基于景深感知机制操控机器人的工作方法,包括如下步骤:
1)景深信息采集设备将人体抽象为一个骨骼结构,同时采集每个骨骼点的坐标信息,并将坐标信息传输到处理终端;
2)处理终端运用滤波算法滤除坐标数据中的环境噪声;
3)处理终端根据双脚的相对位置关系和双臂的相对位置关系来判断当前的人体是在行走状态还是做出手臂动作。
4)处理终端判断出人体在做手臂动作,则运行基于参考位置的算法,运用景深信息采集设备提供的骨骼点坐标数据计算出肘关节自由度和肩关节自由度,即肘关节翻滚角、肩关节翻滚角、肘关节偏航角以及肩关节俯仰角;
5)处理终端将人体的行走方向信息以及人体的关节自由度信息通过无线连接传输到机器人的控制中心,机器人的控制中心根据上述接收到的信息驱动机器人模仿人体的动作。
本发明的有益效果:
本发明增加了人体行走方向的判别,有了这个方向信息,就可以控制机器人朝需要的方向行走,扩大了机器人的活动范围;
本发明运用基于参考位置的算法,可以高效、快速计算出自由度ElbowYaw和自由度ShoulderPitch,有了这两个自由度信息,机器人的关节的可控制的活动范围增大,使得机器人能够完成更多的动作,这是其它系统所不具备的。
附图说明
图1为系统场景示意图;
图2为计算肘关节自由度ElbowYaw示意图;
图3a为计算肩关节自由度ShoulderPitch的人体侧面示意图;
图3b为计算肩关节自由度ShoulderPitch的人体正面示意图;
图4为判断人体行走方向的状态机示意图;
图5为机器人手臂关节自由度示意图。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
参照图1所示,本发明的一种基于景深感知机制的机器人操控系统,包括:
机器人,其拥有类似于人体的骨骼关节(可以理解为机器人的骨骼关节相当于人体的骨骼关节),每个骨骼关节包含若干个相关的自由度,比如肘关节包含两个自由度,分别是ElbowYaw(肘关节偏航角)、ElbowRoll(肘关节翻滚角),肩关节包含两个自由度,分别是ShoulderPitch(肩关节俯仰角)、ShoulderRoll(肩关节翻滚角);在各个骨骼关节的自由度的允许范围内,关节自由活动。
景深信息采集设备,其以自身为原点建立一个三维的空间坐标系,当人体处于其照射范围内时,即处于该空间坐标系之中;该景深信息采集设备将照射范围内的人体抽象为一个骨骼结构,该骨骼结构由若干个骨骼点构成,每个骨骼点由一组三维空间坐标进行标识;如肘关节可以通过坐标(Ex,Ey,Ez)来标识其位置。
处理终端,其能够与景深信息采集设备进行互联,同时获取景深信息采集设备采集到的骨骼点的坐标数据,能够运行基于参考位置的算法以将这些坐标数据转换为相应骨骼关节的自由度,能够运行基于双脚位置信息的状态机判断人体的行走方向,最终能够将自由度和行走方向信息通过无线连接传输到机器人的控制中心;机器人的控制中心根据接收到的上述信息来执行相应的动作。
通信设备,用于处理终端与机器人的控制中心之间的信息传输。
其中,上述的景深信息采集设备将人体抽象为一个骨骼结构,通过景深信息采集设备建立的空间坐标系,根据空间坐标来标识每个骨骼点的位置,从而确定每个骨骼点的形态。
其中,上述的景深信息采集设备传输到处理终端的坐标数据含有环境噪声,采用滤波算法滤除原始坐标数据中的环境噪声;滤除噪声后,处理终端根据双脚的相对位置关系和双臂的相对位置关系判断出是人体在行走还是人体在做出手臂的相关动作。
其中,上述的处理终端判断情况具体包括如下:
a.当处理终端判断人体在行走时,处理终端启动基于双脚位置信息的状态机对人体的行走方向进行判断;
b.当处理终端判断人体的手臂在做动作时,处理终端运行基于参考位置的算法,将人体骨骼点的坐标信息转化为人体关节的自由度信息;
c.通过通信设备将方向信息以及自由度信息传输到机器人的控制中心。
其中,上述的状态机包含两个转移条件,分别是abs(lz-lz)>abs(rz-Rz),以及abs(lz-Lz)<abs(rz-Rz),其中lz和Lz分别表示前一个状态左脚骨骼点到景深信息采集设备的距离和当前状态左脚到景深信息采集设备的距离,rz和Rz分别表示前一个状态右脚骨骼点到景深信息采集设备的距离和当前状态右脚到景深信息采集设备的距离,abs表示对括号中的数值取绝对值。
其中,上述的状态机包含五个状态,分别是左脚向前、左脚向后、右脚向前、右脚向后以及起始状态,其中,起始状态表示左脚和右脚到景深信息采集设备的距离相等。
其中,上述基于参考位置的算法包括两部分,第一部分根据景深信息采集设备采集到的坐标数据得到骨骼点间的向量特征,进而根据向量间的夹角计算公式得到部分肘关节自由度和肩关节自由度,即肘关节翻滚角和肩关节翻滚角;第二部分根据构造出的参考点和参考平面计算出剩下的肘关节自由度和肩关节自由度,即肘关节偏航角和肩关节俯仰角。
在图2中,A点表示腕关节,B点表示肘关节,C点表示肩关节,D点表示两肩中心脖颈处的关节,景深信息采集设备得到这四个点的空间三维坐标,通常的方法根据点A、点B、点C的坐标信息,再根据向量间的夹角计算公式得到向量BA与向量BC的夹角,即肘关节的自由度ElbowRoll,但是根据这些信息却很难得出肘关节自由度ElbowYaw的信息,缺少了自由度ElbowYaw的信息就不能控制机器人手臂灵活运动。
基于参考位置的计算方法来计算自由度ElbowYaw的信息。首先,选定了一个参考点A’,该参考点的特点在于它与点B和点C构成的平面A’BC始终与水平面垂直,并且AB=A’B,∠A’BC=∠ABC,其中∠ABC就是通常方法计算得到的自由度ElbowRoll,通过平面A’BC与平面ABC的夹角来得到自由度ElbowYaw。根据图1中的几何关系,可以得到点A’的空间坐标为:
(Bx-|BA′|cosγsinα,By+|BA′|sinγ,Bz-|BA′|cosγcosα)
其中(Bx,By,Bz)是点B的空间坐标,通过景深信息采集设备直接获取,而
γ=∠A′BO2=π/2+β-∠ABC (1)
在确定了点A’的空间坐标后,得出平面A’BC的法向量m以及平面ABC的法向量n,从而可以得到自由度ElbowYaw为:
θElbowYaw=π-<m,n>=π-arccos((m·n)/|m||n|) (4)
图3a和图3b是计算肩关节自由度ShoulderPitch的人体侧面和正面示意图,同图2相比,点A、点B、点C以及点D的含义是相同的,点E表示人体的脊柱关节。将人体的躯干视为一个参考平面,用手臂所在直线和该参考平面的夹角来计算自由度ShoulderPitch。首先,由于点C、点D以及点E是已知的,根据平面法向量的性质和定理可以得到平面CDE的法向量w,因此,得到自由度ShoulderPitch为:
θShoulderPitch=π/2-∠CBO=π/2-arccos((CB·w)/|CB||w|) (5)
图4是判断人体行走方向的状态机示意图,其中A、B表示状态转移条件,其中条件A表示abs(lz-Lz)<abs(rz-Rz),条件B表示abs(lz-Lz)>abs(rz-Rz),其中lz和Lz分别表示前一个状态左脚骨骼点到景深信息采集设备的距离和当前状态左脚到景深信息采集设备的距离,rz和Rz分别表示前一个状态右脚骨骼点到景深信息采集设备的距离和当前状态右脚到景深信息采集设备的距离,abs表示取绝对值。状态S0表示起始状态,此时双脚距离景深信息采集设备同样远;状态S1表示迈左脚向前;状态S2表示迈右脚向前;状态S3表示迈左脚向后;状态S4表示迈右脚向后。
图5是机器人手臂关节自由度示意图,注意到肘关节自由度ElbowYaw的特点,它控制着前臂绕手腕到手肘的连线旋转,正是该自由度的存在使得手臂可以自由运动。但是,景深信息采集设备将手腕和手肘分别抽象为了一个点,因此,根据景深信息采集设备获取的数据不能有效计算出自由度ElbowYaw。为此,我们设计了图2中基于参考点的计算方法来估算自由度ElbowYaw。
本发明的一种基于景深感知机制操控机器人的工作方法,包括如下步骤:
1)景深信息采集设备将人体抽象为一个骨骼结构,同时采集每个骨骼点的坐标信息,并将坐标信息传输到处理终端;
2)处理终端运用滤波算法滤除坐标数据中的环境噪声;
3)处理终端通过双脚的相对位置关系和双臂的相对位置关系来判断当前的人体是在行走状态还是做出手臂动作。
4)处理终端判断出人体在做手臂动作,则运行基于参考位置的算法,运用景深信息采集设备提供的骨骼点坐标数据计算出肘关节自由度和肩关节自由度,即肘关节翻滚角、肩关节翻滚角、肘关节偏航角以及肩关节俯仰角;
5)处理终端将人体的行走方向信息以及人体的关节自由度信息通过无线连接传输到机器人的控制中心,机器人的控制中心根据上述接收到的信息驱动机器人模仿人体的动作。
本发明具体应用途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。

Claims (8)

1.一种基于景深感知机制的机器人操控系统,其特征在于,包括:
机器人,其拥有类似于人体的骨骼关节,每个骨骼关节包含若干个相关的自由度,在各个骨骼关节的自由度的允许范围内,关节自由活动;
景深信息采集设备,其以自身为原点建立一个三维的空间坐标系,当人体处于其照射范围内时,即处于该空间坐标系之中;该景深信息采集设备将照射范围内的人体抽象为一个骨骼结构,该骨骼结构由若干个骨骼点构成,每个骨骼点由一组三维空间坐标进行标识;
处理终端,其能够与景深信息采集设备进行互联,同时获取景深信息采集设备采集到的骨骼点的坐标数据,能够运行基于参考位置的算法以将这些坐标数据转换为相应骨骼关节的自由度,能够运行基于双脚位置信息的状态机判断人体的行走方向,最终能够将自由度和行走方向信息通过无线连接传输到机器人的控制中心;机器人的控制中心根据接收到的上述信息来执行相应的动作;
通信设备,用于处理终端与机器人的控制中心之间的信息传输。
2.根据权利要求1所述的基于景深感知机制的机器人操控系统,其特征在于,上述的景深信息采集设备将人体抽象为一个骨骼结构,通过景深信息采集设备建立的空间坐标系,根据空间坐标来标识每个骨骼点的位置,从而确定每个骨骼点的形态。
3.根据权利要求1所述的基于景深感知机制的机器人操控系统,其特征在于,上述的景深信息采集设备传输到处理终端的坐标数据含有环境噪声,采用滤波算法滤除原始坐标数据中的环境噪声;滤除噪声后,处理终端根据双脚的相对位置关系和双臂的相对位置关系判断出是人体在行走还是人体在做出手臂的相关动作。
4.根据权利要求3所述的基于景深感知机制的机器人操控系统,其特征在于,上述的处理终端判断情况具体包括如下:
a.当处理终端判断人体在行走时,处理终端启动基于双脚位置信息的状态机对人体的行走方向进行判断;
b.当处理终端判断人体的手臂在做动作时,处理终端运行基于参考位置的算法,将人体骨骼点的坐标信息转化为人体关节的自由度信息;
c.通过通信设备将方向信息以及自由度信息传输到机器人的控制中心。
5.根据权利要求4所述的基于景深感知机制的机器人操控系统,其特征在于,上述的状态机包含两个转移条件,分别是abs(lz-Lz)>abs(rz-Rz),以及abs(lz-Lz)<abs(rz-Rz),其中lz和Lz分别表示前一个状态左脚骨骼点到景深信息采集设备的距离和当前状态左脚到景深信息采集设备的距离,rz和Rz分别表示前一个状态右脚骨骼点到景深信息采集设备的距离和当前状态右脚到景深信息采集设备的距离,abs表示对括号中的数值取绝对值。
6.根据权利要求4所述的基于景深感知机制的机器人操控系统,其特征在于,上述的状态机包含五个状态,分别是左脚向前、左脚向后、右脚向前、右脚向后以及起始状态,其中,起始状态表示左脚和右脚到景深信息采集设备的距离相等。
7.根据权利要求4所述的基于景深感知机制的机器人操控系统,其特征在于,上述基于参考位置的算法包括两部分,第一部分根据景深信息采集设备采集到的坐标数据得到骨骼点间的向量特征,进而根据向量间的夹角计算公式得到部分肘关节自由度和肩关节自由度,即肘关节翻滚角和肩关节翻滚角;第二部分根据构造出的参考点和参考平面计算出剩下的肘关节自由度和肩关节自由度,即肘关节偏航角和肩关节俯仰角。
8.一种基于景深感知机制操控机器人的工作方法,其特征在于,包括如下步骤:
1)景深信息采集设备将人体抽象为一个骨骼结构,同时采集每个骨骼点的坐标信息,并将坐标信息传输到处理终端;
2)处理终端运用滤波算法滤除坐标数据中的环境噪声;
3)处理终端根据双脚的相对位置关系和双臂的相对位置关系来判断当前的人体是在行走状态还是做出手臂动作。
4)处理终端判断出人体在做手臂动作,则运行基于参考位置的算法,运用景深信息采集设备提供的骨骼点坐标数据计算出肘关节自由度和肩关节自由度,即肘关节翻滚角、肩关节翻滚角、肘关节偏航角以及肩关节俯仰角;
5)处理终端将人体的行走方向信息以及人体的关节自由度信息通过无线连接传输到机器人的控制中心,机器人的控制中心根据上述接收到的信息驱动机器人模仿人体的动作。
CN201710301380.6A 2017-05-02 2017-05-02 一种基于景深感知机制的机器人操控系统及其工作方法 Pending CN106965183A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710301380.6A CN106965183A (zh) 2017-05-02 2017-05-02 一种基于景深感知机制的机器人操控系统及其工作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710301380.6A CN106965183A (zh) 2017-05-02 2017-05-02 一种基于景深感知机制的机器人操控系统及其工作方法

Publications (1)

Publication Number Publication Date
CN106965183A true CN106965183A (zh) 2017-07-21

Family

ID=59330229

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710301380.6A Pending CN106965183A (zh) 2017-05-02 2017-05-02 一种基于景深感知机制的机器人操控系统及其工作方法

Country Status (1)

Country Link
CN (1) CN106965183A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112894794A (zh) * 2019-11-19 2021-06-04 深圳市优必选科技股份有限公司 人体手臂动作模仿方法、装置、终端设备及存储介质
WO2023087753A1 (zh) * 2021-11-19 2023-05-25 达闼科技(北京)有限公司 动作数据获取方法、系统、装置、设备、存储介质和计算机程序产品

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王康: "融合深度传感数据体感交互建模与算法实现", 《中国优秀硕士学位论文全文数据库》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112894794A (zh) * 2019-11-19 2021-06-04 深圳市优必选科技股份有限公司 人体手臂动作模仿方法、装置、终端设备及存储介质
CN112894794B (zh) * 2019-11-19 2022-08-05 深圳市优必选科技股份有限公司 人体手臂动作模仿方法、装置、终端设备及存储介质
WO2023087753A1 (zh) * 2021-11-19 2023-05-25 达闼科技(北京)有限公司 动作数据获取方法、系统、装置、设备、存储介质和计算机程序产品

Similar Documents

Publication Publication Date Title
CN108762495B (zh) 基于手臂动作捕捉的虚拟现实驱动方法及虚拟现实系统
JP7061694B2 (ja) 画像処理方法および装置、画像機器、ならびに記憶媒体
CN106650687B (zh) 一种基于深度信息和骨骼信息的姿势矫正方法
CN110480634B (zh) 一种针对机械臂运动控制的手臂引导运动控制方法
CN110570455B (zh) 一种面向房间vr的全身三维姿态跟踪方法
CN103386683B (zh) 一种基于Kinect的体感控制机械臂方法
CN104589356B (zh) 基于Kinect人手运动捕捉的灵巧手遥操作控制方法
CN106648116A (zh) 一种基于动作捕捉的虚拟现实综合系统
CN107856014B (zh) 基于手势识别的机械臂位姿控制方法
CN104524742A (zh) 一种基于Kinect传感器的脑瘫儿童康复训练方法
CN104035557B (zh) 一种基于关节活跃度的Kinect动作识别方法
CN104147770A (zh) 基于惯性传感器可穿戴式偏瘫康复设备及捷联姿态算法
CN107943283A (zh) 基于手势识别的机械臂位姿控制系统
CN106468951A (zh) 一种基于双手环传感器融合的智能遥感控制系统及其方法
CN104424650B (zh) 一种光学式人体运动捕捉中手臂信息补偿方法
JP4765075B2 (ja) ステレオ画像を利用した物体の位置および姿勢認識システムならびに物体の位置および姿勢認識方法を実行するプログラム
CN108858188A (zh) 一种应用于人形机器人的人体转体和位移映射方法
CN106625658A (zh) 一种实时模仿人体上半身动作的人形机器人控制方法
CN106569591A (zh) 基于计算机视觉跟踪和传感器跟踪的跟踪方法和跟踪系统
WO2022227664A1 (zh) 机器人姿态的控制方法、机器人、存储介质及计算机程序
CN103942829A (zh) 单幅图像的人体三维姿态重构方法
CN106965183A (zh) 一种基于景深感知机制的机器人操控系统及其工作方法
CN107818318A (zh) 一种人形机器人模仿相似度评价方法
CN104002307A (zh) 穿戴式救援机器人控制方法及系统
CN104952105B (zh) 一种三维人体姿态估计方法和装置

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170721

WD01 Invention patent application deemed withdrawn after publication