CN107203271B - 基于多传感器融合技术的双手识别方法 - Google Patents

基于多传感器融合技术的双手识别方法 Download PDF

Info

Publication number
CN107203271B
CN107203271B CN201710429504.9A CN201710429504A CN107203271B CN 107203271 B CN107203271 B CN 107203271B CN 201710429504 A CN201710429504 A CN 201710429504A CN 107203271 B CN107203271 B CN 107203271B
Authority
CN
China
Prior art keywords
sensor
hand
coordinate system
value
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710429504.9A
Other languages
English (en)
Other versions
CN107203271A (zh
Inventor
张平
陈明轩
杜广龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201710429504.9A priority Critical patent/CN107203271B/zh
Publication of CN107203271A publication Critical patent/CN107203271A/zh
Application granted granted Critical
Publication of CN107203271B publication Critical patent/CN107203271B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • G06T3/604Rotation of whole images or parts thereof using coordinate rotation digital computer [CORDIC] devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Abstract

本发明提供了一种基于多传感器融合技术的双手识别方法,它允许操作者在使用双手手势控制机器人时解决双手遮挡问题。所述方法包括步骤:(1)自适应低通滤波;(2)多传感器坐标系转化;(3)自适应加权融合。本发明使用了两种传感器,它可以识别操作者手部的位置和姿态,解决在实际的机器人交互应用中双手在垂直方向上的遮挡问题。

Description

基于多传感器融合技术的双手识别方法
技术领域
本发明属于机器人交互领域,特别涉及一种基于多传感器融合技术的双手识别方法。
背景技术
机器人人机交互是指通过一些输入设备采集人类信息,将人类意图转化为机器人能够理解的指令,从而达到人与机器人进行对话,进而控制机器人运动的技术。据人类控制机器人的方式的不同,又可以分为基于手势控制、语言控制、表情控制、脑电波信号控制等。对于双手手势的交互,一方面是通过避免双手手势的遮挡来简化交互的流程,另一方面通过二维图像来分割估计遮挡情况下的手势,但是对于实时跟踪双手的位置和姿态是较为困难的。针对这些问题,本发明提出一种简易的多角度深度摄像头的方法来长时间稳定地识别任意情况下的双手的三维位置和姿态,实现简单,易于扩展,且能有效解决双手遮挡的识别跟踪问题。
发明内容
这个发明提出了一种基于多传感器融合技术的双手识别方法,它允许操作者使用双手手势与机器人交互。本发明使用了两种传感器,它可以识别操作者手部的位置和姿态,解决在实际的机器人交互应用中双手在垂直方向上的遮挡问题。
本发明包括如下步骤:
S1、自适应低通滤波,将当前时刻的测量值与上一时刻的滤波值进行加权平均作为当前时刻的滤波值,自适应权重因子ηi随当前时刻运动速度进行自适应变化;
S2、多传感器坐标系转化:混合传感器都有基于自身传感器中心的一套局部坐标系系统,识别到的数据也是基于各自的局部坐标系系统,不同传感器获取的数据经过滤波之后需要统一到全局坐标系下,以第一传感器坐标系作为手势数据的全局坐标系,将其他传感器的局部坐标系下的数据转化到第一传感器的坐标系下的数据;
S3、自适应加权融合:综合考虑多个传感器的数据,并对他们进行数据融合,根据总均方误差最小的原则,以自适应的方式寻找每个传感器的最优加权因子,使得融合后的目标观测值达到最优。
所述步骤S1包括以下步骤:
基于速度的自适应滤波算法其基本思想是,将当前时刻的测量值与上一时刻的滤波值进行加权平均作为当前时刻的滤波值,其权重因子随当前时刻运动速度进行自适应变化。
设一只手的位置和姿态的数据表示为X=(x,y,z,α,β,γ)T,其中前三位分量(x,y,z)为手的中心位置,后三个分量(α,β,γ)为欧拉角表示形式的手的姿态,因此该滤波模型可以表示为:
Figure GDA0002649708110000021
其中i是时刻序号,Xi是第i时刻手的位姿测量值,
Figure GDA0002649708110000022
是上一时刻手的位姿滤波值,
Figure GDA0002649708110000023
是当前时刻手的位姿滤波值,ηi是一个自适应的权重因子,其值随着运动速度的变化而自适应地变化。
ηi的计算公式如下所示:
Figure GDA0002649708110000024
其中,Ti是采样时间间隔(本实例中采用时间间隔为0.1s),τi是一个时间变量;
Figure GDA0002649708110000025
fci称为截断频率,其计算公式为:
fci=fcmin+γ|Vi| (4)
其中fcmin是最小的截断频率,Vi表示当前时刻的运动速度,包括线速度和角速度,γ是运动速度的权重因子。
综合式(2),(3),(4),可得自适应权重因子ηi的计算公式为:
Figure GDA0002649708110000026
所述步骤S2包括以下步骤:
混合传感器都有基于自身传感器中心的一套局部坐标系系统,识别到手的数据也是基于各自的局部坐标系系统,不同传感器获取的数据经过滤波之后需要统一到全局坐标系下,在本实例中,采用第一传感器坐标系作为手势数据的全局坐标系,因此需要将第二传感器局部坐标系下的数据转化到第一传感器坐标系下的数据。本发明采用基于正交矩阵形式的迭代算法来求解坐标系变换的参数,其基本思想是基于最小二乘法。
设事先采集N个样本的手的位置数据,假设第一传感器和第二传感器测量的手的位置是同一个点,因此,这N个三维公共点集在第一传感器和第二传感器下的坐标为{Lk}和{Kk},k=1,2,...,N,将第二传感器坐标系下的点变换到第一传感器坐标系下的点,可构造如下坐标变换模型:
Lk=T+μRKk (6)
其中T表示平移矩阵参数,μ表示尺度参数,R表示旋转矩阵参数,由于第一传感器坐标系和第二传感器坐标系都属于右手坐标系,因此其旋转矩阵满足正交矩阵条件约束,即:
Figure GDA0002649708110000031
其中a1,a2,a3,b1,b2,b3,c1,c2,c3为旋转矩阵R各元素的值。
对于多个样本的共同点集,最小二乘法的基本思路是通过估计最优的参数集
Figure GDA0002649708110000035
使得式(6)尽可能地成立,即总体的均方误差最小,优化模型的目标方程为:
Figure GDA0002649708110000032
所述步骤S3包括以下步骤:
综合考虑两个传感器的数据,并对他们进行数据融合,本发明采用一种自适应加权融合算法,其基本思想根据总均方误差最小的原则,以自适应的方式寻找每个传感器的最优加权因子,使得融合后的目标观测值达到最优。
设对于同一时刻手的位姿检测,第一传感器经过滤波后的测量值为zL,第二传感器经过滤波并转化到第一传感器坐标系下的测量值为zK,手的真实位姿数据为x,假设测量相互独立,且随机测量误差分别为vL,vK,并服从均值为0,方差为σL 2K 2的高斯分布,因此可得:
Figure GDA0002649708110000033
采用线性加权融合方式,因此手的位姿x的估计值为:
Figure GDA0002649708110000034
其中{wL,wK}分别为第一传感器和第二传感器测量值的权重。
自适应加权融合算法的主要原理是在满足
Figure GDA0002649708110000041
是x的无偏估计的前提下,优化估计误差的均方差达到最小,设估计误差为
Figure GDA0002649708110000042
则自适应加权融合算法的模型可表示为如下:
Figure GDA0002649708110000043
其中对于约束条件进行展开:
Figure GDA0002649708110000044
将式(12)的推导结果代入式(11)的目标函数,可得:
Figure GDA0002649708110000045
对式(13)进行求偏导即可求解目标方程达到最小值时的权值,其最优解为:
Figure GDA0002649708110000046
由上述可知,最优加权因子取决于各个传感器的测量误差的方差,初始方差可根据事先采集传感器的测量值,并依据以下的算法求出:
由于第一传感器和第二传感器的随机测量误差变量相互独立,根据时间域估计方法,其测量误差的方差可由下式计算可得:
Figure GDA0002649708110000047
其中RLL为zL的自协方差函数,RKK为zK的自协方差函数,RLK,RKL为zL,zK的互协方差函数,其数值相等。
设当前时刻传感器测量数据的个数为n,RLL的时间域估计值为RLL(n),RKK的时间域估计值为RKK(n),RLK的时间域估计值为RLK(n),则有:
Figure GDA0002649708110000051
其中μ为采样数据的均值,
Figure GDA0002649708110000052
由此,根据时间域估计即可获取第一传感器和第二传感器的测量误差的方差。
本发明相对于现有技术具有如下的优点及效果:
本发明提出了一种基于多传感器融合技术的双手识别方法来解决机器人交互中双手遮挡问题。这种基于混合滤波技术的识别方法允许操作者使用双手手势与机器人交互,混合传感器能够长时间稳定地识别存在遮挡的双手手势,减少交互过程中手势重置的次数,进而提高双手手势交互的效率。
附图说明
图1是基于多传感器融合技术的双手识别方法流程图;
具体实施方式
下面结合实施例对本发明作进一步详细的描述,但本发明的实施方式不限于此实施例。本发明包括如下步骤:
S1、自适应低通滤波;
S2、多传感器坐标系转化;
S3、自适应加权融合。
所述步骤S1包括以下步骤:
基于速度的自适应滤波算法其基本思想是,将当前时刻的测量值与上一时刻的滤波值进行加权平均作为当前时刻的滤波值,其权重因子随当前时刻运动速度进行自适应变化。
设一只手的位置和姿态的数据表示为X=(x,y,z,α,β,γ)T,其中前三位分量(x,y,z)为手的中心位置,后三个分量(α,β,γ)为欧拉角表示形式的手的姿态,因此该滤波模型可以表示为:
Figure GDA0002649708110000053
其中Xi是第i时刻手的位姿测量值,
Figure GDA0002649708110000054
是上一时刻手的位姿滤波值,
Figure GDA0002649708110000055
是当前时刻手的位姿滤波值,ηi是一个自适应的权重因子,其值随着运动速度的变化而自适应地变化。
ηi的计算公式如下所示:
Figure GDA0002649708110000061
其中,Ti是采样时间间隔,在本次实例中,采用时间间隔为0.1s,τi是一个时间变量;
Figure GDA0002649708110000062
fci称为截断频率,其计算公式为:
fci=fcmin+γ|Vi| (4)
其中fcmin是最小的截断频率,Vi表示当前时刻的运动速度,包括线速度和角速度,γ是运动速度的权重因子。
本实例中,fcmin取值为1HZ,γ为0.5,因此综合式(2),(3),(4),可得自适应权重因子ηi的计算公式为:
Figure GDA0002649708110000063
所述步骤S2包括以下步骤:
在本次实例中,使用Leap Motion和Kinect两种传感器,传感器都有基于自身传感器中心的一套局部坐标系系统,识别到手的数据也是基于各自的局部坐标系系统,不同传感器获取的数据经过滤波之后需要统一到全局坐标系下,在本实例中,采用Leap Motion坐标系作为手势数据的全局坐标系,因此需要将Kinect局部坐标系下的数据转化到LeapMotion坐标系下的数据。本发明采用基于正交矩阵形式的迭代算法来求解坐标系变换的参数,其基本思想是基于最小二乘法。
设事先采集N个样本的手的位置数据,假设传感器Leap Motion和传感器Kinect测量的手的位置是同一个点,因此,这N个三维公共点集在传感器Leap Motion和传感器Kinect下的坐标为{Lk}和{Kk},k=1,2,...,N,将传感器Kinect坐标系下的点变换到传感器Leap Motion坐标系下的点,可构造如下坐标变换模型:
Lk=T+μRKk (6)
其中T表示平移矩阵参数,μ表示尺度参数,R表示旋转矩阵参数,由于传感器LeapMotion和传感器Kinect坐标系都属于右手坐标系,因此其旋转矩阵满足正交矩阵条件约束,即:
Figure GDA0002649708110000071
对于多个样本的共同点集,最小二乘法的基本思路是通过估计最优的参数集
Figure GDA0002649708110000072
使得式(6)尽可能地成立,即总体的均方误差最小,优化模型的目标方程为:
Figure GDA0002649708110000073
所述步骤S3包括以下步骤:
综合考虑两个传感器的数据,并对他们进行数据融合,本发明采用一种自适应加权融合算法,其基本思想根据总均方误差最小的原则,以自适应的方式寻找每个传感器的最优加权因子,使得融合后的目标观测值达到最优。
设对于同一时刻手的位姿检测,传感器Leap Motion经过滤波后的测量值为zL,传感器Kinect经过滤波并转化到Leap Motion坐标系下的测量值为zK,手的真实位姿数据为x,假设测量相互独立,且随机测量误差分别为vL,vK,并服从均值为0,方差为σL 2K 2的高斯分布,因此可得:
Figure GDA0002649708110000074
采用线性加权融合方式,因此手的位姿x的估计值为:
Figure GDA0002649708110000075
其中{wL,wK}分别为Leap Motion和Kinect测量值的权重。
自适应加权融合算法的主要原理是在满足
Figure GDA0002649708110000076
是x的无偏估计的前提下,优化估计误差的均方差达到最小,设估计误差为
Figure GDA0002649708110000077
则自适应加权融合算法的模型可表示为如下:
Figure GDA0002649708110000078
其中对于约束条件进行展开:
Figure GDA0002649708110000081
将式(12)的推导结果代入式(11)的目标函数,可得:
Figure GDA0002649708110000082
对式(13)进行求偏导即可求解目标方程达到最小值时的权值,其最优解为:
Figure GDA0002649708110000083
由上述可知,最优加权因子取决于各个传感器的测量误差的方差,初始方差可根据事先采集传感器的测量值,并依据以下的算法求出:
由于传感器Leap Motion和传感器Kinect的随机测量误差变量相互独立,根据时间域估计方法,其测量误差的方差可由下式计算可得:
Figure GDA0002649708110000084
其中RLL为zL的自协方差函数,RKK为zK的自协方差函数,RLK,RKL为zL,zK的互协方差函数,其数值相等。
设当前时刻传感器测量数据的个数为n,RLL的时间域估计值为RLL(n),RKK的时间域估计值为RKK(n),RLK的时间域估计值为RLK(n),则有:
Figure GDA0002649708110000085
其中μ为采样数据的均值,
Figure GDA0002649708110000086
由此,根据时间域估计即可获取LeapMotion和Kinect传感器的测量误差的方差。
在本次实例中,首先让传感器Leap Motion和传感器Kinect采集100帧的数据稳定之后再开始人机交互,按照上述公式计算当前时刻RLL,RKK,RLK的时间域估计值,并将其作为人机交互的初始时间域估计值。
随着交互的进展,数据的不断采集,不断地计算每一帧时刻下Leap Motion和Kinect传感器的方差,进行自适应地调整每个传感器的权值,从而保证整个人机交互过程中数据融合的精度。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (2)

1.基于多传感器融合技术的双手识别方法,其特征在于,包括如下步骤:
S1、自适应低通滤波,将当前时刻的测量值与上一时刻的滤波值进行加权平均作为当前时刻的滤波值,自适应权重因子ηi随当前时刻运动速度进行自适应变化;具体包括:
设一只手的位置和姿态的数据表示为X=(x,y,z,α,β,γ)T,其中前三位分量(x,y,z)为手心的空间直角坐标位置,后三个分量(α,β,γ)为欧拉角表示形式的手的姿态,滤波模型表示为:
Figure FDA0002649708100000011
其中i为时刻序号,Xi是第i个时刻手的位姿测量值,
Figure FDA0002649708100000012
是上一时刻手的位姿滤波值,
Figure FDA0002649708100000013
是当前时刻手的位姿滤波值,ηi是一个自适应权重因子,其值随着运动速度的变化而自适应地变化;
ηi的计算公式如下所示:
Figure FDA0002649708100000014
其中,Ti是采样时间间隔,τi是一个时间变量;
Figure FDA0002649708100000015
fci称为截断频率,其计算公式为:
fci=fcmin+γ|Vi| (4)
其中fcmin是最小的截断频率,Vi表示当前时刻的运动速度,包括线速度和角速度,γ是运动速度的权重因子;
综合式(2),(3),(4),可得自适应权重因子ηi的计算公式为:
Figure FDA0002649708100000016
S2、多传感器坐标系转化:混合传感器都有基于自身传感器中心的一套局部坐标系系统,识别到的数据也是基于各自的局部坐标系系统,不同传感器获取的数据经过滤波之后需要统一到全局坐标系下,以第一传感器坐标系作为手势数据的全局坐标系,将其他传感器的局部坐标系下的数据转化到第一传感器的坐标系下的数据;
S3、自适应加权融合:综合考虑多个传感器的数据,并对他们进行数据融合,根据总均方误差最小的原则,以自适应的方式寻找每个传感器的最优加权因子,使得融合后的目标观测值达到最优;具体包括:
设对于同一时刻手的位姿检测,第一传感器经过滤波后的测量值为zL,第二传感器经过滤波并转化到第一传感器坐标系下的测量值为zK,手的真实位姿数据为x,假设测量相互独立,且随机测量误差分别为vL,vK,并服从均值为0,方差为σL 2K 2的高斯分布,因此可得:
Figure FDA0002649708100000021
采用线性加权融合方式,因此手的位姿x的估计值为:
Figure FDA0002649708100000022
其中{wL,wK}分别为第一传感器和第二传感器测量值的权重;
在满足
Figure FDA0002649708100000023
是x的无偏估计的前提下,优化估计误差的均方差达到最小,设估计误差为
Figure FDA0002649708100000024
则自适应加权融合算法的模型可表示为如下:
Figure FDA0002649708100000025
其中对于约束条件进行展开:
Figure FDA0002649708100000026
将式(12)的推导结果代入式(11)的目标函数,可得:
Figure FDA0002649708100000027
对式(13)进行求偏导即可求解目标方程达到最小值时的权值,其最优解为:
Figure FDA0002649708100000028
由上述可知,最优加权因子{wL,wK}取决于各个传感器的测量误差的方差,初始方差可根据事先采集传感器的测量值,并依据以下的算法求出:
由于第一传感器和第二传感器的随机测量误差变量相互独立,根据时间域估计方法,其测量误差的方差可由下式计算可得:
Figure FDA0002649708100000031
其中RLL为zL的自协方差函数,RKK为zK的自协方差函数,RLK,RKL为zL,zK的互协方差函数,其数值相等;
设当前时刻传感器测量数据的个数为n,RLL的时间域估计值为RLL(n),RKK的时间域估计值为RKK(n),RLK的时间域估计值为RLK(n),则有:
Figure FDA0002649708100000032
其中zL(i)为第一传感器经过滤波后的第i个测量值,zK(i)为第二传感器经过滤波并转化到第一传感器坐标系下的第i个测量值,μ为采样数据的均值,
Figure FDA0002649708100000033
由此,根据时间域估计即可获取第一传感器和第二传感器的测量误差的方差。
2.根据权利要求1所述的基于多传感器融合技术的双手识别方法,其特征在于,所述步骤S2具体包括:
采用两种传感器来识别操作者手部的位置和姿态,设事先采集N个样本的手的位置数据,假设第一传感器和第二传感器测量的手的位置是同一个点,因此,这N个三维公共点集在第一传感器和第二传感器下的坐标为{Lk}和{Kk},k=1,2,...,N,将第二传感器坐标系下的点变换到第一传感器坐标系下的点,可构造如下坐标变换模型:
Lk=T+μRKk (6)
其中T表示平移矩阵参数,μ表示尺度参数,R表示旋转矩阵参数,由于第一传感器坐标系和第二传感器坐标系都属于右手坐标系,因此其旋转矩阵满足正交矩阵条件约束,即:
Figure FDA0002649708100000041
其中a1,a2,a3,b1,b2,b3,c1,c2,c3为旋转矩阵R各元素的值;
对于多个样本的共同点集,最小二乘法是通过估计最优的参数集
Figure FDA0002649708100000042
其中
Figure FDA0002649708100000043
分别是T,μ,R的估计值,
使得式(6)尽可能地成立,即总体的均方误差最小,优化模型的目标方程为:
Figure FDA0002649708100000044
CN201710429504.9A 2017-06-08 2017-06-08 基于多传感器融合技术的双手识别方法 Active CN107203271B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710429504.9A CN107203271B (zh) 2017-06-08 2017-06-08 基于多传感器融合技术的双手识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710429504.9A CN107203271B (zh) 2017-06-08 2017-06-08 基于多传感器融合技术的双手识别方法

Publications (2)

Publication Number Publication Date
CN107203271A CN107203271A (zh) 2017-09-26
CN107203271B true CN107203271B (zh) 2020-11-24

Family

ID=59907310

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710429504.9A Active CN107203271B (zh) 2017-06-08 2017-06-08 基于多传感器融合技术的双手识别方法

Country Status (1)

Country Link
CN (1) CN107203271B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145793A (zh) * 2018-08-09 2019-01-04 东软集团股份有限公司 建立手势识别模型的方法、装置、存储介质及电子设备
CN109350923B (zh) * 2018-10-25 2021-06-01 北京机械设备研究所 一种基于vr及多体位传感器的上肢康复训练系统
CN109373911B (zh) * 2018-11-02 2020-02-14 中国地质科学院地质力学研究所 一种地表位移网格化动态监测方法
CN109660965A (zh) * 2018-11-05 2019-04-19 中国电子科技集团公司第二十八研究所 一种基于边缘计算的智能路侧终端

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102645974A (zh) * 2012-02-24 2012-08-22 姜展伟 三维动作的定位识别系统及识别方法
CN104317386A (zh) * 2014-06-25 2015-01-28 西南科技大学 一种姿势序列有限状态机动作识别方法
CN106406544A (zh) * 2016-11-21 2017-02-15 中国兵器工业计算机应用技术研究所 一种语义式人机自然交互控制方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102645974A (zh) * 2012-02-24 2012-08-22 姜展伟 三维动作的定位识别系统及识别方法
CN104317386A (zh) * 2014-06-25 2015-01-28 西南科技大学 一种姿势序列有限状态机动作识别方法
CN106406544A (zh) * 2016-11-21 2017-02-15 中国兵器工业计算机应用技术研究所 一种语义式人机自然交互控制方法及系统

Also Published As

Publication number Publication date
CN107203271A (zh) 2017-09-26

Similar Documents

Publication Publication Date Title
CN107203271B (zh) 基于多传感器融合技术的双手识别方法
Du et al. Markerless human–manipulator interface using leap motion with interval Kalman filter and improved particle filter
US9221170B2 (en) Method and apparatus for controlling a robotic device via wearable sensors
US11337652B2 (en) System and method for measuring the movements of articulated rigid bodies
CN110570455B (zh) 一种面向房间vr的全身三维姿态跟踪方法
CN110880189B (zh) 联合标定方法及其联合标定装置和电子设备
CN109544638A (zh) 一种用于多传感器融合的异步在线标定方法
CN107084714A (zh) 一种基于RoboCup3D的多机器人协作目标定位方法
CN109556607A (zh) 一种快速处理移动机器人定位“绑架”问题的方法
Kumar et al. A unified grid-based wandering pattern detection algorithm
CN114347033A (zh) 机器人物品抓取方法、装置、机器人及存储介质
CN116977434B (zh) 基于追踪相机的目标行为追踪方法及系统
CN101972170A (zh) 最小二乘支持向量机自适应滤波器及其滤波方法
CN114111772B (zh) 一种基于数据手套的水下机器人软体作业手位置跟踪方法
CN110232662B (zh) 一种人脸位姿协同系统下的多新息抗扰滤波方法
Allen et al. Hand-eye coordination for robotic tracking and grasping
CN108051001B (zh) 一种机器人移动控制方法、系统及惯性传感控制装置
Tong et al. Cascade-LSTM-based visual-inertial navigation for magnetic levitation haptic interaction
CN106610293B (zh) 一种基于强度差分的室内定位方法及系统
Choi et al. An enhanced CSLAM for multi-robot based on unscented Kalman filter
CN109214295B (zh) 基于Kinect v2和Leap Motion的数据融合的手势识别方法
CN111696155A (zh) 一种基于单目视觉的多传感融合机器人定位方法
Huber et al. Application of time-delay estimation to mixed reality multisensor tracking
CN113561172B (zh) 一种基于双目视觉采集的灵巧手控制方法及装置
CN106441282B (zh) 一种星敏感器星跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant