CN107203271B - 基于多传感器融合技术的双手识别方法 - Google Patents
基于多传感器融合技术的双手识别方法 Download PDFInfo
- Publication number
- CN107203271B CN107203271B CN201710429504.9A CN201710429504A CN107203271B CN 107203271 B CN107203271 B CN 107203271B CN 201710429504 A CN201710429504 A CN 201710429504A CN 107203271 B CN107203271 B CN 107203271B
- Authority
- CN
- China
- Prior art keywords
- sensor
- hand
- coordinate system
- value
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 26
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000001914 filtration Methods 0.000 claims abstract description 17
- 238000005259 measurement Methods 0.000 claims description 29
- 238000004422 calculation algorithm Methods 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 claims description 16
- 230000003044 adaptive effect Effects 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 5
- 238000009795 derivation Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 230000003993 interaction Effects 0.000 abstract description 13
- 241000282414 Homo sapiens Species 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 231100000756 time-weighted average Toxicity 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
- G06T3/604—Rotation of whole images or parts thereof using coordinate rotation digital computer [CORDIC] devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
Abstract
本发明提供了一种基于多传感器融合技术的双手识别方法,它允许操作者在使用双手手势控制机器人时解决双手遮挡问题。所述方法包括步骤:(1)自适应低通滤波;(2)多传感器坐标系转化;(3)自适应加权融合。本发明使用了两种传感器,它可以识别操作者手部的位置和姿态,解决在实际的机器人交互应用中双手在垂直方向上的遮挡问题。
Description
技术领域
本发明属于机器人交互领域,特别涉及一种基于多传感器融合技术的双手识别方法。
背景技术
机器人人机交互是指通过一些输入设备采集人类信息,将人类意图转化为机器人能够理解的指令,从而达到人与机器人进行对话,进而控制机器人运动的技术。据人类控制机器人的方式的不同,又可以分为基于手势控制、语言控制、表情控制、脑电波信号控制等。对于双手手势的交互,一方面是通过避免双手手势的遮挡来简化交互的流程,另一方面通过二维图像来分割估计遮挡情况下的手势,但是对于实时跟踪双手的位置和姿态是较为困难的。针对这些问题,本发明提出一种简易的多角度深度摄像头的方法来长时间稳定地识别任意情况下的双手的三维位置和姿态,实现简单,易于扩展,且能有效解决双手遮挡的识别跟踪问题。
发明内容
这个发明提出了一种基于多传感器融合技术的双手识别方法,它允许操作者使用双手手势与机器人交互。本发明使用了两种传感器,它可以识别操作者手部的位置和姿态,解决在实际的机器人交互应用中双手在垂直方向上的遮挡问题。
本发明包括如下步骤:
S1、自适应低通滤波,将当前时刻的测量值与上一时刻的滤波值进行加权平均作为当前时刻的滤波值,自适应权重因子ηi随当前时刻运动速度进行自适应变化;
S2、多传感器坐标系转化:混合传感器都有基于自身传感器中心的一套局部坐标系系统,识别到的数据也是基于各自的局部坐标系系统,不同传感器获取的数据经过滤波之后需要统一到全局坐标系下,以第一传感器坐标系作为手势数据的全局坐标系,将其他传感器的局部坐标系下的数据转化到第一传感器的坐标系下的数据;
S3、自适应加权融合:综合考虑多个传感器的数据,并对他们进行数据融合,根据总均方误差最小的原则,以自适应的方式寻找每个传感器的最优加权因子,使得融合后的目标观测值达到最优。
所述步骤S1包括以下步骤:
基于速度的自适应滤波算法其基本思想是,将当前时刻的测量值与上一时刻的滤波值进行加权平均作为当前时刻的滤波值,其权重因子随当前时刻运动速度进行自适应变化。
设一只手的位置和姿态的数据表示为X=(x,y,z,α,β,γ)T,其中前三位分量(x,y,z)为手的中心位置,后三个分量(α,β,γ)为欧拉角表示形式的手的姿态,因此该滤波模型可以表示为:
ηi的计算公式如下所示:
其中,Ti是采样时间间隔(本实例中采用时间间隔为0.1s),τi是一个时间变量;
fci称为截断频率,其计算公式为:
fci=fcmin+γ|Vi| (4)
其中fcmin是最小的截断频率,Vi表示当前时刻的运动速度,包括线速度和角速度,γ是运动速度的权重因子。
综合式(2),(3),(4),可得自适应权重因子ηi的计算公式为:
所述步骤S2包括以下步骤:
混合传感器都有基于自身传感器中心的一套局部坐标系系统,识别到手的数据也是基于各自的局部坐标系系统,不同传感器获取的数据经过滤波之后需要统一到全局坐标系下,在本实例中,采用第一传感器坐标系作为手势数据的全局坐标系,因此需要将第二传感器局部坐标系下的数据转化到第一传感器坐标系下的数据。本发明采用基于正交矩阵形式的迭代算法来求解坐标系变换的参数,其基本思想是基于最小二乘法。
设事先采集N个样本的手的位置数据,假设第一传感器和第二传感器测量的手的位置是同一个点,因此,这N个三维公共点集在第一传感器和第二传感器下的坐标为{Lk}和{Kk},k=1,2,...,N,将第二传感器坐标系下的点变换到第一传感器坐标系下的点,可构造如下坐标变换模型:
Lk=T+μRKk (6)
其中T表示平移矩阵参数,μ表示尺度参数,R表示旋转矩阵参数,由于第一传感器坐标系和第二传感器坐标系都属于右手坐标系,因此其旋转矩阵满足正交矩阵条件约束,即:
其中a1,a2,a3,b1,b2,b3,c1,c2,c3为旋转矩阵R各元素的值。
所述步骤S3包括以下步骤:
综合考虑两个传感器的数据,并对他们进行数据融合,本发明采用一种自适应加权融合算法,其基本思想根据总均方误差最小的原则,以自适应的方式寻找每个传感器的最优加权因子,使得融合后的目标观测值达到最优。
设对于同一时刻手的位姿检测,第一传感器经过滤波后的测量值为zL,第二传感器经过滤波并转化到第一传感器坐标系下的测量值为zK,手的真实位姿数据为x,假设测量相互独立,且随机测量误差分别为vL,vK,并服从均值为0,方差为σL 2,σK 2的高斯分布,因此可得:
采用线性加权融合方式,因此手的位姿x的估计值为:
其中{wL,wK}分别为第一传感器和第二传感器测量值的权重。
其中对于约束条件进行展开:
将式(12)的推导结果代入式(11)的目标函数,可得:
对式(13)进行求偏导即可求解目标方程达到最小值时的权值,其最优解为:
由上述可知,最优加权因子取决于各个传感器的测量误差的方差,初始方差可根据事先采集传感器的测量值,并依据以下的算法求出:
由于第一传感器和第二传感器的随机测量误差变量相互独立,根据时间域估计方法,其测量误差的方差可由下式计算可得:
其中RLL为zL的自协方差函数,RKK为zK的自协方差函数,RLK,RKL为zL,zK的互协方差函数,其数值相等。
设当前时刻传感器测量数据的个数为n,RLL的时间域估计值为RLL(n),RKK的时间域估计值为RKK(n),RLK的时间域估计值为RLK(n),则有:
本发明相对于现有技术具有如下的优点及效果:
本发明提出了一种基于多传感器融合技术的双手识别方法来解决机器人交互中双手遮挡问题。这种基于混合滤波技术的识别方法允许操作者使用双手手势与机器人交互,混合传感器能够长时间稳定地识别存在遮挡的双手手势,减少交互过程中手势重置的次数,进而提高双手手势交互的效率。
附图说明
图1是基于多传感器融合技术的双手识别方法流程图;
具体实施方式
下面结合实施例对本发明作进一步详细的描述,但本发明的实施方式不限于此实施例。本发明包括如下步骤:
S1、自适应低通滤波;
S2、多传感器坐标系转化;
S3、自适应加权融合。
所述步骤S1包括以下步骤:
基于速度的自适应滤波算法其基本思想是,将当前时刻的测量值与上一时刻的滤波值进行加权平均作为当前时刻的滤波值,其权重因子随当前时刻运动速度进行自适应变化。
设一只手的位置和姿态的数据表示为X=(x,y,z,α,β,γ)T,其中前三位分量(x,y,z)为手的中心位置,后三个分量(α,β,γ)为欧拉角表示形式的手的姿态,因此该滤波模型可以表示为:
ηi的计算公式如下所示:
其中,Ti是采样时间间隔,在本次实例中,采用时间间隔为0.1s,τi是一个时间变量;
fci称为截断频率,其计算公式为:
fci=fcmin+γ|Vi| (4)
其中fcmin是最小的截断频率,Vi表示当前时刻的运动速度,包括线速度和角速度,γ是运动速度的权重因子。
本实例中,fcmin取值为1HZ,γ为0.5,因此综合式(2),(3),(4),可得自适应权重因子ηi的计算公式为:
所述步骤S2包括以下步骤:
在本次实例中,使用Leap Motion和Kinect两种传感器,传感器都有基于自身传感器中心的一套局部坐标系系统,识别到手的数据也是基于各自的局部坐标系系统,不同传感器获取的数据经过滤波之后需要统一到全局坐标系下,在本实例中,采用Leap Motion坐标系作为手势数据的全局坐标系,因此需要将Kinect局部坐标系下的数据转化到LeapMotion坐标系下的数据。本发明采用基于正交矩阵形式的迭代算法来求解坐标系变换的参数,其基本思想是基于最小二乘法。
设事先采集N个样本的手的位置数据,假设传感器Leap Motion和传感器Kinect测量的手的位置是同一个点,因此,这N个三维公共点集在传感器Leap Motion和传感器Kinect下的坐标为{Lk}和{Kk},k=1,2,...,N,将传感器Kinect坐标系下的点变换到传感器Leap Motion坐标系下的点,可构造如下坐标变换模型:
Lk=T+μRKk (6)
其中T表示平移矩阵参数,μ表示尺度参数,R表示旋转矩阵参数,由于传感器LeapMotion和传感器Kinect坐标系都属于右手坐标系,因此其旋转矩阵满足正交矩阵条件约束,即:
所述步骤S3包括以下步骤:
综合考虑两个传感器的数据,并对他们进行数据融合,本发明采用一种自适应加权融合算法,其基本思想根据总均方误差最小的原则,以自适应的方式寻找每个传感器的最优加权因子,使得融合后的目标观测值达到最优。
设对于同一时刻手的位姿检测,传感器Leap Motion经过滤波后的测量值为zL,传感器Kinect经过滤波并转化到Leap Motion坐标系下的测量值为zK,手的真实位姿数据为x,假设测量相互独立,且随机测量误差分别为vL,vK,并服从均值为0,方差为σL 2,σK 2的高斯分布,因此可得:
采用线性加权融合方式,因此手的位姿x的估计值为:
其中{wL,wK}分别为Leap Motion和Kinect测量值的权重。
其中对于约束条件进行展开:
将式(12)的推导结果代入式(11)的目标函数,可得:
对式(13)进行求偏导即可求解目标方程达到最小值时的权值,其最优解为:
由上述可知,最优加权因子取决于各个传感器的测量误差的方差,初始方差可根据事先采集传感器的测量值,并依据以下的算法求出:
由于传感器Leap Motion和传感器Kinect的随机测量误差变量相互独立,根据时间域估计方法,其测量误差的方差可由下式计算可得:
其中RLL为zL的自协方差函数,RKK为zK的自协方差函数,RLK,RKL为zL,zK的互协方差函数,其数值相等。
设当前时刻传感器测量数据的个数为n,RLL的时间域估计值为RLL(n),RKK的时间域估计值为RKK(n),RLK的时间域估计值为RLK(n),则有:
在本次实例中,首先让传感器Leap Motion和传感器Kinect采集100帧的数据稳定之后再开始人机交互,按照上述公式计算当前时刻RLL,RKK,RLK的时间域估计值,并将其作为人机交互的初始时间域估计值。
随着交互的进展,数据的不断采集,不断地计算每一帧时刻下Leap Motion和Kinect传感器的方差,进行自适应地调整每个传感器的权值,从而保证整个人机交互过程中数据融合的精度。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (2)
1.基于多传感器融合技术的双手识别方法,其特征在于,包括如下步骤:
S1、自适应低通滤波,将当前时刻的测量值与上一时刻的滤波值进行加权平均作为当前时刻的滤波值,自适应权重因子ηi随当前时刻运动速度进行自适应变化;具体包括:
设一只手的位置和姿态的数据表示为X=(x,y,z,α,β,γ)T,其中前三位分量(x,y,z)为手心的空间直角坐标位置,后三个分量(α,β,γ)为欧拉角表示形式的手的姿态,滤波模型表示为:
ηi的计算公式如下所示:
其中,Ti是采样时间间隔,τi是一个时间变量;
fci称为截断频率,其计算公式为:
fci=fcmin+γ|Vi| (4)
其中fcmin是最小的截断频率,Vi表示当前时刻的运动速度,包括线速度和角速度,γ是运动速度的权重因子;
综合式(2),(3),(4),可得自适应权重因子ηi的计算公式为:
S2、多传感器坐标系转化:混合传感器都有基于自身传感器中心的一套局部坐标系系统,识别到的数据也是基于各自的局部坐标系系统,不同传感器获取的数据经过滤波之后需要统一到全局坐标系下,以第一传感器坐标系作为手势数据的全局坐标系,将其他传感器的局部坐标系下的数据转化到第一传感器的坐标系下的数据;
S3、自适应加权融合:综合考虑多个传感器的数据,并对他们进行数据融合,根据总均方误差最小的原则,以自适应的方式寻找每个传感器的最优加权因子,使得融合后的目标观测值达到最优;具体包括:
设对于同一时刻手的位姿检测,第一传感器经过滤波后的测量值为zL,第二传感器经过滤波并转化到第一传感器坐标系下的测量值为zK,手的真实位姿数据为x,假设测量相互独立,且随机测量误差分别为vL,vK,并服从均值为0,方差为σL 2,σK 2的高斯分布,因此可得:
采用线性加权融合方式,因此手的位姿x的估计值为:
其中{wL,wK}分别为第一传感器和第二传感器测量值的权重;
其中对于约束条件进行展开:
将式(12)的推导结果代入式(11)的目标函数,可得:
对式(13)进行求偏导即可求解目标方程达到最小值时的权值,其最优解为:
由上述可知,最优加权因子{wL,wK}取决于各个传感器的测量误差的方差,初始方差可根据事先采集传感器的测量值,并依据以下的算法求出:
由于第一传感器和第二传感器的随机测量误差变量相互独立,根据时间域估计方法,其测量误差的方差可由下式计算可得:
其中RLL为zL的自协方差函数,RKK为zK的自协方差函数,RLK,RKL为zL,zK的互协方差函数,其数值相等;
设当前时刻传感器测量数据的个数为n,RLL的时间域估计值为RLL(n),RKK的时间域估计值为RKK(n),RLK的时间域估计值为RLK(n),则有:
2.根据权利要求1所述的基于多传感器融合技术的双手识别方法,其特征在于,所述步骤S2具体包括:
采用两种传感器来识别操作者手部的位置和姿态,设事先采集N个样本的手的位置数据,假设第一传感器和第二传感器测量的手的位置是同一个点,因此,这N个三维公共点集在第一传感器和第二传感器下的坐标为{Lk}和{Kk},k=1,2,...,N,将第二传感器坐标系下的点变换到第一传感器坐标系下的点,可构造如下坐标变换模型:
Lk=T+μRKk (6)
其中T表示平移矩阵参数,μ表示尺度参数,R表示旋转矩阵参数,由于第一传感器坐标系和第二传感器坐标系都属于右手坐标系,因此其旋转矩阵满足正交矩阵条件约束,即:
其中a1,a2,a3,b1,b2,b3,c1,c2,c3为旋转矩阵R各元素的值;
使得式(6)尽可能地成立,即总体的均方误差最小,优化模型的目标方程为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710429504.9A CN107203271B (zh) | 2017-06-08 | 2017-06-08 | 基于多传感器融合技术的双手识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710429504.9A CN107203271B (zh) | 2017-06-08 | 2017-06-08 | 基于多传感器融合技术的双手识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107203271A CN107203271A (zh) | 2017-09-26 |
CN107203271B true CN107203271B (zh) | 2020-11-24 |
Family
ID=59907310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710429504.9A Active CN107203271B (zh) | 2017-06-08 | 2017-06-08 | 基于多传感器融合技术的双手识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107203271B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109145793A (zh) * | 2018-08-09 | 2019-01-04 | 东软集团股份有限公司 | 建立手势识别模型的方法、装置、存储介质及电子设备 |
CN109350923B (zh) * | 2018-10-25 | 2021-06-01 | 北京机械设备研究所 | 一种基于vr及多体位传感器的上肢康复训练系统 |
CN109373911B (zh) * | 2018-11-02 | 2020-02-14 | 中国地质科学院地质力学研究所 | 一种地表位移网格化动态监测方法 |
CN109660965A (zh) * | 2018-11-05 | 2019-04-19 | 中国电子科技集团公司第二十八研究所 | 一种基于边缘计算的智能路侧终端 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102645974A (zh) * | 2012-02-24 | 2012-08-22 | 姜展伟 | 三维动作的定位识别系统及识别方法 |
CN104317386A (zh) * | 2014-06-25 | 2015-01-28 | 西南科技大学 | 一种姿势序列有限状态机动作识别方法 |
CN106406544A (zh) * | 2016-11-21 | 2017-02-15 | 中国兵器工业计算机应用技术研究所 | 一种语义式人机自然交互控制方法及系统 |
-
2017
- 2017-06-08 CN CN201710429504.9A patent/CN107203271B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102645974A (zh) * | 2012-02-24 | 2012-08-22 | 姜展伟 | 三维动作的定位识别系统及识别方法 |
CN104317386A (zh) * | 2014-06-25 | 2015-01-28 | 西南科技大学 | 一种姿势序列有限状态机动作识别方法 |
CN106406544A (zh) * | 2016-11-21 | 2017-02-15 | 中国兵器工业计算机应用技术研究所 | 一种语义式人机自然交互控制方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN107203271A (zh) | 2017-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107203271B (zh) | 基于多传感器融合技术的双手识别方法 | |
Du et al. | Markerless human–manipulator interface using leap motion with interval Kalman filter and improved particle filter | |
US9221170B2 (en) | Method and apparatus for controlling a robotic device via wearable sensors | |
US11337652B2 (en) | System and method for measuring the movements of articulated rigid bodies | |
CN110570455B (zh) | 一种面向房间vr的全身三维姿态跟踪方法 | |
CN110880189B (zh) | 联合标定方法及其联合标定装置和电子设备 | |
CN109544638A (zh) | 一种用于多传感器融合的异步在线标定方法 | |
CN107084714A (zh) | 一种基于RoboCup3D的多机器人协作目标定位方法 | |
CN109556607A (zh) | 一种快速处理移动机器人定位“绑架”问题的方法 | |
Kumar et al. | A unified grid-based wandering pattern detection algorithm | |
CN114347033A (zh) | 机器人物品抓取方法、装置、机器人及存储介质 | |
CN116977434B (zh) | 基于追踪相机的目标行为追踪方法及系统 | |
CN101972170A (zh) | 最小二乘支持向量机自适应滤波器及其滤波方法 | |
CN114111772B (zh) | 一种基于数据手套的水下机器人软体作业手位置跟踪方法 | |
CN110232662B (zh) | 一种人脸位姿协同系统下的多新息抗扰滤波方法 | |
Allen et al. | Hand-eye coordination for robotic tracking and grasping | |
CN108051001B (zh) | 一种机器人移动控制方法、系统及惯性传感控制装置 | |
Tong et al. | Cascade-LSTM-based visual-inertial navigation for magnetic levitation haptic interaction | |
CN106610293B (zh) | 一种基于强度差分的室内定位方法及系统 | |
Choi et al. | An enhanced CSLAM for multi-robot based on unscented Kalman filter | |
CN109214295B (zh) | 基于Kinect v2和Leap Motion的数据融合的手势识别方法 | |
CN111696155A (zh) | 一种基于单目视觉的多传感融合机器人定位方法 | |
Huber et al. | Application of time-delay estimation to mixed reality multisensor tracking | |
CN113561172B (zh) | 一种基于双目视觉采集的灵巧手控制方法及装置 | |
CN106441282B (zh) | 一种星敏感器星跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |