CN112114665B - 一种基于多模态融合的手部追踪方法 - Google Patents

一种基于多模态融合的手部追踪方法 Download PDF

Info

Publication number
CN112114665B
CN112114665B CN202010853370.5A CN202010853370A CN112114665B CN 112114665 B CN112114665 B CN 112114665B CN 202010853370 A CN202010853370 A CN 202010853370A CN 112114665 B CN112114665 B CN 112114665B
Authority
CN
China
Prior art keywords
data
hand
eeg
tracking
constructing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010853370.5A
Other languages
English (en)
Other versions
CN112114665A (zh
Inventor
王海鹏
王文堃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202010853370.5A priority Critical patent/CN112114665B/zh
Publication of CN112114665A publication Critical patent/CN112114665A/zh
Application granted granted Critical
Publication of CN112114665B publication Critical patent/CN112114665B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Navigation (AREA)

Abstract

本发明涉及一种基于多模态融合的手部追踪方法,属于人机交互领域。本发明的目的是为了解决单一模态手势追踪过程中,用户指令边界无法确定的缺点,提供实时度高、准确度高的手部追踪轨迹。本发明的技术方案是:在行为发生之前,通过检测脑部数据的事件相关去同步(ERD)现象对用户手势进行预测,确定用户指令。在行为发生后,构建基于IMU的卡尔曼滤波子系统,使用IMU数据对手势进行追踪;构建基于EEG的卡尔曼滤波子系统,使用EEG数据对手势进行追踪;通过构建联合卡尔曼滤波系统对两个子系统轨迹进行融合,得到融合后手势追踪轨迹,以此来保证追踪出手势轨迹的稳定性、准确性以及实时性。

Description

一种基于多模态融合的手部追踪方法
技术领域
本发明涉及人机交互领域,尤其是一种用于可区分用户指令边界的多模态融合手部追踪方法。
背景技术
手势交互作为自然交互的重要分支,能够给用户提供自然的交互体验,在移动设备和可穿戴设备中发挥着重要作用。然而基于单一模态的手势追踪系统存在用户指令边界难以确定的问题,即无法确定该手势是用户指令还是用户无意间的摆手。二者从行为的角度上难以区分,因此在交互过程中会产生误操作,导致交互效率下降。另一方面,无效的手部动作,会在交互过程中增加系统追踪成本,导致系统无法立即提供手势交互的反馈,严重影响用户的交互体验。
随着神经科学的发展,脑机接口成为当下火热的交互方式,它为手部追踪提供另一个方向的思考。BCI能够在用户脑部与外部设备之间建立联系,使得通讯不再依赖于脑部神经与肌肉连接的通路,能够通过脑电信号来推断用户的想法。用户在手势交互过程中,下达手势动作的信号实质上起始于大脑皮层,通过神经元放电产生对肌肉的控制信号,然后肌肉开始运动。如果能够在行为发生之前,捕获到脑电信号的特殊变化,就可以提前做出响应,缩短交互时间。另外,特殊的指令手势是由用户主动发起,大脑会有相应肌肉控制的神经元被激活,而无心的甩手则不会,因此能够从脑电信号中对二者进行区分。
然而脑电信号在手部追踪过程中同样存在自身的不足,当用户想象手部运动而没有发生实际运动时,同样可以在大脑运动皮层部位检测到运动相关信号,因此单一模态的脑电信号无法确定用户是否发生实际的运动。
基于此发明从多模态融合的角度出发,将IMU信号与EEG信号进行融合,使用基于EEG信号的手势预测方法对用户手势进行预测,使用多模态手势追踪方法对用户手势进行更高效的追踪。
发明内容
要解决的技术问题
为了解决单一模态手势追踪过程中,用户指令边界无法确定的缺点,本发明提出一种基于多模态融合的手部追踪方法,以确定用户指令边界,缩短交互时延以提高交互效率。
技术方案
一种基于多模态融合的手部追踪方法,其特征在于步骤如下:
步骤1:在行为发生之前,通过脑电设备获取脑电数据,通过脑电数据检测事件相关去同步信号,使用事件相关去同步信号提前对用户指令进行判定,若为用户交互指定则进行追踪,否则进入循环监听,等待用户指令;
步骤2:在判定用户指令发生后,通过数据手套获取手部IMU数据:陀螺仪数据和加速度数据;使用陀螺仪数据计算方向角,加速度数据根据方向角进行投影坐标系转换,坐标系转换后的加速度减去重力加速度,得到线性加速度,通过线性加速度进行两次积分,得到手部位置信息,构建卡尔曼滤波子系统,对手部位置信息进行修正,获取修正后的手部位置;
步骤3:在行为发生后,根据脑电设备获取脑电数据,通过脑电数据构建带功率时序模型,根据带功率时序模型提取手部运动的EEG特征向量,将EEG特征向量作为观测值建立卡尔曼滤波子系统,对手部位置进行追踪,获取修正后的手部位置;
步骤4:通过联合卡尔曼滤波器对步骤2得到的基于IMU的手部轨迹和步骤3得到的基于EEG的手部轨迹进行数据融合,得到融合后的手势追踪轨迹;
步骤5:将融合后手势追踪轨迹进行输出。
步骤1中通过脑电数据检测事件相关去同步信号具体如下:获取脑电信号所有通道的EEG数据,设置8-12Hz频带,将原始信号在频带上进行滤波,对滤波后信号进行平方操作得到功率样本,对功率样本在所有实验上的数据进行求均值操作,最后将求均值的功率样本对时间求平均得到事件相关去同步信号。
步骤2中投影坐标系转换具体为机体坐标系到导航坐标系的转换。
步骤2中,构建卡尔曼滤波子系统的系统状态向量为
Figure BDA0002645566950000031
其中
Figure BDA0002645566950000032
Figure BDA0002645566950000033
分别代表k时刻陀螺仪和加速度在传感器坐标系下三轴的读数,rk,vk分别代表k时刻手部三轴位置和速度,
Figure BDA0002645566950000034
代表k时刻手部姿态角;在卡尔曼预测阶段,使用状态向量预测方程xk+1=Φkxkk对系统状态向量进行预测,使用误差协方差方程
Figure BDA0002645566950000035
计算预测的误差;在卡尔曼更新阶段,使用方程Kk=PkHT/(HPkHT+Rk)计算卡尔曼增益,获取此时手部IMU数据作为观测值zk,使用卡尔曼增益和观测值根据更新方程xk=xk-1+Kk(zk-Hxk-1)对状态向量进行更新,使用误差协方差更新方程Pk=(I-KkH)Pk-1计算更新的误差,使用卡尔曼滤波子系统对手部位置信息进行修正,得到修正后的手部位置信息。
步骤3中获取脑电设备所述通道EEG数据,构建带功率时序模型,设置500ms宽的滑动窗口对EEG数据进行分割处理,设置8-12Hz、12-18Hz、18-28Hz和28-40Hz频率带,将窗口内的EEG数据进行带通滤波,将滤波后数据进行平方、求和然后求均值操作,获得窗口EEG数据的带功率
Figure BDA0002645566950000036
将t时刻的带功率Bnf[t]与其标准差做商得到标准化后的数据Snf[t],将该值作为卡尔曼滤波子系统的观测值;获取脑电设备通道EEG数据,获取数据手套手部IMU数据,使用EEG数据和IMU数据构造训练集数据,构建卡尔曼滤波子系统状态向量
Figure BDA0002645566950000037
Figure BDA0002645566950000038
其中r代表手部位置,v代表手部速度,a代表手部加速度,下标k表示时间;系统转移方程xk+1=Akxkk,观测方程zk=Hkxk+qk,使用训练集数据根据最小二乘准则训练参数矩阵A、H和系统噪声矩阵W、观测噪声矩阵Q,使用训练参数构造卡尔曼滤波子系统,使用卡尔曼滤波子系统对手部位置进行追踪并修正,得到修正后的手部位置信息。
步骤4中,获取基于IMU手部位置轨迹
Figure BDA0002645566950000041
和对应误差协方差矩阵P1,获取基于EEG手部位置轨迹
Figure BDA0002645566950000042
和对应误差协方差矩阵P2,通过联合卡尔曼滤波,计算融合后的手部位置轨迹,
Figure BDA0002645566950000043
有益效果
本发明提出的一种基于多模态融合的手部追踪方法,在行为发生之前,通过检测脑部数据的事件相关去同步(ERD)现象对用户手势进行预测,确定用户指令。在行为发生后,构建基于IMU的卡尔曼滤波子系统,使用IMU数据对手势进行追踪;构建基于EEG的卡尔曼滤波子系统,使用EEG数据对手势进行追踪;通过构建联合卡尔曼滤波系统对两个子系统轨迹进行融合,得到融合后手势追踪轨迹,以此来保证追踪出手势轨迹的稳定性、准确性以及实时性。
与现有技术相比,本发明技术方案的有益效果是:(1)通过检测脑部ERD信号对用户手势进行预测,能够确定用户指令边界,即对用户的交互手势和无效的手势进行区分。(2)由于系统不必对无效手势进行追踪,因此减少了系统的追踪成本,缩短交互时延并提升用户的交互体验。(3)脑电数据能够反映用户运动过程中的脑部状态,IMU数据反应用户手部运动状态,将脑电数据与IMU数据结合,能够有效提供稳定、高效的手势追踪结果。
附图说明
图1:基于多模态融合的手部追踪方法示意图。
图2:EEG数据预处理流程图。
图3:EEG数据c3通道所有Epoch的原始数据展示。
图4:EEG数据c3通道所有Epoch滤波后的信号。
图5:EEG数据c3通道所有Epoch平方操作后得到的功率
图6:计算所得ERD信号
图1标号:1为事件相关时间轴,标号“0”以左代表运动发生前,相反右边代表运动发生时;2为运动发生前的EEG信号,虚线表示数据流,黑色实线表示控制流;3为追踪控制信号,该信号控制系统是否进行用户手部追踪;4为追踪检测模块,系统根据追踪控制信号决定是否进行手部追踪;5为运动发生时的EEG信号,用上标来区别运动发生之前的EEG信号;6为联合卡尔曼滤波器;7为基于IMU的卡尔曼滤波子系统;8为手部追踪结果输出模块。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
本发明是一种基于多模态融合的手部追踪方法,在本发明提出的手部追踪方法基础上可以构造一个稳定高效的手部追踪系统。整个追踪方法的组成见附图1,由以下及部分构成:
(1)面向融合的手势预测方法:在运动发生前,获取脑部EEG所述通道数据,通过对事件相关去同步(ERD)信号的捕获来对手势进行预测,提前对用户指令进行判定,若为用户交互指定则进行追踪,否则进入循环监听,等待用户指令。
(2)基于IMU数据的卡尔曼滤波子系统:在运动发生后,通过所述数据手套获取所述手部运动参数,使用陀螺仪读数进行手部姿态解码;通过所述姿态角将加速度数据从传感器坐标系投影至导航坐标系中;将所述导航坐标系下加速度数据减去重力,获得线性加速度;对所述线性加速度进行积分得到手部位置。构建卡尔曼系统方程,对手部进行位置追踪,最终获取手部运动轨迹。
(3)基于EEG数据的卡尔曼滤波子系统:在运动发生之后,通过所述脑电设备所述通道获取脑部数据,构建带功率时序模型并提取特征向量,构建卡尔曼系统方程,使用所述特征向量训练卡尔曼系统参数,使用所述卡尔曼滤波子系统对手部进行位置追踪,最终获取手部运动轨迹。
(4)基于多模态融合的手势追踪方法:使用联合卡尔曼滤波对基于IMU和基于EEG的手势轨迹进行融合,得到高效、稳定的手部融合轨迹。
基于多模态融合的中风康复手势追踪实例1:
步骤1:在运动发生前,获取所述EEG数据,并进行对其进行预处理,具体流程如图2所示。为了消除原始EEG信号中的线性趋势,需要对数据进行高通滤波,使用0.3Hz FIR滤波器对原始数据进行滤波,然后对数据进行重参考。接着对所述重参考数据进行Epoch提取,取每一个事件标签前2s和后5秒的数据作为一个运动数据。使用主成分分析(ICA)进行成分分解,去除眼电、肌电等无关成分。最后得到C*M*N维度EEG数据,其中C代表通道数,M代表每一个Epoch中的数据点个数,N为Epoch个数。
步骤2:设置频带为8-12Hz,并在所述频带中对步骤1所述的EEG信号进行滤波,获得滤波后信号sμ(t),该部分频率分量对ERD会产生较强反应;接着对sμ(t)信号进行平方以获得功率样本,即:
Figure BDA0002645566950000061
然后对所有实验中功率样本求均值,如果每个Epoch都在ti时开始,持续T秒钟,则有:
Figure BDA0002645566950000062
其中i∈{1,2,…,N},τ∈[0,T];最后对时间样本求平均以获取ERD信号,具体计算过程如图3所示。通过ERD信号来提前对用户指令进行判定。
步骤3:在运动发生时,获取所述数据手套IMU运动参数,陀螺仪数据
Figure BDA0002645566950000063
和加速度数据
Figure BDA0002645566950000064
其中上标b代表传感器坐标系,下标k代表k时刻的IMU数据;构建基于IMU数据的卡尔曼滤波子系统,设置系统状态变量:
Figure BDA0002645566950000071
其中
Figure BDA0002645566950000078
Figure BDA0002645566950000079
分别代表k时刻陀螺仪和加速度在传感器坐标系下三轴的读数,rk,vk分别代表k时刻手部三轴位置和速度,
Figure BDA00026455669500000710
代表k时刻手部姿态角。系统方程如下所示:
Figure BDA0002645566950000072
状态变量预测的表达式如下所示:
xk+1=Φkxkk
其中Φk定义如下:
Figure BDA0002645566950000073
其中
Figure BDA00026455669500000711
为k时刻传感器坐标系向导航坐标系转换的旋转矩阵,具体计算如下:
Figure BDA0002645566950000074
Figure BDA0002645566950000075
获取系统状态的误差协方差P,具体公式如下所示:
Figure BDA0002645566950000076
其中Qk-1表示k-1时刻的过程噪声协方差矩阵。则卡尔曼更新如下:
Figure BDA0002645566950000077
xk=xk-1+Kk(zk-Hxk-1)
Pk=(I-KkH)Pk-1
其中Kk为卡尔曼增益,Rk为观测噪声。
步骤4:在运动发生时,获取所述脑电设备所述通道EEG数据,构建带功率时序模型,设置500ms宽的滑动窗口对所述EEG数据进行分割处理,其中两个相邻窗口时间间隔为33ms;设置8-12Hz、12-18Hz、18-28Hz、28-40Hz频率带,将所述每一个窗口内的EEG数据进行带通滤波,将所述窗口所述频带的EEG数据进行平方、求和、求均值操作获得所述窗口EEG数据的带功率,具体如下所示:
Figure BDA0002645566950000081
其中Bfn[t]是所述EEG第n个通道数据在500ms宽度时间窗口的t时刻使用带通滤波器f计算而得的带功率值。M是时间窗口中的样本数,P(m)是时间窗口中第m个经过带通滤波后样本。接着对计算得出的带功率值进行标准化,具体操作如下所示:
Figure BDA0002645566950000082
将t时刻的带功率Bnf[t]与其标准差做商得到标准化后的数据Snf[t],该值将作为卡尔曼滤波子系统的观测值。
步骤5:构建基于EEG数据的卡尔曼滤波子系统,设置系统状态变量:
Figure BDA0002645566950000083
其中r代表手部位置,v代表手部速度,a代表手部加速度,下标k表示时间。创建观测方程为:
zk=Hkxk+qk
其中
Figure BDA0002645566950000095
为系统观测矩阵,
Figure BDA0002645566950000096
为系统状态矩阵到观测矩阵的转换矩阵,其中m为通过带功率时序模型提取特征的数量,qk~N(0,Qk)为系统的观测噪声,其满足均值为0,方差为
Figure BDA0002645566950000097
的正态分布。创建系统状态转移方程为:
xk+1=Akxkk
其中
Figure BDA0002645566950000098
为k时刻和k+1时刻的线性转换矩阵,ωk~N(0,Wk)为系统噪声,其满足均值为0,方差为
Figure BDA0002645566950000099
的正态分布。若训练集中的M对时间点数据:{xk},{zk},k=1,2,…,M,可通过以下方程训练参数矩阵A和H:
Figure BDA0002645566950000091
Figure BDA0002645566950000092
解上述方程有:
Figure BDA00026455669500000910
H=ZXT(XXT)-1
其中X、X1、X2、Z定义如下:
Figure BDA0002645566950000093
Figure BDA0002645566950000094
随后使用参数A、H通过以下公式来估计参数W、Q:
W=(X2-AX1)(X2-AX1)T/(M-1)
Q=(Z-HX)(Z-HX)T/M
构建完卡尔曼滤波子系统后,可使用系统方程来对EEG数据进行手部追踪,预测阶段方程如下:
Figure BDA0002645566950000101
Figure BDA0002645566950000102
更新阶段方程如下:
Figure BDA0002645566950000103
Figure BDA0002645566950000104
Figure BDA0002645566950000105
步骤6:使用联合卡尔曼滤波器对步骤3和步骤4所得手部位置轨迹进行融合,具体公式如下:
Figure BDA0002645566950000106
Figure BDA0002645566950000107
其中下标1代表基于IMU的卡尔曼滤波子系统得到的系统变量中的手部位置参数和对应误差协方差,下标2代表基于EEG的卡尔曼滤波子系统得到的系统变量中的手部位置参数和对应的误差协方差,最终将得到的融合后的手部位置
Figure BDA0002645566950000108

Claims (5)

1.一种基于多模态融合的手部追踪方法,其特征在于步骤如下:
步骤1:在行为发生之前,通过脑电设备获取脑电数据,通过脑电数据检测事件相关去同步信号,使用事件相关去同步信号提前对用户指令进行判定,若为用户交互指定则进行追踪,否则进入循环监听,等待用户指令;
步骤2:在判定用户指令发生后,通过数据手套获取手部IMU数据:陀螺仪数据和加速度数据;使用陀螺仪数据计算方向角,加速度数据根据方向角进行投影坐标系转换,坐标系转换后的加速度减去重力加速度,得到线性加速度,通过线性加速度进行两次积分,得到手部位置信息,构建卡尔曼滤波子系统,对手部位置信息进行修正,获取修正后的手部位置;
步骤3:在行为发生后,根据脑电设备获取脑电数据,通过脑电数据构建带功率时序模型,根据带功率时序模型提取手部运动的EEG特征向量,将EEG特征向量作为观测值建立卡尔曼滤波子系统,对手部位置进行追踪,获取修正后的手部位置;
获取脑电设备通道EEG数据,构建带功率时序模型,设置500ms宽的滑动窗口对EEG数据进行分割处理,设置8-12Hz、12-18Hz、18-28Hz和28-40Hz频率带,将窗口内的EEG数据进行带通滤波,将滤波后数据进行平方、求和然后求均值操作,获得窗口EEG数据的带功率
Figure FDA0004059547530000011
将t时刻的带功率Bfn[t]与其标准差做商得到标准化后的数据Snf[t],将该值作为卡尔曼滤波子系统的观测值;获取脑电设备通道EEG数据,获取数据手套手部IMU数据,使用EEG数据和IMU数据构造训练集数据,构建卡尔曼滤波子系统状态向量
Figure FDA0004059547530000012
其中r代表手部位置,v代表手部速度,a代表手部加速度,下标k表示时间;系统转移方程xk+1=Akxkk,观测方程zk=Hkxk+qk,使用训练集数据根据最小二乘准则训练参数矩阵Ak、Hk和系统噪声矩阵ωk、观测噪声矩阵qk,使用训练参数构造卡尔曼滤波子系统,使用卡尔曼滤波子系统对手部位置进行追踪并修正,得到修正后的手部位置信息;
步骤4:通过联合卡尔曼滤波器对步骤2得到的基于IMU的手部轨迹和步骤3得到的基于EEG的手部轨迹进行数据融合,得到融合后的手势追踪轨迹;
步骤5:将融合后手势追踪轨迹进行输出。
2.根据权利要求1所述的一种基于多模态融合的手部追踪方法,其特征在于步骤1中通过脑电数据检测事件相关去同步信号具体如下:获取脑电信号所有通道的EEG数据,设置8-12Hz频带,将原始信号在频带上进行滤波,对滤波后信号进行平方操作得到功率样本,对功率样本在所有实验上的数据进行求均值操作,最后将求均值的功率样本对时间求平均得到事件相关去同步信号。
3.根据权利要求1所述的一种基于多模态融合的手部追踪方法,其特征在于步骤2中投影坐标系转换具体为机体坐标系到导航坐标系的转换。
4.根据权利要求1所述的一种基于多模态融合的手部追踪方法,其特征在于步骤2中,构建卡尔曼滤波子系统的系统状态向量为
Figure FDA0004059547530000021
其中
Figure FDA0004059547530000022
Figure FDA0004059547530000023
分别代表k时刻陀螺仪和加速度在传感器坐标系下三轴的读数,rk,vk分别代表k时刻手部三轴位置和速度,
Figure FDA0004059547530000024
代表k时刻手部姿态角;在卡尔曼预测阶段,使用状态向量预测方程xk+1=Φkxkk对系统状态向量进行预测,使用误差协方差方程
Figure FDA0004059547530000025
计算预测的误差;在卡尔曼更新阶段,使用方程Kk=PkHT/(HPkHR+Rk)计算卡尔曼增益,获取此时手部IMU数据作为观测值zk,使用卡尔曼增益和观测值根据更新方程xk=xk-1+Kk(zk-Hxk-1)对状态向量进行更新,使用误差协方差更新方程Pk=(I-KkH)Pk-1计算更新的误差,使用卡尔曼滤波子系统对手部位置信息进行修正,得到修正后的手部位置信息,其中Qk-1表示k-1时刻的过程噪声协方差矩阵,Rk为观测噪声,Kk为卡尔曼增益。
5.根据权利要求1所述的一种基于多模态融合的手部追踪方法,其特征在于步骤4中,获取基于IMU手部位置轨迹
Figure FDA0004059547530000031
和对应误差协方差矩阵P1,获取基于EEG手部位置轨迹
Figure FDA0004059547530000032
和对应误差协方差矩阵P2,通过联合卡尔曼滤波,计算融合后的手部位置轨迹,
Figure FDA0004059547530000033
CN202010853370.5A 2020-08-23 2020-08-23 一种基于多模态融合的手部追踪方法 Active CN112114665B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010853370.5A CN112114665B (zh) 2020-08-23 2020-08-23 一种基于多模态融合的手部追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010853370.5A CN112114665B (zh) 2020-08-23 2020-08-23 一种基于多模态融合的手部追踪方法

Publications (2)

Publication Number Publication Date
CN112114665A CN112114665A (zh) 2020-12-22
CN112114665B true CN112114665B (zh) 2023-04-11

Family

ID=73805306

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010853370.5A Active CN112114665B (zh) 2020-08-23 2020-08-23 一种基于多模态融合的手部追踪方法

Country Status (1)

Country Link
CN (1) CN112114665B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11782522B1 (en) * 2022-03-25 2023-10-10 Huawei Technologies Co., Ltd. Methods and systems for multimodal hand state prediction
CN114847972B (zh) * 2022-04-25 2024-05-10 燕山大学 一种经颅脑刺激多通道数据采集系统及方法
CN115424410B (zh) * 2022-11-03 2023-12-19 国网浙江省电力有限公司金华供电公司 基于无线辐射感知与多模态数据的高压环境防护方法
CN116089798A (zh) * 2023-02-07 2023-05-09 华东理工大学 手指运动的解码方法以及装置
CN115880337B (zh) * 2023-02-16 2023-05-30 南昌工程学院 基于重参数卷积和特征过滤器的目标跟踪方法与系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110443832A (zh) * 2019-06-21 2019-11-12 西北工业大学 一种基于观测区间值的证据滤波目标跟踪方法
CN111096830A (zh) * 2019-12-28 2020-05-05 杭州电子科技大学 一种基于LightGBM的外骨骼步态预测方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7505908B2 (en) * 2001-08-17 2009-03-17 At&T Intellectual Property Ii, L.P. Systems and methods for classifying and representing gestural inputs
JP2016034482A (ja) * 2014-07-31 2016-03-17 セイコーエプソン株式会社 運動解析装置、運動解析方法、運動解析プログラム及び運動解析システム
JP2019533209A (ja) * 2016-07-01 2019-11-14 アイサイト モバイル テクノロジーズ リミテッド 運転者監視のためのシステム及び方法
WO2018200734A1 (en) * 2017-04-28 2018-11-01 Pcms Holdings, Inc. Field-of-view prediction method based on non-invasive eeg data for vr video streaming services
CN110348275A (zh) * 2018-04-08 2019-10-18 中兴通讯股份有限公司 手势识别方法、装置、智能设备及计算机可读存储介质
CN208796050U (zh) * 2018-08-24 2019-04-26 赵小川 一种多模态无人机人机交互操控半实物仿真系统
CN109376785B (zh) * 2018-10-31 2021-09-24 东南大学 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法
CN110472506B (zh) * 2019-07-11 2023-05-26 广东工业大学 一种基于支持向量机和神经网络优化的手势识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110443832A (zh) * 2019-06-21 2019-11-12 西北工业大学 一种基于观测区间值的证据滤波目标跟踪方法
CN111096830A (zh) * 2019-12-28 2020-05-05 杭州电子科技大学 一种基于LightGBM的外骨骼步态预测方法

Also Published As

Publication number Publication date
CN112114665A (zh) 2020-12-22

Similar Documents

Publication Publication Date Title
CN112114665B (zh) 一种基于多模态融合的手部追踪方法
KR102014351B1 (ko) 수술정보 구축 방법 및 장치
Mahmud et al. Interface for human machine interaction for assistant devices: A review
WO2020090134A1 (ja) 推定器生成装置、モニタリング装置、推定器生成方法及び推定器生成プログラム
CN112990074B (zh) 基于vr的多场景自主式控制的混合脑机接口在线系统
CN107239728A (zh) 基于深度学习姿态估计的无人机交互装置与方法
EP3836836B1 (en) Real-time spike detection and identification
WO2010085221A1 (en) Method to control media with face detection and hot spot motion
JP2008192004A (ja) 入力情報処理装置、入力情報処理方法、入力情報処理プログラムおよびこれを記録したコンピュータ読み取り可能な記録媒体
CN107766930B (zh) 基于dtw群集模糊分群som神经元的等效rom距离计算方法
CN108958482B (zh) 一种基于卷积神经网络的相似性动作识别装置及方法
CN103116279A (zh) 脑控机器人系统的模糊离散事件共享控制方法
US20210090740A1 (en) State estimation apparatus, state estimation method, and non-transitory recording medium
CN113069125A (zh) 基于脑电波和眼动追踪的头戴设备控制系统、方法及介质
Prince et al. Brain machine interface using Emotiv EPOC to control robai cyton robotic arm
WO2016036197A1 (ko) 손동작 인식 장치 및 그 방법
CN109634408B (zh) 一种Hololens手势识别的扩展方法
Bhattacharyya et al. EEG controlled remote robotic system from motor imagery classification
US20190204931A1 (en) Sign language inputs to a vehicle user interface
CN108051001B (zh) 一种机器人移动控制方法、系统及惯性传感控制装置
Onaran et al. A hybrid SVM/HMM based system for the state detection of individual finger movements from multichannel ECoG signals
CN109885159B (zh) 基于正向动力学与希尔模型的状态空间肌电模型构建方法
CN112602100B (zh) 动作分析装置、动作分析方法、存储介质及动作分析系统
CN106951109B (zh) 一种采集手部姿态的方法及其装置
CN115376156A (zh) 手势识别方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant