CN112764524A - 一种基于纹理特征的肌电信号手势动作识别方法 - Google Patents

一种基于纹理特征的肌电信号手势动作识别方法 Download PDF

Info

Publication number
CN112764524A
CN112764524A CN201911068555.9A CN201911068555A CN112764524A CN 112764524 A CN112764524 A CN 112764524A CN 201911068555 A CN201911068555 A CN 201911068555A CN 112764524 A CN112764524 A CN 112764524A
Authority
CN
China
Prior art keywords
gray level
matrix
texture features
data
occurrence matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911068555.9A
Other languages
English (en)
Inventor
赵新刚
徐壮
王丰焱
李自由
张道辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Intelligent Robot Innovation Center Co Ltd
Shenyang Intelligent Robot National Research Institute Co ltd
Shenyang Institute of Automation of CAS
Original Assignee
Shenyang Intelligent Robot Innovation Center Co Ltd
Shenyang Intelligent Robot National Research Institute Co ltd
Shenyang Institute of Automation of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Intelligent Robot Innovation Center Co Ltd, Shenyang Intelligent Robot National Research Institute Co ltd, Shenyang Institute of Automation of CAS filed Critical Shenyang Intelligent Robot Innovation Center Co Ltd
Priority to CN201911068555.9A priority Critical patent/CN112764524A/zh
Publication of CN112764524A publication Critical patent/CN112764524A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Dermatology (AREA)
  • Evolutionary Computation (AREA)
  • Neurology (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Neurosurgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明涉及生物信号识别技术领域,具体地说是一种基于纹理特征的肌电信号手势动作识别方法。首先采集不同手势动作下的肌电数据,其次使用循环灰度共生矩阵来表示原始肌电数据,然后根据得到的循环灰度共生矩阵提取对应位置偏移鲁棒的纹理特征,最后在纹理特征的基础上提取时域特征,并将得到的时域特征输入到分类器中进行模型训练,最后输出手势动作分类结果。本发明所述的方法具有很大的灵活性,可以很好的解决实际应用中因传感器位置偏移带来的模型精度下降问题,有效的提高了肌电人机交互系统的鲁棒性。

Description

一种基于纹理特征的肌电信号手势动作识别方法
技术领域
本发明涉及生物信号识别技术领域,具体地说是一种基于纹理特征的肌电信号手势动作识别方法。
背景技术
表面肌电信号是从人体皮肤表面采集的肌肉活动电信号,含有丰富的肢体行为运动信息。由于表面肌电信号具有无创信号采集、信号分布强等特点,被广泛应用于智能假肢、康复机器人、助力机器人、截肢患者文本输入等人机交互系统中。传统的基于肌电信号的人机交互方法主要包括:表面肌电信号的预处理、特征提取、特征选择、模型训练和模型调优等。然而,在实验室理想环境下得到的高性能算法往往不能在实际环境中直接应用。其主要原因包括:肌电信号的非平稳性、肌肉疲劳、肢体姿态变化、电极位置变化等。其中,由于表面肌电传感器在使用过程中会频繁穿戴,电极位置偏移是不可避免的。现有的校正方法大多通过增加传感器通道数目或是通过采集少量新样本,完成迁移学习建模实现的,这类方法或多或少都会增加系统复杂性和用户负担。
发明内容
针对现有技术的不足,本发明提供一种基于纹理特征的肌电信号手势动作识别方法,有效的解决了用户在手势动作识别过程中,因电极偏移而产生的动作识别准确率下降的问题,提高了肌电人机交互系统的鲁棒性,极大的减轻了用户使用的负担。
本发明为实现上述目的所采用的技术方案是:
一种基于纹理特征的肌电信号手势动作识别方法,包括以下步骤:
步骤1:采集不同手势动作下的肌电数据作为原始肌电数据;
步骤2:使用循环灰度共生矩阵来表示原始肌电数据;
步骤3:根据得到的循环灰度共生矩阵提取对应位置偏移鲁棒的纹理特征;
步骤4:在纹理特征的基础上提取时域特征,并将得到的时域特征输入到分类器中进行模型训练;
步骤5:利用训练后的模型得到手势动作分类结果。
所述分类器的输入为时域特征,输出为手势动作分类结果。
所述步骤2包括以下步骤:
步骤1:将肌电传感器采集到的原始肌电数据,通过增量窗的方式进行处理,形成数据矩阵,数据矩阵的列数为增量窗的长度,数据矩阵的行数为肌电传感器的通道数,然后将数据矩阵进行处理;
步骤2:确定图像灰度值的级数level;
步骤3:将原始的图像中像素缩放至级数level的范围;
步骤4:根据设定距离和设定方向统计缩放后图像中灰度值出现的次数,并以此表征像素之间的空间关系,其中,一组距离和方向确定一个灰度共生矩阵;
步骤5:将灰度共生矩阵的第一列与最后一列进行连接,使得图像矩阵构成一个循环矩阵,然后在对该循环图像矩阵求灰度共生矩阵得到循环灰度共生矩阵。
所述对应位置偏移鲁棒的纹理特征,包括:对比度f1、差异性f2、同质性f3、能量f4、自相关性f5和ASM能量f6
所述纹理特征的表达形式如下:
Figure BDA0002260192880000021
Figure BDA0002260192880000022
Figure BDA0002260192880000023
Figure BDA0002260192880000024
Figure BDA0002260192880000025
Figure BDA0002260192880000031
其中,level表示的是图像灰度的级数,i和j分别表示是灰度共生矩阵的行号和列号,P表示的是循环灰度共生矩阵,Pi,j表示的是循环灰度共生矩阵中第i行第j列的像素值,ui,uj,δi,δj分别表示的是循环灰度共生矩阵的第i行元素的均值、第j列元素的均值、第i行元素的标准差和第j列元素的标准差。
所述提取的时域特征为提取纹理特征后得到数据的平均绝对值和波长。
所述分类器不局限于LDA算法。
该方法仅通过采集一次原始肌电数据,应用训练模型即可实现手势动作分类结果。
本发明具有以下有益效果及优点:
1.通过使用本发明所述方法,用户在使用肌电传感器完成手势动作识别时,无需在每次穿戴肌电传感器之后都要采集新的数据对模型进行校正,仅通过原有数据模型,即可得到较高精度的动作识别结果,大大的减少了用户在使用过程中,因为重新建模而产生的复杂性;
2.本发明有效的解决了实际应用中环状肌电传感器因位置偏移而产生模型精度下降的问题,极大的改善由电极偏移带来的识别精度恶化问题,提高了肌电人机交互系统的鲁棒性;
3.本发明仅需使用肌电原始数据,通过建立循环灰度共生矩阵处理,即可完成电极偏移校正,从而实现较好的手势动作分类,更有利于基于表面肌电信号的智能交互系统在实际应用中的推广。
附图说明
图1是本发明的方法流程图;
图2是本发明所述模拟电极偏移实验的手势动作识别结果图;
图3是本发明所述真实电极偏移实验的手势动作识别结果图。
具体实施方式
下面结合附图及实施例对本发明做进一步的详细说明。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。在下面的描述中阐述了很多具体细节以便于充分理解本发明。但本发明能够以很多不同于在此描述的其他方式来实施,本领域技术人员可以在不违背发明内涵的情况下做类似改进,因此本发明不受下面公开的具体实施的限制。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
如图1所示是本发明的方法流程图;
首先,在数据采集之前,为了获得高质量的表面肌电信号,在给每位受试者佩戴肌电传感器之前,都使用医用酒精和纱布擦拭皮肤以去除死皮,然后按照要求佩戴好肌电传感器。在数据采集过程中,受试者只需要按照电脑显示的动作引导图片来完成动作即可。总共8种动作,包括:休息,握拳,张手,剪刀手,捏食指,捏中指,掌屈和背屈。其中,休息动作是其他7种动作的间隔过度状态,以减少肌肉疲劳带来的影响,动作时间8s,每位受试者在同一个电极位置下重复完成4次。
其次,定义好肌电传感器的初始位置,将肌电传感器沿着垂直于肌纤维的方向上逆时针旋转8次,每次旋转任意角度,并记录下每次旋转后采集的肌电数据。为了提高模型的泛化性能,采用增量窗的方式对肌电数据进行数据增强处理,其中设置时间窗长为200ms和时间窗滑动步长为60ms(对应LW=10和LI=3,其中LW为时间窗长,LI为时间窗滑动步长),对于时间序列长度为N的样本,经过增量窗处理后得到的样本总数为:Nsample=round(N-LW)/LI)+1,其中,N为时间序列长度,round为按照指定的小数位数进行四舍五入运算。
然后,将通过增量窗处理后的数据,形成数据矩阵,数据矩阵的列数为增量窗的长度,数据矩阵的行数为肌电传感器的通道数,然后将数据矩阵按照图像矩阵的处理方式进行处理;通过灰度共生矩阵来对每个窗口的数据进行表达,通过将图像矩阵的第一列与最后一列进行连接,使得图像矩阵构成一个循环矩阵,然后在对该循环图像矩阵求灰度共生矩阵得到的便是循环灰度共生矩阵。在计算灰度共生矩阵时,首先要确定图像灰度值的级数level,然后将原始的图像中像素缩放至级数level的范围,最后根据特定距离和特定方向统计缩放后图像中灰度值对出现的次数,并以此表征像素之间的空间关系。其中,一组距离和方向确定一个灰度共生矩阵。
在得到循环共生矩阵后,便可以提取纹理特征,所提取的纹理特征包括:包括:对比度f1、差异性f2、同质性f3、能量f4、自相关性f5和ASM能量f6,特征表达形式如下:
Figure BDA0002260192880000051
Figure BDA0002260192880000052
Figure BDA0002260192880000053
Figure BDA0002260192880000054
Figure BDA0002260192880000055
Figure BDA0002260192880000056
其中,level表示的是图像灰度的级数,i和j分别表示是灰度共生矩阵的行号和列号,P表示的是循环灰度共生矩阵,Pi,j表示的是循环灰度共生矩阵中第i行第j列的像素值,ui,uj,δi,δj分别表示的是循环灰度共生矩阵的第i行元素的均值、第j列元素的均值、第i行元素的标准差和第j列元素的标准差。
最后,在所提取的纹理特征的基础上,提取时域特征,并将时域特征输入到分类模型LDA中进行训练,并利用训练后的模型输出手势动作分类结果,用于表示休息,握拳,张手,剪刀手,捏食指,捏中指,掌屈和背屈。
为了验证本发明所提方法的有效性,首先进行了模拟电极位置偏移实验。将6名受试者在标准位置下采集到的表面肌电信号,依次平移1到8列,分别代表着肌电传感器相对于前臂肌肉逆时针旋转τ×45°,其中τ为肌电传感器相对于前臂肌肉逆时针旋转的列数,其取值为1,2,3,…,8,当τ为8的时候,表示肌电传感器旋转至标准位置。然后对得到的每位受试者数据分别通过传统方法以及本发明所述校正方法进行处理,即传统方法先直接提取原始肌电数据的时域特征,然后输入到分类模型LDA中进行训练,最后输出手势动作分类结果;校正方法是先对数据先提取纹理特征,然后在得到的纹理特征空间上提取时域特征,最后输入到分类模型LDA中进行训练,并输出手势动作分类结果。最后,将两种方法下6名受试者模型分类准确率的结果求取均值和方差,画出模型分类精度随着电极位置偏移曲线。
如图2所示为本发明所述模拟电极偏移实验的手势动作识别结果图;
从图中的结果可以看出,在使用传统方法的情况下,模型的分类精度随着电极位置偏移,下降很大,并且在电极偏移一周的过程中,动作识别精度呈现先下降后升高的趋势,从实验的结果可以看出电极位置偏移对于普通特征是致命的。在使用本发明所述的校正方法下,模型精度不会随着电极位置偏移而下降,能够始终维持在95%左右。
为了进一步验证本文所提方法在实际的电极位置偏移校正中有效,在前面模拟实验的基础上,本文进行了真实电极位置偏移实验,实验过程与模拟实验相同,不同的是,真实电极位置偏移实验是在标准位置的基础上,将肌电传感器沿着垂直于肌纤维的方向上逆时针旋转8次,每次旋转任意角度。然后使用传统方法以及本发明所述方法对每位受试者的数据进行处理,并将提取的特征输入到分类模型LDA中进行训练,最后对同一个位置下不同受试者的模型精度求取均值和方差,得到模型的精度和方差随着电极位置偏移变化曲线。
如图3所示为本发明所述真实电极偏移实验的手势动作识别结果图。
本方法无需采集新数据,仅通过采集一次肌电数据,应用原始训练模型即可实现有效的手势动作分类结果。
从图中结果可以看出,本文所述的校正方法在任意位置偏移情况下,仍然是有效的,其手势动作识别精度能够保持在80%左右,远远优于传统方法。因此,本发明所述的一种基于纹理特征的肌电信号手势动作识别方法,在处理传感器电极发生偏移问题时,能够极大地修正偏移数据,提高手势识别精度。

Claims (8)

1.一种基于纹理特征的肌电信号手势动作识别方法,其特征在于,包括以下步骤:
步骤1:采集不同手势动作下的肌电数据作为原始肌电数据;
步骤2:使用循环灰度共生矩阵来表示原始肌电数据;
步骤3:根据得到的循环灰度共生矩阵提取对应位置偏移鲁棒的纹理特征;
步骤4:在纹理特征的基础上提取时域特征,并将得到的时域特征输入到分类器中进行模型训练;
步骤5:利用训练后的模型得到手势动作分类结果。
2.根据权利要求1所述的一种基于纹理特征的肌电信号手势动作识别方法,其特征在于,所述分类器的输入为时域特征,输出为手势动作分类结果。
3.根据权利要求1所述的一种基于纹理特征的肌电信号手势动作识别方法,其特征在于,所述步骤2包括以下步骤:
步骤1:将肌电传感器采集到的原始肌电数据,通过增量窗的方式进行处理,形成数据矩阵,数据矩阵的列数为增量窗的长度,数据矩阵的行数为肌电传感器的通道数,然后将数据矩阵进行处理;
步骤2:确定图像灰度值的级数level;
步骤3:将原始的图像中像素缩放至级数level的范围;
步骤4:根据设定距离和设定方向统计缩放后图像中灰度值出现的次数,并以此表征像素之间的空间关系,其中,一组距离和方向确定一个灰度共生矩阵;
步骤5:将灰度共生矩阵的第一列与最后一列进行连接,使得图像矩阵构成一个循环矩阵,然后在对该循环图像矩阵求灰度共生矩阵得到循环灰度共生矩阵。
4.根据权利要求1所述的一种基于纹理特征的肌电信号手势动作识别方法,其特征在于,所述对应位置偏移鲁棒的纹理特征,包括:对比度f1、差异性f2、同质性f3、能量f4、自相关性f5和ASM能量f6
5.根据权利要求4所述的一种基于纹理特征的肌电信号手势动作识别方法,其特征在于,所述纹理特征的表达形式如下:
Figure FDA0002260192870000021
Figure FDA0002260192870000022
Figure FDA0002260192870000023
Figure FDA0002260192870000024
Figure FDA0002260192870000025
Figure FDA0002260192870000026
其中,level表示的是图像灰度的级数,i和j分别表示是灰度共生矩阵的行号和列号,P表示的是循环灰度共生矩阵,Pi,j表示的是循环灰度共生矩阵中第i行第j列的像素值,ui,uj,δi,δj分别表示的是循环灰度共生矩阵的第i行元素的均值、第j列元素的均值、第i行元素的标准差和第j列元素的标准差。
6.根据权利要求1所述的一种基于纹理特征的肌电信号手势动作识别方法,其特征在于:所述提取的时域特征为提取纹理特征后得到数据的平均绝对值和波长。
7.根据权利要求1所述的一种基于纹理特征的肌电信号手势动作识别方法,其特征在于,所述分类器不局限于LDA算法。
8.根据权利要求1所述的一种基于纹理特征的肌电信号手势动作识别方法,其特征在于,该方法仅通过采集一次原始肌电数据,应用训练模型即可实现手势动作分类结果。
CN201911068555.9A 2019-11-05 2019-11-05 一种基于纹理特征的肌电信号手势动作识别方法 Pending CN112764524A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911068555.9A CN112764524A (zh) 2019-11-05 2019-11-05 一种基于纹理特征的肌电信号手势动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911068555.9A CN112764524A (zh) 2019-11-05 2019-11-05 一种基于纹理特征的肌电信号手势动作识别方法

Publications (1)

Publication Number Publication Date
CN112764524A true CN112764524A (zh) 2021-05-07

Family

ID=75692604

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911068555.9A Pending CN112764524A (zh) 2019-11-05 2019-11-05 一种基于纹理特征的肌电信号手势动作识别方法

Country Status (1)

Country Link
CN (1) CN112764524A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115328319A (zh) * 2022-10-13 2022-11-11 华南理工大学 一种基于轻量型手势识别的智能控制方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110304541A1 (en) * 2010-06-11 2011-12-15 Navneet Dalal Method and system for detecting gestures
CN102488963A (zh) * 2011-12-08 2012-06-13 天津大学 一种功能性电刺激膝关节角度控制方法
US20130010096A1 (en) * 2009-12-02 2013-01-10 Tata Consultancy Services Limited Cost effective and robust system and method for eye tracking and driver drowsiness identification
US20130135192A1 (en) * 2011-11-14 2013-05-30 Kabushiki Kaisha Toshiba Gesture recognition apparatus, method thereof and program therefor
CN103440498A (zh) * 2013-08-20 2013-12-11 华南理工大学 基于lda算法的表面肌电信号识别方法
US20160313801A1 (en) * 2015-01-02 2016-10-27 Wearable Devices Ltd. Method and apparatus for a gesture controlled interface for wearable devices
US20190332858A1 (en) * 2018-04-27 2019-10-31 Boe Technology Group Co., Ltd. Method and device for identifying wrist, method for identifying gesture, electronic equipment and computer-readable storage medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130010096A1 (en) * 2009-12-02 2013-01-10 Tata Consultancy Services Limited Cost effective and robust system and method for eye tracking and driver drowsiness identification
US20110304541A1 (en) * 2010-06-11 2011-12-15 Navneet Dalal Method and system for detecting gestures
US20130135192A1 (en) * 2011-11-14 2013-05-30 Kabushiki Kaisha Toshiba Gesture recognition apparatus, method thereof and program therefor
CN102488963A (zh) * 2011-12-08 2012-06-13 天津大学 一种功能性电刺激膝关节角度控制方法
CN103440498A (zh) * 2013-08-20 2013-12-11 华南理工大学 基于lda算法的表面肌电信号识别方法
US20160313801A1 (en) * 2015-01-02 2016-10-27 Wearable Devices Ltd. Method and apparatus for a gesture controlled interface for wearable devices
US20190332858A1 (en) * 2018-04-27 2019-10-31 Boe Technology Group Co., Ltd. Method and device for identifying wrist, method for identifying gesture, electronic equipment and computer-readable storage medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
J.HE: "Combining improved gray-level co-occurrence matrix with high density grid for myoelectric control robustness to electrode shift", IEEE TRANSACTION ON NEURAL SYSTEMS AND REHABILITATION ENGINEERING, 22 December 2016 (2016-12-22), pages 1539 - 1548 *
李自由: "基于Myo旋转偏移估计与自适应校正的手势识别方法", 自动化学报, 2 July 2019 (2019-07-02), pages 1896 - 1907 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115328319A (zh) * 2022-10-13 2022-11-11 华南理工大学 一种基于轻量型手势识别的智能控制方法及装置

Similar Documents

Publication Publication Date Title
Wu et al. A CNN-SVM combined model for pattern recognition of knee motion using mechanomyography signals
CN107378944B (zh) 一种基于主成分分析法的多维表面肌电信号假手控制方法
CN113288183B (zh) 一种基于面颈部表面肌电的无声语音识别方法
Hofmann et al. Bayesian filtering of surface EMG for accurate simultaneous and proportional prosthetic control
CN103440498A (zh) 基于lda算法的表面肌电信号识别方法
Sun et al. Temporal dilation of deep LSTM for agile decoding of sEMG: Application in prediction of Upper-Limb motor intention in NeuroRobotics
Huang et al. An EMG-based handwriting recognition through dynamic time warping
Fang et al. Improve inter-day hand gesture recognition via convolutional neural network-based feature fusion
Naik et al. Classification of finger extension and flexion of EMG and Cyberglove data with modified ICA weight matrix
Mao et al. Simultaneous estimation of multi-finger forces by surface electromyography and accelerometry signals
Thomik et al. Real-time movement prediction for improved control of neuroprosthetic devices
Fang et al. Modelling EMG driven wrist movements using a bio-inspired neural network
CN112764524A (zh) 一种基于纹理特征的肌电信号手势动作识别方法
Camardella et al. Towards online myoelectric control based on muscle synergies-to-force mapping for robotic applications
Wang et al. Electrode shift fast adaptive correction for improving myoelectric control interface performance
Lin et al. A normalisation approach improves the performance of inter-subject sEMG-based hand gesture recognition with a ConvNet
Tosin et al. SEMG-based upper limb movement classifier: Current scenario and upcoming challenges
Roy et al. A generic neural network model to estimate populational neural activity for robust neural decoding
Chan et al. Unsupervised domain adaptation for gesture identification against electrode shift
Yang et al. Instinctive real-time SEMG-based control of prosthetic hand with reduced data acquisition and embedded deep learning training
Ison et al. Beyond user-specificity for emg decoding using multiresolution muscle synergy analysis
CN112998725A (zh) 一种基于运动观察的脑机接口技术的康复方法与系统
CN117150292A (zh) 一种基于增量学习对手势识别模型训练的方法
Fu et al. Identification of finger movements from forearm surface EMG using an augmented probabilistic neural network
CN111367399B (zh) 一种表面肌电信号手势识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination