CN112732090B - 基于肌肉协同的用户无关实时手势识别方法 - Google Patents

基于肌肉协同的用户无关实时手势识别方法 Download PDF

Info

Publication number
CN112732090B
CN112732090B CN202110072896.4A CN202110072896A CN112732090B CN 112732090 B CN112732090 B CN 112732090B CN 202110072896 A CN202110072896 A CN 202110072896A CN 112732090 B CN112732090 B CN 112732090B
Authority
CN
China
Prior art keywords
data
muscle
cooperation
matrix
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110072896.4A
Other languages
English (en)
Other versions
CN112732090A (zh
Inventor
李玉榕
郑楠
张文萱
李吉祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202110072896.4A priority Critical patent/CN112732090B/zh
Publication of CN112732090A publication Critical patent/CN112732090A/zh
Application granted granted Critical
Publication of CN112732090B publication Critical patent/CN112732090B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/259Fusion by voting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Biomedical Technology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种基于肌肉协同的用户无关实时手势识别方法,包括以下步骤:步骤S1:获取现有用户表面肌电信号数据和新用户预实验表面肌电信号数据,并进行数据预处理;步骤S2:利用非负矩阵分解分别提取所有动作的肌肉协同;步骤S3:利用最小二乘法得到现有用户协同向着预实验数据相同动作肌肉协同靠近的转换矩阵,利用转换矩阵形成的空间对现有用户协同进行伸缩变换,得到新的肌肉协同;步骤S4:根据新的肌肉协同,分别训练支持向量机、误差反向传播网络和K近邻算法三个分类器;步骤S5:将待分类的数据进行数据处理后,分别通过三个训练好的分类器进行手势识别,并将三个分类模型投票的结果作为最终的识别结果。本发明能够有效的进行用户无关手势识别,确保了实时性和高识别正确率。

Description

基于肌肉协同的用户无关实时手势识别方法
技术领域
本发明涉及一种基于肌肉协同的用户无关实时手势识别方法。
背景技术
人体的各种生物信号,如脑电、肌电和眼电都蕴含了丰富的人体生理信息,提取当中的有效信息有助于判断人体的运动意图,从而为人机交互提供主要输入来源。基于生物电信号的人机接口结构简单,操作方便,在很多领域都有着广泛应用的前景。
在人体手势识别这一应用领域中,应用最多的生物信号是脑电信号和肌电信号。脑电信号是通过电极检测到的大脑细胞的电活动,可直接反映大脑当前的活动状态,在手势意图的识别上具有优势,但是脑电信号的获取较为麻烦,需要佩戴脑电帽并减少其他动作的产生,难以应用在可穿戴设备上;同时,脑电信号极其容易受其他条件,如情绪的波动和不自觉的眨眼活动等的影响,因而在后续的有效信号提取和意图识别上需要复杂的处理过程。
与脑电信号相比,表面肌电信号(surface electromyogram,sEMG)在手势识别上更有优势。表面肌电信号是肌肉运动过程中各运动单元产生的生物电信号经肌肉纤维传到皮肤表层的微电信号的叠加,具有“电-机械延时”(electromechanical delay,EMD)特性,观察到表面肌电信号到肌肉实际产生力之间会存在一段时间的延迟,因此,解析手部运动时的表面肌电信号有助于预判用户的手部运动意图;此外,表面肌电信号的获取更为方便,受其他因素的影响较小,处理过程也简单。上述的优点为肌电信号在实时手势识别的应用提供了可操作性,也为可实时识别手势的穿戴式肌电设备的设计奠定了基础。
可实时识别手势的穿戴式肌电设备是人机交互的主要设备,在治疗康复领域、新兴的智能化家电领域、游戏领域和机器人控制领域都有着重要的应用。但目前该类型的肌电设备所应用的方法都是用户相关的,即用户需要利用自身的数据训练分类模型。由于皮肤阻抗、肌肉形态以及生理和心理等方面差异的原因,不同个体执行相同动作时的肌电信号会存在较大差异,使得针对特定个体训练好的模型不能通用。因此,对于不同用户,需要花费大量时间进行数据采集、数据处理与建模,该过程繁琐,会极大降低用户的使用体验。所以,为了简化过程,改善用户的使用体验,设计一个应用于穿戴式肌电设备的用户无关方法是十分必要的。
目前已经发表或公开的用户无关手势识别的技术中,主要集中在研究高频肌电信号的用户无关手势识别,通常采用改进的卷积神经网络或者域适应与深度学习结合的方法,但高频肌电信号的获取较为麻烦,不利于可穿戴设备的应用,且建立起来的模型复杂,通常需要很多数据去训练,增加了数据获取的成本。对于使用低频肌电信号的用户无关手势识别方法来说,主要采用了肌肉激活、域适应和深度学习结合、多视图和深度学习结合的方法,但会存在四个问题:一是模型简单的方法,识别正确率不高;二是滑动窗口长度超过300ms,不满足可穿戴式肌电设备的实时性要求,用户在使用设备的过程中会有较差的体验;三是模型复杂的方法,所需要的训练数据量过大,导致整个方法的计算量大;四是为了提高识别正确率,用于校准或者域适应的数据过多,这样也会增加用户的负担。
发明内容
有鉴于此,本发明的目的在于提供一种基于肌肉协同的用户无关实时手势识别方法,能够有效的进行用户无关手势识别,确保了实时性和高识别正确率。
为实现上述目的,本发明采用如下技术方案:
一种基于肌肉协同的用户无关实时手势识别方法,包括以下步骤:
步骤S1:将获取到的现有用户全部预期动作的表面肌电信号数据进行预处理和活动段提取处理,将获取到的新用户全部预期动作一组实验的表面肌电信号数据当做预实验数据,也进行相同的数据处理操作,得到两个数据集;
步骤S2:对得到的两个数据集,利用非负矩阵分解分别提取所有动作的肌肉协同,得到两个协同集合;
步骤S3:对得到的两个肌肉协同集合,利用最小二乘法得到现有用户协同向着预实验数据相同动作肌肉协同靠近的转换矩阵,利用转换矩阵形成的空间对现有用户协同进行伸缩变换,得到新的肌肉协同;
步骤S4:利用新的肌肉协同,分别训练支持向量机、误差反向传播网络和K近邻算法三个分类器;
步骤S5:将待分类的数据进行数据处理和特征提取后,分别通过三个训练好的分类器进行手势识别,并将三个分类模型投票的结果作为最终的识别结果。
进一步的,所述步骤S1具体为:
步骤S11:先进行50Hz的工频滤波和绝对值整流,再经过截止频率为3Hz的3阶巴特沃夫低通滤波得到表面肌电信号的包络线,截止频率的大小可根据实际的滤波情况确定;
步骤S12:获得了包络线之后,采用移动平均法处理表面肌电信号序列的瞬时能量,再结合阈值提取活动段。
进一步的,所述步骤S12具体为:
计算表面肌电信号所有通道的平均序列S(t),再对序列S(t)中的每一项求平方值,得到的新序列作为表面肌电信号的瞬时能量序列E(t);
选择合适的窗长L对瞬时能量序列进行滑窗,求每一个滑窗内数据的平均值,重新组合成新的序列K(t);
选择合适的阈值,当K(t)某一点大于阈值且以后的L个点都大于阈值时,该点被确定为起始点;同样的,当K(t)某一点小于阈值且以后的L个点都小于阈值时,该点确定为终止点。
进一步的,所述步骤S2具体为:
对于不同的动作,将每个动作的一组重复数据按照通道顺序行排列成数据矩阵V,其中行代表肌肉,列代表采样数据点
将数据矩阵V进行滑窗处理,对每一个200ms的窗内数据,利用非负矩阵分解算法提取肌肉协同:
Figure BDA0002906532470000051
Figure BDA0002906532470000052
肌肉协同的数目由VAF值确定,VAF值越大,表明此协同数目下重构的矩阵V′与数据矩阵V的差异越小,具体公式表述为:
Figure BDA0002906532470000053
进行肌肉协同的提取后,现有用户数据的肌肉协同矩阵为W11、W12…W21、W22…Wn1…Wnm,预实验数据的肌肉协同矩阵为W1、W2…Wn,其中n代表动作数,m代表每个动作重复的组数。
进一步的,所述步骤S3具体为:找到W每一行的极值,按下式进行归一化处理:
Figure BDA0002906532470000054
在得到了归一化的特定任务肌肉协同后,先计算两个协同集合中相同动作协同的距离||Wnm-Wn||,若是距离小于阈值,则直接把Wnm当作最终的训练数据W’,若是矩阵大于所设阈值,则把来自现有现有用户的肌肉协同Wnm设为x,来自预实验的肌肉协同Wn设为y,利用最小二乘法的矩阵公式:
w=(xTx)-1xTy
得到使得二者距离最近的转换矩阵w,利用转换矩阵w对来自现有用户的肌肉协同Wnm进行空间的转换,转换后得到新的肌肉协同W’,将该协同作为最终的训练数据。
本发明与现有技术相比具有以下有益效果:
1、本发明充分利用现有用户的数据,新用户只需要简单的预实验就可以使用分类器进行手势识别,提高了用户的使用体验。
2、本发明适用于低采样频率的肌电数据,具有高识别正确率和实时性,方便了可穿戴设备的应用。
3、本发明从神经协同的角度解析用户的运动意图,有助于发展符合人体自然运动的控制方式。
附图说明
图1是本发明方法流程图;
图2是本发明一实施例中数据预处理流程图;
图3是本发明一实施例中协同提取与数据转换流程图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种基于肌肉协同的用户无关实时手势识别方法,包括以下步骤:
步骤S1:将获取到的现有用户全部预期动作的表面肌电信号数据进行预处理和活动段提取处理,将获取到的新用户全部预期动作一组实验的表面肌电信号数据当做预实验数据,也进行相同的数据处理操作,得到两个数据集;其中,数据处理操作包括去除信号中的工频50Hz噪声,绝对值整流,3阶巴特沃夫低通滤波,活动段提取;
步骤S2:对得到的两个数据集,利用非负矩阵分解分别提取所有动作的肌肉协同,得到两个协同集合;
步骤S3:对得到两个肌肉协同集合,利用最小二乘法得到现有用户协同向着预实验数据相同动作肌肉协同靠近的转换矩阵,利用转换矩阵形成的空间对现有用户协同进行伸缩变换,得到新的肌肉协同;
步骤S4:利用新的肌肉协同,分别训练支持向量机、误差反向传播网络和K近邻算法三个分类器;
步骤S5:将待分类的数据进行数据处理和特征提取后,分别通过三个训练好的分类器进行手势识别,并将三个分类模型投票的结果作为最终的识别结果。
在本实施例中,预实验具体为:将先前获取的现有用户数据包含的所有动作确定为待识别的手势动作,获取新用户一组全部待识别手势数据的过程即为预实验过程。
参考图2,在本实施例中,所述步骤S1具体为:对于获取的原始数据,先进行50Hz的工频滤波和绝对值整流,再经过截止频率为3Hz的3阶巴特沃夫低通滤波得到表面肌电信号的包络线,截止频率的大小可根据实际的滤波情况确定。获得了包络线之后,采用移动平均法处理表面肌电信号序列的瞬时能量,再结合阈值提取活动段,具体做法是:首先需要计算表面肌电信号所有通道的平均序列S(t),再对序列S(t)中的每一项求平方值,得到的新序列作为表面肌电信号的瞬时能量序列E(t),然后,选择合适的窗长L对瞬时能量序列进行滑窗,步长为1个采样点,求每一个滑窗内数据的平均值,重新组合成新的序列K(t)。最后,选择合适的阈值,当K(t)某一点大于阈值且以后的L个点都大于阈值时,该点被确定为起始点;同样的,当K(t)某一点小于阈值且以后的L个点都小于阈值时,该点确定为终止点。
参考图3,在本实施例中,所述步骤S2-S3具体为:
对于不同的动作,将每个动作的一组重复数据按照通道顺序行排列成数据矩阵V,其中行代表肌肉,列代表采样数据点。为了满足手势识别过程中的实时性要求,选择滑动窗口长度为200ms,步长为50ms,将数据矩阵V进行滑窗处理,对每一个200ms的窗内数据,利用非负矩阵分解算法提取肌肉协同:
Figure BDA0002906532470000081
Figure BDA0002906532470000082
肌肉协同的数目可以由VAF值确定,VAF值越大,表明此协同数目下重构的矩阵V′与数据矩阵V的差异越小,一般取VAF值为85%-90%,具体公式可以表述为:
Figure BDA0002906532470000083
利用上述公式进行肌肉协同的提取后,现有用户数据的肌肉协同矩阵为W11、W12…W21、W22…Wn1…Wnm,预实验数据的肌肉协同矩阵为W1、W2…Wn,其中n代表动作数,m代表每个动作重复的组数,每个W的一行代表一个200ms窗口的协同。找到W每一行的极值,按下述公式进行归一化处理:
Figure BDA0002906532470000091
在得到了归一化的特定任务肌肉协同后,先是计算两个协同集合中相同动作协同的距离||Wnm-Wn||,若是距离小于阈值,则直接把Wnm当作最终的训练数据W’,若是矩阵大于所设阈值,则把来自现有现有用户的肌肉协同Wnm设为x,来自预实验的肌肉协同Wn设为y,利用最小二乘法的矩阵公式:
w=(xTx)-1xTy
得到使得二者距离最近的转换矩阵w,利用转换矩阵w对来自现有用户的肌肉协同Wnm进行空间的转换,转换后得到新的肌肉协同W’,该肌肉协同与预实验对应动作的肌肉协同具有最近的距离,因而具有新用户相同动作的特性,将该协同作为最终的训练数据。
在本实施例中,所述步骤S4-S5,具体为:将最终的训练数据W’,送进三个常用的简单容易移植的分类器:BP网络、KNN分类器、SVM分类器中训练,训练好的分类模式保存下来。获取的新用户数据进行上述类似的数据预处理、活动段划分和协同提取后,即可送进三个分类器中进行手势识别,最终的识别结果为三个分类器投票得出的结果。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (5)

1.一种基于肌肉协同的用户无关实时手势识别方法,其特征在于,包括以下步骤:
步骤S1:将获取到的现有用户全部预期动作的表面肌电信号数据进行预处理和活动段提取处理,将获取到的新用户全部预期动作一组实验的表面肌电信号数据当做预实验数据,也进行预处理和活动段提取处理,得到两个数据集;
步骤S2:对得到的两个数据集,利用非负矩阵分解分别提取所有动作的肌肉协同,得到两个协同集合;
步骤S3:对得到的两个肌肉协同集合,利用最小二乘法得到现有用户协同向着预实验数据相同动作肌肉协同靠近的转换矩阵,利用转换矩阵形成的空间对现有用户协同进行伸缩变换,得到新的肌肉协同;
步骤S4:利用新的肌肉协同,分别训练支持向量机、误差反向传播网络和K近邻算法三个分类器;
步骤S5:将待分类数据进行数据处理和特征提取后,分别通过三个训练好的分类器进行手势识别,并将三个分类模型投票的结果作为最终的识别结果。
2.根据权利要求1所述的基于肌肉协同的用户无关实时手势识别方法,其特征在于,所述步骤S1具体为:
步骤S11:先进行50Hz的工频滤波和绝对值整流,再经过截止频率为3Hz的3阶巴特沃夫低通滤波得到表面肌电信号的包络线,截止频率的大小可根据实际的滤波情况确定;
步骤S12:获得了包络线之后,采用移动平均法处理表面肌电信号序列的瞬时能量,再结合阈值提取活动段。
3.根据权利要求2所述的基于肌肉协同的用户无关实时手势识别方法,其特征在于,所述步骤S12具体为:
计算表面肌电信号所有通道的平均序列S(t),再对序列S(t)中的每一项求平方值,得到的新序列作为表面肌电信号的瞬时能量序列E(t);
选择合适的窗长L对瞬时能量序列进行滑窗,求每一个滑窗内数据的平均值,重新组合成新的序列K(t);
选择合适的阈值,当K(t)某一点大于阈值且以后的L个点都大于阈值时,该点被确定为起始点;同样的,当K(t)某一点小于阈值且以后的L个点都小于阈值时,该点确定为终止点。
4.根据权利要求1所述的基于肌肉协同的用户无关实时手势识别方法,其特征在于,所述步骤S2具体为:
对于不同的动作,将每个动作的一组重复数据按照通道顺序行排列成数据矩阵V,其中行代表肌肉,列代表采样数据点
选择滑动窗口长度为200ms,步长为50ms,将数据矩阵V进行滑窗处理,对每一个200ms的窗内数据,利用非负矩阵分解算法提取肌肉协同:
Figure FDA0003673673670000031
Figure FDA0003673673670000032
肌肉协同的数目由VAF值确定,VAF值越大,表明此协同数目下重构的矩阵V′与数据矩阵V的差异越小,具体公式表述为:
Figure FDA0003673673670000033
进行肌肉协同的提取后,现有用户数据的肌肉协同矩阵为W11、W12…W21、W22…Wn1…Wnm,预实验数据的肌肉协同矩阵为W1、W2…Wn,其中n代表动作数,m代表每个动作重复的组数。
5.根据权利要求4所述的基于肌肉协同的用户无关实时手势识别方法,其特征在于,所述步骤S3具体为:找到W每一行的极值,按下式进行归一化处理:
Figure FDA0003673673670000034
在得到了归一化的特定任务肌肉协同后,先计算两个协同集合中相同动作协同的距离||Wnm-Wn||,若是距离小于阈值,则直接把Wnm当作最终的训练数据W’,若是矩阵大于所设阈值,则把来自现有用户的肌肉协同Wnm设为x,来自预实验的肌肉协同Wn设为y,利用最小二乘法的矩阵公式:
w=(xTx)-1xTy
得到使得二者距离最近的转换矩阵w,利用转换矩阵w对来自现有用户的肌肉协同Wnm进行空间的转换,转换后得到新的肌肉协同W’,将该协同作为最终的训练数据。
CN202110072896.4A 2021-01-20 2021-01-20 基于肌肉协同的用户无关实时手势识别方法 Active CN112732090B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110072896.4A CN112732090B (zh) 2021-01-20 2021-01-20 基于肌肉协同的用户无关实时手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110072896.4A CN112732090B (zh) 2021-01-20 2021-01-20 基于肌肉协同的用户无关实时手势识别方法

Publications (2)

Publication Number Publication Date
CN112732090A CN112732090A (zh) 2021-04-30
CN112732090B true CN112732090B (zh) 2022-08-09

Family

ID=75592574

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110072896.4A Active CN112732090B (zh) 2021-01-20 2021-01-20 基于肌肉协同的用户无关实时手势识别方法

Country Status (1)

Country Link
CN (1) CN112732090B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113205074B (zh) * 2021-05-29 2022-04-26 浙江大学 一种融合肌电和微惯性测量单元多模态信号的手势识别方法
CN114384999B (zh) * 2021-11-19 2023-07-21 福州大学 基于自适应学习的用户无关肌电手势识别系统
CN114169375A (zh) * 2021-12-11 2022-03-11 福州大学 一种基于力度无关鲁棒特征的肌电手势识别方法
CN114569142A (zh) * 2022-02-28 2022-06-03 浙江柔灵科技有限公司 基于类脑计算的手势识别方法、系统及手势识别装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105457164A (zh) * 2016-01-06 2016-04-06 电子科技大学 一种肌肉协同模式下的多通道功能性电刺激方法与系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104107134B (zh) * 2013-12-10 2017-08-01 中山大学 基于肌电反馈的上肢训练方法及系统
CN104337666A (zh) * 2014-11-05 2015-02-11 中山大学 多肌肉协同肌电反馈康复训练系统和方法
CN106293057A (zh) * 2016-07-20 2017-01-04 西安中科比奇创新科技有限责任公司 基于bp神经网络的手势识别方法
CN107766773A (zh) * 2016-08-17 2018-03-06 宁波原子智能技术有限公司 基于手势的多维度控制方法和控制装置
US20190247650A1 (en) * 2018-02-14 2019-08-15 Bao Tran Systems and methods for augmenting human muscle controls
CN111300413B (zh) * 2020-03-03 2022-10-14 东南大学 一种多自由度肌电假手控制系统及其使用方法
CN112043473B (zh) * 2020-09-01 2021-05-28 西安交通大学 智能假肢脑-肌电融合感知的并行嵌套与自主择优分类器

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105457164A (zh) * 2016-01-06 2016-04-06 电子科技大学 一种肌肉协同模式下的多通道功能性电刺激方法与系统

Also Published As

Publication number Publication date
CN112732090A (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
CN112732090B (zh) 基于肌肉协同的用户无关实时手势识别方法
Kuzborskij et al. On the challenge of classifying 52 hand movements from surface electromyography
CN103793058B (zh) 一种主动式脑机交互系统运动想象任务分类方法及装置
CN101711709B (zh) 利用眼电和脑电信息的电动假手控制方法
Nazarpour et al. Application of higher order statistics to surface electromyogram signal classification
CN108681396A (zh) 基于脑-肌电双模态神经信号的人机交互系统及其方法
CN103258215A (zh) 一种多导联间相关性分析的脑电特征提取方法
CN110969108A (zh) 一种基于自主运动想象脑电的肢体动作识别方法
CN103892829B (zh) 一种基于共同空间模式的眼动信号识别系统及其识别方法
Zhang et al. PCA and LDA for EMG-based control of bionic mechanical hand
CN103699217A (zh) 一种基于运动想象和稳态视觉诱发电位的二维光标运动控制系统及方法
CN108268844A (zh) 基于表面肌电信号的动作模式识别方法及装置
CN112488002B (zh) 基于n170的情绪识别方法及识别系统
Li et al. EEG signal classification method based on feature priority analysis and CNN
CN108992066A (zh) 基于肌电信号的便携式下肢行为模式实时识别系统及方法
CN113274032A (zh) 一种基于ssvep+mi脑机接口的脑卒中康复训练系统及方法
Fatima et al. Towards a low cost Brain-computer Interface for real time control of a 2 DOF robotic arm
CN102306303A (zh) 一种基于小训练样本的脑电信号特征提取方法
Li et al. Wireless sEMG-based identification in a virtual reality environment
CN107016355A (zh) 一种低误触发率运动想象双层分类识别方法
CN109144238A (zh) 一种基于眼电编码的人机交互系统及其交互方法
CN113128384B (zh) 一种基于深度学习的脑卒中康复系统脑机接口软件关键技术方法
Jia Neural network in the application of EEG signal classification method
CN107329582B (zh) 一种基于eog的快速字符输入方法
CN112932508B (zh) 一种基于手臂肌电网络的手指活动识别系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant