CN113901881A - 一种肌电数据自动标注方法 - Google Patents
一种肌电数据自动标注方法 Download PDFInfo
- Publication number
- CN113901881A CN113901881A CN202111071438.5A CN202111071438A CN113901881A CN 113901881 A CN113901881 A CN 113901881A CN 202111071438 A CN202111071438 A CN 202111071438A CN 113901881 A CN113901881 A CN 113901881A
- Authority
- CN
- China
- Prior art keywords
- data
- myoelectric
- gesture
- wavelet
- leap motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003183 myoelectrical effect Effects 0.000 title claims abstract description 34
- 238000002372 labelling Methods 0.000 title claims abstract description 22
- 230000033001 locomotion Effects 0.000 claims abstract description 63
- 238000000034 method Methods 0.000 claims abstract description 42
- 230000000694 effects Effects 0.000 claims abstract description 20
- 238000000354 decomposition reaction Methods 0.000 claims description 17
- 238000005070 sampling Methods 0.000 claims description 13
- 238000003064 k means clustering Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 5
- 230000000284 resting effect Effects 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims 1
- 238000002474 experimental method Methods 0.000 abstract description 13
- 230000009471 action Effects 0.000 abstract description 6
- 230000001360 synchronised effect Effects 0.000 abstract 1
- 238000002567 electromyography Methods 0.000 description 9
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 210000003414 extremity Anatomy 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供一种肌电数据自动标注方法,其包括以下步骤:S1:肌电装置采集手部动作的肌电数据和LeapMotion采集手部动作的图像数据的同步采集方式。S2:对LeapMotion手势动作数据进行手势活动段提取。S3:通过聚类方法对LeapMotion手势进行聚类获得动作标签。S4:根据S3所得标签对肌电手势数据进行自动标注。本发明能够解决手势数据采集某一动作采集时间过长导致用户过于枯燥、疲惫等问题。同时对于不同的识别任务实验平台不需要做额外修改,可以减少实验人员修改实验平台时间,加快了实验进度。
Description
技术领域
本发明属于数据处理领域,具体地涉及一种肌电数据自动标注方法。
背景技术
随着智能设备的大量涌现和人工智能技术的发展,人机交互问题逐渐成为研究热点。其中手势识别具有较强的易用性和实用性等优点受到越来越多人的关注。手势识别可以让肢体残疾的患者通过控制假肢帮助患者正常生活,聋哑人患者可以通过手势识别与健康人进行正常交流,也可以通过手势进行互动游戏提高游戏趣味性。
目前,手势识别方法主要分为基于视觉信号的手势识别和基于肌电信号的手势识别。基于视觉信号的手势识别以Leap Motion为例:Leap Motion是一种基于计算机视觉识别技术的手势识别设备,通过两个摄像头获取人手部动作整体图像和三维位置坐标、手掌朝向及手指弯曲程度等信息并分析获取的信息用于用户的手势识别,使用Leap Motion识别手势识别准确率高,但Leap Motion采集手势动作会受到采集图像光照变化的影响且采集设备不能灵活移动,所以基于Leap Motion的手势识别不适合复杂环境的手势识别。
基于肌电信号的手势识别设备便于穿戴且识别精度较高,能够在复杂环境和日常生活中使用,但长时间的信号采集和信号标注获得大量准确肌电数据便于训练模型。传统肌电信号采集实验需要受试者根据实验平台提示做出相应的动作,由于受试者反应的迟滞性和肌电信号噪声干扰,采集完成后需对数据进行标注以获得更加准确的肌电信号,会加重受试者和实验者的负担。传统肌电信号采集实验对于不同的任务需求需要获得不同手势数据集,实验平台要根据需求频繁修改目标手势动作、某个手势重复次数、手势采集顺序等,造成前期实验准备工作繁琐、实验平台可重复性差。本发明拟结合Leap Motion的手势识别的高精度优势用于解决肌电数据获取困难问题。
发明内容
为了解决上述现有技术的不足,本发明提供一种肌电数据自动标注方法,通过对Leap Motion采集数据通过聚类算法,用于自动标定采集的肌电手势数据标签。
具体地,本发明提供一种肌电数据自动标注方法,其包括以下步骤:
S1、从肌电数据库中获取肌电手势数据和对应的Leap Motion信号数据;
S2、对肌电信号进行活动段提取t0~t1并以此同步分割Leap Motion在t0~t1时间内的信号;
S3、对分割后的Leap Motion信号进行特征提取,其具体包括以下子步骤:
S31、对Leap Motion信号首先进行带通滤波来去除环境噪声以及运动伪迹,并通过短时活动能量法进行肌电手势数据活动段标记,具体方法如下:设有n个通道,Xi,j,k表示第k个窗口第j个通道的第i个采样点,在之后的m毫秒内,采样率1000Hz下共有m个采样点,m个采样点的平均短时能量公式为:
S32、根据采集的静息状态阈值Vth,判断该采集点之后的数据是否为活动段数据,具体判断公式为:
超过阈值时间段即为活动段区间t0~t1,并以此分割t0~t1时间内采集的LeapMotion信号;
S33、根据分割的Leap Motion信号计算每个手指长度、指尖坐标位置的距离作为原始数据;
在步骤S33中,对Leap Motion获取的手指长度以及指尖坐标位置特征进一步计算来进行K均值聚类,K均值聚类的具体方法如下:获得手部五根手指长度和指尖坐标位置后采用三层小波分解的小波降噪方法对其进行分段,公式如下:
c(t)=f(C(t))=fL(fw(C(t))),i=1,2,...,N
其中,fL代表滑动长度为L的滑动窗口,fw为小波去噪函数,公式如下:
小波函数应满足∫ψ(t)=0,ψ代表离散小波,φ代表尺度函数,C(t)表示分解为不同尺度的离散小波,公式如下:
其中,dj(i)代表尺度为2j的小波系数,aJ(i)尺度为2j的尺度系数,将小波分解为3层分解即j=3;
S34、采用三层层次结构K均值聚类方法对手势进行聚类,使用三层结构能够有效的提高计算速度和聚类准确率;
S4、根据S3步骤中对Leap Motion的t0~t1数据段所标注的手势标签对相应的t0~t1肌电数据进行对应标注,实现肌电手势的自动标注。
优选地,对长度为L的Leap Motion数据做三层小波包分解的分段取平均值作为聚类方法的输入特征。
优选地,步骤S34中三层结构的具体聚类方法为:在第一层通过手指长度的小波分解特征对手势进行初步聚类,在第二层通过手指坐标位置小波分解特征进一步聚类,在最后一层通过上述两种特征对手势进行进一步聚类以标记手势。
与现有技术相比,本发明具有以下有益效果:
(1)本发明通过一种Leap Motion与肌电信号集合的采集方法,实现了对肌电信号手势进行自动采集;传统肌电信号采集方式是用户根据提示做出相应的手势,期间必须要严格遵守指示做出相应动作,过程枯燥且后续需要对数据再次进行优化处理。
(2)本方法结合Leap Motion的手势识别精度优势和聚类算法,能有效的对用户手势进行自动分类标注,用户可根据自身情况自由地选择手势动作先后顺序,能够解决手势数据采集某一动作采集时间过长导致用户过于枯燥、疲惫等问题。同时对于不同的识别任务实验平台不需要做额外修改,可以减少实验人员修改实验平台时间,加快了实验进度。
附图说明
图1是本发明方法的总体流程图;
图2是本发明方法的采集方式图;
图3是本发明方法活动段分割示意图。
附图标号:21为肌电采集设备,22为Leap Motion装置,31为肌电信号活动段起始位置,32为肌电信号活动段结束位置。
具体实施方式
以下将参考附图详细说明本发明的示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
本发明提供一种肌电数据自动标注方法,其包括以下步骤:
S1、从肌电数据库中获取肌电手势数据和对应的Leap Motion信号数据;
S2、对肌电信号进行活动段提取t0~t1并以此同步分割Leap Motion在t0~t1时间内的信号;
S3、对分割后的Leap Motion信号进行特征提取,其具体包括以下子步骤:
S31、对Leap Motion信号首先进行带通滤波来去除环境噪声以及运动伪迹,并通过短时活动能量法进行肌电手势数据活动段标记,具体方法如下:设有n个通道,Xi,j,k表示第k个窗口第j个通道的第i个采样点,在之后的m毫秒内,采样率1000Hz下共有m个采样点,m个采样点的平均短时能量公式为:
S32、根据采集的静息状态阈值Vth,判断该采集点之后的数据是否为活动段数据,具体判断公式为:
超过阈值时间段即为活动段区间t0~t1,并以此分割t0~t1时间内采集的LeapMotion信号;
S33、根据分割的Leap Motion信号计算每个手指长度、指尖坐标位置的距离作为原始数据;
在步骤S33中,对Leap Motion获取的手指长度以及指尖坐标位置特征进一步计算来进行K均值聚类,K均值聚类的具体方法如下:获得手部五根手指长度和指尖坐标位置后采用三层小波分解的小波降噪方法对其进行分段,公式如下:
c(t)=f(C(t))=fL(fw(C(t))),i=1,2,...,N
其中,fL代表滑动长度为L的滑动窗口,fw为小波去噪函数,公式如下:
小波函数应满足∫ψ(t)=0,ψ代表离散小波,φ代表尺度函数,C(t)表示分解为不同尺度的离散小波,公式如下:
其中,dj(i)代表尺度为2j的小波系数,aJ(i)尺度为2j的尺度系数,将小波分解为3层分解即j=3;
S34、采用三层层次结构K均值聚类方法对手势进行聚类,使用三层结构能够有效的提高计算速度和聚类准确率;
S4、根据S3步骤中对Leap Motion的t0~t1数据段所标注的手势标签对相应的t0~t1肌电数据进行对应标注,实现肌电手势的自动标注。
具体实施例
图1为本发明方法的总体流程示意图,具体工作流程为,使用者手臂佩戴肌电采集设备并对准Leap Motion进行信号采集得到相关数据的数据库,获取到手势动作时的肌电数据和Leap Motion图像,通过对肌电信号进行活动段检测,之后对Leap Motion信号进行活动段提取,提取分段后的Leap Motion信号的特征,通过聚类方法获取当前Leap Motion信号手势标签,然后通过此标签标准当前肌电活动段的手势识别标签。
图2为本发明方法的一个具体实验的采集方式图,具体过程为:将Leap Motion平放置桌面上,保证Leap Motion放置在手势采集区域正中心位置,肌电采集设备放置使用者前臂肌肉上并保证放置于特定的肌肉位置上。使用者保证手势动作垂直对准Leap Motion,首先采集使用者保持静息状态,同时采集Leap Motion信号和肌电序列信号作为阈值信号T。采集静息状态信号完成后,使用者可做出其他手势,同时将数据保存至计算机中。之后将采集的数据存储在数据库中进行保存,之后进行数据标注时直接从数据库中进行调取获得相关数据。
图3为本发明方法活动段分割示意图,通过采集肌电信号进行短时能量活动段提取,确定出肌电信号的活动起始时间和活动结束时间。用活动段起始时间和结束时间提取Leap Motion在此时间段的图像信号,进一步确定手势动作发生时的肌电信号和LeapMotion信号。
该步骤的具体过程如下:
通过Leap Motion和肌电采集设备采集手势肌电数据和Leap Motion数据。肌电信号经过10Hz的高通滤波,500Hz的低通滤波得到较为纯净的肌电信号,进一步的,通过短时活动能量法进行肌电手势数据活动段标记,方法如下:设有n个通道,Xi,j,k表示第k个窗口第j个通道的第i个采样点,在它之后的m毫秒内,采样率1000Hz下共有m个采样点,这个m个采样点的平均短时能量公式为:
进一步的,根据采集的静息状态阈值Vth,判断该采集点之后的数据是否为活动段数据,判断公式为:
超过阈值时间段即为活动段区间t0~t1并以此分割t0~t1时间内采集的LeapMotion信号;
进一步的,对活动段的Leap Motion提取手部各个细节的信息手指长度、指尖坐标位置作为输入数据进行K均值聚类。具体方法如下:获得五根手指的长度和指尖坐标位置后首先采用三层小波分解的小波降噪方法对其进行分段,公式如下:
c(t)=f(C(t))=fL(fw(C(t))),i=1,2,...,N
其中,fL代表滑动长度为L的滑动窗口,fw为小波去噪函数,公式如下:
小波函数应满足∫ψ(t)=0,ψ代表离散小波,φ代表尺度函数,C(t)表示分解为不同尺度的离散小波,公式如下:
其中,dj(i)代表尺度为2j的小波系数,aJ(i)尺度为2j的尺度系数,本发明将小波分解为3层分解即j=3。
进一步的,对长度为L的Leap Motion数据做三层小波包分解的分段取平均值作为聚类方法的输入特征。本发明采用三层层次结构K均值聚类方法对手势进行聚类,使用三层结构能够有效的提高计算速度和聚类准确率。
进一步的,在第一层通过手指长度的小波分解特征对手势进行初步聚类,在第二层通过手指坐标位置小波分解特征进一步聚类,在最后一层通过上述两种特征对手势进行进一步聚类以标记手势。
进一步的,根据对Leap Motion的t0~t1数据段所标注的手势标签对相应的t0~t1肌电数据进行对应标注,实现肌电手势的自动标注。
最后应说明的是:以上所述的各实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或全部技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (3)
1.一种肌电数据自动标注方法,其特征在于:其包括以下步骤:
S1、从肌电数据库中获取肌电手势数据和对应的Leap Motion信号数据;
S2、对肌电手势数据进行活动段提取t0~t1并以此同步分割Leap Motion在t0~t1时间内的信号;
S3、对分割后的Leap Motion信号进行特征提取,其具体包括以下子步骤:
S31、对Leap Motion信号首先进行带通滤波来去除环境噪声以及运动伪迹,并通过短时活动能量法进行肌电手势数据活动段标记,具体方法如下:设有n个通道,Xi,j,k表示第k个窗口第j个通道的第i个采样点,在之后的m毫秒内,采样率1000Hz下共有m个采样点,m个采样点的平均短时能量Ek的计算公式为:
S32、根据采集的静息状态阈值Vth,判断该采集点之后的数据是否为活动段数据,具体判断公式为:
超过阈值时间段即为活动段区间t0~t1,并以此分割t0~t1时间内采集的Leap Motion信号;
S33、根据分割的Leap Motion信号计算每个手指长度、指尖坐标位置的距离作为原始数据;
在步骤S33中,对Leap Motion获取的手指长度以及指尖坐标位置特征进一步计算来进行K均值聚类,K均值聚类的具体方法如下:获得手部五根手指长度和指尖坐标位置后采用三层小波分解的小波降噪方法对其进行分段,公式如下:
c(t)=f(C(t))=fL(fw(C(t))),i=1,2,...,N
其中,fL代表滑动长度为L的滑动窗口,fw为小波去噪函数,公式如下:
小波函数应满足∫ψ(t)=0,ψ代表离散小波,C(t)表示分解为不同尺度的离散小波,公式如下:
其中,dj(i)代表尺度为2j的小波系数,aJ(i)尺度为2j的尺度系数,将小波分解为3层分解即j=3;
S34、采用三层层次结构K均值聚类方法对肌电手势数据进行聚类,使用三层结构能够有效的提高计算速度和聚类准确率;
S4、根据S4步骤中对Leap Motion的t0~t1数据段所标注的手势标签对相应的t0~t1肌电数据进行对应标注,实现肌电手势数据的自动标注。
2.根据权利要求1所述的肌电数据自动标注方法,其特征在于:对长度为L的LeapMotion数据做三层小波包分解的分段取平均值作为聚类方法的输入特征。
3.根据权利要求1所述的肌电数据自动标注方法,其特征在于:步骤S34中三层结构的具体聚类方法为:在第一层通过手指长度的小波分解特征对手势进行初步聚类,在第二层通过手指坐标位置小波分解特征对手势进一步聚类,在最后一层通过上述两种特征融合对手势进行进一步聚类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111071438.5A CN113901881B (zh) | 2021-09-14 | 2021-09-14 | 一种肌电数据自动标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111071438.5A CN113901881B (zh) | 2021-09-14 | 2021-09-14 | 一种肌电数据自动标注方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113901881A true CN113901881A (zh) | 2022-01-07 |
CN113901881B CN113901881B (zh) | 2024-05-03 |
Family
ID=79028065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111071438.5A Active CN113901881B (zh) | 2021-09-14 | 2021-09-14 | 一种肌电数据自动标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113901881B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115035406A (zh) * | 2022-06-08 | 2022-09-09 | 中国科学院空间应用工程与技术中心 | 遥感场景数据集的标注方法、系统、存储介质及电子设备 |
CN116449967A (zh) * | 2023-06-20 | 2023-07-18 | 浙江强脑科技有限公司 | 仿生手教具及其控制方法、主控设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107273798A (zh) * | 2017-05-11 | 2017-10-20 | 华南理工大学 | 一种基于表面肌电信号的手势识别方法 |
KR101830793B1 (ko) * | 2016-09-07 | 2018-02-21 | 한국해양과학기술원 | 상체 상호작용을 이용한 가상훈련 시스템 |
WO2018045670A1 (zh) * | 2016-09-09 | 2018-03-15 | 华南理工大学 | 基于自然手势的虚拟数字雕塑方法 |
CN109453509A (zh) * | 2018-11-07 | 2019-03-12 | 龚映清 | 一种基于肌电和运动捕捉的虚拟上肢控制系统及其方法 |
-
2021
- 2021-09-14 CN CN202111071438.5A patent/CN113901881B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101830793B1 (ko) * | 2016-09-07 | 2018-02-21 | 한국해양과학기술원 | 상체 상호작용을 이용한 가상훈련 시스템 |
WO2018045670A1 (zh) * | 2016-09-09 | 2018-03-15 | 华南理工大学 | 基于自然手势的虚拟数字雕塑方法 |
CN107273798A (zh) * | 2017-05-11 | 2017-10-20 | 华南理工大学 | 一种基于表面肌电信号的手势识别方法 |
CN109453509A (zh) * | 2018-11-07 | 2019-03-12 | 龚映清 | 一种基于肌电和运动捕捉的虚拟上肢控制系统及其方法 |
Non-Patent Citations (3)
Title |
---|
刘英子;方嘉俊;温昕;李玫洁;谢有发;谢亮;: "双向交流手语翻译器", 物联网技术, no. 10, 20 October 2018 (2018-10-20) * |
王红全;淮永建;: "基于Leap Motion手势识别方法在树木交互的应用", 计算机应用与软件, no. 10, 12 October 2018 (2018-10-12) * |
谢平;刘欢;王磊磊;程生翠;陈伟: "基于脑肌电反馈的虚拟康复训练系统设计", 仪器仪表学报, no. 001, 31 December 2018 (2018-12-31) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115035406A (zh) * | 2022-06-08 | 2022-09-09 | 中国科学院空间应用工程与技术中心 | 遥感场景数据集的标注方法、系统、存储介质及电子设备 |
CN115035406B (zh) * | 2022-06-08 | 2023-08-04 | 中国科学院空间应用工程与技术中心 | 遥感场景数据集的标注方法、系统、存储介质及电子设备 |
CN116449967A (zh) * | 2023-06-20 | 2023-07-18 | 浙江强脑科技有限公司 | 仿生手教具及其控制方法、主控设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113901881B (zh) | 2024-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Phinyomark et al. | A feature extraction issue for myoelectric control based on wearable EMG sensors | |
CN105446461B (zh) | 手势识别方法及使用该方法的手掌虚拟键盘及其输入方法 | |
CN113901881B (zh) | 一种肌电数据自动标注方法 | |
Zou et al. | A transfer learning model for gesture recognition based on the deep features extracted by CNN | |
WO2018233435A1 (zh) | 一种基于主成分分析法的多维表面肌电信号假手控制方法 | |
CN111209885A (zh) | 一种手势信息处理方法、装置、电子设备及存储介质 | |
CN111046731B (zh) | 基于表面肌电信号进行手势识别的迁移学习方法和识别方法 | |
Huang et al. | An EMG-based handwriting recognition through dynamic time warping | |
WO2007075703A2 (en) | Recordation of handwriting and hand movement using electromyography | |
Zhang et al. | Recognizing hand gestures with pressure-sensor-based motion sensing | |
CN110134245A (zh) | 一种基于eog和姿态传感器的眼控装置以及眼控方法 | |
Shin et al. | Korean sign language recognition using EMG and IMU sensors based on group-dependent NN models | |
Taverne et al. | Video-based prediction of hand-grasp preshaping with application to prosthesis control | |
CN109765996A (zh) | 基于fmg臂带的对穿戴位置偏移不敏感的手势检测系统和方法 | |
Park et al. | Korean finger number gesture recognition based on CNN using surface electromyography signals | |
JP4078419B2 (ja) | ポインティングデバイス | |
Naik et al. | Subtle hand gesture identification for hci using temporal decorrelation source separation bss of surface emg | |
CN110751060B (zh) | 一种基于多源信号的便携式运动模式实时识别系统 | |
Zheng | A noble classification framework for data glove classification of a large number of hand movements | |
KR20100056254A (ko) | 손가락 힘 추정 방법 및 추정 장치, 손가락 힘 추정을 위한근육 판별 방법 및 근육 판별 장치 | |
CN113947815A (zh) | 一种基于肌电传感和视觉传感的人机手势协同控制方法 | |
CN101446859B (zh) | 一种基于机器视觉的输入方法及其系统 | |
Carrino et al. | Gesture segmentation and recognition with an EMG-based intimate approach-an accuracy and usability study | |
Han et al. | A Convolutional Neural Network With Multi-scale Kernel and Feature Fusion for sEMG-based Gesture Recognition | |
Chen et al. | Recognition of american sign language gestures based on electromyogram (emg) signal with xgboost machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |