CN110059612A - 一种基于信道状态信息的位置无关的手势识别方法及系统 - Google Patents

一种基于信道状态信息的位置无关的手势识别方法及系统 Download PDF

Info

Publication number
CN110059612A
CN110059612A CN201910300112.1A CN201910300112A CN110059612A CN 110059612 A CN110059612 A CN 110059612A CN 201910300112 A CN201910300112 A CN 201910300112A CN 110059612 A CN110059612 A CN 110059612A
Authority
CN
China
Prior art keywords
data
gesture
extracted
information
unrelated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910300112.1A
Other languages
English (en)
Other versions
CN110059612B (zh
Inventor
苘大鹏
杨武
王巍
玄世昌
吕继光
孙莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201910300112.1A priority Critical patent/CN110059612B/zh
Publication of CN110059612A publication Critical patent/CN110059612A/zh
Application granted granted Critical
Publication of CN110059612B publication Critical patent/CN110059612B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明属于人工智能领域,具体涉及一种基于信道状态信息的位置无关的手势识别方法及系统,包括以下步骤:收集无线信道状态信息;将收集到的信息经过预处理操作后提取出对应的90个子载波的信息,通过程序文件提取出其中的幅值信息;对提取到的子载波中的幅度数据进行主成分分析,去噪降维;对数据做离散小波阈值去噪处理;使用一种基于滑动窗口的方差阈值方法在去噪后的完整子载波中提取出手势动作;本发明针对同一人在不同位置的手势一致性识别问题的解决方法具有较高的识别准确率,其不仅可以对四种手势进行识别,还能在视距路径和非视距路径两种条件下进行识别,极大的增强了手势识别系统的鲁棒性。

Description

一种基于信道状态信息的位置无关的手势识别方法及系统
技术领域
本发明属于人工智能领域,具体涉及一种基于信道状态信息的位置无关的手势识别方法及系统。
背景技术
随着互联网技术的不断成熟,网络硬件设备和网络软件设备的成本逐步降低,手机、微型笔记本电脑等智能移动终端设备的产量逐年上升,从而在很大程度上带动了无线WiFi的飞速发展。无论是在餐厅、大型综合商场、连锁酒店等商业场所,还是在火车站、综合医院、学校等公共场所,无线WiFi的身影随处可见。它的普及无论是在工作上,还是在生活上都为我们带来了很大的便利。
在无线通信领域中的信道状态信息是指已知的通信链路的信道特性。信道状态信息不仅可以被用来描述信号在发射端和接收端之间的传播过程,还可以被用来表示信号的散射、信号的衰落和随着距离的增大而导致的功率的衰减等信号的复合效应,所以信道状态信息也被称为信道估计。由于信道状态信息可以使信号的传输适应当前的信道状态,从而使信号能够达到在高数据率的多天线系统中可靠传输的目的。
随着计算机科学的飞速发展与人工智能应用领域的不断扩大,手势识别在人机交互(Human-Computer Interaction,HCI)中变得越来越重要,进而为广泛的新兴应用提供技术支持,例如智能家居、虚拟现实和移动游戏等。传统识别方法通常依赖于由用户佩戴的专用传感器或者配有摄像头的相机。以往的研究大多是在识别手势的种类多样性和识别的准确度问题上做出改进,针对手势一致性识别问题的相关研究较少。因此,本文展开了基于信道状态信息(CSI)的关于位置无关的手势一致性识别的研究,力图增强手势识别系统的鲁棒性。
发明内容
本发明的目的在于提供一种能在商用无线网络环境下使用基于信道状态信息的方法,根据不同位置的同一种手势动作,识别出是同一种动作的手势一致性识别的方法,并在此方法的基础上按照该方法设计出的一种评估装置。位置无关的手势一致性识别在日常生活和工作学习中发挥着重要作用。例如,在家庭生活中,人们通过手势控制家用电器,如控制照明设备、音乐设备,调节空调温度,操控电视换台等,位置无关的手势一致性识别可以保证用户在房间内任意位置都能实现对智能家居的操控,这极大的方便了用户的操作;在教学或会议中,用手势控制PPT的翻页,文档的展示等,位置无关的手势一致性识别可以保证在教室或会议室内任何位置都能准确地进行操控,为教学和会议提供了便利。
一种基于信道状态信息的位置无关的手势识别方法,包括以下步骤:
(1)收集无线信道状态信息;
(2)将收集到的信息经过预处理操作后提取出对应的90个子载波的信息,通过程序文件提取出其中的幅值信息;
(3)对提取到的子载波中的幅度数据进行主成分分析,去噪降维;
(4)对数据做离散小波阈值去噪处理;
(5)使用一种基于滑动窗口的方差阈值方法在去噪后的完整子载波中提取出手势动作;
(6)计算出提取到的手势动作数据的峰峰值和标准差,将它们作为时域上的特征值;计算出信息熵,作为频域上的特征值;计算出每组异常数据中小波系数的平均值,作为时频域上的特征值;
(7)将作为训练集的特征值数据矩阵中的每个位置手势动作的数据分别放入随机森林分类器中进行训练;
(8)按照步骤(6)中的方法将步骤(2)中剩余数据的特征值提取出来,形成测试集的特征值数据矩阵;
(9)将测试集和训练集特征矩阵带入随机森林分类器中进行分类,统计分类结果;
(10)在输出模块输出评估报告和以动态图形的形式显示各类安全指标的运行状态。
所述对提取到的子载波中的幅度数据进行主成分分析,去噪降维,包括:
原始数据为a行b列的矩阵A
(3.1)求出矩阵每行数据的平均值,将矩阵中的每一个数据减去该值;
(3.2)计算协方差矩阵
(3.3)计算C中的特征值和特征向量;
(3.4)将特征向量按对应特征值大小从上到下按行排列,将前y行组成矩阵B;
(3.5)利用公式P=BA,得到处理后的y维数据P。
所述使用一种基于滑动窗口的方差阈值方法在去噪后的完整子载波中提取出手势动作,包括:
向上挥手、向下挥手、向左挥手、向右挥手四个动作所用的滑动窗口大小分别为1.8s,1.8s,1.6s,1.6s。
一种基于信道状态信息的位置无关的手势识别系统,由原始数据的采集及预处理模块、有效数据去噪模块、手势动作数据提取模块、特征值提取及分类器分类模块四部分组成。
本发明的有益效果在于:
本发明针对同一人在不同位置的手势一致性识别问题的解决方法具有较高的识别准确率,其不仅可以对四种手势进行识别,还能在视距路径和非视距路径两种条件下进行识别,极大的增强了手势识别系统的鲁棒性。
附图说明
图1是本发明的处理流程图。
图2是本发明去噪过程。
图3是本发明在视距路径下的实验结果。
图4是本发明在非视距路径下的实验结果。
具体实施方式
下面结合附图对本发明做进一步描述。
本发明属于人工智能领域,涉及面向基于无线网络中的信道状态信息的位置无关的手势识别方法。
随着互联网技术的不断成熟,网络硬件设备和网络软件设备的成本逐步降低,手机、微型笔记本电脑等智能移动终端设备的产量逐年上升,从而在很大程度上带动了无线WiFi的飞速发展。无论是在餐厅、大型综合商场、连锁酒店等商业场所,还是在火车站、综合医院、学校等公共场所,无线WiFi的身影随处可见。它的普及无论是在工作上,还是在生活上都为我们带来了很大的便利。
在无线通信领域中的信道状态信息是指已知的通信链路的信道特性。信道状态信息不仅可以被用来描述信号在发射端和接收端之间的传播过程,还可以被用来表示信号的散射、信号的衰落和随着距离的增大而导致的功率的衰减等信号的复合效应,所以信道状态信息也被称为信道估计。由于信道状态信息可以使信号的传输适应当前的信道状态,从而使信号能够达到在高数据率的多天线系统中可靠传输的目的。
随着计算机科学的飞速发展与人工智能应用领域的不断扩大,手势识别在人机交互(Human-Computer Interaction,HCI)中变得越来越重要,进而为广泛的新兴应用提供技术支持,例如智能家居、虚拟现实和移动游戏等。传统识别方法通常依赖于由用户佩戴的专用传感器或者配有摄像头的相机。以往的研究大多是在识别手势的种类多样性和识别的准确度问题上做出改进,针对手势一致性识别问题的相关研究较少。因此,本文展开了基于信道状态信息(CSI)的关于位置无关的手势一致性识别的研究,力图增强手势识别系统的鲁棒性。
本发明的目的在于提供一种能在商用无线网络环境下使用基于信道状态信息的方法,根据不同位置的同一种手势动作,识别出是同一种动作的手势一致性识别的方法,并在此方法的基础上按照该方法设计出的一种评估装置。位置无关的手势一致性识别在日常生活和工作学习中发挥着重要作用。例如,在家庭生活中,人们通过手势控制家用电器,如控制照明设备、音乐设备,调节空调温度,操控电视换台等,位置无关的手势一致性识别可以保证用户在房间内任意位置都能实现对智能家居的操控,这极大的方便了用户的操作;在教学或会议中,用手势控制PPT的翻页,文档的展示等,位置无关的手势一致性识别可以保证在教室或会议室内任何位置都能准确地进行操控,为教学和会议提供了便利。
本发明是一种基于无线网络中的信道状态信息的位置无关的手势一致性识别系统;所述手势识别系统包括原始数据的采集及预处理模块、有效数据去噪模块、手势动作数据提取模块、特征值提取及分类器分类模块;
原始数据的采集及预处理模块,原始数据的采集模块主要是通过华盛顿大学开发的CSI Tools工具来完成的,该工具可以根据发射天线m和接收天线n的个数形成一个m*n的矩阵,用于表示收集到的原始数据,其中原始数据中包含了幅值和相位信息。由于收集到的原始数据不能实时的检测和同步的校正无线设备和商用无线网卡所存在的误差数据,所以需要通过原始数据的预处理模块对收集到的原始相位数据进行线性变换来消除信号中原本就具有的显著的噪声,从而获得有效的幅值信息。以相应的数据结构将这些信息存储在matlab软件中的临时数据文件中,为下一步原始数据的去噪工作做准备;
有效数据去噪模块,有效数据去噪模块主要是通过对上一步提取到的有效数据进行处理,在尽最大可能去除混杂在其中的噪声的同时,较好的保留了不同手势的发出者所具有的明显区别于他人的特征,为下一步手势异常数据的提取工作做准备;
手势动作数据提取模块,手势动作数据提取模块主要是通过使用基于滑动窗口的方差阈值法,从经过去噪处理之后的数据中分离出混杂在其中的手势动作数据,为下一步特征值的提取工作做准备;
特征值提取及分类器分类模块,特征值提取及分类器分类模块包括特征值提取模块和分类器分类模块两部分,特征值提取模块用于从上一步得到的手势动作数据模块中提取出能够区分不同种手势动作且与位置无关的一种或几种在时域、频域或时频域上的特征值;分类器分类模块用于选择能够对提取出的特征值数据进行区分的分类器,并使用该分类器对提取到的所有位置的数据通过已经训练出来的训练集特征值进行分类。
本发明是针对位置无关的手势一致性识别问题的研究,从信道状态信息的预处理到特征提取,再到训练集的训练和测试集的分类。在预处理过程中,提取幅值信息、对幅值信息进行主成分分析、用离散小波阈值去噪法对数据去噪,再用基于滑动窗口的方差阈值方法提取手势动作,并在提取出的手势动作样本上,分别对峰峰值、标准差、信息熵和小波系数的平均值进行计算,得到特征的数据样本,并将特征样本分成训练集和测试集,利用分类器进行训练和分类。通过对实验结果的分析,发现在视距路径下,在不同位置处四种手势的平均识别率为93.5%。在非视距路径下,在不同位置处四种手势的平均识别率为86.75%。实验结果表明,针对同一人在不同位置的手势一致性识别问题的解决方法具有较高的识别准确率,其不仅可以对四种手势进行识别,还能在视距路径和非视距路径两种条件下进行识别,极大的增强了手势识别系统的鲁棒性。
步骤1首先使用华盛顿大学发布的一款运行于商用802.11n网卡上的工具,该工具运行在Intel 5300无线网卡上配备有3根天线的Linux操作系统下,收集基于802.11标准的无线信道状态信息。
步骤2将收集到的信息经过预处理操作后提取出对应的90个子载波的信息,通过程序文件amplitude.m提取出其中的幅值信息;
步骤3对提取到的子载波中的幅度数据进行主成分分析,去噪降维;
步骤4对以上处理后的数据做离散小波阈值去噪处理;
步骤5使用一种基于滑动窗口的方差阈值方法在去噪后的完整子载波中提取出手势动作。实验中提取向上挥手、向下挥手、向左挥手、向右挥手四个动作所用的滑动窗口大小分别为1.8s,1.8s,1.6s,1.6s。
步骤6对提取到的手势动作数据分别使用matlab中自带的max、min和std函数计算出峰峰值和标准差,将它们作为时域上的特征值;使用自己编写的entropy.m文件计算出信息熵,作为频域上的特征值;使用自己编写的wavevarlet.m文件计算出每组异常数据中小波系数的平均值,作为时频域上的特征值;将计算得出的以上四种结果作为既与位置无关,又能区分四种不同手势的特征。
步骤7将作为训练集的特征值数据矩阵中的每个位置手势动作的数据分别放入随机森林分类器中进行训练,确保训练集中的不同手势的特征值之间没有交集;
步骤8按照步骤6中的方法将剩余数据中的特征值提取出来,形成测试集的特征值数据矩阵;
步骤9将测试集和训练集特征矩阵带入随机森林分类器中进行分类,统计分类结果。
步骤10在输出模块输出评估报告和以动态图形的形式显示各类安全指标的运行状态。
其中主成分分析算法过程如下:
步骤1设原始数据为a行b列的矩阵A。
步骤2求出矩阵每行数据的平均值,将矩阵中的每一个数据减去该值。
步骤3计算协方差矩阵
步骤4计算C中的特征值和特征向量。
步骤5将特征向量按对应特征值大小从上到下按行排列,将前y行组成矩阵B。
步骤6利用公式P=BA,得到处理后的y维数据P。

Claims (4)

1.一种基于信道状态信息的位置无关的手势识别方法,其特征在于,包括以下步骤:
(1)收集无线信道状态信息;
(2)将收集到的信息经过预处理操作后提取出对应的90个子载波的信息,通过程序文件提取出其中的幅值信息;
(3)对提取到的子载波中的幅度数据进行主成分分析,去噪降维;
(4)对数据做离散小波阈值去噪处理;
(5)使用一种基于滑动窗口的方差阈值方法在去噪后的完整子载波中提取出手势动作;
(6)计算出提取到的手势动作数据的峰峰值和标准差,将它们作为时域上的特征值;计算出信息熵,作为频域上的特征值;计算出每组异常数据中小波系数的平均值,作为时频域上的特征值;
(7)将作为训练集的特征值数据矩阵中的每个位置手势动作的数据分别放入随机森林分类器中进行训练;
(8)按照步骤(6)中的方法将步骤(2)中剩余数据的特征值提取出来,形成测试集的特征值数据矩阵;
(9)将测试集和训练集特征矩阵带入随机森林分类器中进行分类,统计分类结果;
(10)在输出模块输出评估报告和以动态图形的形式显示各类安全指标的运行状态。
2.根据权利要求1所述的一种基于信道状态信息的位置无关的手势识别方法,其特征在于,所述对提取到的子载波中的幅度数据进行主成分分析,去噪降维,包括:
原始数据为a行b列的矩阵A
(3.1)求出矩阵每行数据的平均值,将矩阵中的每一个数据减去该值;
(3.2)计算协方差矩阵
(3.3)计算C中的特征值和特征向量;
(3.4)将特征向量按对应特征值大小从上到下按行排列,将前y行组成矩阵B;
(3.5)利用公式P=BA,得到处理后的y维数据P。
3.根据权利要求1所述的一种基于信道状态信息的位置无关的手势识别方法,其特征在于,所述使用一种基于滑动窗口的方差阈值方法在去噪后的完整子载波中提取出手势动作,包括:
向上挥手、向下挥手、向左挥手、向右挥手四个动作所用的滑动窗口大小分别为1.8s,1.8s,1.6s,1.6s。
4.一种基于信道状态信息的位置无关的手势识别系统,其特征在于,由原始数据的采集及预处理模块、有效数据去噪模块、手势动作数据提取模块、特征值提取及分类器分类模块四部分组成。
CN201910300112.1A 2019-04-15 2019-04-15 一种基于信道状态信息的位置无关的手势识别方法及系统 Active CN110059612B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910300112.1A CN110059612B (zh) 2019-04-15 2019-04-15 一种基于信道状态信息的位置无关的手势识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910300112.1A CN110059612B (zh) 2019-04-15 2019-04-15 一种基于信道状态信息的位置无关的手势识别方法及系统

Publications (2)

Publication Number Publication Date
CN110059612A true CN110059612A (zh) 2019-07-26
CN110059612B CN110059612B (zh) 2022-11-18

Family

ID=67318860

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910300112.1A Active CN110059612B (zh) 2019-04-15 2019-04-15 一种基于信道状态信息的位置无关的手势识别方法及系统

Country Status (1)

Country Link
CN (1) CN110059612B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111222581A (zh) * 2020-01-13 2020-06-02 山东汇贸电子口岸有限公司 一种基于改进分类算法的云存储手势识别系统及方法
CN111626174A (zh) * 2020-05-22 2020-09-04 哈尔滨工程大学 一种基于信道状态信息的姿态鲁棒动作识别方法
CN112364769A (zh) * 2020-11-11 2021-02-12 天津大学 基于商用Wi-Fi的人群计数方法
CN113609976A (zh) * 2021-08-04 2021-11-05 燕山大学 一种基于WiFi设备的方向敏感多手势识别系统及方法
CN114764580A (zh) * 2022-06-15 2022-07-19 湖南工商大学 一种基于无穿戴设备的实时人体手势识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633227A (zh) * 2017-09-15 2018-01-26 华中科技大学 一种基于csi的细粒度手势识别方法和系统
CN109325399A (zh) * 2018-07-13 2019-02-12 哈尔滨工程大学 一种基于信道状态信息的陌生人手势识别方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633227A (zh) * 2017-09-15 2018-01-26 华中科技大学 一种基于csi的细粒度手势识别方法和系统
US20190087654A1 (en) * 2017-09-15 2019-03-21 Huazhong University Of Science And Technology Method and system for csi-based fine-grained gesture recognition
CN109325399A (zh) * 2018-07-13 2019-02-12 哈尔滨工程大学 一种基于信道状态信息的陌生人手势识别方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MOHAMMED ABDULAZIZ AIDE AL-QANESS等: "基于信道状态信息的人体行为识别系统", 《武汉理工大学学报》 *
王正杰等: "基于CSI的行为识别研究综述", 《计算机工程与应用》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111222581A (zh) * 2020-01-13 2020-06-02 山东汇贸电子口岸有限公司 一种基于改进分类算法的云存储手势识别系统及方法
CN111626174A (zh) * 2020-05-22 2020-09-04 哈尔滨工程大学 一种基于信道状态信息的姿态鲁棒动作识别方法
CN111626174B (zh) * 2020-05-22 2023-03-24 哈尔滨工程大学 一种基于信道状态信息的姿态鲁棒动作识别方法
CN112364769A (zh) * 2020-11-11 2021-02-12 天津大学 基于商用Wi-Fi的人群计数方法
CN112364769B (zh) * 2020-11-11 2023-07-21 天津大学 基于商用Wi-Fi的人群计数方法
CN113609976A (zh) * 2021-08-04 2021-11-05 燕山大学 一种基于WiFi设备的方向敏感多手势识别系统及方法
CN113609976B (zh) * 2021-08-04 2023-07-21 燕山大学 一种基于WiFi设备的方向敏感多手势识别系统及方法
CN114764580A (zh) * 2022-06-15 2022-07-19 湖南工商大学 一种基于无穿戴设备的实时人体手势识别方法

Also Published As

Publication number Publication date
CN110059612B (zh) 2022-11-18

Similar Documents

Publication Publication Date Title
CN110059612A (zh) 一种基于信道状态信息的位置无关的手势识别方法及系统
Zhang et al. Data augmentation and dense-LSTM for human activity recognition using WiFi signal
Li et al. WiFinger: Talk to your smart devices with finger-grained gesture
Tan et al. WiFinger: Leveraging commodity WiFi for fine-grained finger gesture recognition
He et al. WiG: WiFi-based gesture recognition system
Zhang et al. Wifi-id: Human identification using wifi signal
CN107968689A (zh) 基于无线通信信号的感知识别方法及装置
CN109325399B (zh) 一种基于信道状态信息的陌生人手势识别方法及系统
US20190087654A1 (en) Method and system for csi-based fine-grained gesture recognition
CN110502105B (zh) 一种基于csi相位差的手势识别系统及识别方法
Gu et al. BeSense: Leveraging WiFi channel data and computational intelligence for behavior analysis
CN107749143A (zh) 一种基于WiFi信号的穿墙室内人员跌倒探测系统及方法
CN110414468B (zh) WiFi环境下基于手势信号的身份验证方法
CN107527016B (zh) 室内WiFi环境下基于动作序列检测的用户身份识别方法
Zhu et al. NotiFi: A ubiquitous WiFi-based abnormal activity detection system
Uysal et al. RF-Wri: An efficient framework for RF-based device-free air-writing recognition
Zhu et al. Wi-ATCN: Attentional temporal convolutional network for human action prediction using WiFi channel state information
Jia et al. BeAware: Convolutional neural network (CNN) based user behavior understanding through WiFi channel state information
Chen et al. Dynamic gesture recognition using wireless signals with less disturbance
Zhang et al. WiEnhance: Towards data augmentation in human activity recognition using WiFi signal
Bu et al. Wi-fi based gesture recognition using deep transfer learning
Pan et al. Dynamic hand gesture detection and recognition with WiFi signal based on 1d-CNN
Mei et al. WiWave: WiFi-based human activity recognition using the wavelet integrated CNN
CN113051972A (zh) 一种基于WiFi的手势识别系统
CN111475030A (zh) 一种利用近红外传感器的微手势识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant