CN113466852B - 应用于随机干扰场景下的毫米波雷达动态手势识别方法 - Google Patents
应用于随机干扰场景下的毫米波雷达动态手势识别方法 Download PDFInfo
- Publication number
- CN113466852B CN113466852B CN202110638006.1A CN202110638006A CN113466852B CN 113466852 B CN113466852 B CN 113466852B CN 202110638006 A CN202110638006 A CN 202110638006A CN 113466852 B CN113466852 B CN 113466852B
- Authority
- CN
- China
- Prior art keywords
- sequence
- layer
- frame
- dimensional
- millimeter wave
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000011176 pooling Methods 0.000 claims abstract description 40
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 32
- 238000009826 distribution Methods 0.000 claims abstract description 24
- 230000007246 mechanism Effects 0.000 claims abstract description 15
- 238000002592 echocardiography Methods 0.000 claims abstract description 8
- 230000002401 inhibitory effect Effects 0.000 claims abstract description 5
- 230000009466 transformation Effects 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 38
- 238000005070 sampling Methods 0.000 claims description 14
- 238000004458 analytical method Methods 0.000 claims description 6
- 238000000354 decomposition reaction Methods 0.000 claims description 5
- 230000002829 reductive effect Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 230000014509 gene expression Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 10
- 238000013507 mapping Methods 0.000 abstract 1
- 238000004590 computer program Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000012549 training Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000012360 testing method Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000012795 verification Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000975 dye Substances 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Mathematics (AREA)
- Molecular Biology (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Algebra (AREA)
- Electromagnetism (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种应用于随机干扰场景下的毫米波雷达动态手势识别方法,包括如下步骤:解析雷达原始回波序列;通过基于时间分布层的包装器、一维卷积与全局池化层和输入数据块结构搭建卷积神经网络模块;利用卷积神经网络模块的一维时序卷积神经网络对雷达回波进行特征信息提取;通过帧间自注意机制为提取的特征分配权重值,获得序列的帧间相关性并抑制随机干扰;通过全局平均池化层和全连接层将前面提取的特征经过非线性变换映射到标签集,并输出识别结果。本发明实现了随机动态干扰信号和手势信号的有效分辨,提高了对于手势的识别精度,解决了在有人为干扰的应用场景下鲁棒性较差,容易产生错误识别的问题,保证了良好的识别效果。
Description
技术领域
本发明属于毫米波雷达手势识别技术领域,涉及雷达信号处理和深度学习技术,具体涉及一种应用于随机干扰场景下的毫米波雷达动态手势识别方法。
背景技术
近年来,非接触式的手势识别在智能家居、辅助手语交流、无接触式外科手术等领域得到广泛应用。毫米波雷达具有穿透障碍物和捕获细微动作的能力,可以在无光照环境下工作,通常被选作无接触式手势识别的传感器,如谷歌公司开发的应用于人机交互的Project Soli传感器。
从毫米波雷达信号中获取目标的特征是识别动态手势的关键。在早期阶段,研究人员主要是利用雷达回波对手势的距离、多普勒和角度等低维特征进行参数估计,从而得到各种手势特征谱图,然后将特征谱图以图片数据集的形式输入支持向量机或卷积神经网络(Convolutional Neural Networks,CNN)等分类器进行识别。例如,文献“S.Ryu,J.Suh,S.Baek,S.Hong and J.Kim,"Feature-Based Hand Gesture Recognition Using an FMCWRadar and its Temporal Feature Analysis,"in IEEE Sensors Journal,vol.18,no.18,pp.7593-7602,15Sept.15,2018.”利用FMCW雷达获取距离-多普勒图(Range-Doppler Map,RDM),通过量子进化算法(quantum-inspired evolutionary algorithm,QEA)进行特征选择,并依靠RDM特征集中提取的特征子集分类动态手势。文献“S.Hazra andA.Santra,"Short-Range Radar-Based Gesture Recognition System Using 3D CNNWith Triplet Loss,"in IEEE Access,vol.7,pp.125623-125633,2019.”提出一种基于距离维特征的元学习方法,以3D-CNN模型为框架,采用k最近邻(kNN)算法对已知手势进行分类,距离阈值用于拒绝未知手势,并用聚类法添加新的自定义手势,而无需对模型重新训练。然而,这些方法依靠从时频分布中进行人工选择和提取特征,人为构建的频谱图数据破坏了手势数据的整体性,使识别模型由数据驱动转变成了特征驱动,其性能受特征利用率的影响较大。
相比之下,深度学习方法提取的特征是从数据中训练出来的,具有学习高维特征(如特征重要性,时间相关性等)的能力。而且,诸如递归神经网络(RNN)和注意力机制等方法也已被用来开发雷达回波中的时间信息。基于此,文献“S.Hazra and A.Santra,"RobustGesture Recognition Using Millimetric-Wave Radar System,"in IEEE SensorsLetters,vol.2,no.4,pp.1-4,Dec.2018,Art no.7001804.”针对距离多普勒图像序列建立了一种混合神经网络,设计全卷积神经网络用于提取谱图中的特征,并采用LSTM层进行时间序列建模,最后通过全连接层输出手势分类标签。文献“C.Du,L.Zhang,X.Sun,J.Wangand J.Sheng,"Enhanced Multi-Channel Feature Synthesis for Hand GestureRecognition Based on CNN With a Channel and Spatial Attention Mechanism,"inIEEE Access,vol.8,pp.144610-144620,2020.”针对复杂环境下的手势识别,提出了一种基于空间多普勒注意机制的神经网络模型。该模型首先通过快速傅里叶变换(FFT)和数字波束形成构建多特征谱图的时间序列,采用基于时间分布的卷积神经网络学习特征,然后通过多普勒注意机制抑制干扰以获得有效手势信息,最后传递到LSTM层进行时间建模和分类。最近,一些研究专注于从原始雷达信号中提取时间相关性和抑制噪声,并且已成功应用于人类活动识别。例如,文献“Chen,H.,and W.Ye."Classification of Human ActivityBased on Radar Signal Using 1-D Convolutional Neural Network."IEEE Geoscienceand Remote Sensing Letters PP.99(2019):1-5.”首次提出了一种以雷达原始回波序列为输入的端到端一维CNN,利用一维卷积层替代提取特征的STFT算法,用于识别雷达信号中的人类活动。文献“R.Zhao,X.Ma,X.Liu and F.Li,"Continuous Human MotionRecognition Using Micro-Doppler Signatures in the Scenario With Micro MotionInterference,"in IEEE Sensors Journal,vol.21,no.4,pp.5022-5034,15Feb.15,2021.”设计了一种信号预处理结构,采用经验模态分解(Empirical Mode Decomposition,EMD)去除雷达原始信号中的微运动干扰,并通过多窗口时频表示(Multiwindow Time-Frequency Representation,MTFR)进行时频分析,得到高度集中的时频分布(the time-frequency distribution,TFD),然后从TFD中识别出连续的人体运动。
但是,大多数研究主要集中在无干扰情况下的动态手势识别。在实际应用中往往存在人为干扰的情况,此时有效手势特征是我们关注的对象,因此特征的关联性和重要性将对识别起决定性作用。传统识别方法将动态手势的雷达回波表示到时频域(如TFD或RDM),时频分析等方法仅能对信号进行降噪处理,难以捕捉有效手势的特征关联性。而且,在接收的雷达回波信号中,随机动态干扰信号会与手势信号混合而难以分辨。
发明内容
发明目的:为了克服现有技术中存在的随机干扰的情况下难以分辨干扰信号和手势信号的问题,提供一种应用于随机干扰场景下的基于自注意时序神经网络(Self-attention Time-series Neural Networks,Atten-TsNN)的毫米波雷达动态手势识别方法,实现了随机动态干扰信号和手势信号的有效分辨,提高了对于手势的识别精度。
技术方案:为实现上述目的,本发明提供一种应用于随机干扰场景下的毫米波雷达动态手势识别方法,包括如下步骤:
S1:通过毫米波雷达捕获手势信息,解析雷达原始回波序列,按雷达原始回波的时域结构构建输入数据块;
S2:通过基于时间分布层的包装器、一维卷积与全局池化层和Inception V3结构搭建卷积神经网络模块;所述Inception V3结构用于对雷达原始回波预处理;
S3:利用卷积神经网络模块的一维时序卷积神经网络对雷达回波进行特征信息提取;
S4:通过帧间自注意机制为提取的特征分配权重值,获得序列的帧间相关性并抑制随机干扰;
S5:通过全局平均池化层(Global AvgPooling)和全连接(Fully Connected,FC)层将前面提取的特征经过非线性变换映射到标签集(Label),并输出识别结果。
进一步地,所述步骤S1中雷达原始回波序列的解析方法为:读入采集的雷达原始回波,按接收天线划分序列,设定每个序列长度,并按照实部和虚部分割,再根据帧划分序列,重组后得到结构为帧×序列×通道的输入数据块。
进一步地,所述步骤S2中卷积神经网络模块的搭建方法为:采用基于时间分布的一维卷积层(TimeDistributed Conv1D Layers,T-Conv1D)和池化层进行计算,采用一维卷积层和全局平均池化层搭建了具有一定宽度的TD-Inception子网组。
进一步地,所述步骤S4中帧间自注意机制根据帧序列中底层特征的关联性,计算帧与帧之间的特征距离,并为每一帧序列片段分配权重。
进一步地,所述权重的计算和分配方法为:
A1:通过全连接层初始化参数矩阵,定义帧序列映射:键(Key)、查询(Query)和值(Value);
A2:根据向量点积的几何意义,计算Query与Key之间的帧间相关性,得到注意力得分;
A3:通过softmax函数对注意力得分进行归一化处理获得得分权重,并按得分权重对value进行加权求和。
进一步地,所述步骤A1中键(Key)、查询(Query)和值(Value)的表达式为:
其中,Query为输入帧序列的标准,用Key匹配这个标准得到每一帧的得分,最后将得分按比例分配给Value,Wi K表示匹配给第i帧序列得分的参数矩阵,Wi Q表示给第i帧序列的标准的参数矩阵,Wi V表示分配给第i帧序列Value的参数矩阵,xi为输入的第i帧的序列。
进一步地,所述步骤A1中参数矩阵为: dmodel=dQ=dK=320。
其中,Rd1×d2表示d1行d2列的实数矩阵,dmodel表示矩阵Wi Q、Wi K和Wi V的行数,dQ、dK和dV分别表示矩阵Wi Q、Wi K和Wi V列数。
进一步地,所述步骤A2中根据缩放点积(scaled dot-Product)法计算注意力得分,具体公式为:
其中,Qi表示矩阵Q的第i列向量。
进一步地,所述步骤A3的公式如下:
其中,通过缩放注意力得分QKT以获得更好的泛化能力。在获得权重的同时会以0.2的概率随机丢弃部分权值,防止训练过程过拟合。
进一步地,所述步骤S2中卷积神经网络的结构为:该卷积层具有三维结构,通过将维度为(T,d,c)的输入与k个步长为s的卷积核进行卷积和更新参数,生成k个特征序列,其中,T表示帧数,d表示帧序列的长度,c表示输入序列的通道,输出维度为(T,k,cow),其中(补零策略),表示只进行有效卷积,对帧序列边界不处理;
全局池化层的结构为:在网络中共使用了两类特殊的池化层,包括基于时间分布的一维最大池化采样层(TimeDistributed 1D MaxPooling layers,T-MaxPool1D)和全局平局池化采样层(Global Ave-Pooling Layers,G-AvePool),其中,一维最大池化采样层用于匹配基于时间分布的一维卷积层,保证序列的时间顺序不变,全局平局池化采样层用于替换全连接层,减少参数量;其计算方法与常规的最大池化层相似,对每一帧输入序列按p的倍数向下采样。
TD-Inception子网组的获取方法为:以Inception v3作为一维卷积神经网络模块的基础结构,搭建串联的TD-Inception子网组,为了保证帧序列的输入顺序在网络模型中保持不变,通过对二维的Inception v3改进得到TD-Inception结构,并通过池化层连接得到TD-Inception子网组;按照卷积因子分解的思想,将一维输入分为5个分支,再通过时间分布层的包装,最后得到其一维卷积形式为卷积核尺寸×数量。本发明网络中使用了3个相似的TD-Inception结构。
本发明提供了一种基于自注意时序神经网络的毫米波雷达动态手势识别方法,在输入端将雷达原始回波按帧、序列和通道构造时序矩阵,并以时间分布层为包装器搭建一维时序神经网络,实现对每一帧序列的独立特征提取,然后采用自注意机制为并行输入的帧序列分配权重,获得序列的帧间相关性并抑制随机干扰,最后通过全局平均池化层和全连接层完成模块间的衔接并输出手势类别标签。
上述方案可以归纳为如下两个步骤:
(1)将毫米波雷达回波矩阵作为网络的输入,按回波的时域结构构建数据块(帧×序列×通道),通过基于时间分布层的包装器、一维卷积与全局池化层和Inception V3结构搭建卷积神经网络模块,学习单帧特征的同时保留了动态手势的时序信息。
(2)针对存在随机干扰的情况,在一维卷积神经网络中连接帧间自注意力层,为并行输入的帧序列分配权重,以处理动态手势的帧间相关性,并抑制随机干扰。
有益效果:本发明与现有技术相比,针对存在随机干扰情况的动态手势识别问题,将设计的自注意时序神经网络应用到毫米波雷达动态手势识别当中,采用自注意机制为并行输入的帧序列分配权重,获得序列的帧间相关性并抑制随机干扰,实现了随机动态干扰信号和手势信号的有效分辨,提高了对于手势的识别精度,解决了在有人为干扰的应用场景下鲁棒性较差,容易产生错误识别的问题,保证了良好的识别效果。
附图说明
图1是本发明的流程示意图;
图2是雷达回波数据解析流程图;
图3是自注意时序神经网络(Atten-SeqNN)结构图;
图4是TD-Inception结构图;
图5是Frame Self-Attention结构图;
图6是定义的动态手势示意图;
图7是不同干扰占比下准确率比较图;
图8是可视化的FS-Atten输入输出图;
图9是Atten-TsNN混淆矩阵图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
一、本发明提供一种应用于随机干扰场景下的毫米波雷达动态手势识别方法,如图1所示,包括如下步骤:
S1:通过毫米波雷达捕获手势信息,解析雷达原始回波序列,按雷达原始回波的时域结构构建输入数据块;
S2:通过基于时间分布层的包装器、一维卷积与全局池化层和InceptionV3结构搭建卷积神经网络模块;
S3:利用卷积神经网络模块的一维时序卷积神经网络对雷达回波进行特征信息提取;
S4:通过帧间自注意机制为提取的特征分配权重值,获得序列的帧间相关性并抑制随机干扰;
S5:通过全局平均池化层(Global AvgPooling)和全连接(Fully Connected,FC)层将前面提取的特征经过非线性变换映射到标签集(Label),并输出识别结果。
如图2所示,步骤S1中雷达原始回波序列的解析方法为:采用77~81GHz毫米波雷达捕获手势信息。该雷达系统有3个发射天线和4个接收天线,发射信号为线性调频连续波(Linear Frequency Modulated Continuous Wave,LFMCW),发射功率为12dBm。通过数据采集卡与终端设备进行通信,终端读取数据并进行解析。首先将采集的雷达原始回波(以ADC_data.bin文件存储)以16位整型(int16)读入,然后按接收天线划分为4个序列,每个序列长度为采样点数(n_samples)和Chirp总数(Num_chirps)乘积的2倍,并按照实部和虚部分割,最后再根据帧划分序列,重组后得到结构为帧×序列×通道的输入数据块。本实施例中采用的接收天线(NRx)个数为4,故重组后的时间序列矩阵有8个通道。其中,每个通道的结构均为(Frames,n_samples*chirps),Frames表示手势采集时长(以帧为单位),chirps表示每一帧的chirp数,Num_chirps=Frames*chirps。
参照图3,步骤S2中卷积神经网络模块的搭建方法为:采用基于时间分布的一维卷积层(TimeDistributed Conv1D Layers,T-Conv1D)和池化层进行计算。T-Conv1D与传统二维卷积层(Conv2D)具有相似的计算方法,不同之处在于T-Conv1D可以获取每一帧序列中低相关性的特征,同时保留多帧序列的时间顺序。另外,由于时间分布层具有共享特征图权值的特性,使一维卷积层(Conv1D)在不增加算法计算复杂度的同时获得多对多运算的能力。此外,采用T-Conv1D和平均池化层搭建了具有一定宽度的TD-Inception子网组,可以有效提高训练速度和收敛速度。
BatchNorm2D(Frames):由于存在随机干扰,未经预处理的雷达原始回波在训练中难以收敛。因此需要对输入的时序矩阵进行标准化处理,本实施例采用BatchNormlization按帧对输入的数据矩阵进行标准化处理。
TimeDistributed Conv1D Layers(t,ks,k):该卷积层具有三维结构,通过将维度为(T,d,c)的输入与k个步长为s的卷积核进行卷积和更新参数,生成k个特征序列。其中,T表示帧数,d表示帧序列的长度,c表示输入序列的通道。输出维度为(T,k,cow),其中padding=“Valid”(补零策略),表示只进行有效卷积,对帧序列边界不处理。
Pooling Layers(t,p):本发明在网络中共使用了两类特殊的池化层,包括基于时间分布的一维最大池化采样层(TimeDistributed 1D MaxPooling layers,T-MaxPool1D)和全局平局池化采样层(Global Ave-Pooling Layers,G-AvePool)。T-MaxPool1D用于匹配T-Conv1D层,保证序列的时间顺序不变。G-AvePool用于替换全连接层,减少参数量。其计算方法与常规的最大池化层相似,对每一帧输入序列按p的倍数向下采样。
如图4所示,TD-Inception子网组:T-Conv1D在处理手势数据时,本质上仍然是对每一帧序列提取特征,但一维卷积对于多帧序列中的高层特征学习能力不足,需要通过扩展网络结构进一步学习丰富的空间特征。因此,本实施例以Inception v3作为一维卷积神经网络模块的基础结构,搭建串联的TD-Inception子网组。为了保证帧序列的输入顺序在网络模型中保持不变,通过对二维的Inception v3改进得到TD-Inception结构,并通过池化层连接得到TD-Inception子网组。按照卷积因子分解的思想,将一维输入分为5个分支,再通过时间分布层的包装,最后得到其一维卷积形式为卷积核尺寸×数量。本发明网络中使用了3个相似的TD-Inception结构。
参照图5,在实际应用中,随着手势持续的时间变长,TD-CNN模块难以学习多帧序列的关联性。虽然2DCNN可以通过堆叠多个卷积模块来增大感受野,但仍然是在空间和时间上的局部操作,缺乏对序列中前后时间片段的整体分析。因此,本发明借鉴人脑处理大量过载信息的方式,通过引入自注意力机制提高模型处理长序列信息的能力。另外,对于本发明设计的时序分类任务,部分目标手势的原始回波包含不相关的干扰动作,这些无规律的随机动作片段经常会误导神经网络分类器的训练,使网络收敛速度慢或识别率下降。为了分析序列中的关联信息,同时消除手势序列中的随机干扰,本发明设计了一种基于帧序列的自注意机制(Frame Self-Attention,FS-Atten),具体如图4所示,帧间自注意机制根据帧序列中底层特征的关联性,计算帧与帧之间的特征距离,并为每一帧序列片段分配权重。权重的计算和分配方法为:
A1:通过全连接层初始化参数矩阵,定义帧序列映射:键(Key)、查询(Query)和值(Value);
键(Key)、查询(Query)和值(Value)的表达式为:
其中,Query为输入帧序列的标准,用Key匹配这个标准得到每一帧的得分,最后将得分按比例分配给Value,Wi K表示匹配给第i帧序列得分的参数矩阵,Wi Q表示给第i帧序列的标准的参数矩阵,Wi V表示分配给第i帧序列Value的参数矩阵,xi为输入的第i帧的序列。
参数矩阵dmodel=dQ=dk=320;其中,Rd1×d2表示d1行d2列的实数矩阵,dmodel表示矩阵Wi Q、Wi K和Wi V的行数,dQ、dK和dV分别表示矩阵Wi Q、Wi K和Wi V列数。
在对参数矩阵尺寸的选取上,将Wv的最后一个维数进行了调整,令dout=32,使最后的输出维度尽可能小。
A2:根据向量点积的几何意义,计算Query与Key之间的帧间相关性,得到注意力得分;
本实施例中根据缩放点积(scaled dot-Product)法计算注意力得分,具体公式为:
其中,Qi表示矩阵Q的第i列向量。
A3:通过softmax函数对注意力得分进行归一化处理获得得分权重,并按得分权重对value进行加权求和。
公式如下:
其中,通过缩放注意力得分QKT以获得更好的泛化能力。在获得权重的同时会以0.2的概率随机丢弃部分权值,防止训练过程过拟合。
本发明还提供一种应用于随机干扰场景下的毫米波雷达动态手势识别系统,该系统包括网络接口、存储器和处理器;其中,网络接口,用于在与其他外部网元之间进行收发信息过程中,实现信号的接收和发送;存储器,用于存储能够在所述处理器上运行的计算机程序指令;处理器,用于在运行计算机程序指令时,执行上述共识方法的步骤。
本实施例还提供一种计算机存储介质,该计算机存储介质存储有计算机程序,在处理器执行所述计算机程序时可实现以上所描述的方法。所述计算机可读介质可以被认为是有形的且非暂时性的。非暂时性有形计算机可读介质的非限制性示例包括非易失性存储器电路(例如闪存电路、可擦除可编程只读存储器电路或掩膜只读存储器电路)、易失性存储器电路(例如静态随机存取存储器电路或动态随机存取存储器电路)、磁存储介质(例如模拟或数字磁带或硬盘驱动器)和光存储介质(例如CD、DVD或蓝光光盘)等。计算机程序包括存储在至少一个非暂时性有形计算机可读介质上的处理器可执行指令。计算机程序还可以包括或依赖于存储的数据。计算机程序可以包括与专用计算机的硬件交互的基本输入/输出系统(BIOS)、与专用计算机的特定设备交互的设备驱动程序、一个或多个操作系统、用户应用程序、后台服务、后台应用程序等。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
二、基于上述技术方案,为了验证本发明方法的效果,本实施例进行实验验证,具体如下:
采用的实验设备为AWR1443毫米波雷达传感器和DCA1000EVM采集卡。雷达回波通过采集卡传入到PC端,在PyCharm软件上使用numpy库进行数据解析。Atten-TsNN基于TensorFlow2.0深度学习框架,在配置为IntelI7-10700K处理器和NVIDIAGTX3090显卡的服务器上进行训练。
具体的实验过程为:
步骤1:初始化系统参数
给出雷达系统的配置如表1,其中每个手势的采集时间均为60帧(约2.05s)。
表1雷达传感器参数
参数 | 数量 |
发射天线数量(个) | 3 |
接收天线数量(个) | 4 |
采样时间(帧) | 64 |
帧周期(ms) | 32 |
Chirp数(个) | 32 |
带宽(MHz) | 1798.92 |
采样点数 | 64 |
采样率(MHz) | 10 |
步骤2:定义动态手势数据集
采用AWR1443雷达传感器配套的软件采集原始回波,自建手势原始回波数据集。共设计5种手势,包括顺时针圆形、三角形、折线沙漏、折线字母M和五角星五个运动手势,具体动作如图6所示。每一种手势重复采集数据600次,共3000个雷达原始回波数据。另外,在雷达和有效手势之间引入随机干扰,包括挥手、抛物等随机手势动作,占总数据量的25%。干扰手势在2秒的采集时间内随机出现,并与有效手势处于不同的角度。
步骤3:初始化Atten-TsNN模型
Atten-TsNN模型主要由基于时间分布的一维卷积和池化层搭建,一维卷积参数初始化情况如表2所示。其中TD-Inception结构的卷积核形式是k×i,k控制该结构的一维滤波器总数,i控制不同尺寸滤波器的分配比例。输入帧序列长度为2048,TD-Inception的i分别取4、6和7。T-Conv1D的卷积核形式为卷积核数量×卷积核尺寸,由于帧通道不参与卷积计算,故第二个通道的输出保持不变。
表2一维卷积参数配置
类型 | 卷积核+步长 | 参数量 | 输出尺寸 |
Input | - | 0 | (128,64,2048,8) |
T-Conv1D-1 | 64×48+8 | 24640 | (128,64,251,64) |
T-Conv1D-2 | 128×9+8 | 73856 | (128,64,31,128) |
TD-Inception(a) | 64×4+1 | 7248 | (128,64,31,192) |
T-MaxPool1D | 1×4+2 | 0 | (128,64,8,192) |
TD-Inception(b) | 64×6+1 | 10448 | (128,64,8,256) |
T-MaxPool1D | 1×4+2 | 0 | (128,64,2,256) |
TD-Inception(c) | 64×7+1 | 13584 | (128,64,2,320) |
T-MaxPool1D | 1×4+2 | 0 | (128,64,1,320) |
分析T-Conv1D-1滤波器尺寸对测试精度的影响。滤波器的尺寸从32开始测试,以8为增量单位进行最优调参(GridSearch),在保证T-Conv1D-2输出尺寸尽可能小的前提下,滤波器的最优尺寸为48。另外,为了探索FS-Atten模块在模型中的最优输入尺寸,通过调整T-Conv1D的步长使FS-Atten模块获得不同的输入。在设置输入FS-Atten为64×32的条件下,比较了FS-Atten输入尺寸对整个模型大小的影响,结果如表3所示。
表3 FS-Atten输入尺寸比较
FS-Atten输入 | T-Conv1D步长 | 模型大小 | 准确率 |
(128,64,2048) | 2 | 32.7MB | 96.69% |
(128,64,320) | 8 | 1.3MB | 98.43% |
步骤4:模型训练与在线验证
将数据集划分为训练集、验证集和测试集,以数据集的20%定义验证集和测试集,初始化学习率为3e-4。采用早停法(EarlyStopping)监听验证集的准确率,利用compile和fit函数定义损失,在泛化效果变差时结束模型训练。在训练中发现,当数据含有随机动态干扰的数据占比较少时,模型对含有干扰数据的抑制能力不足,具体表现如图6所示。从图中可以看出,干扰数据占比在5%-10%区间内,验证集和测试准确率呈下降趋势。随着干扰数据比例的提高,训练模型时能较好地拟合这部分数据,得到的验证集准确率均在96%以上,测试准确率也不断提高。考虑到实际情况,在后面的对比实验中将干扰数据占比均调整至25%。
为了分析FS-Atten模块对整个网络的贡献,从测试集中抽取5类手势对FS-Atten模块的输入和输出进行了可视化比较。为了便于与FS-Atten的输出(64×32)关联比较,将FS-Atten的输入(64×320)归一化到(0,1)区间,并按照AvePooling层的方法将长度为320的通道平均采样到32,得到维数为64×32的矩阵,如图8所示。从图中可以看出,64帧特征矩阵经过FS-Atten模块输出后得到的矩阵在帧维度上的排布更连贯,特征更加显著,相当于对图像做了锐化处理,使处理后不同手势间更易区分。
为了验证本发明所构建的神经网络的在线识别准确率,选取了未参与训练的两组数据作为测试集(包括有干扰和无干扰的两组数据),分析模型对每种手势的识别表现。图9给出了Atten-TsNN模型在测试集上得出的混淆矩阵。从图中可以看出,在有干扰的测试集中,手势2(三角形)和手势3(折线沙漏)的表现较差。在无干扰的测试集中,手势2(三角形)和手势4(折线M)的表现较差。这说明所提模型对这三类手势的辨识度不高,相互间较易混淆,而对于节点最多和最少的两类手势识别效果较好。
Claims (7)
1.应用于随机干扰场景下的毫米波雷达动态手势识别方法,其特征在于,包括如下步骤:
S1:通过毫米波雷达捕获手势信息,解析雷达原始回波序列,按雷达原始回波的时域结构构建输入数据块;
S2:通过基于时间分布层的包装器、一维卷积与全局池化层和InceptionV3网络结构搭建卷积神经网络模块;
S3:利用卷积神经网络模块的一维时序卷积神经网络对雷达回波进行特征信息提取;
S4:通过帧间自注意机制为提取的特征分配权重值,获得序列的帧间相关性并抑制随机干扰;
S5:通过全局平均池化层和全连接层将前面提取的特征经过非线性变换映射到标签集,并输出识别结果;
所述步骤S1中雷达原始回波序列的解析方法为:读入采集的雷达原始回波,按接收天线划分序列,设定每个序列长度,并按照实部和虚部分割,再根据帧划分序列,重组后得到结构为帧×序列×通道的输入数据块;
所述步骤S2中卷积神经网络模块的搭建方法为:采用基于时间分布的一维卷积层和池化层进行计算,采用一维卷积层和全局平均池化层搭建TD-Inception子网组;
所述步骤S2中卷积神经网络的结构为:该卷积层具有三维结构,通过将维度为(T,d,c)的输入与k个步长为s的卷积核进行卷积和更新参数,生成k个特征序列,其中,T表示帧数,d表示帧序列的长度,c表示输入序列的通道,输出维度为(T,k,cow),其中padding=“Valid”,补零策略,表示只进行有效卷积,对帧序列边界不处理;
全局池化层的结构为:在网络中共使用了两类特殊的池化层,包括基于时间分布的一维最大池化采样层和全局平局池化采样层,其中,一维最大池化采样层用于匹配基于时间分布的一维卷积层,保证序列的时间顺序不变,全局平局池化采样层用于替换全连接层,减少参数量;
TD-Inception子网组的获取方法为:以Inception v3作为一维卷积神经网络模块的基础结构,搭建串联的TD-Inception子网组,通过对二维的Inception v3改进得到TD-Inception结构,并通过池化层连接得到TD-Inception子网组;按照卷积因子分解的思想,将一维输入分为5个分支,再通过时间分布层的包装,最后得到其一维卷积形式为卷积核尺寸×数量。
2.根据权利要求1所述的应用于随机干扰场景下的毫米波雷达动态手势识别方法,其特征在于:所述步骤S4中帧间自注意机制根据帧序列中底层特征的关联性,计算帧与帧之间的特征距离,并为每一帧序列片段分配权重。
3.根据权利要求2所述的应用于随机干扰场景下的毫米波雷达动态手势识别方法,其特征在于:所述权重的计算和分配方法为:
A1:通过全连接层初始化参数矩阵,定义帧序列映射:键(Key)、查询(Query)和值(Value);
A2:根据向量点积的几何意义,计算Query与Key之间的帧间相关性,得到注意力得分;
A3:通过softmax函数对注意力得分进行归一化处理获得得分权重,并按得分权重对value进行加权求和。
4.根据权利要求3所述的应用于随机干扰场景下的毫米波雷达动态手势识别方法,其特征在于:所述步骤A1中键(Key)、查询(Query)和值(Value)的表达式为:
其中,Query为输入帧序列的标准,用Key匹配这个标准得到每一帧的得分,最后将得分按比例分配给Value,Wi K表示匹配给第i帧序列得分的参数矩阵,Wi Q表示给第i帧序列的标准的参数矩阵,Wi V表示分配给第i帧序列Value的参数矩阵,xi为输入的第i帧的序列,Frames表示手势采集时长。
5.根据权利要求4所述的应用于随机干扰场景下的毫米波雷达动态手势识别方法,其特征在于:所述步骤A1中参数矩阵为: dmodel=dQ=dK=320;
其中,Rd1×d2表示d1行d2列的实数矩阵,dmodel表示矩阵Wi Q、Wi K和Wi V的行数,dQ、dK和dV分别表示矩阵Wi Q、Wi K和Wi V列数。
6.根据权利要求5所述的应用于随机干扰场景下的毫米波雷达动态手势识别方法,其特征在于:所述步骤A2中根据缩放点积法计算注意力得分,具体公式为:
其中,Qi表示矩阵Q的第i列向量。
7.根据权利要求5所述的应用于随机干扰场景下的毫米波雷达动态手势识别方法,其特征在于:所述步骤A3的公式如下:
其中,通过缩放注意力得分QKT以获得更好的泛化能力。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110638006.1A CN113466852B (zh) | 2021-06-08 | 2021-06-08 | 应用于随机干扰场景下的毫米波雷达动态手势识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110638006.1A CN113466852B (zh) | 2021-06-08 | 2021-06-08 | 应用于随机干扰场景下的毫米波雷达动态手势识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113466852A CN113466852A (zh) | 2021-10-01 |
CN113466852B true CN113466852B (zh) | 2023-11-24 |
Family
ID=77869305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110638006.1A Active CN113466852B (zh) | 2021-06-08 | 2021-06-08 | 应用于随机干扰场景下的毫米波雷达动态手势识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113466852B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI804072B (zh) * | 2021-11-26 | 2023-06-01 | 國立陽明交通大學 | 使用毫米波雷達的即時物件運動狀態辨識方法 |
KR102660187B1 (ko) * | 2021-12-24 | 2024-04-23 | 성균관대학교산학협력단 | 레이더 및 메타표면을 이용한 딥러닝 기반의 키포인트 인식 시스템 |
CN114863572B (zh) * | 2022-07-07 | 2022-09-23 | 四川大学 | 一种多通道异构传感器的肌电手势识别方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107103277A (zh) * | 2017-02-28 | 2017-08-29 | 中科唯实科技(北京)有限公司 | 一种基于深度相机和3d卷积神经网络的步态识别方法 |
CN110175580A (zh) * | 2019-05-29 | 2019-08-27 | 复旦大学 | 一种基于时序因果卷积网络的视频行为识别方法 |
CN111160164A (zh) * | 2019-12-18 | 2020-05-15 | 上海交通大学 | 基于人体骨架和图像融合的动作识别方法 |
CN111190182A (zh) * | 2020-01-16 | 2020-05-22 | 电子科技大学 | 一种太赫兹雷达超高分辨成像方法 |
CN111339837A (zh) * | 2020-02-08 | 2020-06-26 | 河北工业大学 | 一种连续手语识别方法 |
CN111461037A (zh) * | 2020-04-07 | 2020-07-28 | 电子科技大学 | 一种基于fmcw雷达的端到端手势识别方法 |
CN111814626A (zh) * | 2020-06-29 | 2020-10-23 | 中南民族大学 | 一种基于自注意力机制的动态手势识别方法和系统 |
CN111967344A (zh) * | 2020-07-28 | 2020-11-20 | 南京信息工程大学 | 一种面向人脸伪造视频检测的精细化特征融合方法 |
CN112566174A (zh) * | 2020-12-02 | 2021-03-26 | 中国电子科技集团公司第五十二研究所 | 一种基于深度学习的异常i/q信号识别方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210142181A1 (en) * | 2019-11-07 | 2021-05-13 | Microsoft Technology Licensing, Llc | Adversarial training of machine learning models |
-
2021
- 2021-06-08 CN CN202110638006.1A patent/CN113466852B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107103277A (zh) * | 2017-02-28 | 2017-08-29 | 中科唯实科技(北京)有限公司 | 一种基于深度相机和3d卷积神经网络的步态识别方法 |
CN110175580A (zh) * | 2019-05-29 | 2019-08-27 | 复旦大学 | 一种基于时序因果卷积网络的视频行为识别方法 |
CN111160164A (zh) * | 2019-12-18 | 2020-05-15 | 上海交通大学 | 基于人体骨架和图像融合的动作识别方法 |
CN111190182A (zh) * | 2020-01-16 | 2020-05-22 | 电子科技大学 | 一种太赫兹雷达超高分辨成像方法 |
CN111339837A (zh) * | 2020-02-08 | 2020-06-26 | 河北工业大学 | 一种连续手语识别方法 |
CN111461037A (zh) * | 2020-04-07 | 2020-07-28 | 电子科技大学 | 一种基于fmcw雷达的端到端手势识别方法 |
CN111814626A (zh) * | 2020-06-29 | 2020-10-23 | 中南民族大学 | 一种基于自注意力机制的动态手势识别方法和系统 |
CN111967344A (zh) * | 2020-07-28 | 2020-11-20 | 南京信息工程大学 | 一种面向人脸伪造视频检测的精细化特征融合方法 |
CN112566174A (zh) * | 2020-12-02 | 2021-03-26 | 中国电子科技集团公司第五十二研究所 | 一种基于深度学习的异常i/q信号识别方法及系统 |
Non-Patent Citations (4)
Title |
---|
Deep attention network for egocentric action recognition;Lu M, Li Z N, Wang Y, et al.;《IEEE Transactions on Image Processing》;3703-3713 * |
Radar Gesture Recognition System in Presence of Interference using Self-Attention Neural Network;S. Hazra and A. Santra;《2019 18th IEEE International Conference On Machine Learning And Applications (ICMLA)》;1409-1414 * |
基于1D-ScNN的毫米波雷达动态手势识别方法;靳标、彭宇、邝晓飞、张贞凯;《电子与信息学报》;第1-8页 * |
基于自注意力机制的手势识别研究;李雅男;《万方硕士论文》;第20-30页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113466852A (zh) | 2021-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113466852B (zh) | 应用于随机干扰场景下的毫米波雷达动态手势识别方法 | |
CN110288018B (zh) | 一种融合深度学习模型的WiFi身份识别方法 | |
Seyfioğlu et al. | Deep neural network initialization methods for micro-Doppler classification with low training sample support | |
Lv et al. | Radar deception jamming recognition based on weighted ensemble CNN with transfer learning | |
Zhang et al. | Dynamic hand gesture classification based on radar micro-Doppler signatures | |
CN106295684B (zh) | 一种基于微多普勒特征的动态连续/非连续手势识别方法 | |
Al Hadhrami et al. | Transfer learning with convolutional neural networks for moving target classification with micro-Doppler radar spectrograms | |
Shao et al. | Deep fusion for radar jamming signal classification based on CNN | |
Liu et al. | Deep learning and recognition of radar jamming based on CNN | |
Zhang et al. | u-DeepHand: FMCW radar-based unsupervised hand gesture feature learning using deep convolutional auto-encoder network | |
CN111178331B (zh) | 雷达图像识别系统、方法、设备及计算机可读存储介质 | |
Zhao et al. | Cubelearn: End-to-end learning for human motion recognition from raw mmwave radar signals | |
Lei et al. | Automatic classification of radar targets with micro-motions using entropy segmentation and time-frequency features | |
CN110647788B (zh) | 一种基于微多普勒特征的人类日常行为分类方法 | |
CN111813222B (zh) | 一种基于太赫兹雷达的精细动态手势识别方法 | |
CN115308734A (zh) | 一种呼吸数据计算方法以及相关设备 | |
Tang et al. | Human activity recognition based on mixed CNN with radar multi-spectrogram | |
CN115343704A (zh) | 基于多任务学习的fmcw毫米波雷达的手势识别方法 | |
Jin et al. | Robust dynamic hand gesture recognition based on millimeter wave radar using atten-tsnn | |
Zhang et al. | Temporal-range-doppler features interpretation and recognition of hand gestures using MmW FMCW radar sensors | |
She et al. | RadarSpecAugment: A simple data augmentation method for radar-based human activity recognition | |
CN112764002B (zh) | 一种基于可变形卷积的fmcw雷达手势识别方法 | |
CN115469303A (zh) | 一种检测人体姿态和生命体征的认知生物雷达方法与装置 | |
CN116794602A (zh) | 一种应用于干扰环境下的毫米波雷达动态手势识别方法 | |
Song et al. | High-accuracy gesture recognition using mm-wave radar based on convolutional block attention module |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |