CN109829509A - 基于融合神经网络的雷达手势识别方法 - Google Patents

基于融合神经网络的雷达手势识别方法 Download PDF

Info

Publication number
CN109829509A
CN109829509A CN201910139215.4A CN201910139215A CN109829509A CN 109829509 A CN109829509 A CN 109829509A CN 201910139215 A CN201910139215 A CN 201910139215A CN 109829509 A CN109829509 A CN 109829509A
Authority
CN
China
Prior art keywords
signal
gesture
matrix
dimension
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910139215.4A
Other languages
English (en)
Other versions
CN109829509B (zh
Inventor
王沙沙
田增山
蒋青
王勇
周牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201910139215.4A priority Critical patent/CN109829509B/zh
Publication of CN109829509A publication Critical patent/CN109829509A/zh
Application granted granted Critical
Publication of CN109829509B publication Critical patent/CN109829509B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公布了一种基于融合神经网络的雷达手势识别方法,首先,利用二维快速傅立叶变换(Fast Fourier Transform,FFT)求取手势回波中频信号的频谱,采用谱峰估计计算出手势目标的距离和速度参数,并利用多重信号分类(Multiple Signal Classification,MUSIC)方法计算角度参数。其次,利用这三维参数在时间上的累积,将一个完整手势动作映射为多帧距离‑速度矩阵图和角度时间图。然后,利用手势参数图,建立融合神经网络。最后,利用融合神经网络进行手势特征提取和特征融合,并通过全连接层对手势特征进行分类。

Description

基于融合神经网络的雷达手势识别方法
技术领域
本发明属于手势识别技术,具体涉及一种基于融合神经网络的雷达手势识别方法。
背景技术
手势识别作为人机交互的重要组成部分,其研究发展影响着人机交互的自然性和灵活性并且在各个领域广泛应用。在家庭娱乐方面,根据用户在游戏环境中左右挥动等动作来控制游戏中的角色,使得用户体验效果更好。在智能驾驶方面,由于司机在驾驶过程中可能被车载导航系统电话系统分散注意力,可以通过识别驾驶员手势动作完成对导航系统以及车载娱乐系统的控制,提高驾驶的安全性。
在无线技术的手势识别中,主要利用无线设备采集手势信号,再通过信号处理分析手势信号中的频域信息,提取手势的运动参数,然后通过聚类、动态时间规整和隐马尔可夫模型等方法进行识别。该方法的信号来源包括雷达信号、超带宽(Ultra-WideBand,UWB)和无线信道状态信息。利用无线信道状态信息和太赫兹雷达信号获取数据源,并利用手势径向速度表征手势行为,避免了光照等非视距影响。但在每一时刻直接计算一个距离标量值来表示手势特征信息,使得特征提取不全,从而降低了手势识别的准确率。
总之,基于无线电的手势识别方法,由于数据特征信息不全,使得手势识别精度较低。基于上述分析,本发明提出了一种基于调频连续波(FrequencyModulatedContinuousWave,FMCW)雷达多参数图像的融合神经网络手势识别方法
发明内容
本发明的目的是提供一种基于融合神经网络的雷达手势识别方法,它能有效的解决传统手势识别中特征不全的问题,且能实现多种手势的精确分类。
本发明所述的基于融合神经网络的雷达手势识别方法,包括以下步骤:
步骤一、将发射信号和接收信号输入到混频器,通过低通滤波器滤除高频部分,再经过采样和基带信号处理后得到中频信号SIF(t)和中频信号频率fIF
步骤二、根据中频信号计算手势目标的距离d和速度v。
步骤三、对中频信号128个脉冲周期采样64个点进行快速傅里叶变换,将结果中同一频点的复信号生成一个新的频移信号,进而再对此信号进行FFT得到多普勒频移fFFT,从而可以生成手势的距离-速度图。
步骤四、根据MUSIC算法估计手势目标的角度θ。
步骤五、对雷达发送的每一帧信号估计按照步骤四计算角度,将计算结果按时间顺序构成一个角度时间图,如图4所示。
步骤六、将生成的距离-速度图预处理为深度学习网络的输入数据Xinput,并初始化三维卷积神经网络权重。
步骤七、将输入信号矩阵Xinput1进行卷积池化操作获取初步的浅层特征结果,得到池化矩阵Pool1
步骤八、将池化矩阵Pool1重复步骤七中的卷积核池化操作,设置卷积核个数nkernel2,得到表示特征图的池化结果Pool2
步骤九、对池化结果Pool2进行进一步的卷积池化以提取深度特征结果,得到池化矩阵Pool3
步骤十、将池化矩阵Pool3按照步骤十一重复两次进行卷积核池化操作,得到nkernel5个f1′×m′1×n′1维的特征映射图Pool5,其中f1′表示特征图帧数,m′1和n′1分别表示特征图的宽和高。本实验中f1′=1,m′1=2,n′1=4。
步骤十一、将nkernel5个f1′×m′1×n′1维的特征映射图Feat5维度转置得到s1×s2维的特征向量Xfeature1,其中s1和s2分别表示特征向量的维度和长度。本实验中s1=1,s2=1024。
步骤十二、将生成的角度时间图预处理为深度学习网络的输入数据Xinput2,并初始化二维卷积神经网络权重。
步骤十三、将输入矩阵信号Xinput2根据步骤十二中的卷积核参数,重复步骤七中的卷积核池化操作,得到表示维度为f′2×m′2×n′2的特征映射图Feat,其中f′2表示特征图帧数,m′2和n′2分别表示特征图的宽和高。
步骤十四、将nkernel12个的特征映射图Feat维度转置得到s3×s4维的特征向量Xfeature2,其中s3和s4分别表示特征向量的维度和长度。本实验中s3=1,s4=1024。步骤十五、将两组向量Xfeature1和Xfeature2并联组成融合特征向量,融合特征向量长度为的len特征向量中,每一步的维度为step。本实验中len=1024,step=2。步骤十六、设置长短期记忆网络(LongShort-TermMemory,LSTM)的输入层为上一步骤中时间步长为len输入维数为step的融合特征向量Xfu,令X=Xfu,其中X的步长为len
步骤十七、根据长短记忆网络的输入X,计算网络中输入门I、忘记门F、输出门O和候选隐藏状态G。
步骤十八、同过LSTM各个门计算网络隐层中最后一步的h×1维隐藏状态Ss1,并作为特征结果X′feature
步骤十九、将最终形如X′feature=[x1 x2...xh]T的特征结果送入归一化指数函数进行计算结果矩阵得到结果矩阵中值最大的角标y′=max(Xres),结果矩阵Xres的K个标量中第j个值表示中频信号矩阵A被融合神经网络模型判别为第j类手势的概率,y′表示输入被判别为某一类手势的结果。
所述步骤一包括以下步骤:
1.1根据雷达的硬件参数,计算FMCW雷达发射的锯齿波信号STX(t)为:
其中,t表示雷达发射信号的时间,是发射信号频率随着时间变化的线性函数,fc是载波频率,B是带宽,ATX是发射信号的幅值,T是信号周期。
1.2发射信号经过时延后,计算接收端的频移Δφ为
其中,v是手势相对雷达的径向运动速度,R0是在时间t=0时手势与雷达的距离,c为光速,ARX是接收信号的幅值,λ是雷达信号的波长。
1.3根据频移Δφ,计算接收信号的频率fR(t)为
1.4将频移Δφ和接收信号频率fR(t)代入发射信号,计算接收信号SRX(t)为
其中,ARX是接收信号的幅值。
1.5将发射信号STX(t)和接收信号SRX(t)输入到混频器,并经低通滤波器滤除高频后得到中频信号SIF(t),具体为
其中,AIF是中频信号的幅值。
1.6计算中频信号频率fIF为:
所述步骤四包括以下步骤:
4.1雷达发射一帧信号后第一个目标的接收信号为S1(t),则K个目标的接收信号为S(t)=[S1(t) S2(t)...SK(t)]T。由于阵元之间的间隔为d,设第K个目标的角度为θK,则所有K个目标接收信号的导向矢量阵A为
其中,M表示阵元数,exp(·)表示指数函数。
4.2计算最终的接收信号X(t)为
X(t)=AS(t)+N(t)
其中,N(t)=[n1(t)n2(t)...nM(t)]T为每个阵元的噪声向量。
4.3计算X(t)的协方差矩阵R=E{X(t)XH(t)},对其进行特征分解,得到特征向量vi(i=1,2,...,M)。其中M-K个特征值为σ2,即R是M-K重的。
4.4令EN=[v1 v2...vM]T,而由此构造空间谱函数PM USIC(θ)如下:
4.5对空间谱函数PM USIC(θ)进行谱峰搜索,求出其中K个极大值所对应的θ即为信号源的方向。
所述步骤七包括以下步骤:
7.1将输入矩阵信号Xinput1中每个kernel×kernel区域矩阵与nkernel1个卷积核矩阵K1进行卷积相乘,生成表示从矩阵信号Xinput1中提取到的浅层特征的特征映射图Feat1,本实验中nkernel1=64。
7.2将特征映射图Feat1矩阵在每个kpool×kpool区域矩阵内,用该区域中的最大值代表原来的kpool×kpool区域矩阵,生成表示将特征映射图Feat1信息压缩后的池化矩阵Pool1
所述步骤十七包括以下步骤:
17.1随机初始化步长为len的X中第一步X1的状态变量为Sstate,设置网络中隐层LSTM单元节点数为h,本实验中h=4096。
17.2计算X总步长为len中每一步的输入门I、忘记门F和输出门O并求其隐层状态S,其中X的第s步计算结果具体形式如下:
其中Ss-1为第s-1步的状态变量,Ui、Wi、Uf、Wf、Uo和Wo为随机初始化的权重矩阵,δ(·)表示sigmoid函数,
17.3计算候选隐藏状态G=tanh(XsUg+Ss-1Wg),内部存储器的细胞状态Cs=Cs-1×F+G×I,以及第s步的输出隐层状态为Ss=tanh(Cs)×O,其中Ug和Wg为随机初始化的权重参数。其中,tanh(·)表示双曲正切函数,
本发明具有以下优点:本发明基于调频连续波雷达多参数图像的融合神经网络手势识别方法,该方法首先获取雷达发射天线和接收天线的混频信号,并求取手势的距离和速度。根据MUSIC计算手势的角度,将距离和速度映射到同一幅图中,即距离-速度图,并通过信号的时间顺序将距离-速度图和角度图生成序列,形成三维距离-速度时间图和二维角度时间图。然后设计卷积神经网络分别对距离-速度时间图和角度时间图进行特征提取,得到两个能够独立表示手势的特征向量。最后将特征向量进行并联融合,并利用LSTM进行时序特征提取后,采用归一化指数函数对提取到的手势特征进行分类以达到更好的分类效果。
附图说明
图1为雷达信号处理流程;
图2为距离-速度图的处理过程;
图3为步骤三中的距离-速度图;
图4为步骤五中的角度时间图;
图5为融合神经网络对两种参数图的特征处理和分类流程图;
图6为三维卷积神经网络中的卷积方式;
图7为三维卷积神经网络的池化操作;
图8为长短记忆网络的网络结构图;
图9为长短记忆网络单元各个门的具体情况;
具体实施方式
步骤一、将发射信号和接收信号输入到混频器,通过低通滤波器滤除高频部分,再经过采样和基带信号处理后得到中频信号SIF(t)和中频信号频率fIF。具体步骤如下:
1.1根据雷达的硬件参数,计算FMCW雷达发射的锯齿波信号STX(t)为
其中,t表示雷达发射信号的时间,是发射信号频率随着时间变化的线性函数,fc是载波频率,B是带宽,ATX是发射信号的幅值,T是信号周期。
1.2发射信号经过时延后,计算接收端的频移Δφ为
其中,v是手势相对雷达的径向运动速度,R0是在时间t=0时手势与雷达的距离,c为光速,ARX是接收信号的幅值,λ是雷达信号的波长。
1.3根据频移Δφ,计算接收信号的频率fR(t)为
1.4将频移Δφ和接收信号频率fR(t)代入发射信号,计算接收信号SRX(t)为
其中,ARX是接收信号的幅值。
1.5将发射信号STX(t)和接收信号SRX(t)输入到混频器,并经低通滤波器滤除高频后得到中频信号SIF(t),具体为
其中,AIF是中频信号的幅值。
1.6计算中频信号频率fIF为:
步骤二、根据中频信号SIF(t)和中频信号频率fIF计算手势目标的距离d和速度v,具体步骤如下:
2.1计算手势到雷达的距离d为
2.2对中频信号进行二维快速傅立叶变换,得到每个脉冲的多普勒频移fFFT
2.3计算手势的速度v为:
步骤三、对中频信号128个脉冲周期采样64个点进行快速傅里叶变换,将结果中同一频点的复信号生成一个新的频移信号,进而再对此信号进行FFT得到多普勒频移fFFT,从而可以生成手势的距离-速度图。具体操作如图2所示,生成的距离-速度图如图3所示。
步骤四、根据MUSIC算法估计手势目标的角度θ,具体计算步骤如下:
4.1雷达发射一帧信号后第一个目标的接收信号为S1(t),则K个目标的接收信号为S(t)=[S1(t) S2(t)...SK(t)]T。由于阵元之间的间隔为d,设第K个目标的角度为θK,则所有K个目标接收信号的导向矢量阵A为
其中,M表示阵元数,exp(·)表示指数函数。
4.2计算最终的接收信号X(t)为
X(t)=AS(t)+N(t)
其中,N(t)=[n1(t) n2(t)...nM(t)]T为每个阵元的噪声向量。
4.3计算X(t)的协方差矩阵R=E{X(t)XH(t)},对其进行特征分解,得到特征向量vi(i=1,2,...,M)。其中M-K个特征值为σ2,即R是M-K重的。
4.4令EN=[v1 v2...vM]T,而由此构造空间谱函数PM USIC(θ)如下:
4.5对空间谱函数PM USIC(θ)进行谱峰搜索,求出其中K个极大值所对应的θ即为信号源的方向。
步骤五、对雷达发送的每一帧信号估计按照步骤四计算角度,将计算结果按时间顺序构成一个角度时间图,如图4所示。
步骤六、将生成的距离-速度图预处理为深度学习网络的输入数据Xinput,并初始化三维卷积神经网络权重,具体步骤如下:
6.1将生成的f个距离-速度图合并为维度f×m1×n1的固定三维输入信号矩阵Xinput1,其中f1表示输入矩阵Xinput1的帧数,m1和n1分别表示矩阵Xinput1的宽和高。
6.2随机生成维度为kernel×kernel×kernel表示网络权重的卷积核矩阵K1、K2、K3、K4、K5、K6、K7和K8各nkernel1、nkernel2、nkernel3、nkernel4、nkernel5、nkernel6、nkernel7和nkernel8个,本实验中nkernel1=64,nkernel2=128,nkernel3=256,nkernel4=256,nkernel5=512,nkernel6=512,nkernel7=512,nkernel8=512。
步骤七、将输入信号矩阵Xinput1进行卷积池化操作获取初步的浅层特征结果,得到池化矩阵Pool1
7.1将输入矩阵信号Xinput1中每个kernel×kernel区域矩阵与nkernel1个卷积核矩阵K1进行卷积相乘,生成表示从矩阵信号Xinput1中提取到的浅层特征的特征映射图Feat1,具体卷积操作如图7,本实验中nkernel1=64。
7.2将特征映射图Feat1矩阵在每个kpool×kpool区域矩阵内,用该区域中的最大值代表原来的kpool×kpool区域矩阵,生成表示将特征映射图Feat1信息压缩后的池化矩阵Pool1,具体操作如图8。
步骤八、将池化矩阵Pool1重复步骤七中的卷积核池化操作,设置卷积核个数nkernel2,得到表示特征图的池化结果Pool2
步骤九、对池化结果Pool2进行进一步的卷积池化以提取深度特征结果,得到池化矩阵Pool3,具体步骤如下:
9.1将池化矩阵Pool2与卷积核矩阵K3进行卷积操作,生成特征映射图Feat3,再与卷积矩阵K4卷积,生成特征映射图Feat4,再将Feat4进行池化,将特征压缩为Pool3
步骤十、将池化矩阵Pool3按照步骤九重复两次进行卷积核池化操作,得到nkernel5个f1′×m′1×n′1维的特征映射图Pool5,其中f1′表示特征图帧数,m′1和n′1分别表示特征图的宽和高。本实验中f1′=1,m′1=2,n′1=4。
步骤十一、将nkernel5个f1′×m′1×n′1维的特征映射图Feat5维度转置得到s1×s2维的特征向量Xfeature1,其中s1和s2分别表示特征向量的维度和长度。本实验中s1=1,s2=1024,其中f′2表示特征图帧数,m′2和n′2分别表示特征图的宽和高。
步骤十二、将生成的角度时间图预处理为深度学习网络的输入数据Xinput2,并初始化二维卷积神经网络权重,具体步骤如下:
12.1将生成的角度时间图合并为维度m2×n2的固定二维输入信号矩阵Xinput2,其中m2和n2分别表示矩阵Xinput2的宽和高。
12.2随机生成维度为kernel×kernel表示网络权重的卷积核矩阵K9、K10、K11和K12各nkernel9、nkernel10、nkernel11和nkernel12个,本实验中nkernel9=64,nkernel10=128,nkernel11=256,nkernel12=512。
步骤十三、将输入矩阵信号Xinput2根据步骤十二中的卷积核参数,重复步骤七中的卷积核池化操作,得到表示维度为f′2×m′2×n′2的特征映射图Feat
步骤十四、将nkernel12个的特征映射图Feat维度转置得到s3×s4维的特征向量Xfeature2,其中s3和s4分别表示特征向量的维度和长度。本实验中s3=1,s4=1024。步骤十五、将两组向量Xfeature1和Xfeature2并联组成融合特征向量,融合特征向量长度为的len特征向量中,每一步的维度为step。本实验中len=1024,step=2。步骤十六、设置长短期记忆网络(LongShort-TermMemory,LSTM)的输入层为上一步骤中时间步长为len输入维数为step的融合特征向量Xfu,令X=Xfu,其中X的步长为len,长短期记忆网络结构图如图9。
步骤十七、根据长短记忆网络的输入X,计算网络中输入门I、忘记门F、输出门O和候选隐藏状态G,具体步骤如下:
17.1随机初始化步长为len的X中第一步X1的状态变量为Sstate,设置网络中隐层LSTM单元节点数为h,本实验中h=4096。
17.2计算X总步长为len中每一步的输入门I、忘记门F和输出门O并求其隐层状态S,其中X的第s步计算结果具体形式如下:
其中Ss-1为第s-1步的状态变量,Ui、Wi、Uf、Wf、Uo和Wo为随机初始化的权重矩阵,δ(·)表示sigmoid函数,
17.3计算候选隐藏状态G=tanh(XsUg+Ss-1Wg),内部存储器的细胞状态Cs=Cs-1×F+G×I,以及第s步的输出隐层状态为Ss=tanh(Cs)×O,其中Ug和Wg为随机初始化的权重参数。其中,tanh(·)表示双曲正切函数,
步骤十八、同过LSTM各个门计算网络隐层中最后一步的h×1维隐藏状态并作为特征结果X′feature
步骤十九、将最终形如X′feature=[x1x2...xh]T的特征结果送入归一化指数函数进行计算结果矩阵得到结果矩阵中值最大的角标y′=max(Xres),结果矩阵Xres的K个标量中第j个值表示中频信号矩阵A被融合神经网络模型判别为第j类手势的概率,y′表示输入被判别为某一类手势的结果。

Claims (3)

1.基于融合神经网络的雷达手势识别方法,其特征在于,包括以下步骤:
步骤一、将发射信号和接收信号输入到混频器,通过低通滤波器滤除高频部分,再经过采样和基带信号处理后得到中频信号SIF(t)和中频信号频率fIF
步骤二、根据中频信号SIF(t)和中频信号频率fIF计算手势目标的距离d和速度v。
步骤三、对中频信号128个脉冲周期采样64个点进行快速傅里叶变换,将结果中同一频点的复信号生成一个新的频移信号,进而再对此信号进行FFT得到多普勒频移fFFT,从而可以生成手势的距离-速度图。
步骤四、根据MUSIC算法估计手势目标的角度θ。
步骤五、对雷达发送的每一帧信号估计按照步骤四计算角度,将计算结果按时间顺序构成一个角度时间图。
步骤六、将生成的距离-速度图预处理为深度学习网络的输入数据Xinput,并初始化三维卷积神经网络权重。
步骤七、将输入信号矩阵Xinput1进行卷积池化操作获取初步的浅层特征结果,得到池化矩阵Pool1
步骤八、将池化矩阵Pool1重复步骤七中的卷积核池化操作,设置卷积核个数nkernel2,得到表示特征图的池化结果Pool2
步骤九、对池化结果Pool2进行进一步的卷积池化以提取深度特征结果,得到池化矩阵Pool3
步骤十、将池化矩阵Pool3按照步骤十一重复两次进行卷积核池化操作,得到nkernel5个f1′×m′1×n′1维的特征映射图Pool5,其中f1′表示特征图帧数,m′1和n′1分别表示特征图的宽和高。本实验中f1′=1,m′1=2,n′1=4。
步骤十一、将nkernel5个f1′×m′1×n′1维的特征映射图Feat5维度转置得到s1×s2维的特征向量Xfeature1,其中s1和s2分别表示特征向量的维度和长度。本实验中s1=1,s2=1024。
步骤十二、将生成的角度时间图预处理为深度学习网络的输入数据Xinput2,并初始化二维卷积神经网络权重。
步骤十三、将输入矩阵信号Xinput2根据步骤十二中的卷积核参数,重复步骤七中的卷积核池化操作,得到表示维度为f′2×m′2×n′2的特征映射图Feat,其中f′2表示特征图帧数,m′2和n′2分别表示特征图的宽和高。
步骤十四、将nkernel12个的特征映射图Feat维度转置得到s3×s4维的特征向量Xfeature2,其中s3和s4分别表示特征向量的维度和长度。本实验中s3=1,s4=1024。
步骤十五、将两组向量Xfeature1和Xfeature2并联组成融合特征向量,融合特征向量长度为的len特征向量中,每一步的维度为step。本实验中len=1024,step=2。
步骤十六、设置长短期记忆网络(Long Short-Term Memory,LSTM)的输入层为上一步骤中时间步长为len输入维数为step的融合特征向量Xfu,令X=Xfu,其中X的步长为len
步骤十七、根据长短记忆网络的输入X,计算网络中输入门I、忘记门F、输出门O和候选隐藏状态G。
步骤十八、通过LSTM各个门计算网络隐层中最后一步的h×1维隐藏状态Ss1,并作为特征结果X′feature
步骤十九、将最终形如X′feature=[x1 x2...xh]T的特征结果送入归一化指数函数进行计算结果矩阵得到结果矩阵中值最大的角标y′=max(Xres),结果矩阵Xres的K个标量中第j个值表示中频信号矩阵A被融合神经网络模型判别为第j类手势的概率,y′表示输入被判别为某一类手势的结果。
2.根据权利要求1所述的基于融合神经网络的雷达手势识别方法,其特点在于分别设计了一个三维卷积神经网络和一个二维卷积神经网络分别对距离-速度图和角度时间图进行特征提取。
3.根据权利要求1或2所述的基于融合神经网络的雷达手势识别方法,其特征在于将距离-速度图和角度时间图对应的两组向量并联组成融合特征向量,由此进行分类。
CN201910139215.4A 2019-02-26 2019-02-26 基于融合神经网络的雷达手势识别方法 Active CN109829509B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910139215.4A CN109829509B (zh) 2019-02-26 2019-02-26 基于融合神经网络的雷达手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910139215.4A CN109829509B (zh) 2019-02-26 2019-02-26 基于融合神经网络的雷达手势识别方法

Publications (2)

Publication Number Publication Date
CN109829509A true CN109829509A (zh) 2019-05-31
CN109829509B CN109829509B (zh) 2022-11-22

Family

ID=66864389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910139215.4A Active CN109829509B (zh) 2019-02-26 2019-02-26 基于融合神经网络的雷达手势识别方法

Country Status (1)

Country Link
CN (1) CN109829509B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287844A (zh) * 2019-06-19 2019-09-27 北京工业大学 基于卷积姿势机和长短时记忆网络的交警手势识别方法
CN110348420A (zh) * 2019-07-18 2019-10-18 腾讯科技(深圳)有限公司 手语识别方法、装置、计算机可读存储介质和计算机设备
CN111650582A (zh) * 2020-07-27 2020-09-11 四川长虹电器股份有限公司 一种基于mimo毫米波雷达的手势识别方法
CN112055119A (zh) * 2019-06-06 2020-12-08 北京小米移动软件有限公司 识别障碍物的终端、方法、装置及存储介质
CN112198966A (zh) * 2020-12-08 2021-01-08 中南大学 基于fmcw雷达系统的笔画识别方法以及系统
CN112287784A (zh) * 2020-10-20 2021-01-29 哈尔滨工程大学 一种基于深度卷积神经网络与特征融合的雷达信号分类方法
CN112764002A (zh) * 2021-01-07 2021-05-07 北京理工大学重庆创新中心 一种基于可变形卷积的fmcw雷达手势识别方法
CN113406610A (zh) * 2021-06-16 2021-09-17 深圳大学 一种目标检测方法、装置、设备和存储介质
CN116027325A (zh) * 2023-03-31 2023-04-28 泛擎科技(深圳)有限公司 基于智能可穿戴设备的人体动作识别方法、装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160252607A1 (en) * 2015-02-27 2016-09-01 Texas Instruments Incorporated Gesture Recognition using Frequency Modulated Continuous Wave (FMCW) Radar with Low Angle Resolution
US20160259037A1 (en) * 2015-03-03 2016-09-08 Nvidia Corporation Radar based user interface
CN107024685A (zh) * 2017-04-10 2017-08-08 北京航空航天大学 一种基于距离‑速度特征的手势识别方法
US20170364160A1 (en) * 2016-06-17 2017-12-21 Texas Instruments Incorporated Hidden markov model-based gesture recognition with fmcw radar
CN108509910A (zh) * 2018-04-02 2018-09-07 重庆邮电大学 基于fmcw雷达信号的深度学习手势识别方法
CN108828548A (zh) * 2018-06-26 2018-11-16 重庆邮电大学 一种基于fmcw雷达的三参数融合数据集构建方法
CN109271838A (zh) * 2018-07-19 2019-01-25 重庆邮电大学 一种基于fmcw雷达的三参数特征融合手势识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160252607A1 (en) * 2015-02-27 2016-09-01 Texas Instruments Incorporated Gesture Recognition using Frequency Modulated Continuous Wave (FMCW) Radar with Low Angle Resolution
US20160259037A1 (en) * 2015-03-03 2016-09-08 Nvidia Corporation Radar based user interface
US20170364160A1 (en) * 2016-06-17 2017-12-21 Texas Instruments Incorporated Hidden markov model-based gesture recognition with fmcw radar
CN107024685A (zh) * 2017-04-10 2017-08-08 北京航空航天大学 一种基于距离‑速度特征的手势识别方法
CN108509910A (zh) * 2018-04-02 2018-09-07 重庆邮电大学 基于fmcw雷达信号的深度学习手势识别方法
CN108828548A (zh) * 2018-06-26 2018-11-16 重庆邮电大学 一种基于fmcw雷达的三参数融合数据集构建方法
CN109271838A (zh) * 2018-07-19 2019-01-25 重庆邮电大学 一种基于fmcw雷达的三参数特征融合手势识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
B.DEKKER 等: "Gesture Recognition with a Low Power FMCW Radar and a Deep Convolutional Neural Network", 《2017 EUROPEAN RADAR CONFERENCE(EURAD)》 *
ZHENYUAN ZHANG 等: "Latern: Dynamic Continuous Hand Gesture Recognition Using FMCW Radar Sensor", 《IEEE SENSORS JOURNAL》 *
李艳春: "基于FMCW雷达的多维参数联合估计算法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *
王俊 等: "基于卷积神经网络的手势动作雷达识别方法", 《北京航空航天大学学报》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112055119A (zh) * 2019-06-06 2020-12-08 北京小米移动软件有限公司 识别障碍物的终端、方法、装置及存储介质
CN110287844B (zh) * 2019-06-19 2021-07-23 北京工业大学 基于卷积姿势机和长短时记忆网络的交警手势识别方法
CN110287844A (zh) * 2019-06-19 2019-09-27 北京工业大学 基于卷积姿势机和长短时记忆网络的交警手势识别方法
CN110348420A (zh) * 2019-07-18 2019-10-18 腾讯科技(深圳)有限公司 手语识别方法、装置、计算机可读存储介质和计算机设备
US11749029B2 (en) 2019-07-18 2023-09-05 Tencent Technology (Shenzhen) Company Limited Gesture language recognition method and apparatus, computer-readable storage medium, and computer device
CN110348420B (zh) * 2019-07-18 2022-03-18 腾讯科技(深圳)有限公司 手语识别方法、装置、计算机可读存储介质和计算机设备
CN111650582A (zh) * 2020-07-27 2020-09-11 四川长虹电器股份有限公司 一种基于mimo毫米波雷达的手势识别方法
CN111650582B (zh) * 2020-07-27 2021-12-17 四川长虹电器股份有限公司 一种基于mimo毫米波雷达的手势识别方法
CN112287784B (zh) * 2020-10-20 2022-05-31 哈尔滨工程大学 一种基于深度卷积神经网络与特征融合的雷达信号分类方法
CN112287784A (zh) * 2020-10-20 2021-01-29 哈尔滨工程大学 一种基于深度卷积神经网络与特征融合的雷达信号分类方法
CN112198966B (zh) * 2020-12-08 2021-03-16 中南大学 基于fmcw雷达系统的笔画识别方法以及系统
CN112198966A (zh) * 2020-12-08 2021-01-08 中南大学 基于fmcw雷达系统的笔画识别方法以及系统
CN112764002A (zh) * 2021-01-07 2021-05-07 北京理工大学重庆创新中心 一种基于可变形卷积的fmcw雷达手势识别方法
CN112764002B (zh) * 2021-01-07 2022-09-30 北京理工大学重庆创新中心 一种基于可变形卷积的fmcw雷达手势识别方法
CN113406610A (zh) * 2021-06-16 2021-09-17 深圳大学 一种目标检测方法、装置、设备和存储介质
CN113406610B (zh) * 2021-06-16 2023-06-23 深圳大学 一种目标检测方法、装置、设备和存储介质
CN116027325A (zh) * 2023-03-31 2023-04-28 泛擎科技(深圳)有限公司 基于智能可穿戴设备的人体动作识别方法、装置

Also Published As

Publication number Publication date
CN109829509B (zh) 2022-11-22

Similar Documents

Publication Publication Date Title
CN109829509A (zh) 基于融合神经网络的雷达手势识别方法
Zhang et al. Latern: Dynamic continuous hand gesture recognition using FMCW radar sensor
Angelov et al. Practical classification of different moving targets using automotive radar and deep neural networks
CN108520199B (zh) 基于雷达图像与生成对抗模型的人体动作开集识别方法
CN106295684B (zh) 一种基于微多普勒特征的动态连续/非连续手势识别方法
CN109164428B (zh) 雷达数字仿真系统及方法
CN108872984A (zh) 基于多基地雷达微多普勒和卷积神经网络的人体识别方法
CN109917347A (zh) 一种基于时频域稀疏重构的雷达行人检测方法
CN108509910A (zh) 基于fmcw雷达信号的深度学习手势识别方法
Zhang et al. u-DeepHand: FMCW radar-based unsupervised hand gesture feature learning using deep convolutional auto-encoder network
CN109164421A (zh) 一种基于二维重构算法的目标检测方法
Chen et al. Dynamic hand gesture classification based on multistatic radar micro-Doppler signatures using convolutional neural network
CN104459661B (zh) 检测快速火炮类微弱目标的方法
CN112130118B (zh) 基于snn的超宽带雷达信号处理系统及处理方法
CN111693983A (zh) 互补波形构建方法及模块、认知雷达系统及波形发射方法
CN106324596B (zh) 基于压缩感知的随机脉冲多普勒雷达角度-多普勒成像方法
CN112859014A (zh) 基于雷达信号分选的雷达干扰抑制方法、装置及介质
CN108594194A (zh) 基于四线性分解的双基地mimo雷达角度估算方法
Tang et al. Compressive radar imaging of stationary indoor targets with low-rank plus jointly sparse and total variation regularizations
Lim et al. DNN-based human face classification using 61 GHz FMCW radar sensor
JP2024514618A (ja) Dnn基盤の人の顔分類
Zhang et al. Temporal-range-doppler features interpretation and recognition of hand gestures using MmW FMCW radar sensors
Zou et al. Light‐weight deep learning method for active jamming recognition based on improved MobileViT
Stinco et al. Non‐cooperative target recognition in multistatic radar systems
Chen et al. Improved target detection through DNN-based multi-channel interference mitigation in automotive radar

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant