CN112861813A - 基于复值卷积神经网络的墙后人体行为识别方法 - Google Patents

基于复值卷积神经网络的墙后人体行为识别方法 Download PDF

Info

Publication number
CN112861813A
CN112861813A CN202110332651.0A CN202110332651A CN112861813A CN 112861813 A CN112861813 A CN 112861813A CN 202110332651 A CN202110332651 A CN 202110332651A CN 112861813 A CN112861813 A CN 112861813A
Authority
CN
China
Prior art keywords
complex
complex value
wall
valued
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110332651.0A
Other languages
English (en)
Other versions
CN112861813B (zh
Inventor
崔国龙
汪翔
郭世盛
陈朋云
汪育苗
谢杭宸
孔令讲
杨晓波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110332651.0A priority Critical patent/CN112861813B/zh
Publication of CN112861813A publication Critical patent/CN112861813A/zh
Application granted granted Critical
Publication of CN112861813B publication Critical patent/CN112861813B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于复值卷积神经网络的墙后人体行为识别方法,通过预处理收集的雷达原始距离像得到用作训练集和测试集的距离像,构建复值卷积神经网络,利用训练集训练网络,将测试集输入训练好的复值卷积神经网络,得到墙后人体行为的识别结果,实现墙后人体行为识别。该方法可充分学习不同行为间距离像数据的差异,能够有效识别墙后的人体行为。相比于其它墙后人体行为识别方法,本发明构建的复值卷积神经网络可联合利用雷达数据的幅度信息和相位信息,高效提取距离像数据中人体行为的多元运动特征,从而提升墙后人体行为的识别性能,在墙后人体行为识别领域具有重要的价值。

Description

基于复值卷积神经网络的墙后人体行为识别方法
技术领域
本发明属于雷达自动目标识别技术领域,具体涉及墙后人体行为识别方法。
背景技术
墙后人体行为识别技术主要是利用穿墙雷达发射电磁波穿透墙体等遮蔽障碍物,对墙 后的人体目标实施的行为进行识别,在室内监控、灾难救援等领域有着广泛的应用前景, 近年来,国内外许多机构利用穿墙雷达开展了墙后人体行为识别的研究。
文献:Yang X,Chen P,Wang M,et al.Human Motion SerializationRecognition With Through-the-Wall Radar[J].IEEE Access,2020,从处理距离像序列的角度,探讨了超宽带穿 墙雷达的人体运动识别问题,具体采用三层密集的自编码网络(AEN)对每个距离像进行降 维和特征提取,然后采用双隐层的门控回归单元(GRU)网络处理每个时间段片的特征,并输 出每个时间段片的人体行为识别结果。
文献:Kl A,Babaolu S,Babalk A,et al.Through-Wall Radar Classificationof Human Posture Using Convolutional Neural Networks[J].International Journalof Antennas and Propagation,2019,提出了一种基于卷积神经网络(CNN)的墙后人体姿势分类方法,具体 使用超宽带步进频连续波雷达收集从墙后的人体目标反射的雷达信号。这些信号通过CNN 对人的存在和人的姿势进行分类。
上述方法仅利用雷达数据的幅度信息来识别人体运动,而相位信息包含了丰富的运动 特征(如:时序特征和速度特征),这些方法没有考虑雷达数据中的相位信息,限制了识别 的性能。
发明内容
针对现有技术存在的上述问题,本发明提出一种基于复值神经网络的墙后人体行为识 别方法。
本发明的具体技术方案为:一种基于复值卷积神经网络的墙后人体行为识别方法,包 括以下步骤:
步骤1:雷达原始距离像预处理
考虑一个穿墙雷达发射K个脉冲探测一个墙后人体行为,则这K个脉冲的回波构成的 雷达原始距离像为:
Figure BDA0002996825080000021
其中,rk(m),k=0,1,…,K 是第k个脉冲的回波信号,M是回波信号长度,在雷达快时 间维度(按行)进行快速傅里叶逆变换(IFFT),并将快速傅里叶逆变换后的距离像通过动 目标指示(MTI)滤波器,得到背景杂波被抑制的距离像P”(m),P”(m)的维度大小为K×M;
步骤2:训练集和测试集构造
利用收集到的所有距离像P'(m)样本按构造第一训练集和第二测试集。
步骤3:构造复值卷积神经网络
复值卷积层、复值批归一化层、复值池化层、复值全连接层、softmax输出层、和复值 线性整流函数
Figure BDA0002996825080000022
等模块使得构建的复值卷积神经网络可同时利用距离像的幅度和相 位信息进行多元运动特征提取,实现墙后人体行为识别。
复值卷积层具体计算公式为:
W*H=(A*X-B*Y)+i(A*Y+B*X)
其中,W=Α+iB是复值卷积核,A是实部卷积核,B是虚部卷积核,H=X+iY是 复值特征图,X是实部特征图,Y是虚部特征图。
复值批归一化层具体计算公式为:
Figure BDA0002996825080000023
其中,x是复值向量,γ和β分别是可学习的尺度参数和平移参数,E(·)是均值运算, V是x的协方差矩阵,具体计算公式为:
Figure BDA0002996825080000024
其中,
Figure BDA0002996825080000025
Figure BDA0002996825080000026
分别是x的实部和虚部,Cov(·,·)是协方差运算;
复值最大池化层(ComxP)具体计算公式为:
ComxP(H)=MaxP(X)+iMaxP(Y)
其中,MaxP是最大池化运算,
Figure BDA0002996825080000027
激活函数的具体计算公式为:
Figure BDA0002996825080000028
其中,ReLU是线性整流函数。
复值全连接层具体计算公式为:
L·s=(C·x-D·y)+i(C·y+D·x)
其中,L=C+iD为复值全连接层权重,C是实部全连接层权重,D是虚部全连接层权重,s=x+iy是复值向量。
基于上述模块,构造由1个输入层,5个复值卷积层,5个复值批归一化层,3个复值最大池化层,3个复值全连接层和1个softmax输出层组成的复值卷积神经网络,网络的激活函数选择复值线性整流函数
Figure BDA0002996825080000031
且复值卷积层联合利用距离像的幅值和相位信息提 取墙后人体行为的多元特征,softmax输出层用来得到样本的识别结果。
步骤4:训练复值卷积神经网络
利用带行为类别标签的第一训练集对复值卷积神经网络进行E(E≥1000)轮有监督 训练,直到模型收敛,得到训练好的复值卷积神经网络模型。
步骤5:利用训练好的网络对测试样本进行识别
将第二测试集输入训练好的复值卷积神经网络模型,对第二测试集中每个样本距离像 的行为进行识别,得到墙后人体行为识别结果。
本发明的有益效果:本发明的墙后人体行为识别方法,通过预处理收集的雷达原始距 离像得到用作训练集和测试集的距离像,构建复值卷积神经网络,利用训练集训练网络, 将测试集输入训练好的复值卷积神经网络,得到墙后人体行为的识别结果,实现墙后人体 行为识别。该方法可充分学习同行为间距离像数据的差异,能够有效识别墙后的人体行为。 相比于其它墙后人体行为识别方法,本发明构建的复值卷积神经可联合利用雷达数据的幅 度信息和相位信息,高效提取距离像数据中人体行为的多元运动特征,从而提升墙后人体 行为的识别性能,在墙后人体行为识别领域具有重要的价值。
附图说明
图1为墙后人体行为方法处理流程图。
图2为具体实施方式中实验场景图。
图3为具体实施方式中原始距离像幅度图像。
图4为具体实施方式中快速逆变换后距离像幅度图像。
图5为具体实施方式中动目标指示滤波后距离像幅度图像。
图6具体实施方式中复值卷积神经网络架构图。
具体实施方式
下面结合附图给出本发明的具体实施方式。
本发明提供一种适用于穿墙雷达的基于复值卷积神经网络的墙后人体行为识别方法。 该方法的流程如图1所示,具体为:首先对雷达收集的墙后人体行为原始距离像进行预处 理;然后将预处理后的距离像分成训练集和测试集两部分;接着构建基于复值卷积神经网 络的墙后人体行为识别网络;然后将预处理后的距离像作为训练集输入到构建好的墙后人 体行为识别网络进行训练,得到训练好的网络;最后,将测试集输入到训练好的墙后人体 行为识别网络中,得到最终的墙后人体动作识别结果。具体实施方式如下:
穿墙雷达采集墙后人体行为原始距离像数据的实验场景如图2所示,雷达为带宽为 600MHz的超宽带步进频连续波雷达,被放置在距地0.90m高的位置,墙厚0.30m,人体和墙的直线距离为2.50m。一共收集10个受试者执行的11种墙后人体行为,11种行为分别 为:拳击、跌倒、喝水、抬腿、踢腿、捡拾、跑步、坐下、站起、走路、挥手。处理步骤 具体如下:
步骤1:雷达原始距离像预处理
以一次拳击行为为例说明雷达原始距离像预处理过程,雷达采集的单次拳击行为原始距 离像P(m)幅度图如图3所示。
按行(快时间维度)对原始距离像P(m)进行快速逆傅里叶变换,快速傅里叶逆变换点数为 4096。快速逆傅里叶变换后得到的距离像P'(m)幅度图如图4所示。将距离像P'(m)通过MTI 滤波器,得到最终使用的距离像P”(m)幅度图如图5所示。
步骤2:训练集和测试集构造
将收集的所有行为的距离像P(m)样本进行划分,60%的样本被划分为训练集T1,40% 的样本被划分为测试集T2,且T1和中T2每个类别行为的样本数保持均衡。
步骤3:构造复值卷积神经网络
构造复值卷积神经网络A,A包含一个输入层,5个复值卷积层,5个复值批归一化层, 3个复值最大池化层,3个复值全连接层和1个softmax输出层,其网络结构图如图6所示。
在距离像P(m)送入输入层前,为适应网络输入层大小,其大小被裁剪/补零扩充为227×227,每层的具体参数如下:
第1层为输入层,其大小等于输入距离像大小,即227×227×1。
第2层为第一个复值卷积层,卷积核大小为11×11×1,卷积核个数为96,步长为4,卷积运算的输入特征图填充为0,卷积输出特征图通道数为96;
第3层是第一个复值最大池化层,池化核大小为3×3×96,池化步长为2。
第4层为第二个复值卷积层,卷积核大小为5×5×96,卷积核个数为256,步长为1,卷积运算的输入特征图填充为2,卷积输出特征图通道数为256;
第5层是第二个复值最大池化层,池化核大小为3×3×256,池化步长为2。、
第6层为第三个复值卷积层,卷积核大小为3×3×256,卷积核个数为384,步长为1, 卷积运算的输入特征图填充为1,卷积输出特征图通道数为384;
第7层为第四个复值卷积层,卷积核大小为3×3×384,卷积核个数为384,步长为1, 卷积运算的输入特征图填充为1,卷积输出特征图通道数为384;
第8层为第五个复值卷积层,卷积核大小为3×3×384,卷积核个数为256,步长为1, 卷积运算的输入特征图填充为1,卷积输出特征图通道数为256;
第9层是第三个复值最大池化层,池化核大小为3×3×256,池化步长为2。
第10层、第11层和第12层为复值全连接层,其节点数个数依次为4096,256和C,其中C是要识别行为总类别数,在本实施中为C=11。
第13层是softmax输出层,其节点为C,在本实施中为C=11。
复值批归一化层在每一个复值卷积层后应用,其通道数与其前面紧接的卷积层输出特 征图通道数保持一致。
Figure BDA0002996825080000051
激活函数应用于每一个复值批归一化层和第10层、第11层全连接层后。
步骤4:训练复值卷积神经网络
以交叉熵函数作为复值卷积神经网络的目标函数,利用带动量的梯度下降法最小化目 标函数,学习率α和动量momentum分别设置为0.001和0.9,迭代次数E=1000,批处理大 小batch_size设置为64。
经过E轮迭代后,得到训练好的网络。
步骤5:利用训练好的复值卷积神经网络对测试样本进行识别
将测试样本送入训练好的复值卷积神经网络,得到复值卷积神经网络对每个测试样本 的识别结果。相同实验参数下,复值卷积神经网络对测试样本中每类行为识别准确率与卷 积神经网络和K近邻分类器对测试样本中每类行为识别准确率对比如下表1所示。
表1
Figure BDA0002996825080000052
Figure BDA0002996825080000061
由识别结果可知,本发明提供的适用于穿墙雷达的一种基于复值神经网络的墙后人体行 为识别方法可联合利用距离像的幅度和相位信息,在单个类别行为识别率和平均识别率上, 都要优于只利用距离像幅度信息进行识别的方法,其中平均识别率相比其它方法提高9.55%, 验证了本发明的正确性和有效性。

Claims (2)

1.一种基于复值卷积神经网络的墙后人体行为识别方法,包括以下步骤:
步骤1:雷达原始距离像预处理
考虑一个穿墙雷达发射K个脉冲探测一个墙后人体行为,则这K个脉冲的回波构成的雷达原始距离像为:
Figure FDA0002996825070000011
其中,rk(m),k=0,1,…,K是第k个脉冲的回波信号,M是回波信号长度,在雷达快时间维度进行快速傅里叶逆变换,并将快速傅里叶逆变换后的距离像通过动目标指示滤波器,得到背景杂波被抑制的距离像P”(m),P”(m)的维度大小为K×M;
步骤2:训练集和测试集构造
利用收集到的所有距离像P'(m)样本按构造第一训练集和第二测试集;
步骤3:构造复值卷积神经网络
构造由1个输入层,5个复值卷积层,5个复值批归一化层,3个复值最大池化层,3个复值全连接层和1个softmax输出层组成的复值卷积神经网络,网络的激活函数选择复值线性整流函数
Figure FDA0002996825070000016
且复值卷积层联合利用距离像的幅值和相位信息提取墙后人体行为的多元特征,softmax输出层用来得到样本的识别结果;
复值卷积层具体计算公式为:
W*H=(A*X-B*Y)+i(A*Y+B*X)
其中,W=Α+iB是复值卷积核,A是实部卷积核,B是虚部卷积核,H=X+iY是复值特征图,X是实部特征图,Y是虚部特征图。
复值批归一化层具体计算公式为:
Figure FDA0002996825070000012
其中,x是复值向量,γ和β分别是可学习的尺度参数和平移参数,E(·)是均值运算,V是x的协方差矩阵,具体计算公式为:
Figure FDA0002996825070000013
其中,
Figure FDA0002996825070000014
Figure FDA0002996825070000015
分别是x的实部和虚部,Cov(·,·)是协方差运算;
复值最大池化层(ComxP)具体计算公式为:
ComxP(H)=MaxP(X)+iMaxP(Y)
其中,MaxP是最大池化运算,
Figure FDA0002996825070000021
激活函数的具体计算公式为:
Figure FDA0002996825070000022
其中,ReLU是线性整流函数;
复值全连接层具体计算公式为:
L·s=(C·x-D·y)+i(C·y+D·x)
其中,L=C+iD为复值全连接层权重,C是实部全连接层权重,D是虚部全连接层权重,s=x+iy是复值向量;
步骤4:训练复值卷积神经网络
利用带行为类别标签的第一训练集对复值卷积神经网络进行E轮有监督训练,直到模型收敛,得到训练好的复值卷积神经网络模型;
步骤5:利用训练好的网络对测试样本进行识别
将第二测试集输入训练好的复值卷积神经网络模型,对第二测试集中每个样本距离像的行为进行识别,得到墙后人体行为识别结果。
2.根据权利要求1所述的一种基于复值卷积神经网络的墙后人体行为识别方法,其特征在于,步骤4所述的E≥1000。
CN202110332651.0A 2021-03-29 2021-03-29 基于复值卷积神经网络的墙后人体行为识别方法 Active CN112861813B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110332651.0A CN112861813B (zh) 2021-03-29 2021-03-29 基于复值卷积神经网络的墙后人体行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110332651.0A CN112861813B (zh) 2021-03-29 2021-03-29 基于复值卷积神经网络的墙后人体行为识别方法

Publications (2)

Publication Number Publication Date
CN112861813A true CN112861813A (zh) 2021-05-28
CN112861813B CN112861813B (zh) 2022-07-22

Family

ID=75993098

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110332651.0A Active CN112861813B (zh) 2021-03-29 2021-03-29 基于复值卷积神经网络的墙后人体行为识别方法

Country Status (1)

Country Link
CN (1) CN112861813B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114519384A (zh) * 2022-01-07 2022-05-20 南京航空航天大学 一种基于稀疏sar幅度-相位图像数据集的目标分类方法
CN115063884A (zh) * 2022-06-14 2022-09-16 电子科技大学 基于多域融合深度学习的毫米波雷达头部动作识别方法
CN115236606A (zh) * 2022-09-23 2022-10-25 中国人民解放军战略支援部队航天工程大学 雷达信号特征提取方法和复数域卷积网络架构
WO2023216383A1 (zh) * 2022-05-13 2023-11-16 苏州大学 基于复值神经网络的复值时序信号预测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150333950A1 (en) * 2012-12-18 2015-11-19 Signal Processing Devices Sweden Ab Methods and devices for handling channel mismatches of an i/q down-converted signal and a two-channel ti-adc
CN107728143A (zh) * 2017-09-18 2018-02-23 西安电子科技大学 基于一维卷积神经网络的雷达高分辨距离像目标识别方法
CN109086802A (zh) * 2018-07-10 2018-12-25 东南大学 一种基于八元数卷积神经网络的图像分类方法
CN110969121A (zh) * 2019-11-29 2020-04-07 长沙理工大学 一种基于深度学习的高分辨率雷达目标识别算法
CN111796272A (zh) * 2020-06-08 2020-10-20 桂林电子科技大学 穿墙雷达人体图像序列的姿态实时识别方法及计算机设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150333950A1 (en) * 2012-12-18 2015-11-19 Signal Processing Devices Sweden Ab Methods and devices for handling channel mismatches of an i/q down-converted signal and a two-channel ti-adc
CN107728143A (zh) * 2017-09-18 2018-02-23 西安电子科技大学 基于一维卷积神经网络的雷达高分辨距离像目标识别方法
CN109086802A (zh) * 2018-07-10 2018-12-25 东南大学 一种基于八元数卷积神经网络的图像分类方法
CN110969121A (zh) * 2019-11-29 2020-04-07 长沙理工大学 一种基于深度学习的高分辨率雷达目标识别算法
CN111796272A (zh) * 2020-06-08 2020-10-20 桂林电子科技大学 穿墙雷达人体图像序列的姿态实时识别方法及计算机设备

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CHIHEB TRABELSI等: "DEEP COMPLEX NETWORKS", 《ARXIV》 *
SHENSHEN GU等: "A Complex-Valued VGG Network Based Deep Learing Algorithm for Image Recognition", 《2018 NINTH INTERNATIONAL CONFERENCE ON INTELLIGENT CONTROL AND INFORMATION PROCESSING (ICICIP)》 *
XIANG WANG等: "Through-Wall Human Activity Classification Using Complex-Valued Convolutional Neural Network", 《2021 IEEE RADAR CONFERENCE》 *
YULIANG SUN等: "Real-Time Radar-Based Gesture Detection and Recognition Built in an Edge-Computing Platform", 《IEEE SENSORS JOURNAL》 *
王明阳: "穿墙雷达人体行为识别方法研究", 《中国优秀博硕士学位论文全文数据库(博士)信息科技辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114519384A (zh) * 2022-01-07 2022-05-20 南京航空航天大学 一种基于稀疏sar幅度-相位图像数据集的目标分类方法
CN114519384B (zh) * 2022-01-07 2024-04-30 南京航空航天大学 一种基于稀疏sar幅度-相位图像数据集的目标分类方法
WO2023216383A1 (zh) * 2022-05-13 2023-11-16 苏州大学 基于复值神经网络的复值时序信号预测方法
CN115063884A (zh) * 2022-06-14 2022-09-16 电子科技大学 基于多域融合深度学习的毫米波雷达头部动作识别方法
CN115063884B (zh) * 2022-06-14 2024-04-23 电子科技大学 基于多域融合深度学习的毫米波雷达头部动作识别方法
CN115236606A (zh) * 2022-09-23 2022-10-25 中国人民解放军战略支援部队航天工程大学 雷达信号特征提取方法和复数域卷积网络架构

Also Published As

Publication number Publication date
CN112861813B (zh) 2022-07-22

Similar Documents

Publication Publication Date Title
CN112861813B (zh) 基于复值卷积神经网络的墙后人体行为识别方法
CN114755745B (zh) 基于多通道深度残差收缩网络的冰雹天气识别与分类方法
CN108564005B (zh) 一种基于卷积神经网络的人体跌倒辨识方法
CN111220958A (zh) 基于一维卷积神经网络的雷达目标多普勒像分类识别方法
CN108629380B (zh) 一种基于迁移学习的跨场景无线信号感知方法
CN113156391B (zh) 一种雷达信号多维特征智能分选方法
Al Hadhrami et al. Transfer learning with convolutional neural networks for moving target classification with micro-Doppler radar spectrograms
Zhang et al. WiFi-based cross-domain gesture recognition via modified prototypical networks
CN112333653A (zh) 基于WiFi信道状态信息的身份智能识别方法、系统
CN111368930B (zh) 基于多类谱图融合与分级学习的雷达人体姿态识别方法及系统
CN111983569A (zh) 基于神经网络的雷达干扰抑制方法
CN113447905A (zh) 双毫米波雷达人体跌倒检测装置及检测方法
CN101847210A (zh) 基于二维经验模态分解和小波降噪的多分组图像分类方法
CN109471074A (zh) 基于奇异值分解与一维cnn网络的雷达辐射源识别方法
CN113453180B (zh) 一种人体摔倒智能检测方法、系统、信息数据处理终端
CN112859070B (zh) 一种基于多域多特征和深度学习的生命探测雷达系统
CN111965620B (zh) 基于时频分析和深度神经网络的步态特征提取与识别方法
CN112580486A (zh) 一种基于雷达微多普勒信号分离的人体行为分类方法
CN114639169B (zh) 基于注意力机制特征融合与位置无关的人体动作识别系统
CN114239657A (zh) 一种基于复值干涉神经网络的时序信号识别方法
Wang et al. Through-wall human activity classification using complex-valued convolutional neural network
Shao et al. Deep learning methods for personnel recognition based on micro-Doppler features
Succetti et al. A fast deep learning technique for Wi-Fi-based human activity recognition
CN113486859B (zh) 基于多类谱图和复合卷积神经网络的人体行为识别方法
WO2024041053A1 (zh) 一种室内被动式人体行为识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant