CN115063884B - 基于多域融合深度学习的毫米波雷达头部动作识别方法 - Google Patents
基于多域融合深度学习的毫米波雷达头部动作识别方法 Download PDFInfo
- Publication number
- CN115063884B CN115063884B CN202210666094.0A CN202210666094A CN115063884B CN 115063884 B CN115063884 B CN 115063884B CN 202210666094 A CN202210666094 A CN 202210666094A CN 115063884 B CN115063884 B CN 115063884B
- Authority
- CN
- China
- Prior art keywords
- time
- layer
- distance
- millimeter wave
- doppler
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000009471 action Effects 0.000 title claims abstract description 23
- 238000013135 deep learning Methods 0.000 title claims abstract description 13
- 230000004927 fusion Effects 0.000 title claims abstract description 13
- 230000007246 mechanism Effects 0.000 claims abstract description 20
- 238000010586 diagram Methods 0.000 claims abstract description 15
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 26
- 230000004913 activation Effects 0.000 claims description 20
- 230000033001 locomotion Effects 0.000 claims description 20
- 238000011176 pooling Methods 0.000 claims description 19
- 230000009466 transformation Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 101100379079 Emericella variicolor andA gene Proteins 0.000 claims 1
- 238000013527 convolutional neural network Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 3
- 230000002708 enhancing effect Effects 0.000 abstract description 2
- 230000006399 behavior Effects 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004886 head movement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000016776 visual perception Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Social Psychology (AREA)
- Medical Informatics (AREA)
- Psychiatry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于多域融合深度学习的毫米波雷达头部动作识别方法,包括以下步骤:步骤1、采集人的头部动作数据;步骤2、预处理,得到时间‑距离图、时间‑多普勒图;步骤3、对时间‑距离图进行特征提取;步骤4、对多通道时间‑多普勒图进行特征提取;步骤5、将提取到的距离特征和时频特征混合后,进行二维卷积;步骤6、采用空间注意力机制和通道注意力机制进行权重分配;步骤7、在全连接层中间加入dropout层。本发明利用卷积神经网络,结合多域和多种时频图对毫米波雷达采集的头部动作数据进行分类,同时采用通道注意力机制和空间注意力机制模块,增强了对易混淆动作的识别效果,提升了头部动作识别的准确率。
Description
技术领域
本发明属于毫米波雷达人体行为识别领域,特别涉及一种基于多域融合深度学习的毫米波雷达头部动作识别方法。
背景技术
卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络,仿造生物的视知觉(visual perception)机制构建,可以进行监督学习和非监督学习。利用卷积神经网络对人体行为或者手势进行识别已经展开了广泛的研究。传统的人体行为识别或手势识别是采用光学传感器捕捉动作信息,将捕捉到的画面送入卷积神经网络进行动作识别。而基于雷达的人体行为识别或手势识别是通过对雷达回波信号进行处理,得到距离、角度和多普勒等信息,将这些信息输入卷积神经网络中进行分类。相比于光学传感器,雷达具有不受光照影响的优点。然而雷达捕捉的信息并没有光学传感器丰富直接,因此对于一些相似动作或者幅度较小的微动,区分较为困难。
文献“Inattentive Driving Behavior Detection Based on Portable FMCWRadar”中公开了一种基于便携式FMCW雷达的驾驶员无意驾驶行为的检测,针对七种导致注意力降低的典型驾驶行为进行了识别分类,这七种行为也主要集中在头部动作。通过对不同行为的时间多普勒频谱图以及距离多普勒轨迹提取特征,提取的特征包括:时间多普勒图的包络、频率极值、有效面积的功率密度以及距离多普勒图的轨迹、动态多普勒频率等。之后采用机器学习的方式对特征进行识别,对比了四种不同的机器学习方法,分别是“决策树、支持向量机、KNN、集成学习(袋装树、增强树、子空间KNN)。并且研究了基于时频图的分类、基于距离多普勒轨迹的分类以及时频图和距离多普勒轨迹在分类中的融合特征。但是只对头部动作进行粗略的区分点头还是摇头,机器学习手动提取特征的过程也较为麻烦,时间成本耗费较多。
文献“3D Head Motion Detection Using Millimeter-Wave Doppler Radar”公开了一种利用毫米波多普勒雷达进行三维头部跟踪的技术。在这项技术中,为了识别天线的双基地和单基地几何结构以检测旋转和平移运动,他们提出了双散射角。通过数据简化和联合时频分析,标记运动边界,以创建简化、不相关和高度可分离的特征集。分类方法用的机器学习中的SVM,最终总体准确率在88%以上。该文献对头部运动进行了较为细致的划分,但是最终准确率还是不高且双基地雷达较为占空间。
发明内容
本发明的目的在于克服现有技术的不足,提供一种利用卷积神经网络,结合多域和多种时频图对毫米波雷达采集的头部动作数据进行分类,同时采用通道注意力机制和空间注意力机制模块,有效地提升了头部动作识别的准确率的基于多域融合深度学习的毫米波雷达头部动作识别方法。
本发明的目的是通过以下技术方案来实现的:基于多域融合深度学习的毫米波雷达头部动作识别方法,包括以下步骤:
步骤1、数据集建立:采用三发四收面阵天线的毫米波雷达采集人的头部动作数据,一共七个基本动作,分别是点头、低头、仰头、右转、左转、右偏、左偏;
步骤2、对雷达回波数据进行预处理:在快时间维度上对数据进行一维快速傅里叶变换得到时间-距离图;然后取目标所在的距离单元,进行时频分析得到时间-多普勒图;
步骤3、将时间-距离图和时间-多普勒图的图像大小统一调整为224×224×3的张量,然后对时间-距离图进行特征提取;
步骤4、将时间-多普勒图按堆叠成一个立方体,采用卷积核大小为3×3×3的三维卷积对多通道时间-多普勒图进行特征提取;
步骤5、将提取到的距离特征和时频特征混合后,再次进行二维卷积,得到多域特征;
步骤6、对步骤5得到的多域特征采用空间注意力机制和通道注意力机制进行权重分配;
步骤7、将多域特征、空间注意力权重和通道注意力权重输入全连接层,得到动作识别结果。
进一步地,步骤1中,将雷达放置在人的头部右侧,头部在雷达30°方位角以内,雷达与头部距离在0.5米-1米之间。
进一步地,所述步骤2具体实现方法为:根据时间-距离图计算雷达测距:
其中,c表示电磁波的传播速度,f0是发射信号与回波信号的频率之差,T为信号周期,B为信号带宽;距离R最大的位置即为目标位置;
时频分析采用小波变换、短时傅里叶变换和伪平滑魏格纳-维利分布。
进一步地,所述步骤3中,采用VGG16的前六层结构,并加载VGG16的预训练权重,进行特征提取;二维卷积的公式如下所示:
其中xi,j表示图像第i行第j列的像素;对卷积核的每个权重进行编号,用wm,n表示第m行第n列的权重,wb是卷积核的偏置项;f表示激活函数,选择ReLu激活函数,函数如下所示:
ReLU(x)=max(0,x)
通过VGG16的第六层结构输出时间-距离图特征。
进一步地,所述步骤4中,将小波变换、短时傅里叶变换、伪平滑魏格纳-维利分布得到的三种时间-多普勒图按顺序堆叠成一个立方体,采取卷积核大小为3×3×3的三维卷积层、BN层以及ReLu激活函数提取多通道时间-多普勒图的特征,三维卷积的计算公式为:
其中D是深度,F是卷积核的高度或者宽度,wd,m,n表示卷积核的权重,xd,i+m,j+n表示图像的像素;f表示激活函数,选择ReLu激活函数;
采用BN层使每一层神经网络的输入保持相同分布,BN层采取下列式子进行计算:
其中xi是样本,m是样本数,μB为样本均值,为样本方差,/>为归一化结果,yi和BNγ,β(xi)BN层的处理结果;ε为接近零的常数,防止分母为0;γ和β是两个可学习重构参数。
所述步骤6中,通道注意力模块的具体计算为:
其中,F是输入的特征图,σ是sigmoid激活函数,W0和W1是一个两层神经网络MLP的权重;AvgPool(F)为全局平均池化层,MaxPool(F)为全局最大池化层,MLP()是一个共享的全连接层,就是将输入的特征图F基于全局平均池化层得到一个1*1*C的特征图,/>是将输入的特征图F基于全局最大池化层得到一个1*1*C的特征图,W0()、W1()表示经过一个权值为W0、W1的全连接层;
空间注意力模块的具体计算为:
其中F是通道注意力模块输出的特征图,f7×7是指一个7×7的卷积。
本发明的有益效果是:本发明利用卷积神经网络,结合多域和多种时频图对毫米波雷达采集的头部动作数据进行分类,同时采用通道注意力机制和空间注意力机制模块,提升了单域情况下识别的准确率,增强了对易混淆动作的识别效果,有效地提升了头部动作识别的准确率。
附图说明
图1是本发明所述的方法流程图;
图2是本发明所述的三发四收面阵毫米波雷达天线;
图3是本发明所述的二维卷积;
图4是本发明所述的三维卷积;
图5是本发明所述的通道注意力机制;
图6是本发明所述的空间注意力机制;
图7是本发明所述方法与单域的效果对比图。
具体实施方式
本发明所述方法分成两个部分:第一部分是通过对毫米波雷达回波数据的处理,得到距离域和时频域这两个域的特征;第二部分搭建深度学习网络,融合时间-距离图与时频图并且联合多通道数据对七种头部动作进行分类。在实施过程中,首先对时间-距离图采取二维卷积层进行特征提取,再将三种时频图(小波变换、短时傅里叶变换、平滑伪魏格纳-维利分布)堆叠成一个立方体,采用三维卷积进行特征提取,将特征进行融合之后再通过注意力机制对不同特征分配不同权重,最终通过全连接层对动作进行分类。下面结合附图进一步说明本发明的技术方案。
如图1所示,本发明的一种基于多域融合深度学习的毫米波雷达头部动作识别方法,包括以下步骤:
步骤1、数据集建立:采用三发四收面阵天线的毫米波雷达采集人的头部动作数据,一共七个基本动作,分别是点头、低头、仰头、右转、左转、右偏、左偏;为了更好的区分左转和右转这两种头部微动,将雷达放置在人的头部右侧,头部在雷达30°方位角以内,雷达与头部距离在0.5米-1米之间,雷达阵列排布如图2所示,TX1、TX2、TX3为发射雷达,相邻雷达之间的距离为一个波长λ;RX1、RX2、RX3、RX4为接收雷达,相邻雷达之间的距离为半波长本实施例采集十个人的头部动作数据,每个动作每人采集40次。
步骤2、对雷达回波数据进行预处理,在快时间维度上对数据进行一维快速傅里叶变换得到时间-距离图;然后取目标所在的距离单元,进行时频分析得到时间-多普勒图;
根据时间-距离图计算雷达测距:
其中,c表示电磁波的传播速度,f0是发射信号与回波信号的频率之差,T为信号周期,B为信号带宽;距离R最大的位置即为目标位置;
时频分析采用小波变换、短时傅里叶变换和伪平滑魏格纳-维利分布;
其中,小波变换的公式如下所示:
其中a为尺度(scale),τ为平移量(translation),f(t)为待进行小波变换的信号;ψ(t)为小波基函数,采用morlet小波基函数,公式如下所示:
ω0表示中心频率,t为时间;
短时傅里叶变换的公式如下所示:
其中h(τ-t)为分析窗函数,STFT(t,f)为短时傅里叶变换的结果,x(τ)为短时傅里叶变换前的信号;
平滑伪魏格纳-维利分布(SPWVD)的公式如下所示:
其中SPWVD(t,f)为SPWVD的结果;t'、υ是积分变量是积分变量;h(t)是时域减少交叉项的窗口,是h(υ)翻转再取共轭,仍为窗函数;s(t)是频域减少交叉项的窗口;同理。
步骤2中,得到雷达每个通道的数据的时间-距离图之后,先做两脉冲对消,即相邻帧的相应脉冲信号相减,削弱身体反射的信号,增强头部动作反射的信号,然后再进行时频分析处理。
步骤3、将时间-距离图和时间-多普勒图的图像大小统一调整为224×224×3的张量,然后对时间-距离图进行特征提取;采用卷积核大小为3×3的二维卷积层、ReLu激活层以及最大池化层对时间-距离图进行特征提取;采用VGG16的前六层结构,并加载VGG16的预训练权重,进行特征提取;二维卷积的计算方式如图3所示,二维卷积的公式如下所示:
其中xi,j表示图像第i行第j列的像素;对卷积核的每个权重进行编号,用wm,n表示第m行第n列的权重,wb是卷积核的偏置项;f表示激活函数,选择ReLu激活函数,函数如下所示:
ReLU(x)=max(0,x) (7)
通过VGG16的第六层结构(最大池化层)输出时间-距离图特征。
步骤4、将时间-多普勒图按堆叠成一个立方体,采用卷积核大小为3×3×3的三维卷积对多通道时间-多普勒图进行特征提取;将小波变换、短时傅里叶变换、伪平滑魏格纳-维利分布得到的三种时间-多普勒图按顺序堆叠成一个立方体,采取卷积核大小为3×3×3的三维卷积层、BN(BatchNorm)层以及ReLu激活函数提取多通道时间-多普勒图的特征,步长为2,三维卷积如图4所示;三维卷积的计算公式为:
其中D是深度,F是卷积核的高度或者宽度,wd,m,n表示卷积核的权重,xd,i+m,j+n表示图像的像素;f表示激活函数,选择ReLu激活函数;
采用BN层使每一层神经网络的输入保持相同分布,BN层采取下列式子进行计算:
其中xi是样本,m是样本数,μB为样本均值,为样本方差,/>为归一化结果,yi和BNγ,β(xi)BN层的处理结果;ε为接近零的常数,防止分母为0;γ和是两个可学习重构参数。
步骤5、将提取到的距离特征和时频特征混合后,再次进行二维卷积,进一步提取特征;
步骤6、对步骤5得到的多域特征采用空间注意力机制和通道注意力机制进行权重分配,通道注意力机制如图5所示,依次包括并列的全局最大池化层和全局平均池化层,两个池化层的输出输入一个两层神经网络,然后将神经网络得到的特征图相加后得到通道注意力权重;空间注意力机制如图6所示,依次包括全局最大池化层、全局平均池化层、二维卷积层和激活函数。分配有限的信息处理资源给重要的部分;采用轻量注意力模块CBAM作为网络的通道特征和空间特征的权重计算模块;通道注意力模块(CAM)的具体计算为:
其中,F是输入的特征图,σ是sigmoid激活函数,W0和W1是一个两层神经网络MLP的权重;AvgPool(F)为全局平均池化层,MaxPool(F)为全局最大池化层,MLP()是一个共享的全连接层,就是将输入的特征图F基于全局平均池化层得到一个1*1*C的特征图,/>是将输入的特征图F基于全局最大池化层得到一个1*1*C的特征图,W0()、W1()表示经过一个权值为W0、W1的全连接层;
空间注意力模块的具体计算为:
其中F是通道注意力模块输出的特征图,f7×7是指一个7×7的卷积。
步骤7、将多域特征、空间注意力权重和通道注意力权重输入全连接层,得到动作识别结果。在全连接层中间加入dropout层,按70%的概率随机拿掉一些神经元,防止过拟合。本实施例中,全连接层隐藏节点数为4096,输出节点数为7。
利用步骤1采集到的数据集,按照步骤2~7的方法训练50次后得到分类模型,然后用训练好的模型对未知数据进行分类,输入时间-距离图和时间-多普勒图,输出动作类别。将多域与单域结果进行对比,如图7所示。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (5)
1.基于多域融合深度学习的毫米波雷达头部动作识别方法,其特征在于,包括以下步骤:
步骤1、数据集建立:采用三发四收面阵天线的毫米波雷达采集人的头部动作数据,一共七个基本动作,分别是点头、低头、仰头、右转、左转、右偏、左偏;
步骤2、对雷达回波数据进行预处理:在快时间维度上对数据进行一维快速傅里叶变换得到时间-距离图;然后取目标所在的距离单元,进行时频分析得到时间-多普勒图;
步骤3、将时间-距离图和时间-多普勒图的图像大小统一调整为224×224×3的张量,然后对时间-距离图进行特征提取;
步骤4、将时间-多普勒图按堆叠成一个立方体,采用卷积核大小为3×3×3的三维卷积对多通道时间-多普勒图进行特征提取;具体方法为:将小波变换、短时傅里叶变换、伪平滑魏格纳-维利分布得到的三种时间-多普勒图按顺序堆叠成一个立方体,采取卷积核大小为3×3×3的三维卷积层、BN层以及ReLu激活函数提取多通道时间-多普勒图的特征,三维卷积的计算公式为:
其中D是深度,F是卷积核的高度或者宽度,wd,m,n表示卷积核的权重,xd,im,jn表示图像的像素;f表示激活函数,选择ReLu激活函数;
采用BN层使每一层神经网络的输入保持相同分布,BN层采取下列式子进行计算:
其中xi是样本,m是样本数,μB为样本均值,为样本方差,/>为归一化结果,yi和BN层的处理结果;ε为接近零的常数,防止分母为0;γ和β是两个可学习重构参数;
步骤5、将提取到的距离特征和时频特征混合后,再次进行二维卷积,得到多域特征;
步骤6、对步骤5得到的多域特征采用空间注意力机制和通道注意力机制进行权重分配;
步骤7、将多域特征、空间注意力权重和通道注意力权重输入全连接层,得到动作识别结果。
2.根据权利要求书1所述的基于多域融合深度学习的毫米波雷达头部动作识别方法,其特征在于,步骤1中,将雷达放置在人的头部右侧,头部在雷达30°方位角以内,雷达与头部距离在0.5米-1米之间。
3.根据权利要求书1所述的基于多域融合深度学习的毫米波雷达头部动作识别方法,其特征在于,所述步骤2具体实现方法为:根据时间-距离图计算雷达测距:
其中,c表示电磁波的传播速度,f0是发射信号与回波信号的频率之差,T为信号周期,B为信号带宽;距离R最大的位置即为目标位置;
时频分析采用小波变换、短时傅里叶变换和伪平滑魏格纳-维利分布。
4.根据权利要求书1所述的基于多域融合深度学习的毫米波雷达头部动作识别方法,其特征在于,所述步骤3中,采用VGG16的前六层结构,并加载VGG16的预训练权重,进行特征提取;二维卷积的公式如下所示:
其中xi,j表示图像第i行第j列的像素;对卷积核的每个权重进行编号,用wm,n表示第m行第n列的权重,wb是卷积核的偏置项;f表示激活函数,选择ReLu激活函数,函数如下所示:
ReLU(x)max(0,x)
通过VGG16的第六层结构输出时间-距离图特征。
5.根据权利要求书1所述的基于多域融合深度学习的毫米波雷达头部动作识别方法,其特征在于,所述步骤6中,通道注意力模块的具体计算为:
其中,F是输入的特征图,是sigmoid激活函数,W0和W1是一个两层神经网络MLP的权重;AvgPool(F)为全局平均池化层,MaxPool(F)为全局最大池化层,MLP()是一个共享的全连接层,就是将输入的特征图F基于全局平均池化层得到一个1*1*C的特征图,/>是将输入的特征图F基于全局最大池化层得到一个1*1*C的特征图,W0()、W1()表示经过一个权值为W0、W1的全连接层;
空间注意力模块的具体计算为:
其中F是通道注意力模块输出的特征图,f7×7是指一个7×7的卷积。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210666094.0A CN115063884B (zh) | 2022-06-14 | 2022-06-14 | 基于多域融合深度学习的毫米波雷达头部动作识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210666094.0A CN115063884B (zh) | 2022-06-14 | 2022-06-14 | 基于多域融合深度学习的毫米波雷达头部动作识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115063884A CN115063884A (zh) | 2022-09-16 |
CN115063884B true CN115063884B (zh) | 2024-04-23 |
Family
ID=83200138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210666094.0A Active CN115063884B (zh) | 2022-06-14 | 2022-06-14 | 基于多域融合深度学习的毫米波雷达头部动作识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115063884B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115291184B (zh) * | 2022-10-08 | 2023-03-24 | 四川启睿克科技有限公司 | 一种毫米波雷达与深度学习结合的姿态监测方法 |
CN116059600B (zh) * | 2022-11-25 | 2023-10-20 | 佛山市银河兰晶科技股份有限公司 | 一种基于互动投影的康复训练装置、训练方法及评估系统 |
CN115856881B (zh) * | 2023-01-12 | 2023-05-12 | 南京邮电大学 | 一种基于动态轻量级网络的毫米波雷达行为感知方法 |
CN117312775A (zh) * | 2023-11-17 | 2023-12-29 | 安徽脉旺智能科技有限公司 | 基于ppg信号和深度学习算法的dpn筛查模型的构建方法 |
CN118409313A (zh) * | 2024-07-03 | 2024-07-30 | 中国科学院自动化研究所 | 基于深度学习的雷达人体活动识别方法、装置和电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108872984A (zh) * | 2018-03-15 | 2018-11-23 | 清华大学 | 基于多基地雷达微多普勒和卷积神经网络的人体识别方法 |
CN109583436A (zh) * | 2019-01-29 | 2019-04-05 | 杭州朗阳科技有限公司 | 一种基于毫米波雷达的手势识别系统 |
CN110133610A (zh) * | 2019-05-14 | 2019-08-16 | 浙江大学 | 基于时变距离-多普勒图的超宽带雷达动作识别方法 |
CN111505632A (zh) * | 2020-06-08 | 2020-08-07 | 北京富奥星电子技术有限公司 | 基于功率谱和多普勒特征的超宽带雷达动作姿态识别方法 |
CN112861813A (zh) * | 2021-03-29 | 2021-05-28 | 电子科技大学 | 基于复值卷积神经网络的墙后人体行为识别方法 |
CN113052091A (zh) * | 2021-03-30 | 2021-06-29 | 中国北方车辆研究所 | 一种基于卷积神经网络的动作识别方法 |
CN113850204A (zh) * | 2021-09-28 | 2021-12-28 | 太原理工大学 | 一种基于深度学习和超宽带雷达的人体动作识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7725169B2 (en) * | 2005-04-15 | 2010-05-25 | The Board Of Trustees Of The University Of Illinois | Contrast enhanced spectroscopic optical coherence tomography |
-
2022
- 2022-06-14 CN CN202210666094.0A patent/CN115063884B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108872984A (zh) * | 2018-03-15 | 2018-11-23 | 清华大学 | 基于多基地雷达微多普勒和卷积神经网络的人体识别方法 |
CN109583436A (zh) * | 2019-01-29 | 2019-04-05 | 杭州朗阳科技有限公司 | 一种基于毫米波雷达的手势识别系统 |
CN110133610A (zh) * | 2019-05-14 | 2019-08-16 | 浙江大学 | 基于时变距离-多普勒图的超宽带雷达动作识别方法 |
CN111505632A (zh) * | 2020-06-08 | 2020-08-07 | 北京富奥星电子技术有限公司 | 基于功率谱和多普勒特征的超宽带雷达动作姿态识别方法 |
CN112861813A (zh) * | 2021-03-29 | 2021-05-28 | 电子科技大学 | 基于复值卷积神经网络的墙后人体行为识别方法 |
CN113052091A (zh) * | 2021-03-30 | 2021-06-29 | 中国北方车辆研究所 | 一种基于卷积神经网络的动作识别方法 |
CN113850204A (zh) * | 2021-09-28 | 2021-12-28 | 太原理工大学 | 一种基于深度学习和超宽带雷达的人体动作识别方法 |
Non-Patent Citations (3)
Title |
---|
3D Head Motion Detection Using Millimeter-Wave Doppler Radar;Muneeba Raja等;《 IEEE Access》;20200213;第8卷;全文 * |
Multidomain Fusion Method for Human Head Movement Recognition;Yuqing Bu等;《IEEE Transactions on Instrumentation and Measurement》;20230123;第72卷;全文 * |
基于卷积神经网络的手势动作雷达识别方法;王俊;郑彤;雷鹏;张原;樵明朗;;北京航空航天大学学报;20170905(06);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115063884A (zh) | 2022-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115063884B (zh) | 基于多域融合深度学习的毫米波雷达头部动作识别方法 | |
Mosavi et al. | Multi-layer perceptron neural network utilizing adaptive best-mass gravitational search algorithm to classify sonar dataset | |
CN106228201B (zh) | 一种基于阴影特性的合成孔径雷达抗欺骗式干扰方法 | |
Kaveh et al. | Design and implementation of a neighborhood search biogeography-based optimization trainer for classifying sonar dataset using multi-layer perceptron neural network | |
CN109948532A (zh) | 基于深度卷积神经网络的超宽带雷达人体动作识别方法 | |
Le et al. | Deep gabor neural network for automatic detection of mine-like objects in sonar imagery | |
Stewart et al. | A neural network approach to classification of sidescan sonar imagery from a midocean ridge area | |
Ibrahim et al. | Artificial neural network approach in radar target classification | |
CN111796272B (zh) | 穿墙雷达人体图像序列的姿态实时识别方法及计算机设备 | |
Kılıç et al. | Through‐Wall Radar Classification of Human Posture Using Convolutional Neural Networks | |
Li et al. | Human behavior recognition using range-velocity-time points | |
Ng et al. | Range-Doppler detection in automotive radar with deep learning | |
Qu et al. | Human activity recognition based on WRGAN-GP-synthesized micro-doppler spectrograms | |
CN110703221A (zh) | 基于极化特征的城市低空小目标分类识别系统 | |
Rizvi et al. | Deep learning approach for fixed and rotary-wing target detection and classification in radars | |
Zhang et al. | Temporal-range-doppler features interpretation and recognition of hand gestures using MmW FMCW radar sensors | |
Jin et al. | Interference-robust millimeter-wave radar-based dynamic hand gesture recognition using 2D CNN-transformer networks | |
Duysak et al. | Determination of the amount of grain in silos with deep learning methods based on radar spectrogram data | |
Zhao et al. | Research on electronic jamming identification based on CNN | |
Xu et al. | Marine radar small target classification based on block-whitened time–frequency spectrogram and pre-trained CNN | |
Erdoğan et al. | Object classification on noise-reduced and augmented micro-doppler radar spectrograms | |
Hwang et al. | Bat-g net: Bat-inspired high-resolution 3d image reconstruction using ultrasonic echoes | |
Ege | Human activity classification with deep learning using FMCW radar | |
CN115565050A (zh) | 多模态特性融合的智能目标识别方法 | |
CN116008982A (zh) | 基于跨尺度特征聚合网络的雷达目标辨识方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |