CN114529939A - 基于毫米波雷达点云聚类和深度学习的行人识别方法 - Google Patents
基于毫米波雷达点云聚类和深度学习的行人识别方法 Download PDFInfo
- Publication number
- CN114529939A CN114529939A CN202210047848.4A CN202210047848A CN114529939A CN 114529939 A CN114529939 A CN 114529939A CN 202210047848 A CN202210047848 A CN 202210047848A CN 114529939 A CN114529939 A CN 114529939A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- frame
- millimeter wave
- wave radar
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000013135 deep learning Methods 0.000 title claims abstract description 23
- 238000000605 extraction Methods 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 18
- 239000013598 vector Substances 0.000 claims abstract description 15
- 230000002123 temporal effect Effects 0.000 claims abstract description 11
- 230000006870 function Effects 0.000 claims description 28
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 5
- 230000015654 memory Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000007787 long-term memory Effects 0.000 abstract description 2
- 230000006403 short-term memory Effects 0.000 abstract description 2
- 238000007781 pre-processing Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/231—Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于毫米波雷达点云聚类和深度学习的行人识别方法,包括:1)对毫米波雷达采集的原始点云数据进行点云聚类的预处理;2)使用预处理的点云数据训练由空间特征提取模块、注意力模块、时间特征提取模块组成的深度学习网络模型,再输入待测数据,得到行人识别的结果;其中,使用PointNet++网络作为空间特征提取模块,批次提取每帧点云的空间特征;使用注意力模块衡量每一帧提取到的空间特征并对空间特征向量加权;使用两个堆叠的长短期记忆网络作为时间特征提取模块。本发明使用毫米波雷达采集的点云数据,在深度学习网络中提取点云的空间特征和时间特征并加入注意力模块,更好地提取不同特征通道之间更深层次的关系特征,提高识别准确度。
Description
技术领域
本发明涉及毫米波雷达点云与对象识别的技术领域,尤其是指一种基于毫米波雷达点云聚类和深度学习的行人识别方法。
背景技术
常见的行人识别是基于计算机视觉的,但是视觉解决方案需要拍摄图片,因此存在用户隐私的安全问题,另外会受到光照条件的影响,在光线太弱等较差环境条件下无法获得清晰的图像,从而导致对象识别失败。因此不适合用在酒店、银行、私人住宅等隐私安全要求较高的地方。
近期,使用毫米波无线信号进行行人识别受到广泛关注。毫米波雷达对不同的光照和天气条件具有很好的鲁棒性,数据提取时不受人的额外特征例如衣服颜色的影响,此外,与视觉特征相比,人体的回波信号特征在长时间内更加稳定。但是低空间分辨率的雷达点云不能清晰地反映人体的几何信息,并且雷达点云的分布稀疏,对行人识别任务提出了挑战。
目前基于深度学习的毫米波雷达点云目标识别方法主要分为两大类,即基于点云的方法和基于图像处理的方法。
基于点云的方法是从点云处理的角度入手,直接利用原始点云进行识别,例如PointNet、SRPNet、TCPCN等。PointNet只关注单帧特征提取;SRPNet在预处理阶段并没有改变点云数据稀疏的情况,并且采用双向长短期记忆网络(BiLSTM)同时提取时空特征,导致模型的准确度和时间效率不佳;TCPCN只关注每一帧点云的局部特征,而且点云帧数过多,使得时间复杂度偏高,不利于准确提取时间特征。
第二类则是借鉴图像处理领域的方法,将毫米波雷达的3D点云数据映射为图像数据,然后利用深度学习进行行人识别,例如mmGaitNet,在不同通道上对帧内固定数量的点云使用ResNet提取特征,最后融合所有局部特征进行识别。
虽然mmGaitNet可以通过增加设备数量或将点云中的点多次复制作为点云的填充点来提高点云密度,但这种方法不仅提高了成本,填充点也有可能是噪声点,干扰了模型的训练;而且模型从图像的角度处理点云数据,忽略了点云的全局特征与时间特征,特征学习也没有侧重点。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提出了一种基于毫米波雷达点云聚类和深度学习的行人识别方法,采用基于聚类的多帧合并配合重采样的方法进行稀疏点云数据的预处理,提高点云密度,降低时间复杂度;使用PointNet++网络结构提取每帧点云的全局空间特征并使用注意力模块为不同的特征加权;使用堆叠的LSTM提取时间特征,提高了行人识别的准确率以及计算效率。
为实现上述目的,本发明所提供的技术方案为:基于毫米波雷达点云聚类和深度学习的行人识别方法,包括以下步骤:
1)对毫米波雷达采集的原始点云数据进行点云聚类的预处理,提高每帧点云数量;
2)使用预处理的点云数据训练由空间特征提取模块、注意力模块、时间特征提取模块组成的深度学习网络模型,直到模型收敛,再输入待测数据,得到行人识别的结果;其中,使用PointNet++网络作为空间特征提取模块,批次提取每帧点云的空间特征;使用注意力模块衡量每一帧提取到的空间特征并对空间特征向量加权;使用两个堆叠的长短期记忆网络(LSTM)作为时间特征提取模块,提取点云的时间特征。
进一步,所述步骤1)包括以下步骤:
1.1)使用多帧合并算法,按照固定时间段,将毫米波雷达采集到的同一时间段内的多帧点云合并为一帧,保留采集到的所有点数,算法表示为:
其中,fp表示合并后每帧的点数,Ptotal表示采集到的点的总数,F表示固定的帧数,即固定帧数后,按照时间间隔,依次按照式(1)分配点数,减少帧数,降低时间复杂度,提高点云密度;
1.2)使用层次凝聚聚类算法即HAC算法对合并后的帧内点云进行上采样,每一步都将合并的簇的质心加入点云中,作为新点:
p(M,N)=αAp(A,N)+αBp(B,N)+βp(A,B)+γ|p(A,N)-p(B,N)| (2)
其中,p(,)表示邻近度函数,M是由簇A和B合并形成的新簇,N是A、B以外的原簇,αA、αB、β、γ均表示权重,0<αA<1,0<αB<1,0<β<1,0<γ<1,HAC算法的每一步都根据簇邻近度合并最接近的两个簇,迭代运行,直到达到终止条件;
1.3)对上采样的点云进行K均值聚类下采样,k是定义的每帧点云被采样的固定点数,也是PointNet++网络的固定输入点数。
进一步,在步骤2)中,空间特征提取模块使用PointNet++网络结构,首先提取每帧点云的局部特征以捕获小区域中的重要结构,然后将局部特征进一步分组为大的单元以提取更高级别的特征,重复上述过程,直到计算出整个点云数据的全局特征。
进一步,在步骤2)中,注意力模块使用1个多层感知机(MLP)来衡量每一帧提取的特征,通过学习PointNet++网络的输出特征向量来生成权重,其提取得到的权重与空间特征提取模块输出的特征向量相乘,强调有意义的特征,提高模型的鲁棒性,使用softmax函数为激活函数,加权后的特征向量作为时间特征提取模块的输入。
进一步,在步骤2)中,时间特征提取模块采用两个堆叠的LSTM层,每个LSTM层表示为:
其中,Ft是遗忘门,It是输入门,Ot是输出门,Ct是控制门,Ct-1是前一个时间步的控制门,st是时间步长,是隐藏状态,j只有两个取值1或2,是前一个时间步的隐藏状态,Uf、Vf、Ui、Vi、Uo、Vo、Uc、Vc是对应门的权重矩阵,Bf、Bi、Bo、Bc是模型偏差,σ是sigmoid激活函数,符号ο表示哈达玛积;
为了正则化,在LSTM层后增加两个全连接层和一个dropout层。
进一步,在步骤2)中,将预处理后的点云数据按照8:1:1的比例分为训练集、验证集和测试集,使用训练集和验证集对深度学习网络模型进行训练并验证,模型使用交叉熵损失函数作为分类损失函数Lc:
其中,m和n是输出所属的类别,K是类别总数,R是样本总数,xma是样本a的类别为m的标签,xna是样本a的类别n的标签;
为了约束特征变换矩阵接近正交矩阵,使用softmax函数训练损失函数时增加一项正则化损失函数Lr:
Lr=||I-HHT||2 (9)
其中,I是单位矩阵,H是特征变换矩阵;
由式(8)和式(9)得到损失函数L:
L=Lc+αLr (10)
其中,α表示权重,0<α<1;
获取训练误差后,网络模型沿梯度方向传播,更新网络模型参数,迭代训练,直到网络模型收敛;而在测试时,输入测试集,即可得到行人识别的结果。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明使用毫米波雷达采集点云数据,保证了用户的隐私安全也避免了外部环境的影响。
2、本发明使用基于点云聚类的帧合并和重采样方法进行预处理,解决了雷达点云稀疏的问题并且降低了时间复杂度。
3、本发明学习每帧点云的全局时空特征并加入注意力机制,在损失函数中加入正则,提高了模型的鲁棒性和对象识别的准确度,降低了模型的时间损耗。
附图说明
图1是实施例中毫米波雷达点云数据预处理流程图。
图2是实施例中深度学习网络模型的结构示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
参见图1和图2所示,本实施例公开了一种基于毫米波雷达点云聚类和深度学习的行人识别方法,其具体情况如下:
1)对毫米波雷达采集的原始点云数据进行点云聚类的预处理,提高每帧点云数量,包括以下步骤:
1.1)使用多帧合并算法,在点上应用时间衰减,按照固定时间段将毫米波雷达采集到的多帧点云合并为一帧,保留原始帧的所有点数,算法表示为:
其中,fp表示合并后每帧的点数,Ptotal表示采集到的点的总数,F表示固定的帧数,即固定帧数后,按照时间间隔,依次按照式(1)分配点数,重新排列帧内的点云,以此类推,实现多帧合并,减少帧数的同时降低时间复杂度,提高点云密度。
1.2)使用层次凝聚聚类算法(HAC算法)对合并后的帧内点云进行上采样,将训练样本中的每个点都当做一个聚类,计算每两个聚类之间的距离,将距离最近或最相似的两个聚类进行合并,并把每个簇的质心都作为一个新点添加到点云中,防止生成单粒子簇,迭代运行HAC直到一帧中达到预定义的点数:
p(M,N)=αAp(A,N)+αBp(B,N)+βp(A,B)+γ|p(A,N)-p(B,N)| (2)
其中,p(,)表示邻近度函数,M是由簇A和B合并形成的新簇,N是A、B以外的原簇,αA、αB、β、γ均表示权重,0<αA<1,0<αB<1,0<β<1,0<γ<1,HAC算法的每一步都根据簇邻近度合并最接近的两个簇,迭代运行,直到达到终止条件;
1.3)对上采样的点云进行K均值聚类下采样,k是定义的每帧点云被采样的固定点数,也是PointNet++网络的固定输入点数。
2)将预处理后的点云数据按照8:1:1的比例分为训练集、验证集和测试集,使用训练集和验证集对由空间特征提取模块、注意力模块、时间特征提取模块组成的深度学习网络模型进行训练并验证,模型使用交叉熵损失函数作为分类损失函数Lc:
其中,m和n是输出所属的类别,K是类别总数,R是样本总数,xma是样本a的类别为m的标签,xna是样本a的类别n的标签;
为了约束特征变换矩阵接近正交矩阵,使用softmax函数训练损失函数时增加一项正则化损失函数Lr:
Lr=||I-HHT||2 (9)
其中,I是单位矩阵,H是特征变换矩阵;
由式(8)和式(9)得到损失函数L:
L=Lc+αLr (10)
其中,α表示权重,0<α<1;
获取训练误差后,网络模型沿梯度方向传播,更新网络模型参数,迭代训练,直到网络模型收敛;而在测试时,输入测试集,即可得到行人识别的结果。
其中,使用PointNet++网络作为空间特征提取模块,批次提取每帧点云的空间特征,以Q×p×3的点云作为输入(Q表示批量大小,p表示点数),使用两个集合抽象层来模拟CNN的卷积层,每个抽象层包括一个采样层、一个分组层和一个PointNet层;采样层输入预处理后的每帧点云数据,输出一组定义了局部区域质心的点,分组层根据质心算则其“相邻”点来构建局部区域的集合,PointNet层将局部区域编码为特征向量,PointNet层后接一个全连接层输出每帧点云的全局特征向量。
使用注意力模块衡量每一帧提取到的空间特征并对空间特征向量加权,注意力模块使用1个多层感知机(MLP)来衡量每一帧提取的特征,通过学习PointNet++网络的输出特征向量来生成权重,其提取得到的权重与空间特征提取模块输出的特征向量相乘,强调有意义的特征,提高模型的鲁棒性,使用softmax函数为激活函数,加权后的特征向量作为时间特征提取模块的输入。
使用两个堆叠的长短期记忆网络(LSTM)作为时间特征提取模块,提取点云的时间特征,即时间特征提取模块包括两个堆叠的LSTM层,每个LSTM层可表示为:
其中,Ft是遗忘门,It是输入门,Ot是输出门,Ct是控制门,Ct-1是前一个时间步的控制门,st是时间步长,是隐藏状态,j只有两个取值1或2,是前一个时间步的隐藏状态,Uf、Vf、Ui、Vi、Uo、Vo、Uc、Vc是对应门的权重矩阵,Bf、Bi、Bo、Bc是模型偏差,σ是sigmoid激活函数,符号ο表示哈达玛积。
为了正则化,在LSTM层后增加两个全连接层和一个dropout层。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (6)
1.基于毫米波雷达点云聚类和深度学习的行人识别方法,其特征在于,包括以下步骤:
1)对毫米波雷达采集的原始点云数据进行点云聚类的预处理,提高每帧点云数量;
2)使用预处理的点云数据训练由空间特征提取模块、注意力模块、时间特征提取模块组成的深度学习网络模型,直到模型收敛,再输入待测数据,得到行人识别的结果;其中,使用PointNet++网络作为空间特征提取模块,批次提取每帧点云的空间特征;使用注意力模块衡量每一帧提取到的空间特征并对空间特征向量加权;使用两个堆叠的长短期记忆网络LSTM作为时间特征提取模块,提取点云的时间特征。
2.根据权利要求1所述的基于毫米波雷达点云聚类和深度学习的行人识别方法,其特征在于:所述步骤1)包括以下步骤:
1.1)使用多帧合并算法,按照固定时间段,将毫米波雷达采集到的同一时间段内的多帧点云合并为一帧,保留采集到的所有点数,算法表示为:
其中,fp表示合并后每帧的点数,Ptotal表示采集到的点的总数,F表示固定的帧数,即固定帧数后,按照时间间隔,依次按照式(1)分配点数,减少帧数,降低时间复杂度,提高点云密度;
1.2)使用层次凝聚聚类算法即HAC算法对合并后的帧内点云进行上采样,每一步都将合并的簇的质心加入点云中,作为新点:
p(M,N)=αAp(A,N)+αBp(B,N)+βp(A,B)+γ|p(A,N)-p(B,N)| (2)
其中,p(,)表示邻近度函数,M是由簇A和B合并形成的新簇,N是A、B以外的原簇,αA、αB、β、γ均表示权重,0<αA<1,0<αB<1,0<β<1,0<γ<1,HAC算法的每一步都根据簇邻近度合并最接近的两个簇,迭代运行,直到达到终止条件;
1.3)对上采样的点云进行K均值聚类下采样,k是定义的每帧点云被采样的固定点数,也是PointNet++网络的固定输入点数。
3.根据权利要求1所述的基于毫米波雷达点云聚类和深度学习的行人识别方法,其特征在于:在步骤2)中,空间特征提取模块使用PointNet++网络结构,首先提取每帧点云的局部特征以捕获小区域中的重要结构,然后将局部特征进一步分组为大的单元以提取更高级别的特征,重复上述过程,直到计算出整个点云数据的全局特征。
4.根据权利要求1所述的基于毫米波雷达点云聚类和深度学习的行人识别方法,其特征在于:在步骤2)中,注意力模块使用1个多层感知机MLP来衡量每一帧提取的特征,通过学习PointNet++网络的输出特征向量来生成权重,其提取得到的权重与空间特征提取模块输出的特征向量相乘,强调有意义的特征,提高模型的鲁棒性,使用softmax函数为激活函数,加权后的特征向量作为时间特征提取模块的输入。
6.根据权利要求1所述的基于毫米波雷达点云聚类和深度学习的行人识别方法,其特征在于:在步骤2)中,将预处理后的点云数据按照8:1:1的比例分为训练集、验证集和测试集,使用训练集和验证集对深度学习网络模型进行训练并验证,模型使用交叉熵损失函数作为分类损失函数Lc:
其中,m和n是输出所属的类别,K是类别总数,R是样本总数,xma是样本a的类别为m的标签,xna是样本a的类别n的标签;
为了约束特征变换矩阵接近正交矩阵,使用softmax函数训练损失函数时增加一项正则化损失函数Lr:
Lr=||I-HHT||2 (9)
其中,I是单位矩阵,H是特征变换矩阵;
由式(8)和式(9)得到损失函数L:
L=Lc+αLr (10)
其中,α表示权重,0<α<1;
获取训练误差后,网络模型沿梯度方向传播,更新网络模型参数,迭代训练,直到网络模型收敛;而在测试时,输入测试集,即可得到行人识别的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210047848.4A CN114529939B (zh) | 2022-01-17 | 2022-01-17 | 基于毫米波雷达点云聚类和深度学习的行人识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210047848.4A CN114529939B (zh) | 2022-01-17 | 2022-01-17 | 基于毫米波雷达点云聚类和深度学习的行人识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114529939A true CN114529939A (zh) | 2022-05-24 |
CN114529939B CN114529939B (zh) | 2024-08-06 |
Family
ID=81621507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210047848.4A Active CN114529939B (zh) | 2022-01-17 | 2022-01-17 | 基于毫米波雷达点云聚类和深度学习的行人识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114529939B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116453227A (zh) * | 2023-06-19 | 2023-07-18 | 武汉理工大学 | 一种基于双毫米波雷达的船舶环境下步态识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109993103A (zh) * | 2019-03-29 | 2019-07-09 | 华南理工大学 | 一种基于点云数据的人体行为识别方法 |
CN111708021A (zh) * | 2020-07-15 | 2020-09-25 | 四川长虹电器股份有限公司 | 一种基于毫米波雷达的人员跟踪与识别算法 |
CN113820682A (zh) * | 2021-09-26 | 2021-12-21 | 华南农业大学 | 一种基于毫米波雷达的目标检测方法及装置 |
-
2022
- 2022-01-17 CN CN202210047848.4A patent/CN114529939B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109993103A (zh) * | 2019-03-29 | 2019-07-09 | 华南理工大学 | 一种基于点云数据的人体行为识别方法 |
CN111708021A (zh) * | 2020-07-15 | 2020-09-25 | 四川长虹电器股份有限公司 | 一种基于毫米波雷达的人员跟踪与识别算法 |
CN113820682A (zh) * | 2021-09-26 | 2021-12-21 | 华南农业大学 | 一种基于毫米波雷达的目标检测方法及装置 |
Non-Patent Citations (1)
Title |
---|
孔栋;王晓原;刘亚奇;陈晨;王方;: "基于车载32线激光雷达点云的车辆目标识别算法", 科学技术与工程, no. 05, 18 February 2018 (2018-02-18) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116453227A (zh) * | 2023-06-19 | 2023-07-18 | 武汉理工大学 | 一种基于双毫米波雷达的船舶环境下步态识别方法 |
CN116453227B (zh) * | 2023-06-19 | 2023-09-19 | 武汉理工大学 | 一种基于双毫米波雷达的船舶环境下步态识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114529939B (zh) | 2024-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113936339B (zh) | 基于双通道交叉注意力机制的打架识别方法和装置 | |
US11783569B2 (en) | Method for classifying hyperspectral images on basis of adaptive multi-scale feature extraction model | |
CN110135267B (zh) | 一种大场景sar图像细微目标检测方法 | |
CN110287800B (zh) | 一种基于sgse-gan的遥感图像场景分类方法 | |
CN110232341B (zh) | 基于卷积-堆叠降噪编码网络的半监督学习图像识别方法 | |
CN115063573B (zh) | 一种基于注意力机制的多尺度目标检测方法 | |
CN113780211A (zh) | 一种基于改进型Yolov4-tiny的轻量级飞机检测方法 | |
CN112764024B (zh) | 基于卷积神经网络和Bert的雷达目标识别方法 | |
CN112950780B (zh) | 一种基于遥感影像的网络地图智能生成方法及系统 | |
CN110161480B (zh) | 基于半监督深度概率模型的雷达目标识别方法 | |
CN111695456A (zh) | 一种基于主动判别性跨域对齐的低分辨人脸识别方法 | |
CN113283409A (zh) | 基于EfficientDet和Transformer的航空图像中的飞机检测方法 | |
CN111723660A (zh) | 一种用于长形地面目标检测网络的检测方法 | |
CN117593666B (zh) | 一种极光图像的地磁台站数据预测方法及系统 | |
Li et al. | Enhanced bird detection from low-resolution aerial image using deep neural networks | |
CN114187506B (zh) | 视点意识的动态路由胶囊网络的遥感图像场景分类方法 | |
CN114529939B (zh) | 基于毫米波雷达点云聚类和深度学习的行人识别方法 | |
CN115032602A (zh) | 一种基于多尺度卷积胶囊网络的雷达目标识别方法 | |
CN116486183B (zh) | 基于多种注意力权重融合特征的sar图像建筑区分类方法 | |
CN116958701A (zh) | 一种基于改进vgg16与图像增强的网络异常流量检测方法 | |
Yao et al. | Cloud detection in optical remote sensing images with deep semi-supervised and active learning | |
Yin et al. | M2F2-RCNN: Multi-functional faster RCNN based on multi-scale feature fusion for region search in remote sensing images | |
CN115329821A (zh) | 一种基于配对编码网络和对比学习的舰船噪声识别方法 | |
CN114966587A (zh) | 基于卷积神经网络融合特征的雷达目标识别方法及系统 | |
CN112257566A (zh) | 一种基于大数据的人工智能目标识别测距方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |