CN110532909A - 一种基于三维uwb定位的人体行为识别方法 - Google Patents

一种基于三维uwb定位的人体行为识别方法 Download PDF

Info

Publication number
CN110532909A
CN110532909A CN201910758205.9A CN201910758205A CN110532909A CN 110532909 A CN110532909 A CN 110532909A CN 201910758205 A CN201910758205 A CN 201910758205A CN 110532909 A CN110532909 A CN 110532909A
Authority
CN
China
Prior art keywords
dimensional
uwb positioning
human bodys
training
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910758205.9A
Other languages
English (en)
Other versions
CN110532909B (zh
Inventor
殷光强
刘永红
郭贤生
殷雪朦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Electrical Technology Huian Technology Co Ltd
Original Assignee
Chengdu Electrical Technology Huian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Electrical Technology Huian Technology Co Ltd filed Critical Chengdu Electrical Technology Huian Technology Co Ltd
Priority to CN201910758205.9A priority Critical patent/CN110532909B/zh
Publication of CN110532909A publication Critical patent/CN110532909A/zh
Application granted granted Critical
Publication of CN110532909B publication Critical patent/CN110532909B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于三维UWB定位的人体行为识别方法,属于人体行为检测技术领域。一种基于三维UWB定位的人体行为识别方法包括以下步骤:数据准备、模型训练、测试目标数据采集、测试目标数据预处理和人体行为识别五个步骤。一种基于三维UWB定位的人体行为识别系统,包括PC机、控制模块、发射模块、采样模块和接收模块,所述PC机与控制模块相连,所述控制模块分别与发射模块和采样模块相连,所述采样模块分别与接收模块和发射模块相连。本发明具有更人性化、识别更准确和可识别连续行为。

Description

一种基于三维UWB定位的人体行为识别方法
技术领域
本发明公开了一种基于三维UWB定位的人体行为识别方法,属于人体的行为检测技术领域。
背景技术
超宽带技术(UWB)因为在无线电通信、雷达、精确定位等领域的应用前景而日益受到人们的关注。2002年,美国联邦通讯委员会(FCC)批准了超宽带技术应用于民用方面,并且规定超宽带信号在-10dB处的绝对带宽需大于500MHz或者相对带宽大于20%b。与传统的无线技术相比,超宽带技术具有抗衰弱、抗干扰、容量大、速率高、功率低、精度高等突出优点。
2011年国防科技大学周志敏和贺峰等人在文献中提出了基于运动人体目标雷达回波模型,介绍了宽带/超宽带雷达运动人体目标特征提取方法和超宽带穿墙雷达系统中关键信号的处理算法,丰富了人体目标雷达探测理论与特征提取技术,对穿墙雷达的人体姿态识别研究具有较强的理论意义与应用价值。2015年北京邮电大学江进等人结合机器学习的理论,提出了挖掘UWB信号传感信息来识别人体姿势的方法,针对基于支持向量机(SVM)的人体姿势识别、改进的混浊自适应遗传算法以及人体姿势识别验证平台几个方面展开了研究,有效提取了动态打拳、跳跃、跑步、行走、旋转、坐下,匍匐前进等8种节律性动作的UWB信号的传感信息,重点分析了基于小波包分解的特征提取方法。但其所选取的动作都具有周期重复性,没有对单一的人体姿态进行识别。而且,现阶段利用雷达进行人体姿态识别的研究缺乏对人体运动姿态的全面考虑。大多数研究集中在对一些具有很强规律性而且比较稳定的人体姿态,比如行走或者奔跑,以及在一次测量中重复多次相同的动作,还有其他的只针对跌倒动作的研究。一般姿态估计存在局限性,就是这些姿态估计大多是单一输出姿态的结果,并没有涉及到连续动作行为的识别与研究。其次就是行为的识别不具有扩展性,同一个行为在不同的用户身上表现出一定的差异性。
发明内容
针对上述现有技术,本发明提出了一种基于三维UWB定位的人体行为识别方法。
本发明的技术方案为:
一种基于三维UWB定位的人体行为识别方法,其特征在于,包括以下步骤:
(1)、数据准备
A、原始数据准备:根据7个不同身高阶段每一个阶段10位测试志愿者的多个不同姿势采取得到的回波信号的进行采样以及排列得到原始图像数据;
B、原始数据预处理:对原始图像数据进行二值化、去噪以及去孤立点的预处理操作后作为训练所用的数据;
(2)、模型训练
A、调整数据权重:根据实际应用场景下的人员的大概组成比例设定7个不同身高阶段比例的大小;
B、VGG16网络训练:在imagenet数据集训练得到预训练参数,然后修改原始VGG16网络,将VGG16的网络结构最终的全连接层分类的类别数对应系统改成12类姿态类别的输出,再训练的结果上利用实际在步骤A采集到训练数据进行重新训练;
C、训练参数结果:保存上一步骤最终训练得到的网络结构的权重参数结果;
(3)、测试目标数据采集:通过接收模块得到的数字化三维的雷达回波信号,通过信号进行可视化得到一个回波图像,得到三维雷达回波图像;
(4)、测试目标数据预处理:对三维雷达回波图像进行二值化、去噪以及去孤立点的预处理操作后作为测试目标数据;
(5)、人体行为识别:直接将预处理之后的测试目标数据进行送到VGG16的网络中,根据权重大小进行12种姿势的预测结果输出,并记录目标历史姿态。
优选的,二值化处理采用Otsu Threshing方法,寻找图像二值化阈值,然后根据阈值将图像分为前景白色或者背景黑色。
优选的,去噪处理采用自适应中值滤波算法进行去除一些小的噪声点。
优选的,去孤立点处理采用Canny边缘检测算法对图像进行边缘检测,提取识别点矩形框,对于矩形面积小于一定的阈值的当做孤立点进行处理消除。
优选的,不同身高段包括150以下、150-155、155-165、165-170、170-175、175-180和180以上。
优选的,所述姿态包括站立、弯腰、坐、下蹲、跳跃、行走、跑步、爬行、摔倒、前倾、跪、趴着和后仰共12个不同的姿态,并得到每个动作的10张雷达三维回波信号图像。
一种基于三维UWB定位的人体行为识别系统,其特征在于:包括PC机、控制模块、发射模块、采样模块和接收模块,所述PC机与控制模块相连,所述控制模块分别与发射模块和采样模块相连,所述采样模块分别与接收模块和发射模块相连。
优选的,所述发射模块所述发射模块包括脉冲信号发生器、功率放大器和发射天线。
优选的,所述采样模块包括高速采样器和可调延时器。
优选的,所述接收模块包括低噪声放大器和接收天线,接收天线包括维瓦尔第天线和由VGA和HSC电路构成的门限电路。
本发明带来的有益效果有:
1、本发明提供的基于三维UWB定位的人体行为识别方法,特征提取以及模型的建立的过程中充分的考虑到不同年龄段,不同身高的个体之间的差异,对其进行分类的模型的区分,从而实现区分同一个行为在不同的用户身上表现出一定的差异性,训练过程对于数据集采取不同加权的方式来对模型参数进行训练,本识别方法识别更准确。
2、本发明提供的基于三维UWB定位的人体行为识别方法,采取历史动作的记录的形式,从而实现对研究对象行为动作的更加准确的连续识别与分析,其次,为了实现系统所设定的目标行为识别的要求,我们需要对识别出来的历史姿态进行记录,从而实现对一点时间内的人的行为的分析,因为实际情况中,我们只根据一个瞬时的姿态不能比较准确的分析出具体的行为,因为连续的动作有可能有相同的瞬时姿态,所以为了准确的判断一个行为,我们需要加入对前后姿态动作的分析。
3、本发明提供的基于三维UWB定位的人体行为识别方法,利用基于VGG16的深度学习的网络实现对三维雷达信号图像进行目标姿态识别,使得目标姿态识别更准确。
4、本发明提供的基于三维UWB定位的人体行为识别系统,传统的识别系统需要佩戴识别表示,本系别系统数据的采取实现比较简单,而且在整个过程都是采取的无接触式的数据采取,比较人性化,也更符合使用场景。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1是本发明的结构示意图;
图2是本发明的方法流程图;
图3是本发明实施例二值化处理中灰度图像直方图;
图4是本发明实施例二值化处理中背景像素直方图;
图5是本发明实施例二值化处理中前景像素直方图;
图6是本发明实施例去噪处理中自适应中值滤波的流程图;
图7是本发明实施例采样模块示意图;
图8是本发明实施例接收模块电路图。
具体实施方式
现在结合附图对本发明作进一步详细的说明。这些附图均为简化的示意图,仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
如图2所示,一种基于三维UWB定位的人体行为识别方法,包括以下步骤:
(1)、数据准备
A、原始数据准备:根据7个不同身高阶段每一个阶段10位测试志愿者的多个不同姿势采取得到的回波信号的进行采样以及排列得到原始图像数据;
B、原始数据预处理:对原始图像数据进行二值化、去噪以及去孤立点的预处理操作后作为训练所用的数据;
二值化处理采用Otsu Threshing方法,寻找图像二值化阈值,然后根据阈值将图像分为前景(白色)或者背景(黑色);
如6x6的灰度图像,其像素数据及其对应的直方图如图3所示,背景像素如图4所示,结果如下:
如图5所示,计算比重、均值和方差的过程如下:
上述整个计算步骤与结果是假设阈值T=3时候的结果,同样计算假设阈值为T=0、T=1、T=2、T=4、T=5的类内方差,比较类内方差之间的值,最小类内方差使用的阈值T即为图像二值化的阈值。上述是假设图像灰度值级别为0~5六个值,实际中图像灰度值取值范围为0~255之间,所以要循环计算,使用每个灰度值作为阈值,得到类内方差,最终取最小类内方差对应的灰度值作为阈值实现图像二值化即可;
去噪处理采用自适应中值滤波算法进行去除一些小的噪声点,自适应中值滤波算法根据噪声密度改变滤波窗口的大小,同时对噪声点和信号点采取不同的处理方法,对噪声点进行中值滤波,对信号点保持其灰度值不变;
如图6所示,设为fij为点(i,j)的灰度值,Sij为当前工作窗口,fmin,fmax和fmed分别为Sij中的灰度最小值、灰度最大值和灰度中值,令maxize为预设的允许最大窗口,自适应中值滤波的步骤如下:
1)若 fmin< fmed <fmax,则转至第2步;否则增大窗口的尺寸,若的尺寸小于的尺寸,则重复第1步;否则输出;
2)若fmin< fij <fmax,则输出fij;否则输出fmed
可以看出,算法中噪声的检测和认定时以fmin和fmax为基准的,如果fmin< fmed <fmax,表明fmed不是噪声,
接着根据fmin< fij <fmax,判断fij是否为噪声,当fmed与fij都不是脉冲噪声时,优先输出fij
去孤立点处理采用Canny边缘检测算法对图像进行边缘检测,提取识别点矩形框,对于矩形面积小于一定的阈值的当做孤立点进行处理消除,Canny边缘检测算法可以分为以下5个步骤:
1)使用高斯滤波器,以平滑图像,滤除噪声;
2)计算图像中每个像素点的梯度强度和方向;
3)应用非极大值(Non-Maximum Suppression)抑制,以消除边缘检测带来的杂散响应;
4)应用双阈值(Double-Threshold)检测来确定真实的和潜在的边缘;
5)通过抑制孤立的弱边缘最终完成边缘检测;
(2)、模型训练
A、调整数据权重:根据实际应用场景下的人员的大概组成比例设定7个不同身高阶段比例的大小;
B、VGG16网络训练:在imagenet数据集训练得到预训练参数,然后修改原始VGG16网络,将VGG16的网络结构最终的全连接层分类的类别数对应系统改成12类姿态类别的输出,再训练的结果上利用实际在步骤A采集到训练数据进行重新训练;
C、训练参数结果:保存上一步骤最终训练得到的网络结构的权重参数结果;
(3)、测试目标数据采集:通过接收模块得到的数字化三维的雷达回波信号,通过信号进行可视化得到一个回波图像,得到三维雷达回波图像;
(4)、测试目标数据预处理:对三维雷达回波图像进行二值化、去噪以及去孤立点的预处理操作后作为测试目标数据;
(5)、人体行为识别:直接将预处理之后的测试目标数据进行送到VGG16的网络中,根据权重大小进行12种姿势的预测结果输出,并记录目标历史姿态。
优选的,二值化处理采用Otsu Threshing方法,寻找图像二值化阈值,然后根据阈值将图像分为前景(白色)或者背景(黑色)。
优选的,去噪处理采用自适应中值滤波算法进行去除一些小的噪声点。
优选的,去孤立点处理采用Canny边缘检测算法对图像进行边缘检测,提取识别点矩形框,对于矩形面积小于一定的阈值的当做孤立点进行处理消除。
优选的,不同身高段包括150以下、150-155、155-165、165-170、170-175、175-180和180以上。
优选的,所述姿态包括站立、弯腰、坐、下蹲、跳跃、行走、跑步、爬行、摔倒、前倾、跪、趴着和后仰共12个不同的姿态,并得到每个动作的10张雷达三维回波信号图像。
一种基于三维UWB定位的人体行为识别系统,其特征在于:包括PC机、控制模块、发射模块、采样模块和接收模块,所述PC机与控制模块相连,所述控制模块分别与发射模块和采样模块相连,所述采样模块分别与接收模块和发射模块相连。
优选的,所述发射模块所述发射模块包括脉冲信号发生器、功率放大器和发射天线。发射天线采用维瓦尔第天线,维瓦尔第天线由较窄的槽线过渡到较宽的槽线构成,槽线呈只是规律变化,最终介质板上的槽线宽度逐渐增大,形成喇叭口向外辐射或向内接收空间内电磁波。脉冲信号发生器包含两个可选择的低功率射频输出信号发生器模块:IPG0和IPG1。IPG0为中频段一阶高斯脉冲发射器,IPG1为低频段一阶高斯脉冲发生器。
如图7所示,优选的,所述采样模块包括高速采样器和可调延时器。可调延时器主要的功能是提供一个帧偏移,帧偏移所对应的距离就是第一采样距离系统接收天线的距离。高速采样器对一个动态范围内的目标物体反射回拨进行采样测量。
如图8所示,优选的,所述接收模块包括低噪声放大器和接收天线,接收天线包括维瓦尔第天线和由VGA和HSC电路构成的门限电路。VGA电路提供信号的放大功能,通过寄存器控制,放大增益可选择gain0—gain6七种模式,增益效果从-6dB到23dB。对增益后的信号再通过HSC电路,将它与系统提供的DC门限电压进行比较,判断是否对信号进行下一步的放大工作。
本发明提供的基于三维UWB定位的人体行为识别方法,特征提取以及模型的建立的过程中充分的考虑到不同年龄段,不同身高的个体之间的差异,对其进行分类的模型的区分,从而实现区分同一个行为在不同的用户身上表现出一定的差异性,训练过程对于数据集采取不同加权的方式来对模型参数进行训练,本识别方法识别更准确。采取历史动作的记录的形式,从而实现对研究对象行为动作的更加准确的连续识别与分析,其次,为了实现系统所设定的目标行为识别的要求,我们需要对识别出来的历史姿态进行记录,从而实现对一点时间内的人的行为的分析,因为实际情况中,我们只根据一个瞬时的姿态不能比较准确的分析出具体的行为,因为连续的动作有可能有相同的瞬时姿态,所以为了准确的判断一个行为,我们需要加入对前后姿态动作的分析。说我们可以分析如果一个目标当前的姿势状态处于下蹲,如果前一个状态处于站立,那么很容易推断得出该目标此时的行为属于捡拾物体,对于爬行动作,如果目标多个历史状态处于爬行,那么可以推断目标长时间爬行,不属于公共场合的正常行为,类似于此实现对于行为的分析与研判。利用基于VGG16的深度学习的网络实现对三维雷达信号图像进行目标姿态识别,使得目标姿态识别更准确。
本发明提供的基于三维UWB定位的人体行为识别系统,传统的识别系统需要佩戴识别表示,本系别系统数据的采取实现比较简单,而且在整个过程都是采取的无接触式的数据采取,比较人性化,也更符合使用场景。
以上所述,仅是本发明的较佳实施例,并非对本发明做任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化,均落入本发明的保护范围之内。

Claims (10)

1.一种基于三维UWB定位的人体行为识别方法,其特征在于,包括以下步骤:
(1)、数据准备
A、原始数据准备:根据7个不同身高阶段每一个阶段10位测试志愿者的多个不同姿势采取得到的回波信号的进行采样以及排列得到原始图像数据;
B、原始数据预处理:对原始图像数据进行二值化、去噪以及去孤立点的预处理操作后作为训练所用的数据;
(2)、模型训练
A、调整数据权重:根据实际应用场景下的人员的大概组成比例设定7个不同身高阶段比例的大小;
B、VGG16网络训练:在imagenet数据集训练得到预训练参数,然后修改原始VGG16网络,将VGG16的网络结构最终的全连接层分类的类别数对应系统改成12类姿态类别的输出,再训练的结果上利用实际在步骤A采集到训练数据进行重新训练;
C、训练参数结果:保存上一步骤最终训练得到的网络结构的权重参数结果;
(3)、测试目标数据采集:通过接收模块得到的数字化三维的雷达回波信号,通过信号进行可视化得到一个回波图像,得到三维雷达回波图像;
(4)、测试目标数据预处理:对三维雷达回波图像进行二值化、去噪以及去孤立点的预处理操作后作为测试目标数据;
(5)、人体行为识别:直接将预处理之后的测试目标数据进行送到VGG16的网络中,根据权重大小进行12种姿势的预测结果输出,并记录目标历史姿态。
2.如权利要求1所述的一种基于三维UWB定位的人体行为识别方法,其特征在于:二值化处理采用Otsu Threshing方法,寻找图像二值化阈值,然后根据阈值将图像分为前景白色或者背景黑色。
3.如权利要求1所述的一种基于三维UWB定位的人体行为识别方法,其特征在于:去噪处理采用自适应中值滤波算法进行去除一些小的噪声点。
4.如权利要求1所述的一种基于三维UWB定位的人体行为识别方法,其特征在于:去孤立点处理采用Canny边缘检测算法对图像进行边缘检测,提取识别点矩形框,对于矩形面积小于一定的阈值的当做孤立点进行处理消除。
5.如权利要求1所述的一种基于三维UWB定位的人体行为识别方法,其特征在于:不同身高段包括150以下、150-155、155-165、165-170、170-175、175-180和180以上。
6.如权利要求1所述的一种基于三维UWB定位的人体行为识别方法,其特征在于:所述姿态包括站立、弯腰、坐、下蹲、跳跃、行走、跑步、爬行、摔倒、前倾、跪、趴着和后仰共12个不同的姿态,并得到每个动作的10张雷达三维回波信号图像。
7.一种基于三维UWB定位的人体行为识别系统,其特征在于:包括PC机、控制模块、发射模块、采样模块和接收模块,所述PC机与控制模块相连,所述控制模块分别与发射模块和采样模块相连,所述采样模块分别与接收模块和发射模块相连。
8.如权利要求7所述的一种基于三维UWB定位的人体行为识别系统,其特征在于:所述发射模块包括脉冲信号发生器、功率放大器和发射天线。
9.如权利要求7所述的一种基于三维UWB定位的人体行为识别系统,其特征在于:所述采样模块包括高速采样器和可调延时器。
10.如权利要求7所述的一种基于三维UWB定位的人体行为识别系统,其特征在于:所述接收模块包括低噪声放大器和接收天线,接收天线包括维瓦尔第天线和由VGA和HSC电路构成的门限电路。
CN201910758205.9A 2019-08-16 2019-08-16 一种基于三维uwb定位的人体行为识别方法 Active CN110532909B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910758205.9A CN110532909B (zh) 2019-08-16 2019-08-16 一种基于三维uwb定位的人体行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910758205.9A CN110532909B (zh) 2019-08-16 2019-08-16 一种基于三维uwb定位的人体行为识别方法

Publications (2)

Publication Number Publication Date
CN110532909A true CN110532909A (zh) 2019-12-03
CN110532909B CN110532909B (zh) 2023-04-14

Family

ID=68663443

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910758205.9A Active CN110532909B (zh) 2019-08-16 2019-08-16 一种基于三维uwb定位的人体行为识别方法

Country Status (1)

Country Link
CN (1) CN110532909B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112699744A (zh) * 2020-12-16 2021-04-23 南开大学 跌倒姿态的分类识别方法、装置和可穿戴设备
CN114095525A (zh) * 2020-07-31 2022-02-25 荣耀终端有限公司 一种设备控制方法、装置和电子设备

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102058411A (zh) * 2010-10-27 2011-05-18 中国人民解放军第四军医大学 一种多通道基于uwb雷达式生命探测仪
CN104899561A (zh) * 2015-05-27 2015-09-09 华南理工大学 一种并行化的人体行为识别方法
CN105956232A (zh) * 2016-04-20 2016-09-21 国网电力科学研究院武汉南瑞有限责任公司 一种变电站三维实景仿真系统及实现方法
CN106127110A (zh) * 2016-06-15 2016-11-16 中国人民解放军第四军医大学 一种基于uwb雷达和最优svm的人体细粒度运动识别方法
US20170119318A1 (en) * 2015-10-28 2017-05-04 Blumio, Inc. System and method for biometric measurements
CN107609460A (zh) * 2017-05-24 2018-01-19 南京邮电大学 一种融合时空双重网络流和attention机制的人体行为识别方法
CN108520199A (zh) * 2018-03-04 2018-09-11 天津大学 基于雷达图像与生成对抗模型的人体动作开集识别方法
US20190087648A1 (en) * 2017-09-21 2019-03-21 Baidu Online Network Technology (Beijing) Co., Ltd Method and apparatus for facial recognition
CN109507653A (zh) * 2018-10-22 2019-03-22 中国人民解放军第四军医大学 一种基于uwb的多信息感知生物雷达系统及其获取目标信息的方法
CN109558805A (zh) * 2018-11-06 2019-04-02 南京邮电大学 基于多层深度特征的人体行为识别方法
CN109948532A (zh) * 2019-03-19 2019-06-28 桂林电子科技大学 基于深度卷积神经网络的超宽带雷达人体动作识别方法
CN109977773A (zh) * 2019-02-18 2019-07-05 华南理工大学 基于多目标检测3d cnn的人体行为识别方法及系统

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102058411A (zh) * 2010-10-27 2011-05-18 中国人民解放军第四军医大学 一种多通道基于uwb雷达式生命探测仪
CN104899561A (zh) * 2015-05-27 2015-09-09 华南理工大学 一种并行化的人体行为识别方法
US20170119318A1 (en) * 2015-10-28 2017-05-04 Blumio, Inc. System and method for biometric measurements
CN105956232A (zh) * 2016-04-20 2016-09-21 国网电力科学研究院武汉南瑞有限责任公司 一种变电站三维实景仿真系统及实现方法
CN106127110A (zh) * 2016-06-15 2016-11-16 中国人民解放军第四军医大学 一种基于uwb雷达和最优svm的人体细粒度运动识别方法
CN107609460A (zh) * 2017-05-24 2018-01-19 南京邮电大学 一种融合时空双重网络流和attention机制的人体行为识别方法
US20190087648A1 (en) * 2017-09-21 2019-03-21 Baidu Online Network Technology (Beijing) Co., Ltd Method and apparatus for facial recognition
CN108520199A (zh) * 2018-03-04 2018-09-11 天津大学 基于雷达图像与生成对抗模型的人体动作开集识别方法
CN109507653A (zh) * 2018-10-22 2019-03-22 中国人民解放军第四军医大学 一种基于uwb的多信息感知生物雷达系统及其获取目标信息的方法
CN109558805A (zh) * 2018-11-06 2019-04-02 南京邮电大学 基于多层深度特征的人体行为识别方法
CN109977773A (zh) * 2019-02-18 2019-07-05 华南理工大学 基于多目标检测3d cnn的人体行为识别方法及系统
CN109948532A (zh) * 2019-03-19 2019-06-28 桂林电子科技大学 基于深度卷积神经网络的超宽带雷达人体动作识别方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
余杰等: "基于三轴加速度传感器的人体行为识别研究", 《软件工程》 *
刘智等: "基于深度卷积神经网络和深度视频的人体行为识别", 《重庆大学学报》 *
王珂等: "一种融合全局时空特征的CNNs动作识别方法", 《华中科技大学学报(自然科学版)》 *
罗会兰等: "基于深度学习的视频中人体动作识别进展综述", 《电子学报》 *
蒋留兵等: "基于双谱特征的超宽带雷达人体目标识别", 《电讯技术》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114095525A (zh) * 2020-07-31 2022-02-25 荣耀终端有限公司 一种设备控制方法、装置和电子设备
CN114095525B (zh) * 2020-07-31 2023-07-21 荣耀终端有限公司 一种设备控制方法、装置、电子设备和存储介质
CN112699744A (zh) * 2020-12-16 2021-04-23 南开大学 跌倒姿态的分类识别方法、装置和可穿戴设备

Also Published As

Publication number Publication date
CN110532909B (zh) 2023-04-14

Similar Documents

Publication Publication Date Title
CN108226892B (zh) 一种基于深度学习的复杂噪声环境下的雷达信号恢复方法
CN105279483B (zh) 一种基于深度图像的跌倒行为实时检测方法
CN104063719B (zh) 基于深度卷积网络的行人检测方法及装置
CN102542289B (zh) 一种基于多高斯计数模型的人流量统计方法
CN110837768B (zh) 一种面向珍稀动物保护的在线检测与识别方法
CN107290741B (zh) 基于加权联合距离时频变换的室内人体姿态识别方法
CN103854292B (zh) 一种人数及人群运动方向的计算方法及装置
CN102494675B (zh) 一种运动目标特征高速视觉捕捉方法
CN103942557B (zh) 一种煤矿井下图像预处理方法
CN103995259B (zh) 密集干扰环境下雷达目标自适应滤波融合检测方法
CN111505632A (zh) 基于功率谱和多普勒特征的超宽带雷达动作姿态识别方法
CN106127253B (zh) 一种利用样本特征学习分类的红外弱小目标检测方法
CN110532909A (zh) 一种基于三维uwb定位的人体行为识别方法
CN110378921B (zh) 基于浮泥流变特性与灰度共生矩阵的航道底质层界智能识别方法
CN106559749A (zh) 一种基于射频层析成像的多目标被动式定位方法
CN104159088B (zh) 一种远程智能车辆监控系统及方法
CN108875584A (zh) 一种基于无线感知的高可靠用户行为识别方法
CN113033654A (zh) 基于WiFi信道状态信息的室内入侵检测方法及系统
CN114814832A (zh) 基于毫米波雷达的人体跌倒行为实时监测系统及监测方法
CN104794736B (zh) 一种基于高斯改进型粒子群粒子滤波的移动目标追踪方法
CN108508425A (zh) 一种雷达近地背景噪声下基于邻域特征的前景目标检测方法
CN108765463A (zh) 一种结合区域提取与改进纹理特征的运动目标检测方法
Zhang et al. A dynamic hand gesture recognition algorithm based on CSI and YOLOv3
Indumathi et al. Intelligent plant disease detection system using wireless multimedia sensor networks
CN103577804A (zh) 基于sift流和隐条件随机场的人群异常行为识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant