CN109993103A - 一种基于点云数据的人体行为识别方法 - Google Patents
一种基于点云数据的人体行为识别方法 Download PDFInfo
- Publication number
- CN109993103A CN109993103A CN201910246695.4A CN201910246695A CN109993103A CN 109993103 A CN109993103 A CN 109993103A CN 201910246695 A CN201910246695 A CN 201910246695A CN 109993103 A CN109993103 A CN 109993103A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- camera
- point
- data
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于点云数据的人体行为识别方法,包括步骤:1)获取基础数据,包括深度图数据、相机参数;2)对数据做预处理,包括对深度图进行平滑处理,深度图到点云的转换,对点云数据做归一化处理;3)把处理过后的数据输入到网络中进行行为识别。本发明提出了基于点云数据的深度学习人体行为识别,能够直接利用从深度图获取到的点云数据进行人体行为识别,并取得了不错的结果。
Description
技术领域
本发明涉及图像处理算法研究及三维数据处理算法研究及人体行为识别算法研究与深度学习算法研究的技术领域,尤其是指一种基于点云数据的人体行为识别方法。
背景技术
人体行为识别主要根据采集到的视频来分析人体行为,这在视频监控、医疗康复、健身评估、人机交互等领域应用广泛,是计算机视觉研究的热点问题。点云数据就是利用结构光扫描仪或者三维激光扫描仪采集到的分布在三维空间中的离散点集,它对复杂场景以及物体的外形表达具有独特的优势,加之其获取的快速性和便捷性,已被广泛地应用在计算机图形学、CAD造型设计等行业。
为了方便实验,出现了很多人体行为识别数据集,可以把它划分成二维和三维数据集,二维数据集一般用普通的摄像头进行采集,而三维数据集一般用如Kinect等可以获取深度信息的特殊摄像头进行采集,三维数据集由于包含图像的深度信息,因此信息更加丰富。深度图像也叫距离影像,是指将从图像采集器到场景中各点的距离(深度)值作为像素值的图像。深度图像经过坐标转换可以计算为点云数据;有规则及必要信息的点云数据可以反算为深度图像。
人体行为识别方法可分为传统学习方法和深度学习方法。深度学习方法不用人工主动去提取特征,保留了视频中更多有价值的信息,从效果来讲,一般优于传统方法。深度学习方法应用在人体行为识别不仅要利用到视频的空间信息,还要用到视频的时间信息,这也是该方法研究的重点。人体行为识别的深度学习框架大体上可以分为时空网络、双流网络还有其他。时空网络重点在于如何提取视中的时间信息,一般使用CNN提取空间特征,再利用其他如LSTM等方法提取时间信息,时间信息和空间信息使用的类似于电路中的串联架构,这种网络架构在早期的方法中比较流行,效果一般也优于传统的方法,得到了广泛的应用。双流网络中的时间信息和空间信息采用的方式有点像电路中的并联架构,两个网络开始时互不干涉,各自提取各自的信息,最后采用一定方式进行融合。除了时空网络,还有一些比较优秀的网络架构,特别是一些无监督和弱监督方法的出现。然而目前没有基于点云的深度学习人体行为识别方法。
发明内容
本发明的目的在于克服现有技术的不足,提出了一种基于点云数据的人体行为识别方法,结合点云和深度学习,可以利用深度图转换得到的点云数据完成人体行为识别。
为实现以上目的,本发明所提供的技术方案为:一种基于点云数据的人体行为识别方法,包括以下步骤:
1)获取基础数据,包括深度图数据、相机参数;
2)对数据做预处理,包括对深度图进行平滑处理、深度图到点云的转换、对点云数据做归一化处理;
3)把处理过后的数据输入到网络中进行行为识别。
在步骤1)中,所述深度图数据是指通过深度图相机采集到的数据,包括深度图数据的分辨率、深度值;所述相机参数是指在采集数据时所使用的深度相机的内参数和外参数,相机内参数是与相机自身特性相关的参数,包括相机的焦距、像素大小,内参数包括射影变换本身的参数,相机的焦点到成像平面的距离,也就是焦距,以及从成像平面坐标系到像素坐标系的变换所得到的内参数矩阵K;
式中,fx和fy是与相机的焦距、像素的大小有关的内参参数;cx,cy是平移的距离,和相机成像平面的大小有关;相机外参数是在世界坐标系中的参数,包括相机的位置、旋转方向,外参数包括相机坐标到世界坐标的转换矩阵T;
式中,R是旋转矩阵,t是平移向量。
在步骤2)中,对深度图做平滑处理,从深度图中得到点云数据,对得到的点云数据做归一化处理,包括以下步骤:
2.1)使用双边滤波对深度图数据做平滑处理:
其中,x是中心像素点,ξ是邻域像素点,f(x)表示当前像素点的色彩,s(ξ,x)是表示和邻域像素点ξ与中心像素点x之间的几何距离的权重函数,即空间滤波器,c(f(ξ),f(x))是表示和邻域像素点ξ与中心像素点x之间的色彩距离的权重函数,即色彩滤波器;
2.2)深度图到点云数据的转换算法如下:
其中,u,v为图像坐标系下的任意坐标点;u0,v0分别为图像的中心坐标;xw,yw,zw表示世界坐标系下的三维坐标点;zc表示相机坐标的z轴值,即目标到相机的距离;fx和fy是与相机的焦距,像素的大小有关的内参参数;R,T分别为外参矩阵的3×3旋转矩阵和3×1平移矩阵;由于世界坐标原点和相机原点是重合的,即没有旋转和平移,所以:
相机坐标系和世界坐标系的坐标原点重合,因此相机坐标和世界坐标下的同一个物体具有相同的深度,即zc=zw;于是公式进一步简化为:
从以上的变换矩阵公式,计算得到图像点[u,v]T到世界坐标点[xw,yw,zw]T的变换公式:
2.3)点云数据的归一化处理,以第一帧的点云数据的中心点为整个动作序列的原点:
{Pt'|t=1,...,n}={Pt-d|t=1,...,n}
其中,Pt'是平移之后的点云,Pt是原始点云,t表示当前帧数,n表示当前视频总帧数,d表示平移向量;
把点云数据在Z轴上按比例缩放:
其中,z'是缩放之后的值,z是原始值,a是锚点,k是缩放比例。
在步骤3)中,所述网络是一个端到端的深度神经网络,由三部分串联组成:用于从点云数据中提取姿态特征,即空间特征的PointNet;从姿态特征序列中提取时间特征的长短时记忆网络;把提取到的时空特征映射到分类结果上的多层感知机。
PointNet是一种可以从原始点云提取点云特征的深度神经网络,在点云分类和点云分割上取得了不错的效果。点云是3D空间中点的集合{Pi|i=1,...,n},每一个点Pi是由点坐标(x,y,z)以及额外的特征通道,如色彩,法向量等,组成的向量。点云有三个主要的特征:
·无序性。图片中的像素有序的排列在网格中,点云并没有特定的排列顺序,这要求网络必须与点云的排列无关。
·点相关性。每一个点与它的邻近点按照特定的度量构成了一个空间,因此点与点之间存在着一定的联系。网络必须要能够捕捉到这种局部的联系
·变换无关性。无论是旋转还是平移,点云构成的物体始终是不变的。
PointNet在网络的设计上分别应用了对称函数,局部与全局信息的聚合,校准网络以满足点云的三个主要特征。
LSTM(Long Short-Term Memory)是长短期记忆网络,是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。LSTM区别于RNN(Recurrent Neural Network)的地方,主要就在于它在算法中加入了一个判断信息有用与否的“处理器”,这个处理器作用的结构被称为cell。一个cell当中被放置了三扇门,分别叫做输入门、遗忘门和输出门。一个信息进入LSTM的网络当中,可以根据规则来判断是否有用。只有符合算法认证的信息才会留下,不符的信息则通过遗忘门被遗忘。LSTM的公式表示如下:
ct=it⊙ut+ft⊙ct-1
ht=ot⊙tanh(ct)
it,ft,ot,ct分别表示输入门,忘记门,输出门和细胞状态,xt是t时刻的输入,⊙表示元素相乘。M:是一个仿射函数。σ是sigmod激活函数。
多层感知机由感知机推广而来,最主要的特点是有多个神经元层,因此也叫深度神经网络。感知机的神经网络表示如下:
xi是输入向量的x的第i维,wi是对应的权值,b是对应的偏置量,y是最终的输出。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明首次将由深度图转换得到的点云数据直接应用到深度神经网络中,设计了一个端到端的网络,进行人体行为识别。
2、本发明使用的点云数据是三维数据,与图像相比,携带的信息更丰富,有更多的处理方式与使用方式。
3、本发明使用的点云数据是从深度图数据中转换得到,与通过常规步骤采集点云数据相比,降低了成本,提升了便利性。
4、本发明在视频监控、医疗康复、健身评估、人机交互等领域中具有广泛的使用空间,操作简单、适用性强。
附图说明
图1为本发明方法流程图。
图2a为深度图示意图。
图2b为平滑处理前的深度图转换得到的点云数据示意图。
图2c为平滑处理后的点云数据示意图。
图2d为归一化后的点云数据示意图。
图3为网络框架图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
如图1所示,本实施例所提供的基于点云数据的人体行为识别方法,结合了从深度图转换得到的点云数据和深度神经网络,包括以下步骤:
1)获取基础数据,包括深度图数据、相机参数;深度图数据如图2a所示,在本实施例中,相机内参fx=fy=f/zc,f是相机的焦距。由于所使用数据集没有明确指出相机焦距zc,因此每一帧深度图数据对应的焦距通过计算得到。
2)对数据做预处理,包括对深度图进行平滑处理,深度图到点云的转换,对点云数据做归一化处理。
2.1)使用双边滤波对深度图数据做平滑处理:
x是中心像素点,ξ是邻域像素点,f(x)表示当前像素点的色彩,c(ξ,x)是表示和邻域像素点ξ与中心像素点x之间的几何距离的权重函数,s(f(ξ),f(x))是表示和邻域像素点ξ与中心像素点x之间的色彩距离的权重函数。在本实施例中,两个权重函数均为高斯函数。
where where
d(ξ,x)=||ξ-x|| δ(f(ξ),f(x))=||f(ξ)-f(x)||
||x-y||是两者的欧氏距离。两个参数σs=8。平滑处理之后得到的点云数据如图2c所示。
2.2)深度图到点云数据的转换算法如下:
其中u,v为图像坐标系下的任意坐标点。u0,v0分别为图像的中心坐标。xw,yw,zw表示世界坐标系下的三维坐标点。zc表示相机坐标的z轴值,即目标到相机的距离。fx和fy是与相机的焦距,像素的大小有关的内参参数。R,T分别为外参矩阵的3×3旋转矩阵和3×3平移矩阵。由于世界坐标原点和相机原点是重合的,即没有旋转和平移,所以:
相机坐标系和世界坐标系的坐标原点重合,因此相机坐标和世界坐标下的同一个物体具有相同的深度,即zc=zw。于是公式可进一步简化为
从以上的变换矩阵公式,可以计算得到图像点[u,v]T到世界坐标点[xw,yw,zw]T的变换公式:
从深度图得到的点云数据如图2b所示。
2.3)点云数据的归一化处理,以第一帧的点云数据的中心点为整个动作序列的原点:
{Pt'|t=1,...,n}={Pt-d|t=1,...,n}
Pt'是平移之后的点云,Pt是原始点云,t表示当前帧数,n表示当前视频总帧数,d表示平移向量。
把点云数据在Z轴上按比例缩放:
z'是缩放之后的值,z是原始值,a是锚点,k是缩放比例。在本实施例中,锚点选取为从深度图中的第一个点,k=5。归一化之后的点云数据如图2d所示。
3)把处理过后的数据输入到网络中进行行为识别。所述的网络是一个端到端的深度神经网络,由三部分串联组成:用于从点云数据中提取姿态特征,即空间特征的PointNet;从姿态特征序列中提取时间特征的长短时记忆网络;把提取到的时空特征映射到分类结果上的多层感知机。网络框架如图3所示。输入数据的尺寸为b×n×f,b为批处理的大小,n为点云中点的数量,f为输入维度,在本实施例中,三者分别为32,2048,3。
PointNet是一种可以从原始点云提取点云特征的深度神经网络,在点云分类和点云分割上取得了不错的效果。点云是3D空间中点的集合{Pi|i=1,...,n},每一个点Pi是由点坐标(x,y,z)以及额外的特征通道,如色彩,法向量等,组成的向量。点云有三个主要的特征:
·无序性。图片中的像素有序的排列在网格中,点云并没有特定的排列顺序,这要求网络必须与点云的排列无关。
·点相关性。每一个点与它的邻近点按照特定的度量构成了一个空间,因此点与点之间存在着一定的联系。网络必须要能够捕捉到这种局部的联系
·变换无关性。无论是旋转还是平移,点云构成的物体始终是不变的。
PointNet在网络的设计上分别应用了对称函数,局部与全局信息的聚合,校准网络以满足点云的三个主要特征。在本实施例中PointNet的输出维度为512。
LSTM(Long Short-Term Memory)是长短期记忆网络,是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。LSTM区别于RNN(Recurrent Neural Network)的地方,主要就在于它在算法中加入了一个判断信息有用与否的“处理器”,这个处理器作用的结构被称为cell。一个cell当中被放置了三扇门,分别叫做输入门、遗忘门和输出门。一个信息进入LSTM的网络当中,可以根据规则来判断是否有用。只有符合算法认证的信息才会留下,不符的信息则通过遗忘门被遗忘。LSTM的公式表示如下:
ct=it⊙ut+ft⊙ct-1
ht=ot⊙tanh(ct)
it,ft,ot,ct分别表示输入门,忘记门,输出门和细胞状态,xt是t时刻的输入,⊙表示元素相乘。M:是一个仿射函数。σ是sigmod激活函数。在本实施例中,LSTM的输入维度和隐藏状态维度均为512。
多层感知机由感知机推广而来,最主要的特点是有多个神经元层,因此也叫深度神经网络。感知机的神经网络表示如下:
xi是输入向量的x的第i维,wi是对应的权值,b是对应的偏置量,y是最终的输出。令L(s,n)表示输入输出维度为s和n的线性函数,ReLU表示线性整流函数,Softmax是归一化指数函数。在本实施例中,多层感知机的结构是
L(512,256)→ReLU→L(256,128)→ReLU→L(128,30)→Softmax
本文方法所用编程语言为python,计算机平台为Linux,Intel(R)Core(TM)i7-6850K CPU@3.60GHz,32GB内存,GPU为GTX1080Ti,所用的实验数据库为UWA3D。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。
Claims (4)
1.一种基于点云数据的人体行为识别方法,其特征在于,包括以下步骤:
1)获取基础数据,包括深度图数据、相机参数;
2)对数据做预处理,包括对深度图进行平滑处理、深度图到点云的转换、对点云数据做归一化处理;
3)把处理过后的数据输入到网络中进行行为识别。
2.根据权利要求1所述的一种基于点云数据的人体行为识别方法,其特征在于:在步骤1)中,所述深度图数据是指通过深度图相机采集到的数据,包括深度图数据的分辨率、深度值;所述相机参数是指在采集数据时所使用的深度相机的内参数和外参数,相机内参数是与相机自身特性相关的参数,包括相机的焦距、像素大小,内参数包括射影变换本身的参数,相机的焦点到成像平面的距离,也就是焦距,以及从成像平面坐标系到像素坐标系的变换所得到的内参数矩阵K;
式中,fx和fy是与相机的焦距、像素的大小有关的内参参数;cx,cy是平移的距离,和相机成像平面的大小有关;相机外参数是在世界坐标系中的参数,包括相机的位置、旋转方向,外参数包括相机坐标到世界坐标的转换矩阵T;
式中,R是旋转矩阵,t是平移向量。
3.根据权利要求1所述的一种基于点云数据的人体行为识别方法,其特征在于:在步骤2)中,对深度图做平滑处理,从深度图中得到点云数据,对得到的点云数据做归一化处理,包括以下步骤:
2.1)使用双边滤波对深度图数据做平滑处理:
其中,x是中心像素点,ξ是邻域像素点,f(x)表示当前像素点的色彩,s(ξ,x)是表示和邻域像素点ξ与中心像素点x之间的几何距离的权重函数,即空间滤波器,c(f(ξ),f(x))是表示和邻域像素点ξ与中心像素点x之间的色彩距离的权重函数,即色彩滤波器;
2.2)深度图到点云数据的转换算法如下:
其中,u,v为图像坐标系下的任意坐标点;u0,v0分别为图像的中心坐标;xw,yw,zw表示世界坐标系下的三维坐标点;zc表示相机坐标的z轴值,即目标到相机的距离;fx和fy是与相机的焦距,像素的大小有关的内参参数;R,T分别为外参矩阵的3×3旋转矩阵和3×1平移矩阵;由于世界坐标原点和相机原点是重合的,即没有旋转和平移,所以:
相机坐标系和世界坐标系的坐标原点重合,因此相机坐标和世界坐标下的同一个物体具有相同的深度,即zc=zw;于是公式进一步简化为:
从以上的变换矩阵公式,计算得到图像点[u,v]T到世界坐标点[xw,yw,zw]T的变换公式:
2.3)点云数据的归一化处理,以第一帧的点云数据的中心点为整个动作序列的原点:
{P′t|t=1,...,n}={Pt-d|t=1,...,n}
其中,P′t是平移之后的点云,Pt是原始点云,t表示当前帧数,n表示当前视频总帧数,d表示平移向量;
把点云数据在Z轴上按比例缩放:
其中,z'是缩放之后的值,z是原始值,a是锚点,k是缩放比例。
4.根据权利要求1所述的一种基于点云数据的人体行为识别方法,其特征在于:在步骤3)中,所述网络是一个端到端的深度神经网络,由三部分串联组成:用于从点云数据中提取姿态特征,即空间特征的PointNet;从姿态特征序列中提取时间特征的长短时记忆网络;把提取到的时空特征映射到分类结果上的多层感知机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910246695.4A CN109993103A (zh) | 2019-03-29 | 2019-03-29 | 一种基于点云数据的人体行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910246695.4A CN109993103A (zh) | 2019-03-29 | 2019-03-29 | 一种基于点云数据的人体行为识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109993103A true CN109993103A (zh) | 2019-07-09 |
Family
ID=67131805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910246695.4A Pending CN109993103A (zh) | 2019-03-29 | 2019-03-29 | 一种基于点云数据的人体行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109993103A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390302A (zh) * | 2019-07-24 | 2019-10-29 | 厦门大学 | 一种三维目标检测方法 |
CN110807810A (zh) * | 2019-10-30 | 2020-02-18 | 武汉理工大学 | 基于三维点云的拆卸产品结构机器人视觉识别方法 |
CN110809037A (zh) * | 2019-10-29 | 2020-02-18 | 华南理工大学 | 一种基于深度多元特征的物联网皮肤镜系统 |
CN110852182A (zh) * | 2019-10-21 | 2020-02-28 | 华中科技大学 | 一种基于三维空间时序建模的深度视频人体行为识别方法 |
CN110880229A (zh) * | 2019-12-02 | 2020-03-13 | 北京深测科技有限公司 | 一种地质灾害监测预警方法和系统 |
CN110991534A (zh) * | 2019-12-03 | 2020-04-10 | 上海眼控科技股份有限公司 | 点云数据处理方法、装置、设备及计算机可读存储介质 |
CN111299761A (zh) * | 2020-02-28 | 2020-06-19 | 华南理工大学 | 一种焊缝跟踪系统的实时姿态估计方法 |
CN114529939A (zh) * | 2022-01-17 | 2022-05-24 | 华南理工大学 | 基于毫米波雷达点云聚类和深度学习的行人识别方法 |
CN114781441A (zh) * | 2022-04-06 | 2022-07-22 | 电子科技大学 | Eeg运动想象分类方法及多空间卷积神经网络模型 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130342568A1 (en) * | 2012-06-20 | 2013-12-26 | Tony Ambrus | Low light scene augmentation |
CN105069423A (zh) * | 2015-07-29 | 2015-11-18 | 北京格灵深瞳信息技术有限公司 | 一种人体姿态检测方法及装置 |
CN105205858A (zh) * | 2015-09-18 | 2015-12-30 | 天津理工大学 | 一种基于单个深度视觉传感器的室内场景三维重建方法 |
US20160019688A1 (en) * | 2014-07-18 | 2016-01-21 | University Of Georgia Research Foundation, Inc. | Method and system of estimating produce characteristics |
CN105809681A (zh) * | 2016-03-04 | 2016-07-27 | 清华大学 | 基于单相机的人体rgb-d数据恢复与三维重建方法 |
CN105912999A (zh) * | 2016-04-05 | 2016-08-31 | 中国民航大学 | 基于深度信息的人体行为识别方法 |
CN108537196A (zh) * | 2018-04-17 | 2018-09-14 | 中国民航大学 | 基于运动历史点云生成的时空分布图的人体行为识别方法 |
-
2019
- 2019-03-29 CN CN201910246695.4A patent/CN109993103A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130342568A1 (en) * | 2012-06-20 | 2013-12-26 | Tony Ambrus | Low light scene augmentation |
US20160019688A1 (en) * | 2014-07-18 | 2016-01-21 | University Of Georgia Research Foundation, Inc. | Method and system of estimating produce characteristics |
CN105069423A (zh) * | 2015-07-29 | 2015-11-18 | 北京格灵深瞳信息技术有限公司 | 一种人体姿态检测方法及装置 |
CN105205858A (zh) * | 2015-09-18 | 2015-12-30 | 天津理工大学 | 一种基于单个深度视觉传感器的室内场景三维重建方法 |
CN105809681A (zh) * | 2016-03-04 | 2016-07-27 | 清华大学 | 基于单相机的人体rgb-d数据恢复与三维重建方法 |
CN105912999A (zh) * | 2016-04-05 | 2016-08-31 | 中国民航大学 | 基于深度信息的人体行为识别方法 |
CN108537196A (zh) * | 2018-04-17 | 2018-09-14 | 中国民航大学 | 基于运动历史点云生成的时空分布图的人体行为识别方法 |
Non-Patent Citations (4)
Title |
---|
JUNHE ZHAO ET AL.: ""PLSTMNet: A New Neural Network for Segmentation of Point Cloud"", 《2018 11TH INTERNATIONAL WORKSHOP ON HUMAN FRIENDLY ROBOTICS (HFR)》 * |
徐海洋 等: ""基于时空方向主成分直方图的人体行为识别"", 《激光与光电子学进展》 * |
李文强: ""基于深度学习的室内点云场景语义理解研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
赵中阳 等: ""基于多尺度特征和PointNet的LiDAR点云地物分类方法"", 《激光与光电子学进展》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390302A (zh) * | 2019-07-24 | 2019-10-29 | 厦门大学 | 一种三维目标检测方法 |
CN110852182A (zh) * | 2019-10-21 | 2020-02-28 | 华中科技大学 | 一种基于三维空间时序建模的深度视频人体行为识别方法 |
CN110852182B (zh) * | 2019-10-21 | 2022-09-20 | 华中科技大学 | 一种基于三维空间时序建模的深度视频人体行为识别方法 |
CN110809037A (zh) * | 2019-10-29 | 2020-02-18 | 华南理工大学 | 一种基于深度多元特征的物联网皮肤镜系统 |
CN110809037B (zh) * | 2019-10-29 | 2020-09-22 | 华南理工大学 | 一种基于深度多元特征的物联网皮肤镜系统 |
CN110807810A (zh) * | 2019-10-30 | 2020-02-18 | 武汉理工大学 | 基于三维点云的拆卸产品结构机器人视觉识别方法 |
CN110880229A (zh) * | 2019-12-02 | 2020-03-13 | 北京深测科技有限公司 | 一种地质灾害监测预警方法和系统 |
CN110991534A (zh) * | 2019-12-03 | 2020-04-10 | 上海眼控科技股份有限公司 | 点云数据处理方法、装置、设备及计算机可读存储介质 |
CN111299761A (zh) * | 2020-02-28 | 2020-06-19 | 华南理工大学 | 一种焊缝跟踪系统的实时姿态估计方法 |
CN114529939A (zh) * | 2022-01-17 | 2022-05-24 | 华南理工大学 | 基于毫米波雷达点云聚类和深度学习的行人识别方法 |
CN114781441A (zh) * | 2022-04-06 | 2022-07-22 | 电子科技大学 | Eeg运动想象分类方法及多空间卷积神经网络模型 |
CN114781441B (zh) * | 2022-04-06 | 2024-01-26 | 电子科技大学 | Eeg运动想象分类方法及多空间卷积神经网络模型 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109993103A (zh) | 一种基于点云数据的人体行为识别方法 | |
CN108520216B (zh) | 一种基于步态图像的身份识别方法 | |
WO2017133009A1 (zh) | 一种基于卷积神经网络的深度图像人体关节定位方法 | |
CN103839277B (zh) | 一种户外大范围自然场景的移动增强现实注册方法 | |
CN112163498B (zh) | 前景引导和纹理聚焦的行人重识别模型建立方法及其应用 | |
CN107767419A (zh) | 一种人体骨骼关键点检测方法及装置 | |
CN110399809A (zh) | 多特征融合的人脸关键点检测方法及装置 | |
CN109948526A (zh) | 图像处理方法及装置、检测设备及存储介质 | |
Batchuluun et al. | Body-movement-based human identification using convolutional neural network | |
CN111626159A (zh) | 一种基于注意力残差模块和支路融合的人体关键点检测方法 | |
CN112329525A (zh) | 一种基于时空图卷积神经网络的手势识别方法和装置 | |
CN112801015A (zh) | 一种基于注意力机制的多模态人脸识别方法 | |
CN110263768A (zh) | 一种基于深度残差网络的人脸识别方法 | |
CN112668550A (zh) | 基于关节点-深度联合关注rgb模态数据的双人交互行为识别方法 | |
CN111209873A (zh) | 一种基于深度学习的高精度人脸关键点定位方法及系统 | |
CN112365578A (zh) | 基于双摄像机的三维人体模型重构系统及方法 | |
CN116092190A (zh) | 一种基于自注意力高分辨网络的人体姿态估计方法 | |
CN113034371B (zh) | 一种基于特征嵌入的红外与可见光图像融合方法 | |
CN117423134A (zh) | 一种人体目标检测和解析的多任务协同网络及其训练方法 | |
CN110490049A (zh) | 基于多特征和svm区分人体平衡障碍的方法 | |
Chen et al. | Understanding dynamic associations: Gait recognition via cross-view spatiotemporal aggregation network | |
Yang et al. | Semantic perceptive infrared and visible image fusion Transformer | |
Liang | Face recognition technology analysis based on deep learning algorithm | |
Hu et al. | Behavioral Feature Description Method Based on the Vector Module Ratio and Vector Angle of Human Body Structure | |
Zhang et al. | VSA-CGAN: An Intelligent Generation Model for Deep Learning Sample Database Construction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190709 |
|
RJ01 | Rejection of invention patent application after publication |