CN116645727B - 一种基于Openpose模型算法的行为捕捉识别方法 - Google Patents
一种基于Openpose模型算法的行为捕捉识别方法 Download PDFInfo
- Publication number
- CN116645727B CN116645727B CN202310632382.9A CN202310632382A CN116645727B CN 116645727 B CN116645727 B CN 116645727B CN 202310632382 A CN202310632382 A CN 202310632382A CN 116645727 B CN116645727 B CN 116645727B
- Authority
- CN
- China
- Prior art keywords
- behavior
- image
- algorithm
- layer
- capturing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000006399 behavior Effects 0.000 claims abstract description 42
- 238000001514 detection method Methods 0.000 claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 claims abstract description 9
- 238000003066 decision tree Methods 0.000 claims abstract description 9
- 238000007781 pre-processing Methods 0.000 claims abstract description 9
- 125000004122 cyclic group Chemical group 0.000 claims abstract description 3
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000001914 filtration Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 230000005856 abnormality Effects 0.000 claims description 2
- 230000000306 recurrent effect Effects 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 abstract description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及行为识别技术领域,尤其为一种基于Openpose模型算法的行为捕捉识别方法,包括如下步骤:S1:通过捕捉设备对识别对象的行为进行捕捉并保存,获得原始行为图像;S2:对原始行为图像进行预处理,获得预处理数据;S3:对预处理数据进行关键点检测S4:通过关键点检测进行行为预测;S5:对预测结果进行二次检测。本发明通过摄像头或者传感器对识别对象进行行为捕捉,同时通过深度学习和决策树算法进行结合对行为进行初步判断,在对初步判断结果进行循环神经网络的二次判断最终输出最后的预测,降低了模型算法的出错率同时提高了算法的可靠性。
Description
技术领域
本发明涉及行为识别技术领域,尤其是一种基于Openpose模型算法的行为捕捉识别方法。
背景技术
行为捕捉识别方法是以深度学习为基础进行赋能发展。当前,行为捕捉识别已经广泛运用于各个行业,随着人口数量的不断潘增,出现踩踏事件也很多为了减少或避免危险情况的出现,需要对捕捉对象行为进行识别。
现存的一些关于行为捕捉识别方法仅仅通过简单单一的深度神经网路进行分析判断,往往会出现误判行为,比如将坐姿判断为摔倒导致不必要的损失故本发明提出一种基于Openpose模型算法的行为捕捉识别方法。
发明内容
本发明的目的是通过提出一种基于Openpose模型算法的行为捕捉识别方法,以解决上述背景技术中提出的缺陷。
本发明采用的技术方案如下:
提供一种基于Openpose模型算法的行为捕捉识别方法,包括如下步骤:
S1:通过捕捉设备对识别对象的行为进行捕捉并保存,获得原始行为图像;
S2:对原始行为图像进行预处理,获得预处理数据;
S3:对预处理数据进行关键点检测;
S4:通过关键点检测进行行为预测;
S5:对预测结果进行二次检测。
作为本发明的一种优选技术方案:所述S1中的捕捉设备包括摄像头和传感器。
作为本发明的一种优选技术方案:所述预处理包括图像去噪、图像滤波和图像增强,其中图像去噪算法采用小滤波去噪分解法,图像滤波采用中值滤波计算公式如下:
其中,xij表示滤波核对应区域所有像素点的像素值,i,j表示图像的像素坐标,i表示行数,j表示列数,k表示滤波核的大小,k*k为滤波器的窗口大小,x′ij为中值滤波计算处理后的提取的像素值,图片图像增强采用的是锐化处理计算公式如下:
Iout(x,y)=ω1I(x,y)-ω2I(x-1,y)+I(x+1,y)
其中Iout(x,y)为增强后像素点对应的值,ω1,ω2为权重系数,I(x,y)为增强前像素点(x,y)对应的值,I(x-1,y)为增强前像素点(x-1,y)对应的值,x,y表示图像中一个像素点的坐标,x-1,y表示图像中像素点(x-1,y)的坐标,x+1,y表示图像中像素点(x+1,y)的坐标。
作为本发明的一种优选技术方案:所述对预处理数据进行关键点检测算法是基于卷积神经网络的Openpose模型算法。
作为本发明的一种优选技术方案:所述基于卷积神经网络的Openpose模型算法具体实现步骤如下:
S3.1.1:输入预处理数据作为Openpose模型算法的输入值;
S3.1.2:通过卷积层进行特征提取,通过池化层进行特征压缩;
S3.1.3:通过全连接层进行参数选择和参数更新;
S3.1.4:重复步骤S3.1、S3.2与S3.3直至算法收敛或迭代次数达到最大值。
作为本发明的一种优选技术方案:
所述参数选择和参数更新具体流程如下:
通过前向传播进行模型参数预测计算公式如下:
y′i=max(ym×k+s~ym×k×n+s)
其中σ(x)为激活函数表达式为yi为卷积输出值,ωij为卷积核,x′ij为数据处理后的卷积核对应大小内的像素值,b为偏置系数。m×n为卷积核的大小,m、n分别为卷积核的长和宽,s为池化层的步长,input为全连接层的输出ω′ij为全连接层的系数矩阵,b′为全连接层的偏置系数,y′i为更新后的卷积输出值,g()为激活函数,ym×k+s为卷积层的输出,ym×k×n+s为池化层的输出;
通过向后传播进行参数的更新计算公式如下:
其中L为损失函数,input为全连接层的输出ω′ij为全连接层的系数矩阵,Y为真实数据矩阵,θ为学习参数,η为学习率,对损失函数进行以θ为自变量进行偏导求解,←表示赋值符号。
作为本发明的一种优选技术方案:所述基于卷积神经网络的Openpose模型算法通过标注识别对象身体关节点位置使用决策树算法进行行为分类。
作为本发明的一种优选技术方案:所述决策树算法是以骨架序列中关节点的运动特性作为判断异常的指标,对识别对象进行行为捕捉识别,决策树算法实现过程如下:
S4.1:计算信息熵;
其中,E(D)为数据集D的信息熵,z为分类结果,pi为D中属于分类i的样本比例;
S4.2:计算在特征A的条件下数据集D的条件信息熵:
其中,E(D|A)为条件信息熵,|A|为特征A取的个数,Dj表示A等于第j个取值时对应的子集,|Dj|表示集合中的数量;
S4.3:计算在特征A条件下的信息增益:
G(A)=E(A)-E(D|A)
其中,E(A)表示特征A的信息熵,信息增益越高标明特征A成为分裂点的效果更好。
作为本发明的一种优选技术方案:所述S5中对预测结果进行二次检测是使用RNN循环神经网络构建模型对进行二次判断。
作为本发明的一种优选技术方案:所述RNN循环神经网络计算公式如下:
yt=Whyht+by
其中,hi表示i时刻产生的隐藏状态向量,其中h0=(0,0,...,0),y′i为预处理后的数据的矩阵向量,W和U分别表示xi与当前时刻和上一时刻的权重矩阵,Why是隐藏层与输出层的权重矩阵,b和by表示不同层之间的偏置,h表示每个时间步产生的隐藏状态,参数ht表示在时间步t处的隐藏状态,yt表示在时间步t处的输出,为指数函数计算。
本发明提供的基于0penpose模型算法的行为捕捉识别方法,与现有技术相比,其有益效果有:
本发明通过摄像头或者传感器对识别对象进行行为捕捉,同时通过深度学习和决策树算法进行结合对行为进行初步判断,在对初步判断结果进行循环神经网络的二次判断最终输出最后的预测,降低了模型算法的出错率同时提高了算法的可靠性。
附图说明
图1为本发明优选实施例的方法流程图。
具体实施方式
需要说明的是,在不冲突的情况下,本实施例中的实施例及实施例中的特征可以相互组合,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1,本发明优选实施例提供了一种基于Openpose模型算法的行为捕捉识别方法,包括如下步骤:
包括如下步骤:
S1:通过捕捉设备对识别对象的行为进行捕捉并保存,获得原始行为图像;
S2:对原始行为图像进行预处理,获得预处理数据;
S3:对预处理数据进行关键点检测;
S4:通过关键点检测进行行为预测;
S5:对预测结果进行二次检测。
S1中的捕捉设备包括摄像头和传感器。
由于捕捉到的对象数据往往十分复杂且所含信息少,直接使用会造成很多不必要的资源浪费因此要对初始数据进行预处理,所述预处理包括图像去噪、图像滤波和图像增强,其中图像去噪算法采用小滤波去噪分解法,图像滤波采用中值滤波计算公式如下:
其中,xij表示滤波核对应区域所有像素点的像素值,i,j表示图像的像素坐标,i表示行数,j表示列数,k表示滤波核的大小,k*k为滤波器的窗口大小,x′ij为中值滤波计算处理后的提取的像素值,图片图像增强采用的是锐化处理计算公式如下:
Iout(x,y)=ω1I(x,y)-ω2I(x-1,y)+I(x+1,y)
其中Iout(x,y)为增强后像素点对应的值,ω1,ω2为权重系数,I(x,y)为增强前像素点(x,y)对应的值,I(x-1,y)为增强前像素点(x-1,y)对应的值,x,y表示图像中一个像素点的坐标,x-1,y表示图像中像素点(x-1,y)的坐标,x+1,y表示图像中像素点(x+1,y)的坐标。
对预处理数据进行关键点检测算法是基于卷积神经网络的Openpose模型算法。
基于卷积神经网络的Openpose模型算法具体实现步骤如下:
S3.1:输入预处理数据作为Openpose模型算法的输入值;
S3.2:通过卷积层进行特征提取,通过池化层进行特征压缩;
S3.3:通过全连接层进行参数选择和参数更新;
S3.4:重复步骤S3.1、S3.2与S3.3直至算法收敛或迭代次数达到最大值。
参数选择和参数更新具体流程如下:
通过前向传播进行模型参数预测计算公式如下:
y′i=max(ym×k+s~ym×k×n+s)
其中σ(x)为激活函数表达式为yi为卷积输出值,ωij为卷积核,x′ij为数据处理后的卷积核对应大小内的像素值,b为偏置系数。m×n为卷积核的大小,m、n分别为卷积核的长和宽,s为池化层的步长,input为全连接层的输出ω′ij为全连接层的系数矩阵,b′为全连接层的偏置系数,y′i为更新后的卷积输出值,g()为激活函数,ym×k+s为卷积层的输出,ym×k×n+s为池化层的输出;
通过向后传播进行参数的更新计算公式如下:
其中L为损失函数,input为全连接层的输出ω′ij为全连接层的系数矩阵,Y为真实数据矩阵,θ为学习参数,η为学习率,对损失函数进行以θ为自变量进行偏导求解,←表示赋值符号。
基于卷积神经网络的Openpose模型算法通过标注识别对象身体关节点位置使用决策树算法进行行为分类。
由于基于卷积神经网络的Openpose模型算法只能判断出关键点位置,因此需要对模型训练结果进行分类,因此需要使用另一个算法进行异常指标判断,决策树算法是以骨架序列中关节点的运动特性作为判断异常的指标,对识别对象进行行为捕捉识别,决策树算法实现过程如下:
S4.1:计算信息熵;
其中,E(D)为数据集D的信息熵,z为分类结果,pi为D中属于分类i的样本比例;
S4.2:计算在特征A的条件下数据集D的条件信息熵:
其中,E(D|A)为条件信息熵,|A|为特征A取的个数,Dj表示A等于第j个取值时对应的子集,|Dj|表示集合中的数量;
S4.3:计算在特征A条件下的信息增益:
G(A)=E(A)-E(D|A)
其中,E(A)表示特征A的信息熵,信息增益越高标明特征A成为分裂点的效果更好。
S5中对预测结果进行二次检测是使用RNN循环神经网络构建模型对进行二次判断。
RNN循环神经网络计算公式如下:
yt=Whyht+by
其中,hi表示i时刻产生的隐藏状态向量,其中h0=(0,0,...,0),y′i为预处理后的数据的矩阵向量,W和U分别表示xi与当前时刻和上一时刻的权重矩阵,Why是隐藏层与输出层的权重矩阵,b和by表示不同层之间的偏置,h表示每个时间步产生的隐藏状态,参数ht表示在时间步t处的隐藏状态,yt表示在时间步t处的输出,为指数函数计算。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (2)
1.一种基于Openpose模型算法的行为捕捉识别方法,其特征在于:包括如下步骤:
S1:通过捕捉设备对识别对象的行为进行捕捉并保存,获得原始行为图像;
S2:对原始行为图像进行预处理,获得预处理数据;
S3:对预处理数据进行关键点检测;
S4:通过关键点检测进行行为预测;
S5:对预测结果进行二次检测;
所述预处理包括图像去噪、图像滤波和图像增强,其中图像去噪的算法采用小滤波去噪分解法,图像滤波采用的中值滤波计算公式如下:
其中xij表示滤波核对应区域所有像素点的像素值,i,j表示图像的像素坐标,i表示行数,j表示列数,k表示滤波核的大小,k*k为滤波器的窗口大小,x′ij为中值滤波计算处理后的提取的像素值,图片图像增强采用的是锐化处理计算公式如下:
Iout(x,y)=ω1I(x,y)-ω2I(x-1,y)+I(x+1,y)
其中Iout(x,y)为增强后像素点对应的值,ω1,ω2为权重系数,I(x,y)为增强前像素点(x,y)对应的值,I(x-1,y)为增强前像素点(x-1,y)对应的值,x,y表示图像中一个像素点的坐标,x-1,y表示图像中像素点(x-1,y)的坐标,x+1,y表示图像中像素点(x+1,y)的坐标;
所述对预处理数据进行关键点检测算法是基于卷积神经网络的Openpose模型算法;
基于卷积神经网络的Openpose模型算法具体实现步骤如下:
S3.1:输入预处理数据作为Openpose模型算法的输入值;
S3.2:通过卷积层进行特征提取,通过池化层进行特征压缩;
S3.3:通过全连接层进行参数选择和参数更新;
S3.4:重复步骤S3.1、S3.2与S3.3直至算法收敛或迭代次数达到最大值;
所述参数选择和参数更新具体流程如下:
通过前向传播进行模型参数预测计算公式如下:
y′i=max(ym×k+s~ym×k×n+s)
其中σ(x)为激活函数表达式为yi为卷积输出值,ωij为卷积核,x′ij为数据处理后的卷积核对应大小内的像素值,b为偏置系数;m×n为卷积核的大小,m、n分别为卷积核的长和宽,s为池化层的步长,input为全连接层的输出ω′ij为全连接层的系数矩阵,b′为全连接层的偏置系数,y′i为更新后的卷积输出值,g()为激活函数,ym×k+s为卷积层的输出,ym×k×n+s为池化层的输出;
通过向后传播进行参数的更新计算公式如下:
其中L为损失函数,input为全连接层的输出ω′ij为全连接层的系数矩阵,Y为真实数据矩阵,θ为学习参数,η为学习率,对损失函数进行以θ为自变量进行偏导求解,←表示赋值符号;
所述基于卷积神经网络的Openpose模型算法通过标注识别对象身体关节点位置使用决策树算法进行行为分类;
所述决策树算法是以骨架序列中关节点的运动特性作为判断异常的指标,对识别对象进行行为捕捉识别,决策树算法实现过程如下:
S4.1:计算信息熵;
其中,E(D)为数据集D的信息熵,z为分类结果,pi为D中属于分类i的样本比例;
S4.2:计算在特征A的条件下数据集D的条件信息熵:
其中,E(D|A)为条件信息熵,|A|为特征A取的个数,Dj表示A等于第j个取值时对应的子集,|Dj|表示集合中的数量;
S4.3:计算在特征A条件下的信息增益:
G(A)=E(A)-E(D|A)
其中,E(A)表示特征A的信息熵,信息增益越高标明特征A成为分裂点的效果更好;
所述S5中对预测结果进行二次检测是使用RNN循环神经网络构建模型对进行二次判断;
所述RNN循环神经网络计算公式如下:
yt=Whyht+by
其中,hi表示i时刻产生的隐藏状态向量,其中h0=(0,0,...,0),y′i为预处理后的数据的矩阵向量,W和U分别表示xi与当前时刻和上一时刻的权重矩阵,Why是隐藏层与输出层的权重矩阵,b和by表示不同层之间的偏置,h表示每个时间步产生的隐藏状态,参数ht表示在时间步t处的隐藏状态,yt表示在时间步t处的输出,为指数函数计算。
2.根据权利要求1所述的基于Openpose模型算法的行为捕捉识别方法,其特征在于:所述S1中的捕捉设备包括摄像头和传感器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310632382.9A CN116645727B (zh) | 2023-05-31 | 2023-05-31 | 一种基于Openpose模型算法的行为捕捉识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310632382.9A CN116645727B (zh) | 2023-05-31 | 2023-05-31 | 一种基于Openpose模型算法的行为捕捉识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116645727A CN116645727A (zh) | 2023-08-25 |
CN116645727B true CN116645727B (zh) | 2023-12-01 |
Family
ID=87622626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310632382.9A Active CN116645727B (zh) | 2023-05-31 | 2023-05-31 | 一种基于Openpose模型算法的行为捕捉识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116645727B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109117714A (zh) * | 2018-06-27 | 2019-01-01 | 北京旷视科技有限公司 | 一种同行人员识别方法、装置、系统及计算机存储介质 |
CN109460702A (zh) * | 2018-09-14 | 2019-03-12 | 华南理工大学 | 基于人体骨架序列的乘客异常行为识别方法 |
CN111209861A (zh) * | 2020-01-06 | 2020-05-29 | 浙江工业大学 | 一种基于深度学习的动态手势动作识别方法 |
CN113255509A (zh) * | 2021-05-20 | 2021-08-13 | 福州大学 | 一种基于Yolov3和OpenPose的工地危险行为监控方法 |
CN113808047A (zh) * | 2021-09-22 | 2021-12-17 | 武汉商学院 | 一种人体运动捕捉数据去噪方法 |
CN114463725A (zh) * | 2021-12-28 | 2022-05-10 | 科大讯飞股份有限公司 | 驾驶员行为检测方法及装置、安全驾驶提醒方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200397345A1 (en) * | 2019-06-19 | 2020-12-24 | University Of Southern California | Human activity recognition using magnetic induction-based motion signals and deep recurrent neural networks |
US20220111860A1 (en) * | 2020-10-14 | 2022-04-14 | Volkswagen Aktiengesellschaft | Detecting objects and determining behaviors of objects |
CN114529984A (zh) * | 2022-01-17 | 2022-05-24 | 重庆邮电大学 | 一种基于可学习pl-gcn和eclstm的骨骼动作识别方法 |
-
2023
- 2023-05-31 CN CN202310632382.9A patent/CN116645727B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109117714A (zh) * | 2018-06-27 | 2019-01-01 | 北京旷视科技有限公司 | 一种同行人员识别方法、装置、系统及计算机存储介质 |
CN109460702A (zh) * | 2018-09-14 | 2019-03-12 | 华南理工大学 | 基于人体骨架序列的乘客异常行为识别方法 |
CN111209861A (zh) * | 2020-01-06 | 2020-05-29 | 浙江工业大学 | 一种基于深度学习的动态手势动作识别方法 |
CN113255509A (zh) * | 2021-05-20 | 2021-08-13 | 福州大学 | 一种基于Yolov3和OpenPose的工地危险行为监控方法 |
CN113808047A (zh) * | 2021-09-22 | 2021-12-17 | 武汉商学院 | 一种人体运动捕捉数据去噪方法 |
CN114463725A (zh) * | 2021-12-28 | 2022-05-10 | 科大讯飞股份有限公司 | 驾驶员行为检测方法及装置、安全驾驶提醒方法及装置 |
Non-Patent Citations (1)
Title |
---|
OpenPose结合BP网络的行为检测方法;周德良;;贵州大学学报(自然科学版)(03);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116645727A (zh) | 2023-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108133188B (zh) | 一种基于运动历史图像与卷积神经网络的行为识别方法 | |
CN110728209B (zh) | 一种姿态识别方法、装置、电子设备及存储介质 | |
CN109543502B (zh) | 一种基于深度多尺度神经网络的语义分割方法 | |
CN109409222B (zh) | 一种基于移动端的多视角人脸表情识别方法 | |
CN112464807A (zh) | 视频动作识别方法、装置、电子设备和存储介质 | |
CN107945210B (zh) | 基于深度学习和环境自适应的目标跟踪方法 | |
CN107066951B (zh) | 一种人脸自发表情的识别方法及系统 | |
CN110175248B (zh) | 一种基于深度学习和哈希编码的人脸图像检索方法和装置 | |
CN112562255B (zh) | 微光环境下电缆沟道烟雾火情的智能图像检测方法 | |
CN111260568B (zh) | 基于多辨别器对抗网络的碑帖二值化背景噪声去除方法 | |
CN113255557B (zh) | 一种基于深度学习的视频人群情绪分析方法及系统 | |
CN114255403A (zh) | 基于深度学习的光学遥感图像数据处理方法及系统 | |
CN112487913A (zh) | 一种基于神经网络的标注方法、装置及电子设备 | |
CN113628059A (zh) | 一种基于多层图注意力网络的关联用户识别方法及装置 | |
CN112288700A (zh) | 一种铁轨缺陷检测方法 | |
CN114266894A (zh) | 一种图像分割方法、装置、电子设备及存储介质 | |
CN112418032A (zh) | 一种人体行为识别方法、装置、电子设备及存储介质 | |
CN115761888A (zh) | 基于nl-c3d模型的塔吊操作人员异常行为检测方法 | |
CN115063672A (zh) | 基于改进yolox模型的小目标检测方法 | |
CN114863572A (zh) | 一种多通道异构传感器的肌电手势识别方法 | |
CN111523586A (zh) | 一种基于噪声可知的全网络监督目标检测方法 | |
CN113807237B (zh) | 活体检测模型的训练、活体检测方法、计算机设备及介质 | |
CN107633527B (zh) | 基于全卷积神经网络的目标追踪方法及装置 | |
CN114492634A (zh) | 一种细粒度装备图片分类识别方法及系统 | |
CN115358952B (zh) | 一种基于元学习的图像增强方法、系统、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |