CN110084201A - 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法 - Google Patents

一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法 Download PDF

Info

Publication number
CN110084201A
CN110084201A CN201910353400.3A CN201910353400A CN110084201A CN 110084201 A CN110084201 A CN 110084201A CN 201910353400 A CN201910353400 A CN 201910353400A CN 110084201 A CN110084201 A CN 110084201A
Authority
CN
China
Prior art keywords
convolutional neural
neural networks
video
specific objective
monitoring scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910353400.3A
Other languages
English (en)
Other versions
CN110084201B (zh
Inventor
柯逍
柯力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN201910353400.3A priority Critical patent/CN110084201B/zh
Publication of CN110084201A publication Critical patent/CN110084201A/zh
Application granted granted Critical
Publication of CN110084201B publication Critical patent/CN110084201B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Psychiatry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Social Psychology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法,其首先对获取监控场景下的人体动作分析数据库,并对该数据库进行随机划分,分为为训练集和验证集;其次对划分完成的训练集和验证集视频数据进行数据增强处理,并对视频数据进行编码。然后直接从输入视频图像序列中检测到运动目标,并进行目标识别,进而跟踪感兴趣的运动目标;最后对感兴趣的运动目标进行构建时空骨骼图卷积神经网络模型,使用训练集进行训练并利用自适应矩估计梯度进行优化网络参数权重,使用验证集进行特定目标跟踪的卷积神经网络模型的准确率预测。其不仅可以扩大原始动作数据量,还可以增强模型的鲁棒性,进而提升最终的动作识别准确率。

Description

一种监控场景下基于特定目标跟踪的卷积神经网络的人体动 作识别方法
技术领域
本发明涉及模式识别与计算机视觉领域,尤其涉及一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法。
背景技术
随着城市中的人口越来越密集,贫富、就业等各类社会矛盾的加剧,引发了各种交通、动乱、治安等大量的群体性事件;另一方面,随着人们收入的增加,各种各样的文化生活也越来越多,群体性活动也越来越多,一些易聚集高密度人群的重大活动经常举行,在这些密集场景中也经常会发生一些群体性事件。群体性事件所造成的人民经济财产的损失是非常严重的,例如,群体性事件可能会导致踩踏、群殴等严重后果。同时,如今信息化的发展也为犯罪分子提供了更加专业化、科技化的犯罪手段,犯罪行为更加具有在时间和空间上的突发性、不确定性,产生的后果也更为严重。因此,在城市监管中,如何对密集场景中的人群进行有效管理以保证人群安全已成为一个急待解决的问题。视频监控系统作为重要的城市监控工具,已经被广泛应用到交通、公共安全、银行等重要部门,同时,计算机、人工智能、传感技术的发展也为监控技术的快速发展提供了保证。
视觉目标跟踪是计算机视觉中的一个重要研究方向,有着广泛的应用,如:视频监控,人机交互,无人驾驶等。过去二三十年视觉目标跟踪技术取得了长足的进步,特别是最近两年利用深度学习的目标跟踪方法取得了令人满意的效果,使目标跟踪技术获得了突破性的进展。
目前,监控场景下人体动作识别的困难之处在于:
(1)在监控场景下异常动作发生频率很低、数据收集和标注困难等问题。
(2)监控场景下人物数量多且动作复杂等等。
发明内容
针对上述问题,本发明提供一种监控场景下基于特定目标跟踪与卷积神经网络的人体动作识别方法,解决监控场景下异常动作发生频率很低、数据收集和标注困难和监控场景下人物数量多且动作复杂等问题。
本发明公开了一种监控场景下基于特定目标跟踪与卷积神经网络的人体动作识别方法,首先对获取监控场景下的人体动作分析数据库,并对该数据库进行随机划分,分为为训练集和验证集;其次对划分完成的训练集和验证集视频数据进行数据增强处理,并对视频数据进行编码。然后直接从输入视频图像序列中检测到运动目标,并进行目标识别,进而跟踪感兴趣的运动目标;最后对感兴趣的运动目标进行构建时空骨骼图卷积神经网络模型,使用训练集进行训练并利用自适应矩估计梯度进行优化网络参数权重,使用验证集进行特定目标跟踪的卷积神经网络模型的准确率预测,其具体内容包括:
一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法,其特征在于,包括以下步骤:
步骤S1:获取监控场景下的人体动作分析数据库,并划分为训练集和验证集;
步骤S2:对划分完成的训练集和验证集中的视频数据进行数据增强处理,并对视频数据进行编码;
步骤S3:直接从输入的视频图像中检测运动目标,并进行目标识别,完成感兴趣的运动目标的跟踪;
步骤S4:对感兴趣的运动目标进行时空骨骼图卷积神经网络模型的构建,使用训练集进行训练并利用自适应矩估计梯度进行优化网络参数权重;
步骤S5:使用验证集进行特定目标跟踪的时空骨骼图卷积神经网络模型的准确率预测。
优选地,步骤S1具体包括以下步骤:
步骤S11:获取监控场景下的人体动作分析数据库;
步骤S12:将所述人体动作分析数据库中的视频格式进行批量处理,将视频分辨率和帧率统一,形成人体动作分析数据集;
步骤S13:将所述人体动作分析数据集按照80:1的比例随机分为训练集和验证集。
优选地,步骤S2当中,对划分完成的训练集和验证集中的视频数据进行数据增强处理具体包括以下步骤:
步骤S21:对所述训练集和验证集中的视频数据进行对比度变换增强,采用公式:其中C表示对比度变换之后的灰度值,i表示图像的行位置,j表示图像的列位置,δ(i,j)代表相邻像素的灰度差,Pδ(i,j)代表相邻像素间的灰度差为δ的像素分布概率;
步骤S22:对视频数据进行随机剪裁增强,采用公式:Hn=height-clipHeight,Wn=wide-clipWide,其中Hn代表剪裁之后的视频的高度,height代表原视频的高度,clipHeight代表剪裁的高度,中Wn代表剪裁之后的视频的宽度,wide代表原视频的宽度,clipWide代表剪裁的宽度;
步骤S23:对视频数据进行自适应随机遮挡增强;
步骤S24:将增强之后的视频格式进行批量处理,大小统一缩放为350*265,帧数率调整为25帧/秒。
优选地,步骤S3具体包括以下步骤:
步骤S31:将视频图像从RGB颜色空间转换到HSV颜色空间;
步骤S32:对视频图像的H分量进行直方图统计,得到颜色概率查找表;
步骤S33:将视频图像中每个像素的值用其颜色出现的概率进行替换,由此得到颜色概率分布图;
步骤S34:使用meanShift算法寻优,采用公式:其中Mh表示偏移向量,K表示漂移系数,x表示空间中的任意点位置,Sk表示的是训练集和验证集中的点到x的距离小于球半径h的数据点;
步骤S35:使用camShift跟踪算法进行感兴趣的目标跟踪,在视频序列的每一帧当中都运用meanShift,并将上一帧的meanShift结果作为下一帧的初始值,进行循环迭代,完成感兴趣的目标的跟踪。
优选地,步骤S4具体包括以下步骤:
步骤S41:对感兴趣的运动目标进行时空骨骼图卷积神经网络模型的构建,采用公式:其中gin表示输入特征函数,gout表示出特征函数,Λ代表对角矩形,I代表单位矩阵,A代表图的邻接矩阵,W代表权重矩阵;
步骤S42:将给定的某帧内的节点按照人体结构进行连接,然后将该帧,按帧内每个节点和下一帧中对应节点进行连接;
步骤S43:使用训练集进行训练并利用自适应矩估计梯度进行优化,网络参数权重采用公式:mt=β1mt-1+(1-β1)gt其中,mt是梯度的一阶矩(均值)的估计,vt是梯度的二阶矩(偏方差)的估计。β1和β2代表模型的超参数,mt-1代表上一次梯度的一阶矩(均值)的估计,vt-1代表上一次梯度的二阶矩(偏方差)的估计,gt代表梯度值,t代表时刻。
优选地,设置β1为0.9,β2为0.999。
优选地,步骤S5具体包括以下步骤:
步骤S51:将所述验证集进行数据增强;
步骤S52:采用步骤S3的方法对验证集进行特定目标跟踪处理,得到视频中特定目标的信息。
步骤S53:将特定目标信息传入时空骨骼图卷积神经网络,使用softmax函数进行分类,得到一个动作类别,将该类别与标注的结果进行比较,计算准确率。
与现有技术相比,本发明及其优选方案具有有益效果:(1)不仅可以扩大原始动作数据量,还可以增强模型的鲁棒性,进而提升最终的动作识别准确率。(2)较大程度排除了密集人群中正常行人的非异常动作。
附图说明
下面结合附图和具体实施方式对本发明进一步详细的说明:
图1是本发明实施例整体流程示意图。
具体实施方式
为让本专利的特征和优点能更明显易懂,下文特举实施例,并配合附图,作详细说明如下:
如图1所示,本实施例整体流程包括以下步骤:
步骤S1:获取监控场景下的人体动作分析数据库,并对该数据库进行随机划分,分为为训练集和验证集;
在本实施例中,所述步骤S1具体包括:
步骤S11:获取监控场景下的人体动作分析数据库,例如中科院自动化所智能感知与计算研究中心提供的行为分析数据库;
步骤S12:将视频数据库的视频格式进行批量处理,大小统一缩放为350*265,帧数率调整为25帧/秒;
步骤S13:将数据集按照80:1的比例随机分为训练集和验证集。
步骤S2:对划分完成的训练集和验证集视频数据进行数据增强处理,并对视频数据进行编码。
在本实施例中,所述步骤S2具体包括:
步骤S21:对获取的视频数据进行对比度变换增强,采用公式:其中C表示对比度变换之后的灰度值,i表示图像的行位置,j表示图像的列位置,δ(i,j)代表相邻像素的灰度差,Pδ(i,j)代表相邻像素间的灰度差为δ的像素分布概率;
步骤S22:对视频数据进行随机剪裁增强,采用公式:Hn=height-clipHeight,Wn=wide-clipWide,其中Hn代表剪裁之后的视频的高度,height代表原视频的高度,clipHeight代表剪裁的高度,中Wn代表剪裁之后的视频的宽度,wide代表原视频的宽度,clipWide代表剪裁的宽度;
步骤S23:对视频数据进行自适应随机遮挡增强;
步骤S24:将增强之后的视频格式进行批量处理,大小统一缩放为350*265,帧数率调整为25帧/秒。
步骤S3:直接从输入视频图像序列中检测到运动目标,并进行目标识别,最终跟踪感兴趣的运动目标;
在本实施例中,所述步骤S3具体包括:
步骤S31:将视频图像从RGB颜色空间转换到HSV颜色空间;
步骤S32:对H分量进行直方图统计,直方图代表了不同H分量取值出现的概率,或者说可以据此查找出H分量的大小为x时的概率或像素个数,即,得到颜色概率查找表;
步骤S33:将图像中每个像素的值用其颜色出现的概率进行替换,由此得到颜色概率分布图;
步骤S34:使用meanShift算法寻优,它通过不断迭代计算得到最优搜索窗口的位置和大小,采用公式:其中Mh表示偏移向量,K表示漂移系数,x表示空间中的任意点位置,Sk表示的是数据集的点到x的距离小于球半径h的数据点;
步骤S35:使用camShift跟踪算法进行感兴趣的目标跟踪,camShift其实就是在视频序列的每一帧当中都运用meanShift,并将上一帧的meanShift结果作为下一帧的初始值,如此不断循环迭代,就可以实现目标的跟踪了;
步骤S4:对感兴趣的运动目标进行构建时空骨骼图卷积神经网络模型,使用训练集进行训练并利用自适应矩估计梯度进行优化网络参数权重;
在本实施例中,所述步骤S4具体包括:
步骤S41:对感兴趣的运动目标进行构建时空骨骼图卷积神经网络模型,采用公式:gin表示输入特征函数,gout表示出特征函数,Λ代表对角矩形,I代表单位矩阵,A代表图的邻接矩阵,W代表权重矩阵;
步骤S42:将给定的某帧内的节点按照人体结构进行连接,然后将此帧,按帧内每个节点和下一帧中对应节点进行连接,这样构造可使模型应用于具有不同节点数和节点连接关系的不同数据集;
步骤S43:使用训练集进行训练并利用自适应矩估计梯度进行优化网络参数权重采用公式:mt=β1mt-1+(1-β1)gt其中,mt是梯度的一阶矩(均值)的估计,vt是梯度的二阶矩(偏方差)的估计。β1和β2代表模型的超参数,优选的默认设置β1为0.9,β2为0.999,mt-1代表上一次梯度的一阶矩(均值)的估计,vt-1代表上一次梯度的二阶矩(偏方差)的估计,gt代表梯度值,t代表时刻。
步骤S5:使用验证集进行特定目标跟踪的时空骨骼图卷积神经网络模型的准确率预测。
在本实施例中,所述步骤S5具体包括:
步骤S51:将所述验证集进行数据增强;
步骤S52:采用步骤S3的方法对验证集进行特定目标跟踪处理,得到视频中特定目标的信息。
步骤S53:将特定目标信息传入时空骨骼图卷积神经网络,使用softmax函数进行分类,得到一个动作类别,将该类别与标注的结果进行比较,计算准确率。
本专利不局限于上述最佳实施方式,任何人在本专利的启示下都可以得出其它各种形式的监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本专利的涵盖范围。

Claims (7)

1.一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法,其特征在于,包括以下步骤:
步骤S1:获取监控场景下的人体动作分析数据库,并划分为训练集和验证集;
步骤S2:对划分完成的训练集和验证集中的视频数据进行数据增强处理,并对视频数据进行编码;
步骤S3:直接从输入的视频图像中检测运动目标,并进行目标识别,完成感兴趣的运动目标的跟踪;
步骤S4:对感兴趣的运动目标进行时空骨骼图卷积神经网络模型的构建,使用训练集进行训练并利用自适应矩估计梯度进行优化网络参数权重;
步骤S5:使用验证集进行特定目标跟踪的时空骨骼图卷积神经网络模型的准确率预测。
2.根据权利要求1所述的监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法,其特征在于,步骤S1具体包括以下步骤:
步骤S11:获取监控场景下的人体动作分析数据库;
步骤S12:将所述人体动作分析数据库中的视频格式进行批量处理,将视频分辨率和帧率统一,形成人体动作分析数据集;
步骤S13:将所述人体动作分析数据集按照80:1的比例随机分为训练集和验证集。
3.根据权利要求1所述的监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法,其特征在于,步骤S2当中,对划分完成的训练集和验证集中的视频数据进行数据增强处理具体包括以下步骤:
步骤S21:对所述训练集和验证集中的视频数据进行对比度变换增强,采用公式:其中C表示对比度变换之后的灰度值,i表示图像的行位置,j表示图像的列位置,δ(i,j)代表相邻像素的灰度差,Pδ(i,j)代表相邻像素间的灰度差为δ的像素分布概率;
步骤S22:对视频数据进行随机剪裁增强,采用公式:Hn=height-clipHeight,Wn=wide-clipWide,其中Hn代表剪裁之后的视频的高度,height代表原视频的高度,clipHeight代表剪裁的高度,中Wn代表剪裁之后的视频的宽度,wide代表原视频的宽度,clipWide代表剪裁的宽度;
步骤S23:对视频数据进行自适应随机遮挡增强;
步骤S24:将增强之后的视频格式进行批量处理,大小统一缩放为350*265,帧数率调整为25帧/秒。
4.根据权利要求1所述的监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法,其特征在于,步骤S3具体包括以下步骤:
步骤S31:将视频图像从RGB颜色空间转换到HSV颜色空间;
步骤S32:对视频图像的H分量进行直方图统计,得到颜色概率查找表;
步骤S33:将视频图像中每个像素的值用其颜色出现的概率进行替换,由此得到颜色概率分布图;
步骤S34:使用meanShift算法寻优,采用公式:其中Mh表示偏移向量,K表示漂移系数,x表示空间中的任意点位置,Sk表示的是训练集和验证集中的点到x的距离小于球半径h的数据点;
步骤S35:使用camShift跟踪算法进行感兴趣的目标跟踪,在视频序列的每一帧当中都运用meanShift,并将上一帧的meanShift结果作为下一帧的初始值,进行循环迭代,完成感兴趣的目标的跟踪。
5.根据权利要求1所述的监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法,其特征在于,步骤S4具体包括以下步骤:
步骤S41:对感兴趣的运动目标进行时空骨骼图卷积神经网络模型的构建,采用公式:其中gin表示输入特征函数,gout表示出特征函数,Λ代表对角矩形,I代表单位矩阵,A代表图的邻接矩阵,W代表权重矩阵;
步骤S42:将给定的某帧内的节点按照人体结构进行连接,然后将该帧,按帧内每个节点和下一帧中对应节点进行连接;
步骤S43:使用训练集进行训练并利用自适应矩估计梯度进行优化,网络参数权重采用公式:mt=β1mt-1+(1-β1)gt其中,mt是梯度的一阶矩(均值)的估计,vt是梯度的二阶矩(偏方差)的估计。β1和β2代表模型的超参数,mt-1代表上一次梯度的一阶矩(均值)的估计,vt-1代表上一次梯度的二阶矩(偏方差)的估计,gt代表梯度值,t代表时刻。
6.根据权利要求5所述的监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法,其特征在于:设置β1为0.9,β2为0.999。
7.根据权利要求4所述的监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法,其特征在于,步骤S5具体包括以下步骤:
步骤S51:将所述验证集进行数据增强;
步骤S52:采用步骤S3的方法对验证集进行特定目标跟踪处理,得到视频中特定目标的信息;
步骤S53:将特定目标信息传入时空骨骼图卷积神经网络,使用softmax函数进行分类,得到一个动作类别,将该类别与标注的结果进行比较,计算准确率。
CN201910353400.3A 2019-04-29 2019-04-29 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法 Active CN110084201B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910353400.3A CN110084201B (zh) 2019-04-29 2019-04-29 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910353400.3A CN110084201B (zh) 2019-04-29 2019-04-29 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法

Publications (2)

Publication Number Publication Date
CN110084201A true CN110084201A (zh) 2019-08-02
CN110084201B CN110084201B (zh) 2022-09-13

Family

ID=67417560

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910353400.3A Active CN110084201B (zh) 2019-04-29 2019-04-29 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法

Country Status (1)

Country Link
CN (1) CN110084201B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110532960A (zh) * 2019-08-30 2019-12-03 西安交通大学 一种基于图神经网络的目标辅助的动作识别方法
CN111310659A (zh) * 2020-02-14 2020-06-19 福州大学 基于增进式图卷积神经网络的人体动作识别方法
CN111507317A (zh) * 2020-06-30 2020-08-07 之江实验室 一种基于视觉的旋转设备作业手套佩戴检测方法及系统
CN111870242A (zh) * 2020-08-03 2020-11-03 南京邮电大学 一种基于肌电信号的智能手势动作生成方法
CN115035395A (zh) * 2022-07-07 2022-09-09 北京拙河科技有限公司 用于机场航站楼场景的安全分析装置方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090274997A1 (en) * 2008-05-02 2009-11-05 Eiko Kosuge System And Method For Comparing Dental X-Ray Images
CN107273502A (zh) * 2017-06-19 2017-10-20 重庆邮电大学 一种基于空间认知学习的图像地理标注方法
CN107832708A (zh) * 2017-11-09 2018-03-23 云丁网络技术(北京)有限公司 一种人体动作识别方法及装置
CN108664922A (zh) * 2018-05-10 2018-10-16 东华大学 一种基于人身安全的红外视频人体行为识别方法
CN108921047A (zh) * 2018-06-12 2018-11-30 江西理工大学 一种基于跨层融合的多模型投票均值动作识别方法
CN109034033A (zh) * 2018-07-16 2018-12-18 江南大学 一种基于改进vgg16卷积网络的排烟视频检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090274997A1 (en) * 2008-05-02 2009-11-05 Eiko Kosuge System And Method For Comparing Dental X-Ray Images
CN107273502A (zh) * 2017-06-19 2017-10-20 重庆邮电大学 一种基于空间认知学习的图像地理标注方法
CN107832708A (zh) * 2017-11-09 2018-03-23 云丁网络技术(北京)有限公司 一种人体动作识别方法及装置
CN108664922A (zh) * 2018-05-10 2018-10-16 东华大学 一种基于人身安全的红外视频人体行为识别方法
CN108921047A (zh) * 2018-06-12 2018-11-30 江西理工大学 一种基于跨层融合的多模型投票均值动作识别方法
CN109034033A (zh) * 2018-07-16 2018-12-18 江南大学 一种基于改进vgg16卷积网络的排烟视频检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
THANH-TOAN DO等: ""Face recognition using Co-occurrence Histograms of Oriented Gradients"", 《 2012 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110532960A (zh) * 2019-08-30 2019-12-03 西安交通大学 一种基于图神经网络的目标辅助的动作识别方法
CN110532960B (zh) * 2019-08-30 2022-02-11 西安交通大学 一种基于图神经网络的目标辅助的动作识别方法
CN111310659A (zh) * 2020-02-14 2020-06-19 福州大学 基于增进式图卷积神经网络的人体动作识别方法
CN111310659B (zh) * 2020-02-14 2022-08-09 福州大学 基于增进式图卷积神经网络的人体动作识别方法
CN111507317A (zh) * 2020-06-30 2020-08-07 之江实验室 一种基于视觉的旋转设备作业手套佩戴检测方法及系统
CN111507317B (zh) * 2020-06-30 2020-10-23 之江实验室 一种基于视觉的旋转设备作业手套佩戴检测方法及系统
CN111870242A (zh) * 2020-08-03 2020-11-03 南京邮电大学 一种基于肌电信号的智能手势动作生成方法
WO2022027822A1 (zh) * 2020-08-03 2022-02-10 南京邮电大学 一种基于肌电信号的智能手势动作生成方法
CN115035395A (zh) * 2022-07-07 2022-09-09 北京拙河科技有限公司 用于机场航站楼场景的安全分析装置方法及装置
CN115035395B (zh) * 2022-07-07 2023-11-10 北京拙河科技有限公司 用于机场航站楼场景的安全分析装置方法及装置

Also Published As

Publication number Publication date
CN110084201B (zh) 2022-09-13

Similar Documents

Publication Publication Date Title
CN110084201A (zh) 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法
CN110119703A (zh) 一种安防场景下融合注意力机制和时空图卷积神经网络的人体动作识别方法
US20220245945A1 (en) Video anomaly detection method based on human-machine cooperation
CN106548153B (zh) 基于多尺度变换下图结构的视频异常检测方法
CN112836640B (zh) 一种单摄像头多目标行人跟踪方法
CN102722725B (zh) 一种基于主动场景学习的对象跟踪方法
CN111382686B (zh) 一种基于半监督生成对抗网络的车道线检测方法
CN108960047B (zh) 基于深度二次树的视频监控中人脸去重方法
CN103971386A (zh) 一种动态背景场景下的前景检测方法
CN106815859A (zh) 基于尺度自适应相关滤波和特征点匹配的目标跟踪算法
CN102469302B (zh) 应用于影像监控的可适应光线变化的背景模型学习系统
CN114022759A (zh) 一种融合神经网络时空特性的空域有限像素目标检测系统及方法
CN107633226A (zh) 一种人体动作跟踪识别方法及系统
CN107301382B (zh) 基于时间依赖约束下深度非负矩阵分解的行为识别方法
CN108460481B (zh) 基于循环神经网络的无人机侦察目标演变规律预测方法
CN109117774B (zh) 一种基于稀疏编码的多视角视频异常检测方法
CN103488993A (zh) 一种基于fast的人群异常行为识别方法
CN106023245A (zh) 基于中智集相似度量测的静态背景下运动目标检测方法
CN110909672A (zh) 一种基于双流卷积神经网络和svm的抽烟动作识别方法
CN109886102B (zh) 一种基于深度图像的跌倒行为时空域检测方法
CN111079539A (zh) 一种基于异常追踪的视频异常行为检测方法
CN113239904B (zh) 基于卷积神经网络的高分辨率密集目标计数方法
CN101216943A (zh) 一种视频运动目标分割的方法
CN104036526A (zh) 一种基于自适应窗的灰度目标跟踪方法
CN115601403A (zh) 一种基于自注意力机制的事件相机光流估计方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant