CN111079655A - 一种基于融合神经网络的视频中人体行为识别方法 - Google Patents
一种基于融合神经网络的视频中人体行为识别方法 Download PDFInfo
- Publication number
- CN111079655A CN111079655A CN201911310123.4A CN201911310123A CN111079655A CN 111079655 A CN111079655 A CN 111079655A CN 201911310123 A CN201911310123 A CN 201911310123A CN 111079655 A CN111079655 A CN 111079655A
- Authority
- CN
- China
- Prior art keywords
- neural network
- feature
- human body
- model
- behaviors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于融合神经网络的视频中人体行为识别方法,首先对原始视频的图像帧做预处理,构建训练样本数据集;通过改进的VGG神经网络模型,提取所述训练样本数据集中的图像空间信息特征;利用iDT算法提取预处理后的原始视频序列中人体运动轨迹特征;构建带有门控循环单元GRU网络的seq2seq模型,将VGG的输出向量和iDT算法提取的特征向量分别输入GRU网络中进行特征提取,得到输出预测结果;将输出的两种预测结果加权融合,实现所述原始视频中人体行为的识别。上述方法可实现人体行为的准确识别,且对环境的光照变化适应性较好,能达到高效精确的识别结果。
Description
技术领域
本发明涉及视频分析及识别技术领域,尤其涉及一种基于融合神经网络的视频中人体行为识别方法。
背景技术
随着社会的发展与人民生活水平的提高,人们越来越关注公众安全话题,对视频监控系统的需求呈现出爆发式地增长,常见的监控设备只是记录了一段时间内的影像信息,想要及时发现异常情况就需要安保人员24小时值守监控,因此业界需要一种监视系统,能够实现人体行为的自主识别,当发生异常时,系统能够及时报警告知安保人员,这样不仅可以替代监控人员繁重的工作,提高监控系统的自动化智能化水平,同时也避免了人为监控疲劳导致的严重后果。
在视频中行为识别研究领域的主流算法大致分为三类:传统算法,深度学习算法,融合算法。在深度学习算法兴起之前,最好的传统行为识别算法是基于离散轨迹(DenseTrajectories,DT)产生的iDT算法,该算法由INRIA的IEAR实验室于2013年发表于ICCV,该算法框架主要包含:特征点密集采样,特征轨迹跟踪和基于轨迹的特征提取三个部分。目前基于深度学习的行为识别算法效果已经超过了iDT算法,但与iDT集成的算法可提高识别精度,在深度学习领域,双流(Two-Stream)方法是一大主流方向,最早是VGG团队在NIPS上提出来的,Two-Stream CNN网络分为两个部分:一部分处理RGB图像,一部分处理光流图像,最终联合训练并分类。TSN(Temporal Segments Networks)是在双流CNN上改进的网络,它解决了双流法不能对长时间的视频进行建模的弊端,C3D(3-Dimensional Convolution)是除双流法的另一大主流方法,虽然目前来看C3D的方法得到的效果普遍比双流方法低好几个百分点,但是该法比双流方法快很多,而且基本上都是端到端的训练,网络结构更加简洁。除了上述两大类方法以外,另外还有一大批的研究学者使用RNN网络模型来解决这个问题,因为视频除了空间维度外,最大的痛点是时间序列问题,总之行为识别目前还是视频理解方向的研究热点,但由于视频中目标与场景复杂,至今为止也没有得到很好的解决。
发明内容
本发明的目的是提供一种基于融合神经网络的视频中人体行为识别方法,该方法可实现人体行为的准确识别,且对环境的光照变化适应性较好,能达到高效精确的识别结果。
本发明的目的是通过以下技术方案实现的:
一种基于融合神经网络的视频中人体行为识别方法,所述方法包括:
步骤1、对原始视频的图像帧做预处理,构建训练样本数据集;
步骤2、通过改进的VGG神经网络模型,提取所述训练样本数据集中的图像空间信息特征;
步骤3、利用改进的密集轨迹iDT算法提取预处理后的原始视频序列中人体运动轨迹特征,具体通过密集采样特征点、特征点轨迹跟踪和轨迹特征提取来实现;
步骤4、构建带有门控循环单元GRU网络的seq2seq模型,从所构建的seq2seq模型的encoder端将步骤2得到的VGG的输出向量和步骤3得到的iDT算法提取的特征向量依照时间序列分别输入GRU网络中进行特征提取,并从seq2seq模型的decoder端分别输出预测结果;
步骤5、将输出的两种预测结果加权融合,实现所述原始视频中人体行为的识别。
由上述本发明提供的技术方案可以看出,上述方法可实现人体行为的准确识别,且对环境的光照变化适应性较好,能达到高效精确的识别结果。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的基于融合神经网络的视频中人体行为识别方法流程示意图;
图2为本发明实施例所提供seq2seq模型的结构示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
下面将结合附图对本发明实施例作进一步地详细描述,如图1所示为本发明实施例提供的基于融合神经网络的视频中人体行为识别方法流程示意图,所述方法包括:
步骤1、对原始视频的图像帧做预处理,构建训练样本数据集;
在该步骤中,首先在原始视频的图像上,标注出目标检测感兴趣区域;
对所述感兴趣区域进行预处理,包括旋转、镜像操作、光照微调,以此构建训练样本数据集。
步骤2、通过改进的VGG(Visual Geometry Group)神经网络模型,提取所述训练样本数据集中的图像空间信息特征;
在该步骤中,所述改进的VGG神经网络模型一共有13个卷积层,3个池化层,每个卷积层后有一层BatchNorm(Batch Normalization)用以加速训练并获得更加稳定的输出,所述卷积层均为1×1或3×3的小卷积核,池化为最大池化层,且为了保证模型具有非线性性质,每两个卷积层之间均有一个非线性激活函数Relu;
为了加速VGG16的训练过程,提高模型泛化能力,减少模型过拟合,在前四个最大池化层后均加了一个dropout层,并将经过BatchNorm层的浅层特征图与深层特征图通过Concat层进行特征融合,再经过最大池化层进行降维;
另外,为了减少参数量,加快模型训练,抑制过拟合,删去原始模型末尾的三个全连接层,用大小为H×W,步长为1的卷积层代替,所述改进的VGG神经网络模型的输出特征维度变为1×1×C,这样可以减少整个网络的参数量,有效抑制网络模型的过拟合。
步骤3、利用改进的密集轨迹iDT(improved dense trajectories)算法提取预处理后的原始视频序列中人体运动轨迹特征,具体通过密集采样特征点、特征点轨迹跟踪和轨迹特征提取来实现;
在该步骤中,首先将经过预处理的图片通过上采样和下采样生成8个空间尺度;在每个空间尺度的图片上通过网格划分的方式密集采样特征点,网格大小W=5;通过计算像素点自相关矩阵的特征值,去除低于某个阈值的特征点;
针对某个特征点在连续15帧图像上的位置构成一段轨迹,后续特征提取即沿着各个轨迹进行,具体提取到的轨迹描述是15帧图片分别在x,y方向的位移矢量共30维;
所提取的特征向量包括:光流(包括方向和幅度信息)直方图HOF特征、光流图像梯度直方图MBH特征,其中:
原有iDT算法的结构描述包括三种特征:HOG、HOF和MBH,本实例去掉HOG特征,即灰度图像梯度直方图,因为这个特征与VGG网络提取的特征有重复,保留HOF特征和MBH特征;HOF特征即光流直方图,直方图bin数目为8+1,前8个bin和HOG相同,最后一个bin用于统计光流幅度小于某个阈值的像素,HOF的特征长度为108(223*9);MBH特征,即光流图像梯度直方图,也可以理解为在光流图像上计算的HOG特征,由于光流图像包括x方向和y方向,故分别计算MBHx和MBHy,MBH总的特征长度为192(2*96),最终用于训练的iDT特征长度为trajectory+HOF+MBH=30+108+192=330维。
步骤4、构建带有门控循环单元GRU网络的seq2seq模型,从所构建的seq2seq模型的encoder端将步骤2得到的VGG的输出向量和步骤3得到的iDT算法提取的特征向量依照时间序列分别输入GRU网络中进行特征提取,并从seq2seq模型的decoder端分别输出预测结果;
在该步骤中,所述门控循环单元GRU网络融合了改进的密集轨迹iDT特征与卷积神经网络CNN(Convolutional Neural Networks)特征,如图2所示为本发明实施例所提供seq2seq模型的结构示意图,参考图2:所构建的seq2seq模型包括encoder端和decoder端,encoder端用于输入向量的特征提取工作,decoder端用于重构特征向量输出预测值,其中:
在decoder端连接全连接层,softmax分类层输出结果,将上一时刻的softmax层输出的三个最大概率及其对应结果给到下一时刻GRU输入,使得模型增加参考信息,以此降低对上一时刻预测结果的单一依赖。
另外,所述seq2seq模型输出采取softmax函数与交叉墒损失(Cross Entropyloss)相结合的方式,损失函数Loss表示如下:
式中,x是特征值,i和j表示类别编号;
因为数据集存在不平衡性,为了提升识别结果的准确率,本实施例进一步引入Focal损失函数做不平衡校正,其表达式如下:
Focalloss(pt)=-(1-pt)γlg(pt)
式中,pt是特征值属于某一类的概率,γ是调节变化幅度的参数,结合损失函数Loss公式,改进后的损失函数表示为:
通过改进后的损失函数能解决训练数据的不平衡性,并提升最终分类(识别)精度。
上述seq2seq模型训练采用自适应性梯度下降算法最小化损失函数Loss。在训练过程中,一个batch的数据做一次梯度下降,训练一定的epoch之后,最后通过均方根误差大小来评估网络模型的预测准确率。
步骤5、将输出的两种预测结果加权融合,实现所述原始视频中人体行为的识别。
在该步骤中,首先将步骤4输出的两种预测结果加权融合,最终输出[0,1]内任一数字,0代表无危险行为;1代表有暴力,老人摔跤等危险行为;
当连续m帧出现非0结果时,则发出告警提醒管理人员注意监控视频区域内的人员动态。
另外,具体实现中,在步骤5进行加权融合的过程中,当VGG输入与iDT输入的权重比为0.41:0.59时,所述seq2seq模型达到最好的识别效果。
值得注意的是,本发明实施例中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
综上所述,本发明所述方法致力于从视频的各个维度特性去提取特征,完成了一个特征构建较为全面的模型,提升了识别准确率,可有效监控视频中人体危险行为;该方法具有较高的商业实用价值,实现了视频中人体危险行为识别,这在新型社会综合治理、公交、车站、工厂等公共安全视频监控市场具有较高的推广价值,为管理者提供高效智能的管理手段。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (8)
1.一种基于融合神经网络的视频中人体行为识别方法,其特征在于,所述方法包括:
步骤1、对原始视频的图像帧做预处理,构建训练样本数据集;
步骤2、通过改进的VGG神经网络模型,提取所述训练样本数据集中的图像空间信息特征;
步骤3、利用改进的密集轨迹iDT算法提取预处理后的原始视频序列中人体运动轨迹特征,具体通过密集采样特征点、特征点轨迹跟踪和轨迹特征提取来实现;
步骤4、构建带有门控循环单元GRU网络的seq2seq模型,从所构建的seq2seq模型的encoder端将步骤2得到的VGG的输出向量和步骤3得到的iDT算法提取的特征向量依照时间序列分别输入GRU网络中进行特征提取,并从seq2seq模型的decoder端分别输出预测结果;
步骤5、将输出的两种预测结果加权融合,实现所述原始视频中人体行为的识别。
2.根据权利要求1所述基于融合神经网络的视频中人体行为识别方法,其特征在于,所述步骤1的过程具体为:
首先在原始视频的图像上,标注出目标检测感兴趣区域;
对所述感兴趣区域进行预处理,包括旋转、镜像操作、光照微调,以此构建训练样本数据集。
3.根据权利要求1所述基于融合神经网络的视频中人体行为识别方法,其特征在于,在步骤2中,所述改进的VGG神经网络模型一共有13个卷积层,3个池化层,每个卷积层后有一层BatchNorm用以加速训练并获得更加稳定的输出;所述卷积层均为1×1或3×3的小卷积核,池化为最大池化层,且为了保证模型具有非线性性质,每两个卷积层之间均有一个非线性激活函数Relu;
在前四个最大池化层后均加了一个dropout层,并将经过BatchNorm层的浅层特征图与深层特征图通过Concat层进行特征融合,再经过最大池化层进行降维;
然后删去原始模型末尾的三个全连接层,用大小为H×W,步长为1的卷积层代替,所述改进的VGG神经网络模型的输出特征维度变为1×1×C。
4.根据权利要求1所述基于融合神经网络的视频中人体行为识别方法,其特征在于,所述步骤3的过程具体为:
首先将经过预处理的图片通过上采样和下采样生成8个空间尺度,在每个空间尺度的图片上通过网格划分的方式密集采样特征点,网格大小W=5,通过计算像素点自相关矩阵的特征值,去除低于某个阈值的特征点;
针对某个特征点在连续15帧图像上的位置构成一段轨迹,后续特征提取即沿着各个轨迹进行,具体提取到的轨迹描述是15帧图片分别在x,y方向的位移矢量共30维;
所提取的特征向量包括:光流直方图HOF特征、光流图像梯度直方图MBH特征。
5.根据权利要求1所述基于融合神经网络的视频中人体行为识别方法,其特征在于,在步骤4中,所构建的seq2seq模型包括encoder端和decoder端,encoder端用于输入向量的特征提取工作,decoder端用于重构特征向量输出预测值,其中:
在decoder端连接全连接层,softmax分类层输出结果,将上一时刻的softmax层输出的三个最大概率及其对应结果给到下一时刻GRU输入,使得模型增加参考信息,以此降低对上一时刻预测结果的单一依赖。
7.根据权利要求1所述基于融合神经网络的视频中人体行为识别方法,其特征在于,所述步骤5的过程为:
将步骤4输出的两种预测结果加权融合,最终输出[0,1]内任一数字,0代表无危险行为;1代表有危险行为;
当连续m帧出现非0结果时,则发出告警提醒管理人员注意监控视频区域内的人员动态。
8.根据权利要求7所述基于融合神经网络的视频中人体行为识别方法,其特征在于,在步骤5进行加权融合的过程中,当VGG输入与iDT输入的权重比为0.41:0.59时,所述seq2seq模型达到最好的识别效果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911310123.4A CN111079655B (zh) | 2019-12-18 | 2019-12-18 | 一种基于融合神经网络的视频中人体行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911310123.4A CN111079655B (zh) | 2019-12-18 | 2019-12-18 | 一种基于融合神经网络的视频中人体行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111079655A true CN111079655A (zh) | 2020-04-28 |
CN111079655B CN111079655B (zh) | 2022-08-16 |
Family
ID=70315488
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911310123.4A Active CN111079655B (zh) | 2019-12-18 | 2019-12-18 | 一种基于融合神经网络的视频中人体行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111079655B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626350A (zh) * | 2020-05-25 | 2020-09-04 | 腾讯科技(深圳)有限公司 | 目标检测模型训练方法、目标检测方法及装置 |
CN111666872A (zh) * | 2020-06-04 | 2020-09-15 | 电子科技大学 | 一种数据不平衡下的高效行为识别方法 |
CN111666819A (zh) * | 2020-05-11 | 2020-09-15 | 武汉大学 | 一种融合多元信息的高精度视频异常事件检测方法 |
CN112215197A (zh) * | 2020-10-27 | 2021-01-12 | 华能国际电力股份有限公司上海石洞口第一电厂 | 基于人工智能的地下电缆故障预警方法和预警系统 |
CN112488014A (zh) * | 2020-12-04 | 2021-03-12 | 重庆邮电大学 | 基于门控循环单元的视频预测方法 |
CN112653997A (zh) * | 2020-12-29 | 2021-04-13 | 西安九索数据技术股份有限公司 | 一种基于基站序列的位置轨迹计算方法 |
CN112800988A (zh) * | 2021-02-02 | 2021-05-14 | 安徽工业大学 | 一种基于特征融合的c3d行为识别方法 |
CN113095183A (zh) * | 2021-03-31 | 2021-07-09 | 西北工业大学 | 一种基于深度神经网络的微表情检测方法 |
CN113239766A (zh) * | 2021-04-30 | 2021-08-10 | 复旦大学 | 基于深度神经网络的行为识别方法及智能报警装置 |
CN113792860A (zh) * | 2021-09-15 | 2021-12-14 | 中国人民解放军陆军军医大学第二附属医院 | 基于常微分方程的gru网络模型及特征提取方法、装置 |
CN113807318A (zh) * | 2021-10-11 | 2021-12-17 | 南京信息工程大学 | 一种基于双流卷积神经网络和双向gru的动作识别方法 |
CN116894978A (zh) * | 2023-07-18 | 2023-10-17 | 中国矿业大学 | 一种融合面部情绪与行为多特征的线上考试防作弊系统 |
CN117574133A (zh) * | 2024-01-11 | 2024-02-20 | 湖南工商大学 | 一种不安全生产行为识别方法及相关设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105787458A (zh) * | 2016-03-11 | 2016-07-20 | 重庆邮电大学 | 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法 |
US20170255832A1 (en) * | 2016-03-02 | 2017-09-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and System for Detecting Actions in Videos |
CN107330362A (zh) * | 2017-05-25 | 2017-11-07 | 北京大学 | 一种基于时空注意力的视频分类方法 |
CN108960277A (zh) * | 2017-05-19 | 2018-12-07 | 百度(美国)有限责任公司 | 使用语言模型对序列到序列模型进行冷聚变 |
CN109508684A (zh) * | 2018-11-21 | 2019-03-22 | 中山大学 | 一种视频中人体行为识别的方法 |
CN109934158A (zh) * | 2019-03-11 | 2019-06-25 | 合肥工业大学 | 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法 |
CN110188637A (zh) * | 2019-05-17 | 2019-08-30 | 西安电子科技大学 | 一种基于深度学习的行为识别技术方法 |
-
2019
- 2019-12-18 CN CN201911310123.4A patent/CN111079655B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170255832A1 (en) * | 2016-03-02 | 2017-09-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and System for Detecting Actions in Videos |
CN105787458A (zh) * | 2016-03-11 | 2016-07-20 | 重庆邮电大学 | 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法 |
CN108960277A (zh) * | 2017-05-19 | 2018-12-07 | 百度(美国)有限责任公司 | 使用语言模型对序列到序列模型进行冷聚变 |
CN107330362A (zh) * | 2017-05-25 | 2017-11-07 | 北京大学 | 一种基于时空注意力的视频分类方法 |
CN109508684A (zh) * | 2018-11-21 | 2019-03-22 | 中山大学 | 一种视频中人体行为识别的方法 |
CN109934158A (zh) * | 2019-03-11 | 2019-06-25 | 合肥工业大学 | 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法 |
CN110188637A (zh) * | 2019-05-17 | 2019-08-30 | 西安电子科技大学 | 一种基于深度学习的行为识别技术方法 |
Non-Patent Citations (3)
Title |
---|
CHRISTOPH FEICHTENHOFER: ""Convolutional Two-Stream Network Fusion for Video Action Recognition"", 《2016 CVPR》 * |
YEMIN SHI 等: ""Joint Network based Attention for Action Recognition"", 《ARXIV》 * |
赵雷: ""基于视频的人体行为检测的方法研究"", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111666819A (zh) * | 2020-05-11 | 2020-09-15 | 武汉大学 | 一种融合多元信息的高精度视频异常事件检测方法 |
CN111666819B (zh) * | 2020-05-11 | 2022-06-14 | 武汉大学 | 一种融合多元信息的高精度视频异常事件检测方法 |
CN111626350A (zh) * | 2020-05-25 | 2020-09-04 | 腾讯科技(深圳)有限公司 | 目标检测模型训练方法、目标检测方法及装置 |
CN111626350B (zh) * | 2020-05-25 | 2021-05-18 | 腾讯科技(深圳)有限公司 | 目标检测模型训练方法、目标检测方法及装置 |
CN111666872A (zh) * | 2020-06-04 | 2020-09-15 | 电子科技大学 | 一种数据不平衡下的高效行为识别方法 |
CN111666872B (zh) * | 2020-06-04 | 2022-08-05 | 电子科技大学 | 一种数据不平衡下的高效行为识别方法 |
CN112215197A (zh) * | 2020-10-27 | 2021-01-12 | 华能国际电力股份有限公司上海石洞口第一电厂 | 基于人工智能的地下电缆故障预警方法和预警系统 |
CN112488014A (zh) * | 2020-12-04 | 2021-03-12 | 重庆邮电大学 | 基于门控循环单元的视频预测方法 |
CN112488014B (zh) * | 2020-12-04 | 2022-06-10 | 重庆邮电大学 | 基于门控循环单元的视频预测方法 |
CN112653997A (zh) * | 2020-12-29 | 2021-04-13 | 西安九索数据技术股份有限公司 | 一种基于基站序列的位置轨迹计算方法 |
CN112800988A (zh) * | 2021-02-02 | 2021-05-14 | 安徽工业大学 | 一种基于特征融合的c3d行为识别方法 |
CN113095183A (zh) * | 2021-03-31 | 2021-07-09 | 西北工业大学 | 一种基于深度神经网络的微表情检测方法 |
CN113239766A (zh) * | 2021-04-30 | 2021-08-10 | 复旦大学 | 基于深度神经网络的行为识别方法及智能报警装置 |
CN113792860A (zh) * | 2021-09-15 | 2021-12-14 | 中国人民解放军陆军军医大学第二附属医院 | 基于常微分方程的gru网络模型及特征提取方法、装置 |
CN113807318A (zh) * | 2021-10-11 | 2021-12-17 | 南京信息工程大学 | 一种基于双流卷积神经网络和双向gru的动作识别方法 |
CN113807318B (zh) * | 2021-10-11 | 2023-10-31 | 南京信息工程大学 | 一种基于双流卷积神经网络和双向gru的动作识别方法 |
CN116894978A (zh) * | 2023-07-18 | 2023-10-17 | 中国矿业大学 | 一种融合面部情绪与行为多特征的线上考试防作弊系统 |
CN116894978B (zh) * | 2023-07-18 | 2024-03-29 | 中国矿业大学 | 一种融合面部情绪与行为多特征的线上考试防作弊系统 |
CN117574133A (zh) * | 2024-01-11 | 2024-02-20 | 湖南工商大学 | 一种不安全生产行为识别方法及相关设备 |
CN117574133B (zh) * | 2024-01-11 | 2024-04-02 | 湖南工商大学 | 一种不安全生产行为识别方法及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111079655B (zh) | 2022-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111079655B (zh) | 一种基于融合神经网络的视频中人体行为识别方法 | |
CN109919031B (zh) | 一种基于深度神经网络的人体行为识别方法 | |
CN112991354B (zh) | 一种基于深度学习的高分辨率遥感影像语义分割方法 | |
CN108764059B (zh) | 一种基于神经网络的人体行为识别方法及系统 | |
CN109284738B (zh) | 不规则人脸矫正方法和系统 | |
CN110135319A (zh) | 一种异常行为检测方法及其系统 | |
CN112528966B (zh) | 一种取款人周边环境智能监控识别方法、装置及介质 | |
CN110222592B (zh) | 一种基于互补时序行为提案生成的时序行为检测网络模型的构建方法 | |
CN110084130B (zh) | 基于多目标跟踪的人脸筛选方法、装置、设备及存储介质 | |
CN111639580B (zh) | 一种结合特征分离模型和视角转换模型的步态识别方法 | |
CN113297972B (zh) | 一种基于数据融合深度学习的变电站设备缺陷智能分析方法 | |
CN112766062B (zh) | 一种基于双流深度神经网络的人体行为识别方法 | |
CN116343330A (zh) | 一种红外-可见光图像融合的异常行为识别方法 | |
CN113128360A (zh) | 基于深度学习的司机驾驶行为检测与识别方法 | |
CN105279485A (zh) | 激光夜视下监控目标异常行为的检测方法 | |
CN113139489A (zh) | 基于背景提取和多尺度融合网络的人群计数方法及系统 | |
CN113807318A (zh) | 一种基于双流卷积神经网络和双向gru的动作识别方法 | |
CN111027440A (zh) | 一种基于神经网络的人群异常行为检测装置和检测方法 | |
CN117292330B (zh) | 一种适用于时序数据运维的智能监测系统 | |
CN111339950B (zh) | 一种遥感图像目标检测方法 | |
CN117423157A (zh) | 一种结合迁移学习、区域入侵的矿井下异常视频动作理解方法 | |
CN111402223B (zh) | 一种利用变电站视频图像的变电站缺陷问题检测方法 | |
Li et al. | Real-time detection and counting of wheat ears based on improved YOLOv7 | |
CN114581769A (zh) | 一种基于无监督聚类的在建房屋识别方法 | |
CN113836980A (zh) | 人脸识别方法、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |