CN110826459A - 基于姿态估计的可迁移校园暴力行为视频识别方法 - Google Patents

基于姿态估计的可迁移校园暴力行为视频识别方法 Download PDF

Info

Publication number
CN110826459A
CN110826459A CN201911051259.8A CN201911051259A CN110826459A CN 110826459 A CN110826459 A CN 110826459A CN 201911051259 A CN201911051259 A CN 201911051259A CN 110826459 A CN110826459 A CN 110826459A
Authority
CN
China
Prior art keywords
network
campus
violent
migratable
attitude estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911051259.8A
Other languages
English (en)
Other versions
CN110826459B (zh
Inventor
张怡天
姜飞
申瑞民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Information Industry Group Co ltd
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201911051259.8A priority Critical patent/CN110826459B/zh
Publication of CN110826459A publication Critical patent/CN110826459A/zh
Application granted granted Critical
Publication of CN110826459B publication Critical patent/CN110826459B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明涉及一种基于姿态估计的可迁移校园暴力行为视频识别方法,该方法包括以下步骤:第一步:数据收集与预处理;第二步:基于姿态估计的可迁移暴力行为判别网络设计;第三步:基于姿态估计的可迁移暴力行为判别网络训练;第四步:用训练好的模型对输入的视频进行校园暴力行为有效识别。与现有技术相比,本发明具有识别精度高等优点。

Description

基于姿态估计的可迁移校园暴力行为视频识别方法
技术领域
本发明涉及计算机视觉和人工智能领域,尤其是涉及一种基于姿态估计的可迁移校园暴力行为视频识别方法。
背景技术
视频中的暴力行为判断是计算机视觉和人工智能领域的一项重要研究课题。其任务目标可以简要概述为:给定一段连续视频,需要识别其视频中是否出现了暴力行为。暴力判断在智能安防,安全等领域具有重大的现实意义与价值,尤其是对于校园安全来说,暴力行为的判断在一定程度上有助于减少因学生殴打而导致的校园事故。
然而,在校园场景中,由于学生打架样本采集难,数量少,而现有的模型主要基于公开数据集,很难迁移到校园场景中。
现有的暴力视频检测主要分为两类,一种是基于传统检测,第二种是基于机器学习。
第一类的代表方法,从视频中采取血液或爆炸帧作为检测是否存在暴力的线索。但在校园监控视频数据中,原始视频中不太可能有血迹。如果我们想要发现校园里的暴力,应该强调更一般的方法。
第二类的代表方法,使用极端加速度行为作为主要特征,如将Radon变换应用于连续帧。此外,使用HOF提取候选暴力区域并结合SVM,以找到暴力区域。这种基于手工制作功能的方法直观,在小规模数据集中取得了巨大成功,但是当应用于大数据集时,可能会难以训练,因为速度过慢。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种识别精度高的基于姿态估计的可迁移校园暴力行为视频识别方法。
本发明的目的可以通过以下技术方案来实现:
一种基于姿态估计的可迁移校园暴力行为视频识别方法,该方法包括以下步骤:
第一步:数据收集与预处理;
第二步:基于姿态估计的可迁移暴力行为判别网络设计;
第三步:基于姿态估计的可迁移暴力行为判别网络训练;
第四步:用训练好的模型对输入的视频进行校园暴力行为有效识别。
优选地,所述的第一步:数据收集与预处理具体为:
(101)下载公开数据集HockeyFights;
(102)视频下载后,根据视频的名称,将其分开为暴力和非暴力两个文件夹,并将每个视频切分为N帧;
(103)将每张图片缩放至224*224的分辨率大小,以适应后续卷积神经网络的输入需求。
优选地,所述的(102)中的N为40。
优选地,所述的第二步:基于姿态估计的可迁移暴力行为判别网络设计具体为:
(201)选用hourglass网络;
(202)采用OpenPose算法,提取热力图,得到的人物位置信息;
(203)对生成的相邻热力图进行帧差处理,最后输入ConvLSTM网络。
优选地,所述的帧差处理为使用卷积神经网络从热力图中提取分层特征,并使用AlexNet模型作为CNN模型。
优选地,所述的ConvLSTM网络使用相邻帧之间的差异作为输入,ConvLSTM网络模拟相邻帧中的变化。
优选地,所述的ConvLSTM网络在LSTM的基础上,将W的权值计算改变成了卷积运算。
优选地,所述的第三步:基于姿态估计的可迁移暴力行为判别网络训练具体为:
(301)从第一步中下载的HockeyFights数据,采集一批样本;
(302)将步骤301采集的一批样本送入设计的网络;
(303)首先OpenPose处理后生成热力图,然后对相邻两个热力图相减,将相减的图,送入CNN模型和ConvLSTM网络,进行前向传播,根据全连接层的分类结果和样本的标签计算交叉熵损失值;
(304)根据得到的交叉熵损失值对网络进行反向传播;
(305)根据反向传播计算出的梯度对网络执行梯度下降算法并更新参数,不断重复步骤(301)至(304),直至网络收敛。
优选地,所述的第四步:用训练好的模型对输入的视频进行校园暴力行为有效识别巨头为:
(401)将测试视频切帧成40帧数,一个视频为一批;
(402)加载训练好的模型,并把步骤(401)的一批样本导入网络;
(403)然后模型会返回1,0两个值,1代表有打架发生,0代表无打架发生;在场景人数小于设定阈值时,根据openpose提供的人体姿态信息,标注出打架的对象。
与现有技术相比,本发明框架差异热力图方法优于所有其他方法,提升很大,分类精度为75.02%。这证明本发明可以很好地转移到学生的暴力数据集上。
附图说明
图1为hourglass结构网络示意图;
图2为生成的热力图;
图3为heatmap+帧差法+ConvLSTM结构网络示意图;
图4为LSTM结构示意图;
图5为ConvLSTM结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
本发明提出了一种基于姿态估计的可迁移校园暴力行为判别方法。此方法在hourglass网络,采用OpenPose基础上,抽取人体关键点,并生成热力图(heatmap),利用连续视频帧生成的热力图,再使用处理时序的网络ConvLSTM进行监督学习,从而对是否出现打架行为进行判断。
本发明的详细过程如下:
第一步:数据收集与预处理
(1)首先,下载公开数据集HockeyFights。
(2)视频下载后,根据视频的名称,将其分开为暴力和非暴力两个文件夹,并将每个视频切分为40帧。
(3)将每张图片缩放至224*224的分辨率大小,以适应后续卷积神经网络的输入需求。
第二步:基于姿态估计的可迁移暴力行为判别网络设计
本发明我们的研究目标是开发一种有效的方法来学习公共暴力数据集中的可转移特征,并将训练好的模型用于我们真实的学校场景,以进行暴力判别,而无需进行额外的微调。
网络的整体分为两块,第一部分是使用hourglass网络如图1所示,采用OpenPose算法,提取热力图,如图2所示,这样不仅定位了人物的位置,同时也得到了人物的位置信息,对生成的相邻热力图进行帧差处理,最后输入ConvLSTM网络。这样做,可以排除背景等其他干扰因素的影响,增加模型的可迁移性。尤其是对于校园场景下暴力行为数据不多的情况,该方法可将在公共数据上训练的模型,迁移到数据集样本少的校园场景下。前三步的网络结构如图3,其中fc为全连接层网络。
最后一步,如果检测出了打架行为,可以通过第一步得到的人物位置信息,经过规则判断最有可能发生打架行为的人,并识别出来。(一般使用人员位置远近来判断,所以只有在人数比较少,场景不复杂的情况,才有有效识别出具体发生打架的对象,所以该方法主要还是用于判断是否有打架发生)。
我们使用卷积神经网络从视频帧/热力图中提取分层特征。我们使用AlexNet模型作为CNN模型。按照以前的常规做法,我们使用ImageNet预训练模型来获得更好的泛化性能。
在网络中,由于使用光流技术,我们使用相邻帧之间的差异作为输入而不是使用原始帧。以这种方式,网络被迫模拟相邻帧中的变化而不是帧本身。实验表明,baseline和我们的改进都受益于这种输入处理方法。差异图像更简洁,信息量更大,而只引入一个小的减法开销。
ConvLSTM则是基于传统LSTM的改进。LSTM相对于RNN,由于遗忘机制,LSTM可以处理长期信息。一般来说,更新门是决定是否从当前输入更新单元状态;忘记门是决定是否忘记当前单元状态的先前单元状态(长期信息);输出状态是决定是否通过长期单元状态输出短期隐藏状态,如图4所示。
ConvLSTM则是在LSTM的基础上,将W的权值计算改变成了卷积运算,如图5所示。
第三步:基于姿态估计的可迁移暴力行为判别网络训练
分为以下几个步骤:
(1)首先,从步骤一中下载的HockeyFights数据,采集一批样本,如16个视频(每个视频40帧图片),作为一批。
(2)将步骤一中的一批样本送入设计的网络。
(3)图片首先openpose处理后生成热力图,然后对相邻两个热力图相减,将相减的图,送入cnn和conlstm网络,进行前向传播,根据全连接层的分类结果和样本的标签计算交叉熵损失。
(4)根据得到的损失值对网络进行反向传播。
(5)根据反向传播计算出的梯度对网络执行梯度下降算法并更新参数,不断重复步骤(1)至(4),直至网络收敛。
第四步:测试训练好的模型
分为以下几个步骤,
(1)首先,将测试视频切帧成40帧数,一个视频(40帧)为一批。
(2)加载训练好的模型,并把步骤一的一批样本导入网络。
(3)然后模型会返回1,0两个值,1代表有打架发生,0代表无打架发生。在场景人数不复杂的时候还可以根据openpose提供的人体姿态信息,标注出打架的对象。
目前学校学生暴力数据集采用了三种方法进行测试:baseline(即原图输入,没有进行热力图处理也没经过帧差法处理,后面网络一样也经过cnn和convlstm),没有帧差的热力图(后面网络一致)和以及带帧差异的热力图(这是我们提出的方法)如表1所示,baseline方法仅对学生暴力数据集分类准确率为54.16%,它比随机分类略好一些。没有帧差的热力图方法执行66.67%,这意味着热力图方法仍然可以胜过没有帧差的baseline方法。我们的框架差异热力图方法优于所有其他方法,提升很大,分类精度为75.02%。这证明我们的方法可以很好地转移到学生的暴力数据集上。
表1
Figure BDA0002255387290000061
本发明中的缩略语和关键术语定义具体如下:
Hourglass:Newell等人在2016年提出网络结构,通过重复自底向上和自顶向下并联合中间结果的监督用在人体姿态估计中可以很好地利用身体不同部位的空间关系。
Heatmap:一种基于高斯函数分布的热力图。
Cnn:卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks)。
Rnn:循环神经网络,Recurrent Neural Network。神经网络是一种节点定向连接成环的人工神经网络。这种网络的内部状态可以展示动态时序行为。
LSTM:长短期记忆网络(Long Short-Term Memory)是一种时间循环神经网络,是为了解决一般的RNN(循环神经网络)存在的长期依赖问题而专门设计出来的。
ConvLSTM:ConvLSTM是LSTM的变体,改变主要是W的权值计算变成了卷积运算,这样不仅具有LSTM的时序建模能力,而且还能像CNN一样刻画局部特征,可以说是时空特性具备。
HOF(Histograms of Oriented Optical Flow):是对光流方向进行加权统计,得到光流方向信息直方图。通常用于动作识别中。
Radon变换:数学上,是一种积分变换,这个变换将二维平面函数F变换成一个定义在二维空间上的一个线性函数RF(RF的意思是对F做radon变换),而RF的值为函数F对该条线RF做积分的值。
ConvNets,卷积神经网络,每一个阶段中的ConvNets组成的滤波器组,一些非线性,和特征池层。
ImageNet:是一个用于视觉对象识别软件研究的大型可视化数据库。
LTC-CNN:Long-term Temporal Convolutions,动作识别的长期时序卷积神经网络
baseline:是可以与其他值进行比较的标度上的值或起点。
ConvGRU:ConvGRU是时序模型GRU的变体,改变主要是W的权值计算变成了卷积运算,这样不仅具有LSTM的时序建模能力,而且还能像CNN一样刻画局部特征,可以说是时空特性具备。
AlexNet:AlexNet是2012年ImageNet竞赛冠军获得者Hinton和他的学生AlexKrizhevsky设计的处理图像的网络。
Mask R-CNN:是一个通用实例分割架构。
AlphaPose:是一种姿态估计模型。
OpenPose:是一种姿态估计模型。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (9)

1.一种基于姿态估计的可迁移校园暴力行为视频识别方法,其特征在于,该方法包括以下步骤:
第一步:数据收集与预处理;
第二步:基于姿态估计的可迁移暴力行为判别网络设计;
第三步:基于姿态估计的可迁移暴力行为判别网络训练;
第四步:用训练好的模型对输入的视频进行校园暴力行为有效识别。
2.根据权利要求1所述的一种基于姿态估计的可迁移校园暴力行为视频识别方法,其特征在于,所述的第一步:数据收集与预处理具体为:
(101)下载公开数据集HockeyFights;
(102)视频下载后,根据视频的名称,将其分开为暴力和非暴力两个文件夹,并将每个视频切分为N帧;
(103)将每张图片缩放至224*224的分辨率大小,以适应后续卷积神经网络的输入需求。
3.根据权利要求2所述的一种基于姿态估计的可迁移校园暴力行为视频识别方法,其特征在于,所述的(102)中的N为40。
4.根据权利要求1所述的一种基于姿态估计的可迁移校园暴力行为视频识别方法,其特征在于,所述的第二步:基于姿态估计的可迁移暴力行为判别网络设计具体为:
(201)选用hourglass网络;
(202)采用OpenPose算法,提取热力图,得到的人物位置信息;
(203)对生成的相邻热力图进行帧差处理,最后输入ConvLSTM网络。
5.根据权利要求4所述的一种基于姿态估计的可迁移校园暴力行为视频识别方法,其特征在于,所述的帧差处理为使用卷积神经网络从热力图中提取分层特征,并使用AlexNet模型作为CNN模型。
6.根据权利要求4所述的一种基于姿态估计的可迁移校园暴力行为视频识别方法,其特征在于,所述的ConvLSTM网络使用相邻帧之间的差异作为输入,ConvLSTM网络模拟相邻帧中的变化。
7.根据权利要求4所述的一种基于姿态估计的可迁移校园暴力行为视频识别方法,其特征在于,所述的ConvLSTM网络在LSTM的基础上,将W的权值计算改变成了卷积运算。
8.根据权利要求1所述的一种基于姿态估计的可迁移校园暴力行为视频识别方法,其特征在于,所述的第三步:基于姿态估计的可迁移暴力行为判别网络训练具体为:
(301)从第一步中下载的HockeyFights数据,采集一批样本;
(302)将步骤301采集的一批样本送入设计的网络;
(303)首先OpenPose处理后生成热力图,然后对相邻两个热力图相减,将相减的图,送入CNN模型和ConvLSTM网络,进行前向传播,根据全连接层的分类结果和样本的标签计算交叉熵损失值;
(304)根据得到的交叉熵损失值对网络进行反向传播;
(305)根据反向传播计算出的梯度对网络执行梯度下降算法并更新参数,不断重复步骤(301)至(304),直至网络收敛。
9.根据权利要求1所述的一种基于姿态估计的可迁移校园暴力行为视频识别方法,其特征在于,所述的第四步:用训练好的模型对输入的视频进行校园暴力行为有效识别巨头为:
(401)将测试视频切帧成40帧数,一个视频为一批;
(402)加载训练好的模型,并把步骤(401)的一批样本导入网络;
(403)然后模型会返回1,0两个值,1代表有打架发生,0代表无打架发生;在场景人数小于设定阈值时,根据openpose提供的人体姿态信息,标注出打架的对象。
CN201911051259.8A 2019-10-31 2019-10-31 基于姿态估计的可迁移校园暴力行为视频识别方法 Active CN110826459B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911051259.8A CN110826459B (zh) 2019-10-31 2019-10-31 基于姿态估计的可迁移校园暴力行为视频识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911051259.8A CN110826459B (zh) 2019-10-31 2019-10-31 基于姿态估计的可迁移校园暴力行为视频识别方法

Publications (2)

Publication Number Publication Date
CN110826459A true CN110826459A (zh) 2020-02-21
CN110826459B CN110826459B (zh) 2022-09-30

Family

ID=69551613

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911051259.8A Active CN110826459B (zh) 2019-10-31 2019-10-31 基于姿态估计的可迁移校园暴力行为视频识别方法

Country Status (1)

Country Link
CN (1) CN110826459B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111475674A (zh) * 2020-04-22 2020-07-31 深圳市艾伯信息科技有限公司 用于暴力行为检测的深度学习模型训练数据集构造方法及系统
CN114783065A (zh) * 2022-05-12 2022-07-22 大连大学 基于人体姿态估计的帕金森症预警方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130323686A1 (en) * 2012-06-05 2013-12-05 Rockwell Collins, Inc. Embedded simulator method and related system
CN106897670A (zh) * 2017-01-19 2017-06-27 南京邮电大学 一种基于计算机视觉的快递暴力分拣识别方法
CN109271933A (zh) * 2018-09-17 2019-01-25 北京航空航天大学青岛研究院 基于视频流进行三维人体姿态估计的方法
CN109614882A (zh) * 2018-11-19 2019-04-12 浙江大学 一种基于人体姿态估计的暴力行为检测系统及方法
CN109711329A (zh) * 2018-12-25 2019-05-03 北京迈格威科技有限公司 姿态估计及网络训练方法、装置和系统及存储介质
CN110210320A (zh) * 2019-05-07 2019-09-06 南京理工大学 基于深度卷积神经网络的多目标无标记姿态估计方法
CN110363131A (zh) * 2019-07-08 2019-10-22 上海交通大学 基于人体骨架的异常行为检测方法、系统及介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130323686A1 (en) * 2012-06-05 2013-12-05 Rockwell Collins, Inc. Embedded simulator method and related system
CN106897670A (zh) * 2017-01-19 2017-06-27 南京邮电大学 一种基于计算机视觉的快递暴力分拣识别方法
CN109271933A (zh) * 2018-09-17 2019-01-25 北京航空航天大学青岛研究院 基于视频流进行三维人体姿态估计的方法
CN109614882A (zh) * 2018-11-19 2019-04-12 浙江大学 一种基于人体姿态估计的暴力行为检测系统及方法
CN109711329A (zh) * 2018-12-25 2019-05-03 北京迈格威科技有限公司 姿态估计及网络训练方法、装置和系统及存储介质
CN110210320A (zh) * 2019-05-07 2019-09-06 南京理工大学 基于深度卷积神经网络的多目标无标记姿态估计方法
CN110363131A (zh) * 2019-07-08 2019-10-22 上海交通大学 基于人体骨架的异常行为检测方法、系统及介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
AQIB MUMTAZ,ET AL: "《Violence Detection in Surveillance Videos with Deep Network using Transfer Learning》", 《2018 2ND EUROPEAN CONFERENCE ON ELECTRICAL ENGINEERING AND COMPUTER SCIENCE (EECS)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111475674A (zh) * 2020-04-22 2020-07-31 深圳市艾伯信息科技有限公司 用于暴力行为检测的深度学习模型训练数据集构造方法及系统
CN114783065A (zh) * 2022-05-12 2022-07-22 大连大学 基于人体姿态估计的帕金森症预警方法
CN114783065B (zh) * 2022-05-12 2024-03-29 大连大学 基于人体姿态估计的帕金森症预警方法

Also Published As

Publication number Publication date
CN110826459B (zh) 2022-09-30

Similar Documents

Publication Publication Date Title
US11195051B2 (en) Method for person re-identification based on deep model with multi-loss fusion training strategy
CN109146921B (zh) 一种基于深度学习的行人目标跟踪方法
CN109919031B (zh) 一种基于深度神经网络的人体行为识别方法
CN106503687A (zh) 融合人脸多角度特征的监控视频人物身份识别系统及其方法
CN106909938B (zh) 基于深度学习网络的视角无关性行为识别方法
CN106845351A (zh) 一种用于视频的基于双向长短时记忆单元的行为识别方法
Yu et al. Railway obstacle detection algorithm using neural network
Daroya et al. Alphabet sign language image classification using deep learning
Li et al. Sign language recognition based on computer vision
CN109376613A (zh) 基于大数据和深度学习技术的视频智能监控系统
Ajagbe et al. Investigating the efficiency of deep learning models in bioinspired object detection
CN108537181A (zh) 一种基于大间距深度度量学习的步态识别方法
Balasuriya et al. Learning platform for visually impaired children through artificial intelligence and computer vision
Tang et al. Smoking behavior detection based on improved YOLOv5s algorithm
CN111444488A (zh) 一种基于动态手势的身份认证方法
CN110826459B (zh) 基于姿态估计的可迁移校园暴力行为视频识别方法
CN109271546A (zh) 图像检索特征提取模型建立、数据库建立及检索方法
Patel et al. Hand gesture recognition system using convolutional neural networks
Dar et al. Efficient-SwishNet based system for facial emotion recognition
CN104820711A (zh) 复杂场景下对人形目标的视频检索方法
Verma et al. Convolutional neural network based criminal detection
Yao RETRACTED ARTICLE: Deep learning analysis of human behaviour recognition based on convolutional neural network analysis
Miao et al. Abnormal Behavior Learning Based on Edge Computing toward a Crowd Monitoring System
CN111950373B (zh) 一种基于光流输入的迁移学习用于微表情识别的方法
Thakurdesai et al. Face recognition using one-shot learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210908

Address after: 200240 No. 800, Dongchuan Road, Shanghai, Minhang District

Applicant after: SHANGHAI JIAO TONG University

Applicant after: Shanghai Information Industry (Group) Co.,Ltd.

Address before: 200030 Dongchuan Road, Minhang District, Shanghai 800

Applicant before: SHANGHAI JIAO TONG University

GR01 Patent grant
GR01 Patent grant