CN110969078A - 基于人体关键点的异常行为识别方法 - Google Patents
基于人体关键点的异常行为识别方法 Download PDFInfo
- Publication number
- CN110969078A CN110969078A CN201910876699.0A CN201910876699A CN110969078A CN 110969078 A CN110969078 A CN 110969078A CN 201910876699 A CN201910876699 A CN 201910876699A CN 110969078 A CN110969078 A CN 110969078A
- Authority
- CN
- China
- Prior art keywords
- key points
- human body
- pictures
- identifying
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 206010000117 Abnormal behaviour Diseases 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000003062 neural network model Methods 0.000 claims abstract description 15
- 230000006399 behavior Effects 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 6
- 230000009194 climbing Effects 0.000 claims abstract description 5
- 230000009471 action Effects 0.000 claims description 12
- 210000003423 ankle Anatomy 0.000 claims description 10
- 210000003127 knee Anatomy 0.000 claims description 10
- 210000000707 wrist Anatomy 0.000 claims description 10
- 210000001217 buttock Anatomy 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000013075 data extraction Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 9
- 238000013459 approach Methods 0.000 abstract description 4
- 238000012795 verification Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000001144 postural effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Abstract
一种基于人体关键点的异常行为识别方法,包括:110、样本数据提取;120、将样本数据输入全连接神经网络模型进行训练输入全连接神经网络模型进行训练;130、异常行为识别。本发明识别精度高、速度快,漏检率低,在快速接近、持枪瞄准、攀爬、投掷和持械攻击5种危险行为的验证识别中取得了良好的效果。
Description
技术领域
本发明属于人体行为识别技术领域,尤其涉及一种基于人体关键点的异常行为识别方法。
背景技术
在动荡不安的国际局势下,中国当前所面临的恐怖主义形势也越来越严峻。恐怖犯罪如今已成为世界范围内的毒瘤,快速识别犯罪行为并先发制人实时打击成为遏制恐怖犯罪行为的有效手段。随着深度学习及计算机视觉的发展,行为识别已经取得了重大的进展,并广泛应用于公共安全领域。
目前人体行为识别领域大多从原始视频帧中直接提取相关特征,并利用深度学习网络模型进行识别。该方法存在大量的信息冗余,从而给神经网络模型带来较大的噪声,不仅影响行为识别的精度和速度,同时也存在大量的漏检。
发明内容
基于此,针对上述技术问题,提供一种基于人体关键点的异常行为识别方法。
为解决上述技术问题,本发明采用如下技术方案:
一种基于人体关键点的异常行为识别方法,包括:
110、样本数据提取:
(111)对单目标样本视频的每一帧进行人体目标识别,框选出人体目标,并截取框选部分的图片进行保存;
(112)在保存的图片中,若连续N帧图片组成一个完整的异常行为动作,则提取所述连续N帧图片作为目标动作样本图片,并对所述目标动作样本图片标注相应的动作类别;
(113)从每帧目标动作样本图片中识别18个关键点,并提取每个关键点的像素坐标,转化为归一化坐标,将N张目标动作样本图片的归一化坐标以及动作类别作为样本数据;
120、将所述样本数据输入全连接神经网络模型进行训练;
130、异常行为识别:
(131)实时对视频中的每一帧进行人体目标识别,并进行多目标跟踪;
(132)对每一个目标,从当前帧开始,提取N帧图片,从每一帧图片中识别18个关键点,并提取每个关键点的像素坐标,转化为归一化坐标;
(133)将N帧图片的归一化坐标输入训练好的全连接神经网络模型,识别出异常行为动作;
其中,N为5-15,所述异常行为动作包括快速接近、持械攻击、投掷、攀爬以及持枪瞄准,所述18个关键点包括鼻、颈、右肩、右肘、右腕、左肩、左肘、左腕、右臀、右膝、右踝、左臀、左膝、左踝、右眼、左眼、右耳以及左耳,归一化x坐标为像素x坐标除以图片宽度,归一化y坐标为像素y坐标除以图片高度。
所述人体目标识别采用Yolo V3网络模型、Faster R-CNN模型或者SSD模型。
所述识别18个关键点采用卷积姿态机CPM网络模型、堆叠沙漏网络模型以及SHN模型。
所述全连接神经网络模型包含1层输入层、1层输出层、3层隐藏层的全连接神经网络模型,每层的节点数分别为360、200、100、50以及5,所述模型的输出层采用softmax激活函数,其损失函数采用交叉熵模型,并结合梯度下降以及滑动平均方法对模型进行训练。
所述N为10。
本发明识别精度高、速度快,漏检率低,在快速接近、持枪瞄准、攀爬、投掷和持械攻击5种危险行为的验证识别中取得了良好的效果。
附图说明
下面结合附图和具体实施方式本发明进行详细说明:
图1为本发明通过Yolo V3网络模型进行人体目标识别的效果图;
图2为本发明的卷积姿态机CPM网络模型的结构示意图;
图3为本发明的异常行为识别效果图;
图4为本发明通过CPM识别人体18个关键点的效果图。
具体实施方式
如图1所示,一种基于人体关键点的异常行为识别方法,包括:
110、样本数据提取:
(111)对单目标样本视频的每一帧进行人体目标识别,框选出人体目标,并截取框选部分的图片进行保存。
(112)在保存的图片中,若连续N帧图片中均具有同一个异常行为动作,则提取上述连续N帧图片作为目标动作样本图片,并对该目标动作样本图片标注相应的动作类别。
在本实施例中,通过数字标签来标注动作类别,即异常行为动作包括:0-快速接近,1-持械攻击,2-投掷,3-攀爬,4-持枪瞄准,其中的数字序号就是异常动作的标签。若连续N帧图片组成一个完整的快速接近动作,则将相应的目标动作样本图片标注为0。
(113)从每张目标动作样本图片中识别18个关键点,并提取每个关键点的像素坐标,转化为归一化坐标,将N张目标动作样本图片的归一化坐标以及动作类别作为样本数据。其中,样本数据包含18*2*N个关键点坐标以及一个动作类别。
如某个快速接近样本数据为(x1,0,y1,0,x1,1,y1,1…xi,j,yi,j…xN,17,yN,17,0)。
其中i=1,2,…N;j=0,1,…,17。xi,j表示第i帧图片第j个关键点的横坐标,yi,j表示第i帧图片第j个关键点的纵坐标,最后一位“0”表示快速接近的数字标签。
其中,N为5-15,归一化x坐标为像素x坐标除以图片宽度,归一化y坐标为像素y坐标除以图片高度,18个关键点包括鼻、颈、右肩、右肘、右腕、左肩、左肘、左腕、右臀、右膝、右踝、左臀、左膝、左踝、右眼、左眼、右耳以及左耳,参见表1。
归一化坐标是为了保证数据的统一性,因为不同的样本,不同的图片,目标的大小也不相同,若直接用像素坐标会导致样本数据巨大的差异性,模型训练难以收敛。
编号 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
名称 | Nose | Neck | RShoulder | RElbow | RWrist | LShoulder | LElbow | LWrist | RHip |
位置 | 鼻 | 颈 | 右肩 | 右肘 | 右腕 | 左肩 | 左肘 | 左腕 | 右臀 |
编号 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 |
名称 | RKnee | RAnkle | LHip | LKnee | LAnkle | REye | LEye | REar | LEar |
位置 | 右膝 | 右踝 | 左臀 | 左膝 | 左踝 | 右眼 | 左眼 | 右耳 | 左耳 |
表1
在本实施例中,N为10。
每单帧目标包含18个关键点,每个关键点包含2个坐标,一个连续动作包含10帧图片,可生成18*2*10+1个数据,前360列为时序关键点坐标序列,最后1列为动作类别序列。
本发明在样本数据提取时,由于在关键点识别之前先进行人体目标识别,减少了信息冗余和噪声干扰,并提高了关键点识别的精度和速度,使得样本数据的提取精度高、速度快。
120、将样本数据输入全连接神经网络模型进行训练。
在本实施例中,全连接神经网络模型包含1层输入层、1层输出层、3层隐藏层的全连接神经网络模型,每层的节点数分别为360、200、100、50以及5,每层节点数平滑递减,使得模型具有良好的泛化能力,模型的输出层采用softmax激活函数,其损失函数采用交叉熵模型,使得模型收敛快,权重矩阵的更新速度快,并结合梯度下降以及滑动平均方法对模型进行训练,具有更强的鲁棒性,在测试数据集的表现更加健壮。
通过步骤110提取的样本数据训练的模型,对异常行为的识别精度高、速度快,减少了漏检率。
130、异常行为识别:
(131)从opencv调取摄像头捕获的视频,实时对视频中的每一帧进行人体目标识别,并采用OpenCV的Multitracker方法进行多目标跟踪。
(132)对每一个目标,从当前帧开始,提取N帧图片,从每一帧图片中识别18个关键点,并提取每个关键点的像素坐标,转化为归一化坐标,共18*2*N个归一化坐标。
(133)将N帧图片的归一化坐标输入训练好的全连接神经网络模型,识别出异常行为动作。
本发明在异常行为识别时,由于在关键点识别之前先进行人体目标识别,减少了信息冗余和噪声干扰,并通过本发明训练的模型进行识别,最终使异常行为识别精度高、速度快,漏检率低,在快速接近、持枪瞄准、攀爬、投掷和持械攻击5种危险行为的验证识别中取得了良好的效果。识别效果图参见图4。
其中,N为5-15,归一化x坐标为像素x坐标除以图片宽度,归一化y坐标为像素y坐标除以图片高度,18个关键点包括鼻、颈、右肩、右肘、右腕、左肩、左肘、左腕、右臀、右膝、右踝、左臀、左膝、左踝、右眼、左眼、右耳以及左耳,参见表1。
在本实施例中,N为10,人体目标识别采用Yolo V3网络模型、Faster R-CNN模型或者SSD模型,优选为Yolo V3网络模型。
其中,Yolo V3网络模型相对于其他分类器而言,增加了多尺度识别,且拥有更好的基础分类网格。Yolo V3以Darknet-53为基础网络,含有53个卷积层,并借鉴了ResNet模型的做法,在一些层之间设置了快捷链路。具备背景误检率低、通用性强的有点,在1920*1080的图片上,多目标识别的速度能够达到毫秒级。识别效果参见图1。
识别18个关键点采用卷积姿态机CPM网络模型、堆叠沙漏网络模型以及SHN模型,优选为卷积姿态机CPM网络模型,可以进一步减少信息冗余和噪声干扰。
其中,卷积姿态机CPM(Convolutional Pose Machines)是目前最先进的2D人体姿态估计算法,是一种FCN全卷积网络结合VGGNet的神经网络,其输入是一张人体姿势图,输出为n张热力图,代表n个关节的响应,进而通过热力图识别人体关键点,并实现人体关键点的跟踪。
CPM的算法思想来源于Pose Machine,如图2所示,CPM的网络结构详细介绍如下:
图中(a)和(b)部分是pose machine中的结构,(c)和(d)部分是对应的卷积网络。
stage 1:如(a)和(c)部分所示,stage 1只对输入图片做处理。在该阶段,输入图片经过x代表的经典VGG结构,并用1*1卷积,输出一个belief map,如果人体有p个关键点,那么belief map有p层,每一层表示一个关键点的heatmap。belief map与label计算该阶段的loss,并存储起来,在网络末尾将每一层的loss加起来作为total loss用于反向传输,实现中间监督,避免梯度消失。
stage t:对于stage 2以及后面的stage,其结构一致,我们统称为stage t。在stage t中,网络的输入包含两个内容:
(1)上一个stage输出的belief map。
(2)对原始图片的处理结果,这里的处理操作如(d)部分x`部分所示,与stage 1中的X一样,也是借鉴经典的VGG中的结构。
如果图片中有多个人物,需要对多人进行姿态估计时,在这里还要输入一个center map。center map是一个高斯响应,当图片中有多人时,center map告诉神经网络目前要处理的人的位置,从而自底向上处理多人pose问题。
stage t阶段输出与stage 1一致,也是标注关键点位置的belief map。CPM通过多层卷积神经网络来识别人体18个关键点,识别效果图参见图4。
但是,本技术领域中的普通技术人员应当认识到,以上的实施例仅是用来说明本发明,而并非用作为对本发明的限定,只要在本发明的实质精神范围内,对以上所述实施例的变化、变型都将落在本发明的权利要求书范围内。
Claims (5)
1.一种基于人体关键点的异常行为识别方法,其特征在于,包括:
110、样本数据提取:
(111)对单目标样本视频的每一帧进行人体目标识别,框选出人体目标,并截取框选部分的图片进行保存;
(112)在保存的图片中,若连续N帧图片组成一个完整的异常行为动作,则提取所述连续N帧图片作为目标动作样本图片,并对所述目标动作样本图片标注相应的动作类别;
(113)从每帧目标动作样本图片中识别18个关键点,并提取每个关键点的像素坐标,转化为归一化坐标,将N张目标动作样本图片的归一化坐标以及动作类别作为样本数据;
120、将所述样本数据输入全连接神经网络模型进行训练;
130、异常行为识别:
(131)实时对视频中的每一帧进行人体目标识别,并进行多目标跟踪;
(132)对每一个目标,从当前帧开始,提取N帧图片,从每一帧图片中识别18个关键点,并提取每个关键点的像素坐标,转化为归一化坐标;
(133)将N帧图片的归一化坐标输入训练好的全连接神经网络模型,识别出异常行为动作;
其中,N为5-15,所述异常行为动作包括快速接近、持械攻击、投掷、攀爬以及持枪瞄准,所述18个关键点包括鼻、颈、右肩、右肘、右腕、左肩、左肘、左腕、右臀、右膝、右踝、左臀、左膝、左踝、右眼、左眼、右耳以及左耳,归一化x坐标为像素x坐标除以图片宽度,归一化y坐标为像素y坐标除以图片高度。
2.根据权利要求1所述的一种基于人体关键点的异常行为识别方法,其特征在于,所述人体目标识别采用Yolo V3网络模型、Faster R-CNN模型或者SSD模型。
3.根据权利要求2所述的一种基于人体关键点的异常行为识别方法,其特征在于,所述识别18个关键点采用卷积姿态机CPM网络模型、堆叠沙漏网络模型以及SHN模型。
4.根据权利要求3所述的一种基于人体关键点的异常行为识别方法,其特征在于,所述全连接神经网络模型包含1层输入层、1层输出层、3层隐藏层的全连接神经网络模型,每层的节点数分别为360、200、100、50以及5,所述模型的输出层采用softmax激活函数,其损失函数采用交叉熵模型,并结合梯度下降以及滑动平均方法对模型进行训练。
5.根据权利要求1或4所述的一种基于人体关键点的异常行为识别方法,其特征在于,所述N为10。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910876699.0A CN110969078A (zh) | 2019-09-17 | 2019-09-17 | 基于人体关键点的异常行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910876699.0A CN110969078A (zh) | 2019-09-17 | 2019-09-17 | 基于人体关键点的异常行为识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110969078A true CN110969078A (zh) | 2020-04-07 |
Family
ID=70029591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910876699.0A Pending CN110969078A (zh) | 2019-09-17 | 2019-09-17 | 基于人体关键点的异常行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110969078A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111444879A (zh) * | 2020-04-10 | 2020-07-24 | 广东工业大学 | 一种关节劳损自主康复动作识别方法及系统 |
CN112163516A (zh) * | 2020-09-27 | 2021-01-01 | 深圳市悦动天下科技有限公司 | 跳绳计数的方法、装置及计算机存储介质 |
CN112287758A (zh) * | 2020-09-26 | 2021-01-29 | 浙江汉德瑞智能科技有限公司 | 基于关键点检测的攀爬识别方法 |
CN112528858A (zh) * | 2020-12-10 | 2021-03-19 | 北京百度网讯科技有限公司 | 人体姿态估计模型的训练方法、装置、设备、介质及产品 |
CN112883933A (zh) * | 2021-03-30 | 2021-06-01 | 广东曜城科技园管理有限公司 | 一种异常人体行为的警报方法和装置 |
CN113221704A (zh) * | 2021-04-30 | 2021-08-06 | 陕西科技大学 | 基于深度学习的动物姿态识别方法、系统及存储介质 |
CN113505709A (zh) * | 2021-07-15 | 2021-10-15 | 开放智能机器(上海)有限公司 | 一种用于实时监测人体危险行为的方法以及系统 |
CN114973403A (zh) * | 2022-05-06 | 2022-08-30 | 广州紫为云科技有限公司 | 一种基于时空双重维度特征深度网络的高效行为预测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2018101313A4 (en) * | 2018-09-07 | 2018-10-11 | Gao, Jiafan Mr | Image recognition of dangerous tools based on deep learning |
CN109460702A (zh) * | 2018-09-14 | 2019-03-12 | 华南理工大学 | 基于人体骨架序列的乘客异常行为识别方法 |
CN110135319A (zh) * | 2019-05-09 | 2019-08-16 | 广州大学 | 一种异常行为检测方法及其系统 |
-
2019
- 2019-09-17 CN CN201910876699.0A patent/CN110969078A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2018101313A4 (en) * | 2018-09-07 | 2018-10-11 | Gao, Jiafan Mr | Image recognition of dangerous tools based on deep learning |
CN109460702A (zh) * | 2018-09-14 | 2019-03-12 | 华南理工大学 | 基于人体骨架序列的乘客异常行为识别方法 |
CN110135319A (zh) * | 2019-05-09 | 2019-08-16 | 广州大学 | 一种异常行为检测方法及其系统 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111444879A (zh) * | 2020-04-10 | 2020-07-24 | 广东工业大学 | 一种关节劳损自主康复动作识别方法及系统 |
CN112287758A (zh) * | 2020-09-26 | 2021-01-29 | 浙江汉德瑞智能科技有限公司 | 基于关键点检测的攀爬识别方法 |
CN112287758B (zh) * | 2020-09-26 | 2022-08-26 | 浙江汉德瑞智能科技有限公司 | 基于关键点检测的攀爬识别方法 |
CN112163516A (zh) * | 2020-09-27 | 2021-01-01 | 深圳市悦动天下科技有限公司 | 跳绳计数的方法、装置及计算机存储介质 |
CN112163516B (zh) * | 2020-09-27 | 2024-05-10 | 深圳市悦动天下科技有限公司 | 跳绳计数的方法、装置及计算机存储介质 |
CN112528858A (zh) * | 2020-12-10 | 2021-03-19 | 北京百度网讯科技有限公司 | 人体姿态估计模型的训练方法、装置、设备、介质及产品 |
CN112883933A (zh) * | 2021-03-30 | 2021-06-01 | 广东曜城科技园管理有限公司 | 一种异常人体行为的警报方法和装置 |
CN113221704A (zh) * | 2021-04-30 | 2021-08-06 | 陕西科技大学 | 基于深度学习的动物姿态识别方法、系统及存储介质 |
CN113505709A (zh) * | 2021-07-15 | 2021-10-15 | 开放智能机器(上海)有限公司 | 一种用于实时监测人体危险行为的方法以及系统 |
CN114973403A (zh) * | 2022-05-06 | 2022-08-30 | 广州紫为云科技有限公司 | 一种基于时空双重维度特征深度网络的高效行为预测方法 |
CN114973403B (zh) * | 2022-05-06 | 2023-11-03 | 广州紫为云科技有限公司 | 一种基于时空双重维度特征深度网络的行为预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110969078A (zh) | 基于人体关键点的异常行为识别方法 | |
Lin et al. | Bsn: Boundary sensitive network for temporal action proposal generation | |
CN110598554B (zh) | 基于对抗学习的多人姿态估计方法 | |
JP7386545B2 (ja) | 画像中の物体を識別するための方法、及び当該方法を実施するためのモバイル装置 | |
CN111814661B (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
CN109919977B (zh) | 一种基于时间特征的视频运动人物跟踪与身份识别方法 | |
CN108805140B (zh) | 一种基于lbp的特征快速提取方法及人脸识别系统 | |
CN104376575B (zh) | 一种基于多摄像头监控的行人计数方法和装置 | |
CN107833239B (zh) | 一种基于加权模型约束的寻优匹配目标跟踪方法 | |
CN106650617A (zh) | 一种基于概率潜在语义分析的行人异常识别方法 | |
CN109325440A (zh) | 人体动作识别方法及系统 | |
CN108537181A (zh) | 一种基于大间距深度度量学习的步态识别方法 | |
CN109271848A (zh) | 一种人脸检测方法及人脸检测装置、存储介质 | |
CN111105443A (zh) | 一种基于特征关联的视频群体人物运动轨迹跟踪方法 | |
CN111353385A (zh) | 一种基于掩膜对齐与注意力机制的行人再识别方法和装置 | |
CN108537156B (zh) | 一种抗遮挡的手部关键节点追踪方法 | |
CN114694261A (zh) | 一种基于多级监督图卷积的视频三维人体姿态估计方法及系统 | |
Gheitasi et al. | Estimation of hand skeletal postures by using deep convolutional neural networks | |
CN114332444B (zh) | 一种基于增量漂移聚类的复杂星空背景目标识别方法 | |
CN111738096B (zh) | 一种基于骨架姿态的人物跟踪方法 | |
CN117173792A (zh) | 一种基于三维人体骨架的多人步态识别系统 | |
CN109815887B (zh) | 一种基于多智能体协作的复杂光照下人脸图像的分类方法 | |
CN110866458A (zh) | 基于三维卷积神经网络的多人动作检测与识别方法与装置 | |
CN111079585B (zh) | 图像增强结合伪孪生卷积神经网络的行人再识别方法 | |
CN113989325A (zh) | 一种基于矩阵“最大数”的多目标匹配算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200407 |