CN111523559A - 一种基于多特征融合的异常行为检测方法 - Google Patents
一种基于多特征融合的异常行为检测方法 Download PDFInfo
- Publication number
- CN111523559A CN111523559A CN202010166752.0A CN202010166752A CN111523559A CN 111523559 A CN111523559 A CN 111523559A CN 202010166752 A CN202010166752 A CN 202010166752A CN 111523559 A CN111523559 A CN 111523559A
- Authority
- CN
- China
- Prior art keywords
- joint point
- frame
- information
- abnormal behavior
- joint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Alarm Systems (AREA)
- Burglar Alarm Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
一种基于多特征融合的异常行为检测方法,包括表情分析、人体姿态分析、人体异常行为分析,利用开源平台OpenPose提取视频中人体的18个关节点坐标信息,再根据计算关节点的速度和角度,完善关节点特征信息;同时对视频中的行人进行人脸检测并进行表情分析;最后将人脸表情、关节点特征信息进行融合,再输入异常行为分析模型中,得到识别结果。本发明比以单一人体姿态特征为依据的检测方法的识别准确率要好,在安防监控等领域有一定的应用价值。
Description
技术领域
本发明涉及一种人体异常行为检测方法,采用目前比较成熟的开源平台OpenPose进行人体骨架关节点的获取,采用MobileNet轻量级卷积神经网络进行人脸表情特征的识别,具体设计一种基于表情分析和姿态分析多特征融合的人体异常行为检测方法,属于安防监控领域。
背景技术
随着异常行为在不同场景中广泛出现和安防监控的推广,人们希望利用监控设备检测可能出现的异常行为。基于视频的人体行为识别在各个方面有着广泛的应用,如视频监控,视频分析,病人监控系统等方面都有着很好的应用前景。
人体异常行为识别技术可以分为三种:利用可穿戴式传感器,利用音频信息和利用视频图像技术。基于传感器的方法识别率高、检测方式简单,但存在携带不方便的问题;基于音频信息的方法易受外界噪声干扰,准确率不高的问题;基于视频图像技术应用范围广、人体姿态特征多,但存在着易受环境光照多因素影响,准确率问题,这是制约行为识别发展的因素。
随着视频复杂度的提升,单一的视频特征已经不能准确地表达出视频信息,进行异常行为识别。因此目前采用结合视频和语音的特征进行融合,但是由于室外语音噪声较大,同时语音采集设备部署不足,实际应用较少。基于视频图像中的不同特征进行分析,对多模态进行融合,得到异常行为的方法更具设计操作性。
发明内容
为了克服单一人体姿态特征对异常行为识别效果不佳、不灵活的不足,本发明提出了一种基于多特征融合的异常行为检测方法,实现了人脸表情、人体姿态信息的融合以及人体异常行为识别模型的设计,提高了识别的正确率。
为实现上述目标,本发明采用的技术方案为:
一种基于多特征融合的异常行为检测方法,包括以下步骤:
步骤1:对视频数据集进行分帧处理,得到视频的T帧图像;
步骤2:通过OpenPose姿态提取库获取每帧图片中人物的关节点坐标信息,得到包含当前帧的18个关节点的坐标位置序列{(x11,y11),(x12,y12),…,(x1N,y1N)};
步骤4:将关节点的位置和关节点动态信息根据权重ft分配,进行特征融合,表示为18*T*4姿态特征信息矩阵S1;
步骤5:利用MTCNN提取人脸区域,并用MobileNet对检测到的人脸图像进行表情特征提取,表示为16*T*1的K1;
步骤6:将人体表情信息K1和人体姿态信息S1进行融合,表示为18*T*4的特征矩阵S2;
步骤7:将融合后的特征矩阵通过具有噪声鲁棒性的残差网络的行为识别模型,得到最终行为识别结果。
进一步,所述步骤3中,通过如下公式对关节点进行角度和大小的计算:
计算第T帧第N个关节点角度θTN的公式如(1)所示:
其中PTN表示第N个关节点的特征向量,将求解关节角度的问题转化为求解向量角度问题;
计算第T帧第N个关节点速度vTN的公式如(2)所示:
其中xTN、yTN表示第N个关节点的坐标值,x(T-1)N、y(T-1)N表示前一帧关节点的坐标值,利用欧氏距离计算关节点的变化距离,vTN表示在关键帧帧差时间为tT情况下关节点的速度。
进一步,所述步骤4中,通过如下方法对权重分配ft的计算:
根据关节点方向和速度的变化剧烈程度,给T帧图像分配权重fT,表示对单帧的预测概率值,计算第T个关键帧的最终权重fT的公式如(3)所示:
其中θt表示第T张图像帧中的关节点最大角度变化,vt表示第T张图像帧中的关节点最大速度变化,k1、k2是角度和速度的权重值。
进一步,所述步骤4中,通过如下方法对关节点位置信息和特征融合:
按照空间信息和时序信息将关节点位置序列表示为18*T*2的坐标值矩阵,并与关节点的动态信息融合,表示18*T*4关节点特征矩阵为如(4)所示:
再进一步,所述步骤7中,异常行为检测模型采用了具有噪声鲁棒性的残差网络:
采用包含INSP激活函数的残差网络作为异常行为识别模型,该网络在VGG-19的基础上添加残差单元,并将ReLU函数替换成NSP函数进行改进,实现抗噪声、低功耗;
INSP的公式如(5)所示:
σ的公式如(6)所示:
其中k表示噪声尺度的控制,S表示尺度参数,x表示前一层卷积的输入值,wi表示前一层卷积的权重,i表示第i个神经元,τsyn表示突触时间常数。
本发明的有益效果表现在:
1利用开源平台OpenPose处理视频的动作关节点,方法简单且效果稳定,对少部分遮挡关节点仍适用;
2利用MobileNet轻量级卷积神经网络对人脸表情进行识别,适合应用在移动端和嵌入式端,在cpu上也适用;
3利用关节点方向和角度判断关节点处于剧烈晃动状态,对异常行为识别提供预测;
4本发明把关节点检测和人脸表情特征进行融合,异常行为检测和暴力动作检测提供新的研究思路;
5本发明提高了基于单一姿态特征对异常行为检测的正确性,在安防监控、病人监控系统领域等具有一定的应用价值。
附图说明
图1是多特征融合的异常行为检测方法系统框图;
图2是异常行为分析模型图。
具体实施方式
下面结合附图对本发明的实施过程进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
参照图1和图2,一种基于多特征融合的异常行为检测方法,包括以下步骤:
步骤1:对视频数据集进行分帧处理,得到视频的T帧图像;
步骤2:通过OpenPose姿态提取库获取每帧图片中人物的关节点坐标信息,得到包含当前帧的18个关节点的坐标位置序列{(x11,y11),(x12,y12),…,(x1N,y1N)};
通过如下公式对关节点进行角度和大小的计算:
计算第T帧第N个关节点角度θTN的公式如(1)所示:
其中PTN表示第N个关节点的特征向量,将求解关节角度的问题转化为求解向量角度问题。
计算第T帧第N个关节点速度vTN的公式如(2)所示:
其中xTN、yTN表示第N个关节点的坐标值,x(T-1)N、y(T-1)N表示前一帧关节点的坐标值,利用欧氏距离计算关节点的变化距离,vTN表示在关键帧帧差时间为tT情况下关节点的速度;
步骤4:将关节点的位置和关节点动态信息根据权重ft分配,进行特征融合,表示为18*T*4姿态特征信息矩阵S1;
通过如下方法对权重分配ft的计算:
根据关节点方向和速度的变化剧烈程度,给T帧图像分配权重fT,表示对单帧的预测概率值,计算第T个关键帧的最终权重fT的公式如(3)所示:
其中θt表示第T张图像帧中的关节点最大角度变化,vt表示第T张图像帧中的关节点最大速度变化,k1、k2是角度和速度的权重值;
进一步,所述步骤4中,通过如下方法对关节点位置信息和特征融合:
按照空间信息和时序信息将关节点位置序列表示为18*T*2的坐标值矩阵,并与关节点的动态信息融合,表示18*T*4关节点特征矩阵为如(4)所示:
步骤5:利用MTCNN提取人脸区域,并用MobileNet对检测到的人脸图像进行表情特征提取,表示为16*T*1的K1;
步骤6:将人体表情信息K1和人体姿态信息S1进行融合,表示为18*T*4的特征矩阵S2;
步骤7:将融合后的特征矩阵通过具有噪声鲁棒性的残差网络的行为识别模型,得到最终行为识别结果;
所述步骤7中,异常行为检测模型采用了具有噪声鲁棒性的残差网络:
采用包含INSP激活函数的残差网络作为异常行为识别模型,该网络在VGG-19的基础上添加残差单元,并将ReLU函数替换成NSP函数进行改进,实现抗噪声、低功耗;
INSP的公式如(5)所示:
σ的公式如(6)所示:
其中k表示噪声尺度的控制,S表示尺度参数,x表示前一层卷积的输入值,wi表示前一层卷积的权重,i表示第i个神经元,τsyn表示突触时间常数。
本发明根据发生异常行为时人脸表情的不同,作为对基于单一姿态估计进行异常行为识别的多模态特征,提高异常行为识别的准确性。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (5)
1.一种基于多特征融合的异常行为检测方法,其特征在于,该方法包括以下步骤:
步骤1:对视频数据集进行分帧处理,得到视频的T帧图像;
步骤2:通过OpenPose姿态提取库获取每帧图片中人物的关节点坐标信息,得到包含当前帧的18个关节点的坐标位置序列{(x11,y11),(x12,y12),…,(x1N,y1N)};
步骤4:将关节点的位置和关节点动态信息根据权重ft分配,进行特征融合,表示为18*T*4姿态特征信息矩阵S1;
步骤5:利用MTCNN提取人脸区域,并用MobileNet对检测到的人脸图像进行表情特征提取,表示为16*T*1的K1;
步骤6:将人体表情信息K1和人体姿态信息S1进行融合,表示为18*T*4的特征矩阵S2;
步骤7:将融合后的特征矩阵通过具有噪声鲁棒性的残差网络的行为识别模型,得到最终行为识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010166752.0A CN111523559B (zh) | 2020-03-11 | 2020-03-11 | 一种基于多特征融合的异常行为检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010166752.0A CN111523559B (zh) | 2020-03-11 | 2020-03-11 | 一种基于多特征融合的异常行为检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111523559A true CN111523559A (zh) | 2020-08-11 |
CN111523559B CN111523559B (zh) | 2023-07-28 |
Family
ID=71901913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010166752.0A Active CN111523559B (zh) | 2020-03-11 | 2020-03-11 | 一种基于多特征融合的异常行为检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111523559B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101306A (zh) * | 2020-11-10 | 2020-12-18 | 成都市谛视科技有限公司 | 基于rgb图像的精细化人脸表情捕获方法及装置 |
CN112992340A (zh) * | 2021-02-24 | 2021-06-18 | 北京大学 | 基于行为识别的疾病预警方法、装置、设备及存储介质 |
CN113052029A (zh) * | 2021-03-12 | 2021-06-29 | 天天惠民(北京)智能物流科技有限公司 | 基于动作识别的异常行为监管方法、装置及存储介质 |
CN115457518A (zh) * | 2022-08-30 | 2022-12-09 | 淮阴工学院 | 基于姿态感知与几何约束下的驾驶员行为识别方法及系统 |
CN115641570A (zh) * | 2022-12-26 | 2023-01-24 | 中国汽车技术研究中心有限公司 | 驾驶行为确定方法、装置、电子设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120134532A1 (en) * | 2010-06-08 | 2012-05-31 | Gorilla Technology Inc. | Abnormal behavior detection system and method using automatic classification of multiple features |
CN108280421A (zh) * | 2018-01-22 | 2018-07-13 | 湘潭大学 | 基于多特征深度运动图的人体行为识别方法 |
CN108629946A (zh) * | 2018-06-14 | 2018-10-09 | 清华大学深圳研究生院 | 一种基于rgbd传感器的人体跌倒检测方法 |
CN110633624A (zh) * | 2019-07-26 | 2019-12-31 | 北京工业大学 | 一种基于多特征融合的机器视觉人体异常行为识别方法 |
CN110781771A (zh) * | 2019-10-08 | 2020-02-11 | 北京邮电大学 | 一种基于深度学习的异常行为实时监测方法 |
-
2020
- 2020-03-11 CN CN202010166752.0A patent/CN111523559B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120134532A1 (en) * | 2010-06-08 | 2012-05-31 | Gorilla Technology Inc. | Abnormal behavior detection system and method using automatic classification of multiple features |
CN108280421A (zh) * | 2018-01-22 | 2018-07-13 | 湘潭大学 | 基于多特征深度运动图的人体行为识别方法 |
CN108629946A (zh) * | 2018-06-14 | 2018-10-09 | 清华大学深圳研究生院 | 一种基于rgbd传感器的人体跌倒检测方法 |
CN110633624A (zh) * | 2019-07-26 | 2019-12-31 | 北京工业大学 | 一种基于多特征融合的机器视觉人体异常行为识别方法 |
CN110781771A (zh) * | 2019-10-08 | 2020-02-11 | 北京邮电大学 | 一种基于深度学习的异常行为实时监测方法 |
Non-Patent Citations (2)
Title |
---|
HANS W. GUESGEN等: "Using Contextual Information for Recognising Human Behaviour" * |
田国会;吉艳青;黄彬;: "基于多特征融合的人体动作识别" * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101306A (zh) * | 2020-11-10 | 2020-12-18 | 成都市谛视科技有限公司 | 基于rgb图像的精细化人脸表情捕获方法及装置 |
CN112101306B (zh) * | 2020-11-10 | 2021-02-09 | 成都市谛视科技有限公司 | 基于rgb图像的精细化人脸表情捕获方法及装置 |
CN112992340A (zh) * | 2021-02-24 | 2021-06-18 | 北京大学 | 基于行为识别的疾病预警方法、装置、设备及存储介质 |
CN113052029A (zh) * | 2021-03-12 | 2021-06-29 | 天天惠民(北京)智能物流科技有限公司 | 基于动作识别的异常行为监管方法、装置及存储介质 |
CN115457518A (zh) * | 2022-08-30 | 2022-12-09 | 淮阴工学院 | 基于姿态感知与几何约束下的驾驶员行为识别方法及系统 |
CN115457518B (zh) * | 2022-08-30 | 2024-01-26 | 淮阴工学院 | 基于姿态感知与几何约束下的驾驶员行为识别方法及系统 |
CN115641570A (zh) * | 2022-12-26 | 2023-01-24 | 中国汽车技术研究中心有限公司 | 驾驶行为确定方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111523559B (zh) | 2023-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111523559B (zh) | 一种基于多特征融合的异常行为检测方法 | |
CN110135249B (zh) | 基于时间注意力机制和lstm的人体行为识别方法 | |
Vishnu et al. | Human fall detection in surveillance videos using fall motion vector modeling | |
Du et al. | Representation learning of temporal dynamics for skeleton-based action recognition | |
CN108363978B (zh) | 采用深度学习和ukf的基于肢体语言的情感感知方法 | |
Jalal et al. | Depth maps-based human segmentation and action recognition using full-body plus body color cues via recognizer engine | |
US9798923B2 (en) | System and method for tracking and recognizing people | |
Abdullahi et al. | American sign language words recognition using spatio-temporal prosodic and angle features: A sequential learning approach | |
Jain et al. | Deep neural learning techniques with long short-term memory for gesture recognition | |
CN110175528B (zh) | 人体跟踪方法及装置、计算机设备及可读介质 | |
WO2022188259A1 (zh) | 一种动态手势识别方法、手势交互方法及交互系统 | |
CN112148128A (zh) | 一种实时手势识别方法、装置及人机交互系统 | |
CN111444488A (zh) | 一种基于动态手势的身份认证方法 | |
CN113378649A (zh) | 身份、位置和动作识别方法、系统、电子设备及存储介质 | |
CN110807391A (zh) | 基于视觉的人-无人机交互用人体姿态指令识别方法 | |
Lee et al. | Vision-based contingency detection | |
Fei et al. | Flow-pose Net: An effective two-stream network for fall detection | |
Muralikrishna et al. | Enhanced human action recognition using fusion of skeletal joint dynamics and structural features | |
Amit et al. | Recognition of real-time hand gestures using mediapipe holistic model and LSTM with MLP architecture | |
Aravindan et al. | A Smart Assistive System for Visually Impaired to Inform Acquaintance Using Image Processing (ML) Supported by IoT | |
CN111796663B (zh) | 场景识别模型更新方法、装置、存储介质及电子设备 | |
Chuang et al. | Driver behavior recognition using recurrent neural network in multiple depth cameras environment | |
Hoang et al. | Advances in Skeleton-Based Fall Detection in RGB Videos: from Handcrafted to Deep Learning Approaches | |
Ravinder et al. | An approach for gesture recognition based on a lightweight convolutional neural network | |
Klempous et al. | Review of algorithms for tag detection in video sequences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |