CN110427811A - 基于视频流数据的人体骨骼化打架识别方法 - Google Patents
基于视频流数据的人体骨骼化打架识别方法 Download PDFInfo
- Publication number
- CN110427811A CN110427811A CN201910544757.XA CN201910544757A CN110427811A CN 110427811 A CN110427811 A CN 110427811A CN 201910544757 A CN201910544757 A CN 201910544757A CN 110427811 A CN110427811 A CN 110427811A
- Authority
- CN
- China
- Prior art keywords
- personnel
- skeleton
- human body
- target
- arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于视频流数据的人体骨骼化打架识别方法,包括以下步骤:步骤一、获取识别区域视频流数据;步骤二、活动目标提取;步骤三、人体目标匹配;步骤四、对有人体目标的前景图片进行人体骨骼化处理,判断人的数量是否≥2;步骤五、根据所有骨骼化人员数据的手臂指向方向,判断人员面对面判断;步骤六、通过骨骼化的胸口点位距离进行坐标系测算距离,判断为人员是否距离过近;步骤七、人员抬臂检测,判断是否有打架的趋势;步骤八、对抬臂持续时间判断是否打架。本发明代替人为检测在押人员的异常行为,解决了不能及时发现在押人员异常行为的安全隐患问题,降低打架的发生概率,从而保证了在押人员的人身安全。
Description
技术领域
本发明涉及监狱安防技术领域,具体的说是涉及一种基于视频流数据的人体骨骼化打架识别方法。
背景技术
监管场所(包括监狱,看守所,强制戒毒所等)是关押和改造犯罪人员的场所,一直以来,保障被看押人员的人身安全与稳定是监狱的首要问题。
然而,现有的监狱大多通过看押人员人为的去发现在押人员的异常行为,这种人为的监测往往不能及时的发现在押人员的异常行为,比如在押人员之间相互欺压等现象。
发明内容
为解决上述背景技术中提出的问题,本发明的目的在于提供一种基于视频流数据的人体骨骼化打架识别方法。
为实现上述目的,本发明采取的技术方案为:
本发明提供了基于视频流数据的人体骨骼化打架识别方法,包括以下步骤:
步骤一、视频流数据获取
在识别区域设置摄像头,获取摄像机视频流,并对视频流数据进行RGB转换,使其转换为相应的彩色图像;
步骤二、活动目标提取
通过对视频中获取的n帧画面进行背景建模,然后对n+1帧画面中的活动目标进行帧差,将n+1帧像素值I(x,y)减去背景模型中相同位置像素点的平均值u(x,y),得到差值d(x,y),然后将该差值d(x,y)与阈值TH进行比较,当差值d(x,y)大于阈值TH时,则标记为前景点;否则,标记为背景点;
通过前景点连续的帧来判断该活动目标是否连续运动,是否连续出现,若达不到连续N帧出现,则过滤;反之,该活动目标连续N帧出现,且N帧内活动目标的X、Y坐标大于i像素点,则判断为持续运动,得到活动目标的前景图片;其中,N=[1,200],N值的大小,反映为观察目标的时间跨度,此值越小,则给出判断的反应时间越快,越灵敏;i表示为水平和垂直方向上的位置像素量,i的取值范围[1,20],i越小,检测越灵敏;
步骤三、人体目标匹配
截取步骤二中判断为活动目标的前景图片与人体特征模型进行匹配,若大于相识度M,则判断前景图片中有人体目标,并进入下一步;反之,则判断待测目标图像中没有人体目标,并返回步骤二继续进行活动目标的提取操作;其中M=[0,1],M值越大,表示目标为人的可能性越高;
步骤四、人体骨骼化
截取步骤三中判断为有人体目标的前景图片进行人体骨骼化处理,得到的身体关节部位点,包括胸口、肩膀、肩臂、手臂、手腕、脚腕、左右臂膀,并通过获取的骨骼化的关节部位信息判断人的数量是否≥2,若是,则进入下一步;反之,则判断待测目标图像,并返回步骤二继续进行活动目标的提取操作;
步骤五、人员面对面判断
对在步骤四中获取到的骨骼化数据进行处理,并获得所有骨骼化人员数据的手臂指向方向,判断多个人员的指向方向是否为水平时,若是,则判断该多个人员为面对面,进入下一步;反之,则继续判断待测目标是否面对面,并返回步骤四继续进行骨骼化数据的提取操作;
步骤六、人员距离判断
对步骤五中判断为面对面的人员进行距离的判断,通过骨骼化的胸口点位距离进行坐标系测算距离,当距离≤L值时,判断为人员距离过近,并进行下一步、反之,则继续判断待测目标是否距离过近,并返回步骤五继续进行人员面对面提取操作;
步骤七、人员抬臂检测
对步骤六中符合距离过近的人员进行抬臂检测,当距离过近的2人是否至少有一人手臂抬起,若是,则判断为有打架的趋势;反之,则继续判断待测目标是否有抬臂行为,并返回步骤六进行人员距离判断;
步骤八、持续时间判断
对步骤七中符合抬臂的目标进行持续时间判断,当目标在P秒内持续出现抬臂行为,则判断为打架,反之,则判断待测目标是否出现抬臂情况,并返回步骤七抬臂判断。
上述技术方案中,步骤三中的所述人体特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
训练时,输入大量人体图片作为正样本,输入大量无人体图片作为负样本,通过神经网络模型训练分类器进行训练学习并得到人体特征模型;
识别时,输入运动目标的前景图片,通过运动目标的前景图片与神经网络模型训练分类器中的人体特征模型进行识别匹配,若大于相识度T,则判断前景图片中有人体目标,T=[0,1],T越高表明目标越符合人体特征。
上述技术方案中,步骤四中的所述人体骨骼化是通过开源的openpose方法获得的。
上述技术方案中,步骤七中,手臂的抬起通过获取肩膀与肩膀的角度进行计算,当角度大于U值时,判断为抬臂,U值取值0-90°。
与现有技术相比,本发明的有益效果是:
本发明通过基于视频流数据的人体骨骼化打架识别方法来代替人为检测在押人员的异常行为,解决了不能及时发现在押人员异常行为的安全隐患问题,降低异常行为(如打架)的发生概率,从而保证了在押人员的人身安全。
附图说明
图1为本发明提供的基于视频流数据的人体骨骼化打架识别方法的流程图;
图2为本发明所述的人体特征模型通过神经网络模型训练分类器训练和识别的流程图。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合附图和具体实施方式,进一步阐述本发明是如何实施的。
本发明提供了基于视频流数据的人体骨骼化打架识别方法,包括以下步骤:
步骤一、视频流数据获取
在识别区域设置摄像头,获取摄像机视频流,并对视频流数据进行RGB转换,使其转换为相应的彩色图像;
步骤二、活动目标提取
通过对视频中获取的n帧画面进行背景建模,然后对n+1帧画面中的活动目标进行帧差,将n+1帧像素值I(x,y)减去背景模型中相同位置像素点的平均值u(x,y),得到差值d(x,y),然后将该差值d(x,y)与阈值TH进行比较,当差值d(x,y)大于阈值TH时,则标记为前景点;否则,标记为背景点;
通过前景点连续的帧来判断该活动目标是否连续运动,是否连续出现,若达不到连续N帧出现,则过滤;反之,该活动目标连续N帧出现,且N帧内活动目标的X、Y坐标大于i像素点,则判断为持续运动,得到活动目标的前景图片;其中,N=[1,200],N值的大小,反映为观察目标的时间跨度,此值越小,则给出判断的反应时间越快,越灵敏;i表示为水平和垂直方向上的位置像素量,i的取值范围[1,20],i越小,检测越灵敏;
步骤三、人体目标匹配
截取步骤二中判断为活动目标的前景图片与人体特征模型进行匹配,若大于相识度M,则判断前景图片中有人体目标,并进入下一步;反之,则判断待测目标图像中没有人体目标,并返回步骤二继续进行活动目标的提取操作;其中M=[0,1],M值越大,表示目标为人的可能性越高;
步骤四、人体骨骼化
截取步骤三中判断为有人体目标的前景图片进行人体骨骼化处理,得到的身体关节部位点,包括胸口、肩膀、肩臂、手臂、手腕、脚腕、左右臂膀,并通过获取的骨骼化的关节部位信息判断人的数量是否≥2,若是,则进入下一步;反之,则判断待测目标图像,并返回步骤二继续进行活动目标的提取操作;
步骤五、人员面对面判断
对在步骤四中获取到的骨骼化数据进行处理,并获得所有骨骼化人员数据的手臂指向方向,判断多个人员的指向方向是否为水平时,若是,则判断该多个人员为面对面,进入下一步;反之,则继续判断待测目标是否面对面,并返回步骤四继续进行骨骼化数据的提取操作;
步骤六、人员距离判断
对步骤五中判断为面对面的人员进行距离的判断,通过骨骼化的胸口点位距离进行坐标系测算距离,当距离≤L值时,判断为人员距离过近,并进行下一步、反之,则继续判断待测目标是否距离过近,并返回步骤五继续进行人员面对面提取操作,其中L取值0-100cm,优选的L取值0-50cm;
步骤七、人员抬臂检测
对步骤六中符合距离过近的人员进行抬臂检测,当距离过近的2人是否至少有一人手臂抬起,若是,则判断为有打架的趋势;反之,则继续判断待测目标是否有抬臂行为,并返回步骤六进行人员距离判断;
步骤八、持续时间判断
对步骤七中符合抬臂的目标进行持续时间判断,当目标在P秒内持续出现抬臂行为,则判断为打架,反之,则判断待测目标是否出现抬臂情况,并返回步骤七抬臂判断,其中P取值0.5-30秒。
本发明中,步骤三中的所述人体特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
训练时,输入大量人体图片作为正样本,输入大量无人体图片作为负样本,通过神经网络模型训练分类器进行训练学习并得到人体特征模型;
识别时,输入运动目标的前景图片,通过运动目标的前景图片与神经网络模型训练分类器中的人体特征模型进行识别匹配,若大于相识度T,则判断前景图片中有人体目标,T=[0,1],T越高表明目标越符合人体特征。
本发明中,步骤四中的所述人体骨骼化是通过开源的openpose方法获得的。
OpenPose人体姿态识别项目是世界上第一个实时多人关键点检测和多线程的C++库,归属于卡内基梅隆大学,旨在推进人工智能研究和教育的CMUAI计划;可以实现人体动作、面部表情、手指运动等姿态估计。其开源地址为:
https://github.com/CMU-Perceptual-Computing-Lab/openpose
OpenPose相当于以前体感游戏所应用的身体追踪技术的升级版,与微软Kinect追踪20个关键点相比,OpenPose要细致得多,同一个动作,Kinect感知到一个人在抬手,而OpenPose则可以观察到这个人实际是用手指指向了某样东西。面部跟踪方面,Kinect里整个头部只是一个点,而OpenPose里眉、眼、鼻、口能被数十个关键点描绘出来,就是表情都能被识别。
本发明中,步骤七中,手臂的抬起通过获取肩膀与肩膀的角度进行计算,当角度大于U值时,判断为抬臂,U值取值0-90°,优选的U值取值10-60°。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围中。
Claims (4)
1.基于视频流数据的人体骨骼化打架识别方法,其特征在于,包括以下步骤:
步骤一、视频流数据获取
在识别区域设置摄像头,获取摄像机视频流,并对视频流数据进行RGB转换,使其转换为相应的彩色图像;
步骤二、活动目标提取
通过对视频中获取的n帧画面进行背景建模,然后对n+1帧画面中的活动目标进行帧差,将n+1帧像素值I(x,y)减去背景模型中相同位置像素点的平均值u(x,y),得到差值d(x,y),然后将该差值d(x,y)与阈值TH进行比较,当差值d(x,y)大于阈值TH时,则标记为前景点;否则,标记为背景点;
通过前景点连续的帧来判断该活动目标是否连续运动,是否连续出现,若达不到连续N帧出现,则过滤;反之,该活动目标连续N帧出现,且N帧内活动目标的X、Y坐标大于i像素点,则判断为持续运动,得到活动目标的前景图片;其中,N=[1,200],N值的大小,反映为观察目标的时间跨度,此值越小,则给出判断的反应时间越快,越灵敏;i表示为水平和垂直方向上的位置像素量,i的取值范围[1,20],i越小,检测越灵敏;
步骤三、人体目标匹配
截取步骤二中判断为活动目标的前景图片与人体特征模型进行匹配,若大于相识度M,则判断前景图片中有人体目标,并进入下一步;反之,则判断待测目标图像中没有人体目标,并返回步骤二继续进行活动目标的提取操作;其中M=[0,1],M值越大,表示目标为人的可能性越高;
步骤四、人体骨骼化
截取步骤三中判断为有人体目标的前景图片进行人体骨骼化处理,得到的身体关节部位点,包括胸口、肩膀、肩臂、手臂、手腕、脚腕、左右臂膀,并通过获取的骨骼化的关节部位信息判断人的数量是否≥2,若是,则进入下一步;反之,则判断待测目标图像,并返回步骤二继续进行活动目标的提取操作;
步骤五、人员面对面判断
对在步骤四中获取到的骨骼化数据进行处理,并获得所有骨骼化人员数据的手臂指向方向,判断多个人员的指向方向是否为水平时,若是,则判断该多个人员为面对面,进入下一步;反之,则继续判断待测目标是否面对面,并返回步骤四继续进行骨骼化数据的提取操作;
步骤六、人员距离判断
对步骤五中判断为面对面的人员进行距离的判断,通过骨骼化的胸口点位距离进行坐标系测算距离,当距离≤L值时,判断为人员距离过近,并进行下一步、反之,则继续判断待测目标是否距离过近,并返回步骤五继续进行人员面对面提取操作;
步骤七、人员抬臂检测
对步骤六中符合距离过近的人员进行抬臂检测,当距离过近的2人是否至少有一人手臂抬起,若是,则判断为有打架的趋势;反之,则继续判断待测目标是否有抬臂行为,并返回步骤六进行人员距离判断;
步骤八、持续时间判断
对步骤七中符合抬臂的目标进行持续时间判断,当目标在P秒内持续出现抬臂行为,则判断为打架,反之,则判断待测目标是否出现抬臂情况,并返回步骤七抬臂判断。
2.根据权利要求1所述的基于视频流数据的审讯室人员近距离接触识别方法,其特征在于:步骤三中的所述人体特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
训练时,输入大量人体图片作为正样本,输入大量无人体图片作为负样本,通过神经网络模型训练分类器进行训练学习并得到人体特征模型;
识别时,输入运动目标的前景图片,通过运动目标的前景图片与神经网络模型训练分类器中的人体特征模型进行识别匹配,若大于相识度T,则判断前景图片中有人体目标,T=[0,1],T越高表明目标越符合人体特征。
3.根据权利要求1所述的基于基于视频流数据的人体骨骼化打架识别方法,其特征在于:步骤四中的所述人体骨骼化是通过开源的openpose方法获得的。
4.根据权利要求1所述的基于基于视频流数据的人体骨骼化打架识别方法,其特征在于:步骤七中,手臂的抬起通过获取肩膀与肩膀的角度进行计算,当角度大于U值时,判断为抬臂,U值取值0-90°。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910544757.XA CN110427811A (zh) | 2019-06-21 | 2019-06-21 | 基于视频流数据的人体骨骼化打架识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910544757.XA CN110427811A (zh) | 2019-06-21 | 2019-06-21 | 基于视频流数据的人体骨骼化打架识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110427811A true CN110427811A (zh) | 2019-11-08 |
Family
ID=68409422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910544757.XA Pending CN110427811A (zh) | 2019-06-21 | 2019-06-21 | 基于视频流数据的人体骨骼化打架识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110427811A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113111733A (zh) * | 2021-03-24 | 2021-07-13 | 广州华微明天软件技术有限公司 | 一种基于姿态流的打架行为识别方法 |
DE102020207929A1 (de) | 2020-06-25 | 2021-12-30 | Volkswagen Aktiengesellschaft | Verfahren, Computerprogramm und Vorrichtung zum Erkennen einer gewalttätigen Handlung einer Person gegenüber einem Objekt |
CN114253614A (zh) * | 2021-11-25 | 2022-03-29 | 上海齐感电子信息科技有限公司 | 控制方法及控制系统 |
CN115223099A (zh) * | 2022-08-02 | 2022-10-21 | 上海三力信息科技有限公司 | 一种托育儿童在校安全智慧监护方法 |
CN116137074A (zh) * | 2023-02-22 | 2023-05-19 | 常熟理工学院 | 电梯轿厢内乘客打斗行为的自动检测方法和系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103279737A (zh) * | 2013-05-06 | 2013-09-04 | 上海交通大学 | 一种基于时空兴趣点的打架行为检测方法 |
CN108319934A (zh) * | 2018-03-20 | 2018-07-24 | 武汉倍特威视系统有限公司 | 基于视频流数据的安全帽佩戴情况检测方法 |
CN108460358A (zh) * | 2018-03-20 | 2018-08-28 | 武汉倍特威视系统有限公司 | 基于视频流数据的安全帽识别方法 |
CN108846365A (zh) * | 2018-06-24 | 2018-11-20 | 深圳市中悦科技有限公司 | 视频中打架行为的检测方法、装置、存储介质及处理器 |
CN109460702A (zh) * | 2018-09-14 | 2019-03-12 | 华南理工大学 | 基于人体骨架序列的乘客异常行为识别方法 |
CN109614882A (zh) * | 2018-11-19 | 2019-04-12 | 浙江大学 | 一种基于人体姿态估计的暴力行为检测系统及方法 |
-
2019
- 2019-06-21 CN CN201910544757.XA patent/CN110427811A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103279737A (zh) * | 2013-05-06 | 2013-09-04 | 上海交通大学 | 一种基于时空兴趣点的打架行为检测方法 |
CN108319934A (zh) * | 2018-03-20 | 2018-07-24 | 武汉倍特威视系统有限公司 | 基于视频流数据的安全帽佩戴情况检测方法 |
CN108460358A (zh) * | 2018-03-20 | 2018-08-28 | 武汉倍特威视系统有限公司 | 基于视频流数据的安全帽识别方法 |
CN108846365A (zh) * | 2018-06-24 | 2018-11-20 | 深圳市中悦科技有限公司 | 视频中打架行为的检测方法、装置、存储介质及处理器 |
CN109460702A (zh) * | 2018-09-14 | 2019-03-12 | 华南理工大学 | 基于人体骨架序列的乘客异常行为识别方法 |
CN109614882A (zh) * | 2018-11-19 | 2019-04-12 | 浙江大学 | 一种基于人体姿态估计的暴力行为检测系统及方法 |
Non-Patent Citations (2)
Title |
---|
HUADONG PAN 等: "Fighting Detection Based on Pedestrian Pose Estimation", 《2018 11TH INTERNATIONAL CONGRESS ON IMAGE AND SIGNAL PROCESSING, BIOMEDICAL ENGINEERING AND INFORMATICS (CISP-BMEI)》 * |
武洁等: "智能视频技术在预防狱内安全事件的应用", 《电脑知识与技术》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020207929A1 (de) | 2020-06-25 | 2021-12-30 | Volkswagen Aktiengesellschaft | Verfahren, Computerprogramm und Vorrichtung zum Erkennen einer gewalttätigen Handlung einer Person gegenüber einem Objekt |
CN113111733A (zh) * | 2021-03-24 | 2021-07-13 | 广州华微明天软件技术有限公司 | 一种基于姿态流的打架行为识别方法 |
CN114253614A (zh) * | 2021-11-25 | 2022-03-29 | 上海齐感电子信息科技有限公司 | 控制方法及控制系统 |
CN115223099A (zh) * | 2022-08-02 | 2022-10-21 | 上海三力信息科技有限公司 | 一种托育儿童在校安全智慧监护方法 |
CN116137074A (zh) * | 2023-02-22 | 2023-05-19 | 常熟理工学院 | 电梯轿厢内乘客打斗行为的自动检测方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110427811A (zh) | 基于视频流数据的人体骨骼化打架识别方法 | |
CN110837784B (zh) | 一种基于人体头部特征的考场偷窥作弊检测系统 | |
Xu et al. | A Novel Approach to Real-time Non-intrusive Gaze Finding. | |
CN114067358A (zh) | 一种基于关键点检测技术的人体姿态识别方法及系统 | |
CN107358152A (zh) | 一种活体识别方法和系统 | |
CN105138967B (zh) | 基于人眼区域活动状态的活体检测方法和装置 | |
CN105868574A (zh) | 一种摄像头跟踪人脸的优化方法及基于视频的智慧健康监视系统 | |
CN111507592A (zh) | 一种面向服刑人员的主动改造行为的评估方法 | |
CN106874830A (zh) | 一种基于rgb‑d相机和人脸识别的视障人士辅助方法 | |
US11689810B2 (en) | Adaptable incident surveillance system | |
CN109492575A (zh) | 一种基于YOLOv3的扶梯安全监测方法 | |
CN110414339A (zh) | 基于视频流数据的审讯室人员近距离接触识别方法 | |
Son et al. | Crosswalk guidance system for the blind | |
CN108764338A (zh) | 一种应用于视频分析的行人跟踪算法 | |
Marathe et al. | Confidence metrics improve human-autonomy integration | |
CN115797864A (zh) | 一种应用于智慧社区的安全管理系统 | |
Behera et al. | Multi-camera based surveillance system | |
Voit et al. | Multi-view head pose estimation using neural networks | |
CN113609963B (zh) | 一种实时多人体角度的抽烟行为检测方法 | |
CN113221815A (zh) | 一种基于骨骼关键点自动检测技术的步态鉴定方法 | |
CN107832728A (zh) | 一种基于视频的审判员打电话行为识别方法 | |
CN111310689B (zh) | 潜在信息融合的家庭安防系统中的人体行为识别的方法 | |
Massé et al. | Simultaneous estimation of gaze direction and visual focus of attention for multi-person-to-robot interaction | |
Nizam et al. | Development of human fall detection system using joint height, joint velocity, and joint position from depth maps | |
CN110427808A (zh) | 基于视频流数据的警服识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191108 |
|
RJ01 | Rejection of invention patent application after publication |