CN110414339A - 基于视频流数据的审讯室人员近距离接触识别方法 - Google Patents

基于视频流数据的审讯室人员近距离接触识别方法 Download PDF

Info

Publication number
CN110414339A
CN110414339A CN201910543626.XA CN201910543626A CN110414339A CN 110414339 A CN110414339 A CN 110414339A CN 201910543626 A CN201910543626 A CN 201910543626A CN 110414339 A CN110414339 A CN 110414339A
Authority
CN
China
Prior art keywords
personnel
human body
target
video stream
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910543626.XA
Other languages
English (en)
Inventor
杨贤文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Beite Granville System Co Ltd
Original Assignee
Wuhan Beite Granville System Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Beite Granville System Co Ltd filed Critical Wuhan Beite Granville System Co Ltd
Priority to CN201910543626.XA priority Critical patent/CN110414339A/zh
Publication of CN110414339A publication Critical patent/CN110414339A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于视频流数据的审讯室人员近距离接触识别方法,包括以下步骤:步骤一、获取审讯室区域视频流数据;步骤二、活动目标提取;步骤三、人体目标匹配;步骤四、对有人体目标的前景图片进行人体骨骼化,判断人的数量是否大于2;步骤五、取不同人员的相同的身体关节部位点位置进行坐标系X,Y距离的计算,从而判断审讯室人员近距离接触。本发明通过基于视频流数据的审讯室人员近距离接触识别方法来代替人工监控查看摄像机画面是否出现审讯室人员近距离的情况,解决审讯室人员近距离而出现的人员安全和法律公正问题,从而增强降低事件发生概率、提高监控中心工作人员工作效率。

Description

基于视频流数据的审讯室人员近距离接触识别方法
技术领域
本发明涉及监狱安防技术领域,具体的说是涉及一种基于视频流数据的审讯室人员近距离接触识别方法。
背景技术
根据中国法律的规定,看守所是羁押依法被逮捕,但是尚未被判刑的犯罪嫌疑人的场所,因此关押在这里的涉案人员一项重要的活动就是接受刑讯和审查。对这些人员进行监管和审讯则分属两个不同的部门,监管中心也即看守所负责他们的安全和限制他们的自由,审讯工作则是由办案部门完成。
看守所24小时监控审讯室,防止出现刑讯逼供和串供的现象,但现有的技术是通过安监员在监控中心进行人工监控,查看摄像机画面是否出现审讯室人员近距离接触的情况。这样的被动识别,依赖于安监员的注意力集中度。
发明内容
为解决上述背景技术中提出的问题,本发明的目的在于提供一种基于视频流数据的审讯室人员近距离接触识别方法。
为实现上述目的,本发明采取的技术方案为:
本发明提供了基于视频流数据的审讯室人员近距离接触识别方法,包括以下步骤:
步骤一、视频流数据获取
在审讯室区域设置摄像头,获取摄像机视频流,并对视频流数据进行RGB转换,使其转换为相应的彩色图像;
步骤二、活动目标提取
通过对视频中获取的n帧画面进行背景建模,然后对n+1帧画面中的活动目标进行帧差,将n+1帧像素值I(x,y)减去背景模型中相同位置像素点的平均值u(x,y),得到差值d(x,y),然后将该差值d(x,y)与阈值TH进行比较,当差值d(x,y)大于阈值TH时,则标记为前景点;否则,标记为背景点;
通过前景点连续的帧来判断该活动目标是否连续运动,是否连续出现,若达不到连续N帧出现,则过滤;反之,该活动目标连续N帧出现,且N帧内活动目标的X、Y坐标大于i像素点,则判断为持续运动,得到活动目标的前景图片;其中,N=[1,200],N值的大小,反映为观察目标的时间跨度,此值越小,则给出判断的反应时间越快,越灵敏;i表示为水平和垂直方向上的位置像素量,i的取值范围[1,20],i越小,检测越灵敏;
步骤三、人体目标匹配
截取步骤二中判断为活动目标的前景图片与人体特征模型进行匹配,若大于相识度P,则判断前景图片中有人体目标,并进入下一步;反之,则判断待测目标图像中没有人体目标,并返回步骤二继续进行活动目标的提取操作;其中P=[0,1],P值越大,表示目标为人的可能性越高;
步骤四、人体骨骼化
截取步骤三中判断为有人体目标的前景图片进行人体骨骼化处理,得到身体关节部位点,包括胸口、肩膀、肩臂、手臂、手腕、脚腕和左右臂膀的关节部位点的数据信息,并通过骨骼化的身体关节部位点的数据信息判断人的数量是否大于2,若是,则进入下一步;反之,则判断待测目标图像,并返回步骤二继续进行活动目标的提取操作;
步骤五、人员距离判断
对在步骤四中获取到的骨骼化数据进行处理,取不同人员的相同的身体关节部位点位置进行坐标系X,Y距离的计算,并根据相同的身体关节部位点位置距离的大小来判断人员是否符合距离过近的范围,若是,则判断审讯室人员近距离接触,反之,则判断待测目标距离较远,并返回步骤四继续进行骨骼化数据的提取操作。
上述技术方案中,步骤三中的所述人体特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
训练时,输入大量人体图片作为正样本,输入大量无人体图片作为负样本,通过神经网络模型训练分类器进行训练学习并得到人体特征模型;
识别时,输入运动目标的前景图片,通过运动目标的前景图片与神经网络模型训练分类器中的人体特征模型进行识别匹配,若大于相识度M,则判断前景图片中有人体目标,M=[0,1],U越高表明目标越符合人体特征。
上述技术方案中,步骤四中的所述人体骨骼化通过开源的openpose方法获得。
上述技术方案中,身体关节部位点的数据信息判断人的数量≥2包括以下方式的一种或多种:胸口关节点值≥2、肩膀关节点值≥2、肩臂关节点值≥4、手臂关节点值≥4、手腕关节点值≥4、脚腕关节点值≥4和左右臂膀关节点值≥4。
上述技术方案中,步骤五中判断人员距离过近包括以下方式的一种或多种:
(1)对在步骤四中获取到的骨骼化数据进行处理,取不同人员胸口关节点位置进行坐标系X,Y距离的计算,当不同人员之间胸口关节点位置距离小于2.5个肩臂时判断人员距离过近;
(2)对在步骤四中获取到的骨骼化数据进行处理,取脚腕关节点位置进行坐标系X,Y距离的计算,当不同人员之间脚腕关节点位置最小距离小于2.5个肩臂时判断人员距离过近;
(3)对在步骤四中获取到的骨骼化数据进行处理,取手腕关节点位置进行坐标系X,Y距离的计算,当不同人员之间手腕关节点位置最小距离小于1个肩臂时判断人员距离过近。
与现有技术相比,本发明的有益效果是:
本发明通过基于视频流数据的审讯室人员近距离接触识别方法来代替人工监控查看摄像机画面是否出现审讯室人员近距离的情况,解决审讯室人员近距离而出现的人员安全和法律公正问题,从而增强降低事件发生概率、提高监控中心工作人员工作效率。
附图说明
图1为本发明提供的基于视频流数据的审讯室人员近距离接触识别方法的流程图;
图2为本发明所述的人体特征模型通过神经网络模型训练分类器训练和识别的流程图。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合附图和具体实施方式,进一步阐述本发明是如何实施的。
本发明提供了基于视频流数据的审讯室人员近距离接触识别方法,包括以下步骤:
步骤一、视频流数据获取
在审讯室区域设置摄像头,获取摄像机视频流,并对视频流数据进行RGB转换,使其转换为相应的彩色图像;
步骤二、活动目标提取
通过对视频中获取的n帧画面进行背景建模,然后对n+1帧画面中的活动目标进行帧差,将n+1帧像素值I(x,y)减去背景模型中相同位置像素点的平均值u(x,y),得到差值d(x,y),然后将该差值d(x,y)与阈值TH进行比较,当差值d(x,y)大于阈值TH时,则标记为前景点;否则,标记为背景点;
通过前景点连续的帧来判断该活动目标是否连续运动,是否连续出现,若达不到连续N帧出现,则过滤;反之,该活动目标连续N帧出现,且N帧内活动目标的X、Y坐标大于i像素点,则判断为持续运动,得到活动目标的前景图片;其中,N=[1,200],N值的大小,反映为观察目标的时间跨度,此值越小,则给出判断的反应时间越快,越灵敏;i表示为水平和垂直方向上的位置像素量,i的取值范围[1,20],i越小,检测越灵敏;
步骤三、人体目标匹配
截取步骤二中判断为活动目标的前景图片与人体特征模型进行匹配,若大于相识度P,则判断前景图片中有人体目标,并进入下一步;反之,则判断待测目标图像中没有人体目标,并返回步骤二继续进行活动目标的提取操作;其中P=[0,1],P值越大,表示目标为人的可能性越高;
步骤四、人体骨骼化
截取步骤三中判断为有人体目标的前景图片进行人体骨骼化处理,得到身体关节部位点,包括胸口、肩膀、肩臂、手臂、手腕、脚腕和左右臂膀的关节部位点的数据信息,并通过骨骼化的身体关节部位点的数据信息判断人的数量是否大于2,若是,则进入下一步;反之,则判断待测目标图像,并返回步骤二继续进行活动目标的提取操作;
步骤五、人员距离判断
对在步骤四中获取到的骨骼化数据进行处理,取不同人员的相同的身体关节部位点位置进行坐标系X,Y距离的计算,并根据相同的身体关节部位点位置距离的大小来判断人员是否符合距离过近的范围,若是,则判断审讯室人员近距离接触,反之,则判断待测目标距离较远,并返回步骤四继续进行骨骼化数据的提取操作。
本发明中,步骤三中的所述人体特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
训练时,输入大量人体图片作为正样本,输入大量无人体图片作为负样本,通过神经网络模型训练分类器进行训练学习并得到人体特征模型;
识别时,输入运动目标的前景图片,通过运动目标的前景图片与神经网络模型训练分类器中的人体特征模型进行识别匹配,若大于相识度M,则判断前景图片中有人体目标,M=[0,1],U越高表明目标越符合人体特征。
本发明中,步骤四中的所述人体骨骼化通过开源的openpose方法获得。其开源地址为:https://github.com/CMU-Perceptual-Computing-Lab/openpose。
本发明中,身体关节部位点的数据信息判断人的数量≥2包括以下方式的一种或多种:胸口关节点值≥2、肩膀关节点值≥2、肩臂关节点值≥4、手臂关节点值≥4、手腕关节点值≥4、脚腕关节点值≥4和左右臂膀关节点值≥4。
本发明中,步骤五中判断人员距离过近包括以下方式的一种或多种:
(1)对在步骤四中获取到的骨骼化数据进行处理,取不同人员胸口关节点位置进行坐标系X,Y距离的计算,当不同人员之间胸口关节点位置距离小于2.5个肩臂时判断人员距离过近;
(2)对在步骤四中获取到的骨骼化数据进行处理,取脚腕关节点位置进行坐标系X,Y距离的计算,当不同人员之间脚腕关节点位置最小距离小于2.5个肩臂时判断人员距离过近;
(3)对在步骤四中获取到的骨骼化数据进行处理,取手腕关节点位置进行坐标系X,Y距离的计算,当不同人员之间手腕关节点位置最小距离小于1个肩臂时判断人员距离过近。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围中。

Claims (5)

1.基于视频流数据的审讯室人员近距离接触识别方法,其特征在于,包括以下步骤:
步骤一、视频流数据获取
在审讯室区域设置摄像头,获取摄像机视频流,并对视频流数据进行RGB转换,使其转换为相应的彩色图像;
步骤二、活动目标提取
通过对视频中获取的n帧画面进行背景建模,然后对n+1帧画面中的活动目标进行帧差,将n+1帧像素值I(x,y)减去背景模型中相同位置像素点的平均值u(x,y),得到差值d(x,y),然后将该差值d(x,y)与阈值TH进行比较,当差值d(x,y)大于阈值TH时,则标记为前景点;否则,标记为背景点;
通过前景点连续的帧来判断该活动目标是否连续运动,是否连续出现,若达不到连续N帧出现,则过滤;反之,该活动目标连续N帧出现,且N帧内活动目标的X、Y坐标大于i像素点,则判断为持续运动,得到活动目标的前景图片;其中,N=[1,200],N值的大小,反映为观察目标的时间跨度,此值越小,则给出判断的反应时间越快,越灵敏;i表示为水平和垂直方向上的位置像素量,i的取值范围[1,20],i越小,检测越灵敏;
步骤三、人体目标匹配
截取步骤二中判断为活动目标的前景图片与人体特征模型进行匹配,若大于相识度P,则判断前景图片中有人体目标,并进入下一步;反之,则判断待测目标图像中没有人体目标,并返回步骤二继续进行活动目标的提取操作;其中P=[0,1],P值越大,表示目标为人的可能性越高;
步骤四、人体骨骼化
截取步骤三中判断为有人体目标的前景图片进行人体骨骼化处理,得到身体关节部位点,包括胸口、肩膀、肩臂、手臂、手腕、脚腕和左右臂膀的关节部位点的数据信息,并通过骨骼化的身体关节部位点的数据信息判断人的数量是否大于2,若是,则进入下一步;反之,则判断待测目标图像,并返回步骤二继续进行活动目标的提取操作;
步骤五、人员距离判断
对在步骤四中获取到的骨骼化数据进行处理,取不同人员的相同的身体关节部位点位置进行坐标系X,Y距离的计算,并根据相同的身体关节部位点位置距离的大小来判断人员是否符合距离过近的范围,若是,则判断审讯室人员近距离接触,反之,则判断待测目标距离较远,并返回步骤四继续进行骨骼化数据的提取操作。
2.根据权利要求1所述的基于视频流数据的审讯室人员近距离接触识别方法,其特征在于:步骤三中的所述人体特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
训练时,输入大量人体图片作为正样本,输入大量无人体图片作为负样本,通过神经网络模型训练分类器进行训练学习并得到人体特征模型;
识别时,输入运动目标的前景图片,通过运动目标的前景图片与神经网络模型训练分类器中的人体特征模型进行识别匹配,若大于相识度M,则判断前景图片中有人体目标,M=[0,1],U越高表明目标越符合人体特征。
3.根据权利要求1所述的基于视频流数据的审讯室人员近距离接触识别方法,其特征在于:步骤四中的所述人体骨骼化是通过开源的openpose方法获得。
4.根据权利要求1所述的基于视频流数据的审讯室人员近距离接触识别方法,其特征在于:身体关节部位点的数据信息判断人的数量≥2包括以下方式的一种或多种:胸口关节点值≥2、肩膀关节点值≥2、肩臂关节点值≥4、手臂关节点值≥4、手腕关节点值≥4、脚腕关节点值≥4和左右臂膀关节点值≥4。
5.根据权利要求1所述的基于视频流数据的审讯室人员近距离接触识别方法,其特征在于:步骤五中判断人员距离过近包括以下方式的一种或多种:
(1)对在步骤四中获取到的骨骼化数据进行处理,取不同人员胸口关节点位置进行坐标系X,Y距离的计算,当不同人员之间胸口关节点位置距离小于2.5个肩臂时判断人员距离过近;
(2)对在步骤四中获取到的骨骼化数据进行处理,取脚腕关节点位置进行坐标系X,Y距离的计算,当不同人员之间脚腕关节点位置最小距离小于2.5个肩臂时判断人员距离过近;
(3)对在步骤四中获取到的骨骼化数据进行处理,取手腕关节点位置进行坐标系X,Y距离的计算,当不同人员之间手腕关节点位置最小距离小于1个肩臂时判断人员距离过近。
CN201910543626.XA 2019-06-21 2019-06-21 基于视频流数据的审讯室人员近距离接触识别方法 Pending CN110414339A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910543626.XA CN110414339A (zh) 2019-06-21 2019-06-21 基于视频流数据的审讯室人员近距离接触识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910543626.XA CN110414339A (zh) 2019-06-21 2019-06-21 基于视频流数据的审讯室人员近距离接触识别方法

Publications (1)

Publication Number Publication Date
CN110414339A true CN110414339A (zh) 2019-11-05

Family

ID=68359609

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910543626.XA Pending CN110414339A (zh) 2019-06-21 2019-06-21 基于视频流数据的审讯室人员近距离接触识别方法

Country Status (1)

Country Link
CN (1) CN110414339A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111080984A (zh) * 2019-11-11 2020-04-28 高新兴科技集团股份有限公司 防串供预警方法、装置、设备和系统
CN111294518A (zh) * 2020-03-09 2020-06-16 Oppo广东移动通信有限公司 人像构图肢体截断检测方法、装置、终端及存储介质
CN113923598A (zh) * 2021-07-28 2022-01-11 上海易同科技股份有限公司 一种基于蓝牙定位的人员管理方法及设备

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103279737A (zh) * 2013-05-06 2013-09-04 上海交通大学 一种基于时空兴趣点的打架行为检测方法
CN104723350A (zh) * 2015-03-16 2015-06-24 珠海格力电器股份有限公司 工业机器人安全防护智能控制方法及系统
CN106156725A (zh) * 2016-06-16 2016-11-23 江苏大学 一种基于车辆前方的行人及骑车人的识别预警系统的工作方法
CN106980116A (zh) * 2017-04-09 2017-07-25 复旦大学 基于Kinect摄像头的高精度室内人物测距方法
CN107230226A (zh) * 2017-05-15 2017-10-03 深圳奥比中光科技有限公司 人体关联关系的判断方法、装置及存储装置
CN107239744A (zh) * 2017-05-15 2017-10-10 深圳奥比中光科技有限公司 人体关联关系的监控方法、系统及存储装置
CN107390205A (zh) * 2017-07-20 2017-11-24 清华大学 一种利用车联网获取前车特征的单目视觉车辆测距方法
CN107564065A (zh) * 2017-09-22 2018-01-09 东南大学 一种协作环境下人机最小距离的测算方法
CN108319934A (zh) * 2018-03-20 2018-07-24 武汉倍特威视系统有限公司 基于视频流数据的安全帽佩戴情况检测方法
CN108460358A (zh) * 2018-03-20 2018-08-28 武汉倍特威视系统有限公司 基于视频流数据的安全帽识别方法
CN108830215A (zh) * 2018-06-14 2018-11-16 南京理工大学 基于人员骨架信息的危险行为识别方法
CN109465835A (zh) * 2018-09-25 2019-03-15 华中科技大学 一种动态环境下双臂服务机器人作业的事前安全预测方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103279737A (zh) * 2013-05-06 2013-09-04 上海交通大学 一种基于时空兴趣点的打架行为检测方法
CN104723350A (zh) * 2015-03-16 2015-06-24 珠海格力电器股份有限公司 工业机器人安全防护智能控制方法及系统
CN106156725A (zh) * 2016-06-16 2016-11-23 江苏大学 一种基于车辆前方的行人及骑车人的识别预警系统的工作方法
CN106980116A (zh) * 2017-04-09 2017-07-25 复旦大学 基于Kinect摄像头的高精度室内人物测距方法
CN107230226A (zh) * 2017-05-15 2017-10-03 深圳奥比中光科技有限公司 人体关联关系的判断方法、装置及存储装置
CN107239744A (zh) * 2017-05-15 2017-10-10 深圳奥比中光科技有限公司 人体关联关系的监控方法、系统及存储装置
CN107390205A (zh) * 2017-07-20 2017-11-24 清华大学 一种利用车联网获取前车特征的单目视觉车辆测距方法
CN107564065A (zh) * 2017-09-22 2018-01-09 东南大学 一种协作环境下人机最小距离的测算方法
CN108319934A (zh) * 2018-03-20 2018-07-24 武汉倍特威视系统有限公司 基于视频流数据的安全帽佩戴情况检测方法
CN108460358A (zh) * 2018-03-20 2018-08-28 武汉倍特威视系统有限公司 基于视频流数据的安全帽识别方法
CN108830215A (zh) * 2018-06-14 2018-11-16 南京理工大学 基于人员骨架信息的危险行为识别方法
CN109465835A (zh) * 2018-09-25 2019-03-15 华中科技大学 一种动态环境下双臂服务机器人作业的事前安全预测方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111080984A (zh) * 2019-11-11 2020-04-28 高新兴科技集团股份有限公司 防串供预警方法、装置、设备和系统
CN111294518A (zh) * 2020-03-09 2020-06-16 Oppo广东移动通信有限公司 人像构图肢体截断检测方法、装置、终端及存储介质
CN111294518B (zh) * 2020-03-09 2021-04-27 Oppo广东移动通信有限公司 人像构图肢体截断检测方法、装置、终端及存储介质
CN113923598A (zh) * 2021-07-28 2022-01-11 上海易同科技股份有限公司 一种基于蓝牙定位的人员管理方法及设备

Similar Documents

Publication Publication Date Title
CN110837784B (zh) 一种基于人体头部特征的考场偷窥作弊检测系统
CN110414339A (zh) 基于视频流数据的审讯室人员近距离接触识别方法
CN104123544B (zh) 基于视频分析的异常行为检测方法及系统
CN102831392B (zh) 一种远距离虹膜跟踪与采集装置及其方法
CN105701467B (zh) 一种基于人体形态特征的多人异常行为识别方法
CN108319934A (zh) 基于视频流数据的安全帽佩戴情况检测方法
CN106156688A (zh) 一种动态人脸识别方法及系统
CN109255298A (zh) 一种动态背景中的安全帽检测方法与系统
CN104951773A (zh) 一种实时人脸识别监视系统
CN111507592B (zh) 一种面向服刑人员的主动改造行为的评估方法
CN104166861A (zh) 一种行人检测方法
CN110427811A (zh) 基于视频流数据的人体骨骼化打架识别方法
CN108460358A (zh) 基于视频流数据的安全帽识别方法
CN106548165A (zh) 一种基于图像分块加权的卷积神经网络的人脸识别方法
CN112560741A (zh) 一种基于人体关键点的安全穿戴检测方法
CN109558825A (zh) 一种基于数字视频图像处理的瞳孔中心定位方法
CN109325463A (zh) 一种人脸实时跟踪方法
CN102184016B (zh) 基于视频序列识别的无接触式鼠标控制方法
CN110781762B (zh) 一种基于姿态的考试作弊检测方法
CN113903081A (zh) 一种水电厂图像视觉识别人工智能报警方法及装置
CN105022999A (zh) 一种人码伴随实时采集系统
CN102930334A (zh) 视频人体轮廓识别计数器
CN109544523A (zh) 基于多属性人脸比对的人脸图像质量评价方法及装置
CN106204223A (zh) 图像处理方法及系统
CN105426928B (zh) 一种基于Haar特征和EOH特征的行人检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191105

RJ01 Rejection of invention patent application after publication