CN110929584A - 网络训练方法、监控方法、系统、存储介质和计算机设备 - Google Patents

网络训练方法、监控方法、系统、存储介质和计算机设备 Download PDF

Info

Publication number
CN110929584A
CN110929584A CN201911034172.XA CN201911034172A CN110929584A CN 110929584 A CN110929584 A CN 110929584A CN 201911034172 A CN201911034172 A CN 201911034172A CN 110929584 A CN110929584 A CN 110929584A
Authority
CN
China
Prior art keywords
image
recognized
branch
neural network
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911034172.XA
Other languages
English (en)
Inventor
林孝发
林孝山
胡金玉
于海峰
梁俊奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jomoo Kitchen and Bath Co Ltd
Original Assignee
Jomoo Kitchen and Bath Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jomoo Kitchen and Bath Co Ltd filed Critical Jomoo Kitchen and Bath Co Ltd
Priority to CN201911034172.XA priority Critical patent/CN110929584A/zh
Priority to PCT/CN2019/119826 priority patent/WO2021082112A1/zh
Priority to US16/704,304 priority patent/US20210124914A1/en
Publication of CN110929584A publication Critical patent/CN110929584A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了深度卷积神经网络的训练方法、异常行为监控方法、系统、存储介质和计算机设备。所述深度卷积神经网络为单阶段双分支卷积神经网络,包括用于预测置信度的第一分支和用于预测局部亲和矢量场的第二分支,所述方法包括:输入待识别图像;根据预设的待识别对象,对所述待识别图像进行特征分析,得到包含所述待识别图像中待识别对象的一组或多组特征图集,每组特征图集对应一个待识别对象;将所述一组特征图集输入到所述深度卷积神经网络的第一分支,得到置信度预测结果;将所述置信度预测结果与所述一组特征图集输入到所述深度卷积神经网络的第二分支,得到亲和场预测结果;根据所述置信度预测结果和亲和场预测结果得到人体骨骼图。

Description

网络训练方法、监控方法、系统、存储介质和计算机设备
技术领域
本发明实施例涉及计算机领域,尤指一种深度卷积神经网络训练方法、异常行为监控方法、系统、存储介质和计算机设备。
背景技术
传统的监控系统,需要聘请专职的值班人员看守,值班人员需要时刻盯着监控画面,但面对数量众多的监控画面,值班人员无法看到所有的监控画面。所以很多时候,传统的监控系统更多的是起到威慑和事后取证的作用。
发明内容
本申请实施例提供了一种卷积神经网络训练方法、异常行为监控方法、异常行为监控系统、存储介质和计算机设备。
一方面,本发明实施例提供了一种深度卷积神经网络的训练方法,所述深度卷积神经网络为单阶段双分支卷积神经网络,包括用于预测置信度的第一分支和用于预测局部亲和矢量场的第二分支,所述方法包括:
输入待识别图像;根据预设的待识别对象,对所述待识别图像进行特征分析,得到包含所述待识别图像中待识别对象的一组或多组特征图集,每组特征图集对应一个待识别对象;将所述一组特征图集输入到所述深度卷积神经网络的第一分支,得到置信度预测结果;将所述置信度预测结果与所述一组特征图集输入到所述深度卷积神经网络的第二分支,得到亲和场预测结果;根据所述置信度预测结果和亲和场预测结果得到人体骨骼图。
另一方面,本发明实施例提供了一种基于深度卷积神经网络的异常行为监控方法,所述深度卷积神经网络为采用上述方法训练得到的深度卷积神经网络,所述监控方法包括:
获取待识别图像;采用所述深度卷积神经网络获取所述待识别图像中的人体的骨骼图;对所述骨骼图进行行为识别,判断为异常行为时,触发报警。
另一方面,本发明实施例还提供了一种基于深度卷积神经网络的异常行为监控系统,所述深度卷积神经网络为采用前述方法训练得到的深度卷积神经网络,所述系统包括:
图像采集装置,用于采集待识别图像;
服务器端,用于获取图像采集装置发送的待识别图像,采用CNN网络获取所述待识别图像中的人体的骨骼图,并对所述骨骼图进行行为识别,判断有异常行为时,向客户端发送报警信号;以及
客户端,用于接收服务器端发送的报警信号,根据所述报警信号触发报警。
另一方面,本发明实施例还提供了一种计算机可读存储介质,存储有程序指令,当该程序指令被执行时可实现前述方法。
另一方面,本发明实施例还提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现前述方法的步骤。
采用本发明实施例训练方法训练得到的CNN网络可以同时对多个待识别对象进行识别,且计算速度快,计算复杂度低。
采用本发明实施例的异常行为监控方法和系统,通过对获取的待识别图像进行人体骨骼图构建,针对构建的人体骨骼图进行异常行为识别,一旦发现异常行为即刻触发报警。可实现自动、智能地捕捉异常行为,且识别准确,避免了人工监控的误判率和漏判率,同时减少人工成本。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的其他优点可通过在说明书、权利要求书以及附图中所描述的方案来实现和获得。
附图说明
附图用来提供对本申请技术方案的理解,并且构成说明书的一部分,与本申请的实施例一起用于解释本申请的技术方案,并不构成对本申请技术方案的限制。
图1为本发明实施例14点骨骼图标注法示意图;
图2为本发明实施例一方法流程图;
图3为本发明实施例单阶段双分支CNN网络结构图;
图4为本发明实施例多人骨骼图提取的流程图;
图5a-c为本发明实施例将关键点连接为骨骼图的过程示意图;
图6为本发明实施例异常行为监控方法的流程图;
图7a-d为本发明实施例阳台异常行为示意图;
图8为本发明实施例应用于阳台场景的监控系统部署图;
图9为本发明实施例计算机设备的结构示意图。
具体实施方式
本申请描述了多个实施例,但是该描述是示例性的,而不是限制性的,并且对于本领域的普通技术人员来说显而易见的是,在本申请所描述的实施例包含的范围内可以有更多的实施例和实现方案。尽管在附图中示出了许多可能的特征组合,并在具体实施方式中进行了讨论,但是所公开的特征的许多其它组合方式也是可能的。除非特意加以限制的情况以外,任何实施例的任何特征或元件可以与任何其它实施例中的任何其他特征或元件结合使用,或可以替代任何其它实施例中的任何其他特征或元件。
本申请包括并设想了与本领域普通技术人员已知的特征和元件的组合。本申请已经公开的实施例、特征和元件也可以与任何常规特征或元件组合,以形成由权利要求限定的独特的发明方案。任何实施例的任何特征或元件也可以与来自其它发明方案的特征或元件组合,以形成另一个由权利要求限定的独特的发明方案。因此,应当理解,在本申请中示出和/或讨论的任何特征可以单独地或以任何适当的组合来实现。因此,除了根据所附权利要求及其等同替换所做的限制以外,实施例不受其它限制。此外,可以在所附权利要求的保护范围内进行各种修改和改变。
此外,在描述具有代表性的实施例时,说明书可能已经将方法和/或过程呈现为特定的步骤序列。然而,在该方法或过程不依赖于本文所述步骤的特定顺序的程度上,该方法或过程不应限于所述的特定顺序的步骤。如本领域普通技术人员将理解的,其它的步骤顺序也是可能的。因此,说明书中阐述的步骤的特定顺序不应被解释为对权利要求的限制。此外,针对该方法和/或过程的权利要求不应限于按照所写顺序执行它们的步骤,本领域技术人员可以容易地理解,这些顺序可以变化,并且仍然保持在本申请实施例的精神和范围内。
为了避免传统监控系统需要人工值守容易漏判的弊端,申请人提出一种采用卷积神经网络对异常行为进行监控的方法,为使该卷积神经网络能够对人体姿态进行识别,申请人提供一种训练卷积神经网络的方法,下面分实施例进行说明。
实施例一
本实施例描述如何训练获得用于识别人体姿态的深度卷积神经网络(DeepConvolutional Neural Network,本文中简称为CNN网络)。本实施例中的CNN网络通过对图片识别得到人体关键点骨骼图,以对图像中存在的一个或多个人进行姿态识。
人体关键点骨骼图由一组坐标点组成,通过坐标点的连接来描述人的姿态。骨骼图中的每一个坐标点称为一个关键点(part,或称为部分或关节),两个关键点之间的有效连接称为一个肢体(pair,或称为对)。
本实施例所述人体关键点识别包括以下识别的一种或多种:人脸关键点识别、身体关键点识别、足部关键点识别、手部关键点识别。其中,人脸关键点识别是以面部为对象的识别,关键点个数依据设计精度以及所采用的数据库不同,从6个到130个可选。身体关键点是以整体躯干部分为对象的识别,一个完整的身体关键点骨骼图如图1所示,包括:0-头,1-脖子,2-右肩,3-右肘,4-右手腕,5-左肩,6-左肘,7-左手腕,8-右臀,9-右膝盖,10-右脚踝,11-左臀,12-左膝盖,13-左脚踝。手部关键点识别是以手为对象的识别,可以包括手部21个关键点的识别。足部关键点识别是以脚为对象的识别,关键点个数依据需要确定。包含所有人脸关键点识别、身体关键点识别、足部关键点识别和手部关键点识别的识别为全身关键点识别,其识别对象包括:人脸、身体、足部和手部。根据应用场景的不同,训练时可以仅对其中的部分进行识别,例如应用于异常行为识别时,可以仅进行身体关键点识别,或者进行身体关键点识别和人脸关键点识别,或者进行身体关键点识别、人脸关键点识别和手部关键点识别,或者进行全身关键点识别。本实施例以进行全身关键点识别为例进行说明。
本实施例的CNN网络训练方法如图2所示,包括以下步骤:
步骤10,输入待识别图像;
所述待识别图像可以是从图像采集设备获取的,例如可以是图像采集设备直接采集的图像,也可以是图像采集设备采集的视频中的图像。除了从图像采集设备获取外,还可以从存储有图像或者视频的存储设备中获取待识别图像。本发明实施例对采集图像所用的图像采集设备无限制,只要能采集图像即可。所述图像可以是彩色的。所述图像中的人可以是单个也可以是多个。
步骤11,根据预设的待识别对象,对所述待识别图像进行特征分析,得到包含所述待识别图像中待识别对象的一组或多组特征图集;
以全身关键点识别为例,则待识别对象包括:人脸、身体、足部和手部,从待识别图像中获得所有的人脸、身体、足部和头部。该过程也可称为预训练过程。
例如可以使用VGG-19的前10层对输入的待识别图像进行特征分析(例如初始化并微调)以生成一组或多组特征图集F,每组特征图集(或每个特征图集组)对应一个待识别对象。一组特征图集中包含一个或多个特征图,即一个特征图集中包括一个或多个特征图。例如对待识别图像进行特征分析后可以得到四组特征图集,包括:人脸特征图集、身体特征图集、足部特征图集和手部特征图集,其中每个特征图集包括图中所有相应待识别对象的特征图,例如人脸特征图集中包括图中所有的人脸特征图,手部特征图集包括图中所有的手部特征图。本例中仅以使用VGG-19的前10层为例,在其他实施例中,使用的层数可以与本实施例不同。为提取特征信息得到特征图集F所使用的网络也可以是其他网络。
在一示例性实施例中,当对身体局部,例如脸部、足部或手部提取特征图前,可根据需要提高待识别图像的分辨率,以使得得到的包含所述待识别图像中待识别对象的多组特征图集中,至少有两组特征图集的分辨率不同。例如,对身体部分进行特征分析得到的特征图的分辨率为128*128,但是针对手部进行特征分析时,如果仍采用128*128的分辨率会导致局部识别精度过低,因此可先将原始图像放大到例如960*960,再提取手部特征图,以保证局部识别的精确度。每个待识别对象的特征图分辨率均可以不同。
步骤12,将所述一组特征图集F输入到用于预测置信度的第一分支,得到置信度预测结果;
本实施例采用单阶段(stage)双分支CNN网络获得人体骨骼图,如图3所示,其中第一分支用于预测置信度(Part Confidence Maps,或称置信图或置信度图),第二分支用于预测局部亲和矢量场(Part Affinity Fields,PAFs,简称亲和场),其中,置信度用于预测关键点位置,亲和场用于表示关键点之间的关联程度。
具体地,将一组特征图集F输入第一分支,并用预设的置信度损失函数约束该第一分支的训练精度,当训练精度满足预设置信度损失函数阈值时,可得到置信度C=ω(F),其中ω()对应第一分支的网络参数。
本实施例中是对所有待识别对象的特征图集同时进行预测训练,即多任务并存,使得实际网络应用时可以同时预测出全身的骨骼图,提高预测速度。同时由于采用多任务训练和预测,使得当人体存在遮挡时不会影响预测结果,例如当身体被遮挡时,不会影响脸部和手部的关键点识别。当识别多人的骨骼图时,大幅降低算法复杂度,提高计算速度,减少计算时间。
置信度损失函数fc可采用下式计算获得
Figure BDA0002250404250000061
其中,fC为置信度损失函数,j表示关键点,j∈{1,…,J},J为关键点总数;Cj(p)为关键点j在图像中p处坐标位置的置信度预测值,
Figure BDA0002250404250000071
为该关键点j在p处真实的置信度,或者说是真实状态下的人的关节点;R()是一个非0即1的函数,当图像中的p处没有标注时,则R(p)=0。函数R用于避免在训练期间惩罚真正的阳性预测。
步骤13,将所述置信度预测结果与所述一组特征图集输入到用于预测亲和场的第二分支,得到亲和场预测结果;
本实施例中采用全身关键点识别,所述置信度预测结果为一个串联集合,包括4个子集合,分别为人脸关键点子集合、身体关键点子集合、足部关键点子集合和手部关键点子集合(顺序不限)。在其他实施例中,依据识别对象的不同,串联集合中的子集合数量可能有所不同。每个子集合中均有与其他一个或多个子集合重合的关键点,以便于后续得到全身的完整骨骼图。例如人脸关键点子集合中有至少一个关键点与身体关键点子集合中的至少一个关键点坐标重合,身体关键点子集合中有至少一个关键点与足部关键点子集合中的至少一个关键点坐标重合,并且有至少一个关键点与手部关键点子集合中的至少一个关键点坐标重合。每个子集作为一个单元计算亲和场。
具体地,将一组特征图集F和置信度预测结果输入第二分支,同时也用相应的预设亲和场损失函数控制训练精度,在训练精度满足预设亲和场损失函数阈值时,可得到亲和场Y=θ(F),其中θ()对应第二分支的网络参数。
由于采用多任务并存,当其中身体局部的特征图的分辨率提高时,为了保证检测精度,可以增加第二分支中的卷积块的数量,例如在第二分支中设置10个卷积块,或根据计算速度可以相应增加或减少卷积块数量。第二分支中卷积块数量可以大于第一分支中卷积块的数量。
在一示例性实施方式中,为了提高整体精度,还可以增加第二分支中一个或多个卷积块的宽度,各卷积块的宽度可以相同,也可以不同。例如共有顺序排列的x个卷积块,可以设置最后h个卷积块每个卷积块的宽度均大于前面x-h个卷积块的宽度,x、h均为大于1的正整数,h<x。例如,前面若干的卷积块的宽度为3*3,则可以将最后一个卷积块宽度设置为7*7、或9*9、或12*12等。第一分支与第二分支的卷积块宽度可以不同。
在一示例性实施例中,当增加卷积块的数量同时增加卷积块的宽度后,可将整个第二分支的网络层数减少到10-15层,以保证网络预测速度。
亲和场损失函数fY可采用下式计算获得:
Figure BDA0002250404250000081
其中,fY为亲和场损失函数,i表示亲和场,i∈{1,…,I},I为亲和场总数;Yi(p)为图像中p处的第i个亲和场的预测值,Yi *(p)是p处第i个亲和场的真实值,即真实状态下关键点与关键点的关系;R()是一个非0即1的函数,当图像中的p处没有标注时,则R(p)=0。函数R用于避免在训练期间惩罚真正的阳性预测。
在一示例性实施例中,在上述步骤12得到置信度损失函数以及在步骤13得到亲和场损失函数值后,还可以计算总的目标损失函数,并判断是否满足目标损失函数阈值,进一步全面衡量网络预测结果的准确性。当满足预设置信度损失函数阈值、满足预设局部亲和矢量场损失函数阈值且满足预设目标损失函数阈值时,所述深度卷积神经网络训练完成。
步骤14,根据置信度预测结果和亲和场预测结果得到人体骨骼图。
采用亲和场方法可以检测各关键点之间的关联性,能够在整个肢体区域保留位置和旋转信息。亲和场是每个肢体的二维向量场。对于属于某个特定肢体区域中的每个像素的二维矢量编码,都是一个向量从肢体的一个关键点指向另外一个关键点。在一示例性实施例中,在训练和测试期间,可以通过计算相应的亲和场的线性积分来评估连接的好坏。对于两个可能的关键点位置之和,通过积分值来衡量两点间线段的可靠性。
假设真实置信度结果为a个,通过第一CNN网络得到的置信度预测结果可能是a+b个,结合亲和场从a+b个置信度预测结果中选出a个,并连接形成全身骨骼图。
在计算亲和场时,可采用二分图匹配算法(Bipartute matcing)进行计算。在本实施例中,为了提高计算速度,简化计算复杂度,将贪婪算法引入二分图匹配算法中,以得到人体骨骼图。
在本发明实施例中,第一分支和第二分支均只需一个阶段即可实现较好的预测结果,无需进行多阶段的预测。
由于每个子集作为一个单元计算亲和场。下面以计算身体部分的亲和场为例,对上述步骤14中采用引入贪婪算法的二分图匹配算法进行说明,计算得到人体骨骼图的过程如图4所示,包括以下步骤:
步骤141,根据置信度预测结果确定关键点的位置,根据所述关键点采用二分图匹配方法计算一个肢体的连接,独立地获得每个肢体(每种肢体类型)的肢体连接,直到获得每种肢体类型的肢体连接;
获得图片中所有身体部位的检测候选集即前述串联集合。只考虑相邻节点的连接,且每次只考虑一个肢体连接。即对于连接一个肢体l的两个关键点,每个关键点具有一个子集,得到两个子集m和n,对m中的关键点和n中的关键点进行两两匹配,最后计算出相关两关键点的亲和场,选择亲和场最强的两个关键点进行连接,得到两关键点之间的肢体连接。采用二分图匹配方法可以增加计算速度,在其他实施例中,也可以采用其他算法。
图5a所示为通过第一分支后得到的身体关键点示意图,图5b为计算得到的关键点1到关键点2的连接。
步骤142,把身体的各个关键点都连接起来:对于得到所有可能的肢体预测,通过共享位置相同的关键点来组装为身体的骨骼图,本例中为身体骨骼图,如图5c所示。
对于每个待识别对象(即身体局部)可以采用上述方法得到该待识别对象的骨骼图,之后根据重合的关键点坐标(即共享位置相同的关键点),将所有各局部骨骼图组合在一起,得到全身的骨骼图。
如果在输入CNN网络时提高了某身体部位特征图的分辨率,则需要统一图片尺寸后再进行组装。
采用本发明实施例方法训练得到的CNN网络可以同时对多个待识别对象进行识别,且计算速度快,计算复杂度低。
在通过上述方法训练得到单阶段双分支CNN网络后,在实际使用过程中,可以通过以下步骤构建得到人体骨骼图,所述骨骼图构建算法包括以下步骤:
步骤21,将待识别图像输入通过前述实施例训练得到的CNN网络;
该算法可以采用彩色图像作为输入。
步骤22,通过该CNN网络计算并输出图像中所有人的骨骼图。
采用上述CNN网络输出人体骨骼图,复杂度低,计算速度快。
实施例二
通过上述实施例一方法训练得到的CNN网络可以应用于对异常行为进行监控,图6为本发明实施例异常行为监控方法的流程图,包括以下步骤31-步骤33。
步骤31,获取待识别图像;
本步骤中所述获取待识别图像可以是从图像采集设备获取,例如可以是获取图像采集设备直接采集的图像,也可以是获取图像采集设备采集的视频中的图像。除了从图像采集设备获取外,还可以从存储有图像或者视频的存储设备中获取。所述图像可以是彩色的,也可以是黑白的。
本发明实施例对采集图像所用的图像采集设备无限制,只要能采集图像即可。
步骤32,构建所述待识别图像中的人体的骨骼图;
待识别图像中的人可以是一个,也可以是多个,即可以构建单人的骨骼图,也可以构建多人的骨骼图,通过骨骼图可以较准确的描绘出人体的姿态,为后续进行异常行为识别打下良好的基础。具体可以采用实施例一训练得到的CNN网络进行多人姿态估计,先通过训练好的CNN网络得到置信度和亲和场,接着使用引入了贪婪算法(或称贪心算法)的二分图匹配算法解析置信度和亲和场,最终得到多个人的骨骼图。
步骤33,对所述人体骨骼图进行行为识别,判断为异常行为时,触发报警。
异常行为例如可以是预先设置的不安全动作,根据监控方法适用的场景可以自行定义不安全动作。例如所述监控方法用于阳台场景时,不安全动作可以包括但不限于以下动作的一种或多种:攀爬、攀高、闯入、跌倒等。可以预先设置动作库,用于对异常行为进行定义,或者对人体骨骼图进行实时识别。当满足异常行为条件即符合异常行为(例如不安全动作)特征时,进行报警。
本发明实施例提出的异常行为监控方法,通过对获取的待识别图像进行人体骨骼图构建,针对构建的人体骨骼图进行异常动作(如不安全动作)识别,一旦发现异常行为即刻触发报警。可实现自动、智能地捕捉异常行为,且识别准确,避免了人工监控的误判率和漏判率,同时减少人工成本。
本发明实施例可以适用于各种安防监控场景。针对不同的安防监控场景,只需设置相应的异常行为动作库即可。例如,可以应用于工厂、写字楼等工作场所,还可以应用于居家场景。
在一示例性实施例中,以针对阳台异常行为监控为例进行说明,为了判别某个动作是不是安全的,需要先对不安全的动作进行定义。
在此,本实施例中定义了四类动作为不安全动作,分别是攀爬(图7a)、攀高(图7b)、闯入(图7c)和跌倒(图7d)。
攀爬行为和攀高行为是从两个角度来判断同一种登高的动作。例如,当人的脚超过了一定的高度(比如0.3米),就认为出现攀爬行为,则触发报警。攀高行为则可以是当人的头出现在超过正常人高度的地方,比如2米,认为出现攀高行为,就触发报警。某种意义上,这两种行为是可能有重叠的,也可能不重叠。比如小孩爬到了一定的高度,高于0.3米低于2米,就触发攀爬行为,而不会触发攀高行为。如果一个大人,爬到一定的高度,但是由于衣物等遮挡,摄像头没有检测到这个人的脚,但是在高于2米的范围内检测到了头,就会触发攀高事件,而不会触发攀爬事件。如果攀爬时刚好脚高于0.3米,头在2米以上的空间,攀爬和攀高两个事件都会触发,导致报警。
(a)攀爬行为
在阳台的监控画面下,如果有人攀爬栏杆、窗户等,可通过手机端弹出攀爬事件的预警。攀爬示意图见图7a。
在一示例中,可以将双脚都离开了地面并且身体形态为往上爬定义为攀爬动作。该动作的设置规则可以是,将阳台靠室外方向从距离地面一定高度(例如0.3米,该高度用户可以自行设置)到天花板的区域设置为警戒区域,如果判断在该区域出现腿,就判定为攀爬动作。该类报警通常不会出现误判。
(b)攀高行为
在阳台的监控画面下,如果有人出现在一个高于正常人的高度范围,可通过手机端弹出攀高的预警,攀高示意图见图7b。
在系统设定的高度范围内,如果出现了人头就定义为攀高。该动作的设置例如可以将阳台上超过正常人的高度(例如2米,该高度用户可自行设置)到屋顶的区域设置为警戒区域。如果在该警戒区域内检测到人的头部关键点,或者脸部骨骼图,就触发预警。攀高事件属于骨骼特征与人体姿态的综合识别,这类动作报警通常无误判。
(c)闯入行为
如果发现有人闯入监控画面,可通过手机端弹出闯入行为预警。可根据需要设置监控时间段(或称布防时间段),比如在晚上睡觉时间有人闯入阳台,则可以触发报警(见图7c)。
可以把画面检测中检测到有人的事件定义为闯入事件。在设置规则时候,可以设置有效监控区域(例如可将整个阳台区域默认为监控区),以及布防时间段,当在该时间段内有人闯入则触发报警。该类报警属于骨骼识别类动作,通常没有误判。
(d)跌倒行为
在服务器开启摄像机的跌倒行为识别后,监控画面下如果发现有人突然晕倒、摔倒等情况,可在手机屏幕上弹出倒地的预警画面。
从骨骼图的角度来说,当人的头、屁股和脚都处于同一个平行于地面的平面时,定义为跌倒。对该动作设置规则时,可不必设置警戒区域和布防时间段,可全区域全时间范围内实施监测。用户可以对灵敏度进行调整。灵敏度越低,识别规则要求越高,误报会降低。灵敏度越高,识别规则要求就越低,误报会增加。此外还可以设置跌倒时间阈值,例如当人跌倒在地上,如果立即爬起来,则不报警,如果超过跌倒时间阈值(例如2分钟,用户可自行设置)还是没有爬起来,则报警。
当通过实施例一训练方法得到的CNN网络应用于异常行为识别时,特别是应用于对生命安全有影响的异常行为识别时,几秒钟的差异就可能造成不同的结果,采用该CNN网络可以较快得出结果,最大限度争取时间。
实施例三
本发明实施例提出一种基于CNN网络的异常行为监控系统,当监控区域出现异常行为(例如不安全的行为)时,客户端就会即时收到预警信息和画面。所述系统应用于阳台场景的部署如图8所示,包括:
图像采集装置,用于采集待识别图像;
服务器端,用于获取图像采集装置发送的待识别图像,采用CNN网络获取所述待识别图像中的人体的骨骼图,并对所述骨骼图进行行为识别,判断有异常行为时,向客户端发送报警信号;
客户端,用于接收服务器端发送的报警信号,根据所述报警信号触发报警,如果所述报警信号中包含预警图像时,则实时显示所述预警图像。
例如,当所述监控系统为阳台安防系统时,可在多个用户的阳台安装摄像头,这些摄像头可以采集阳台的实时视频。服务器端可以接收多个用户阳台摄像头发送的实时视频并进行实时分析,所述服务器可以设置在云端,当云端服务器判断有异常行为时,向相应的客户端发送报警信号。客户端可通过用户手持终端下载相应的应用程序(APP)实现,该客户端可提供用户设置以下内容的一种或多种:需要监控的异常行为(例如以下行为的一种或多种:攀高、攀爬、闯入和跌倒),预警区域、监控区域、监控时间段以及监控的灵敏度等。
本发明实施例所述异常行为监控系统,主要优势就是能够快速、主动的防御和提前预警。通过客户端提前把用户需要的各种异常行为设置好,向用户报警系统识别出的各种异常行为。依据云计算和行为识别分析能力,解决了依靠人力去发现异常问题的困境。该系统还可以将各种突发事件的现场照片发给用户客户端,方便用户及时处理和解决场内发生的问题。本实施例系统不仅是可以适用于大型公共场合,还可以适用于家居安防智能监控。
本发明实施例的智能行为识别,是基于实时多人人体姿态识别。给定一张RGB图片,可以得到所有人的关键点位置信息,同时可以确定每一个关键点是属于图片中哪个人的,即关键点之间的连接信息。传统的多人人体子团体估计算算法一般采用自上而下的方法,这种方法的第一主要缺陷是依赖人体姿态的检测,第二个缺陷就是算法速度与图片中人的数目成正比。本系统采用的是自下而上的方法,首先检测到人体的关键点,然后通过计算亲和场来连接这些关键点,最后勾勒出人体的骨骼图。另外,相对传统的分析方法,本发明是实时地在视频上对每一帧图像进行检测,同时由于训练得到的CNN网络能够同时执行多任务,因此本系统对异常行为事件处理的响应速度,会比传统方法的响应速度快很多。
在本申请一示例性实施例中,还提供了一种计算机设备。所述设备可包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本发明实施例服务器设备所执行的操作。
如图9所示,在一个示例中,计算机接收40可包括:处理器410、存储器420、总线系统430和收发器440,其中,该处理器410、该存储器420和该收发器440通过该总线系统1430相连,该存储器1420用于存储指令,该处理器410用于执行该存储器420存储的指令,以控制该收发器440发送信号。
应理解,处理器410可以是中央处理单元(Central Processing Unit,简称为“CPU”),处理器410还可以是其他通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器420可以包括只读存储器和随机存取存储器,并向处理器410提供指令和数据。存储器420的一部分还可以包括非易失性随机存取存储器。
总线系统430除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清楚说明起见,在图9中将各种总线都标为总线系统430。
在实现过程中,该计算机设备所执行的处理可以通过处理器410中的硬件的集成逻辑电路或者软件形式的指令完成。即本发明实施例所公开的方法的步骤可以体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等存储介质中。该存储介质位于存储器420,处理器410读取存储器420中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
以上显示和描述了本申请的基本原理和主要特征和本申请的优点。本申请不受上述实施例的限制,上述实施例和说明书中描述的只是说明本申请的原理,在不脱离本申请精神和范围的前提下,本申请还会有各种变化和改进,这些变化和改进都落入要求保护的本申请范围内。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、装置中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。在硬件实施方式中,在以上描述中提及的功能模块/单元之间的划分不一定对应于物理组件的划分;例如,一个物理组件可以具有多个功能,或者一个功能或步骤可以由若干物理组件合作执行。某些组件或所有组件可以被实施为由处理器,如数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。

Claims (12)

1.一种深度卷积神经网络的训练方法,其特征在于,所述深度卷积神经网络为单阶段双分支卷积神经网络,包括用于预测置信度的第一分支和用于预测局部亲和矢量场的第二分支,所述方法包括:
输入待识别图像;根据预设的待识别对象,对所述待识别图像进行特征分析,得到包含所述待识别图像中待识别对象的一组或多组特征图集,每组特征图集对应一个待识别对象;将所述一组特征图集输入到所述深度卷积神经网络的第一分支,得到置信度预测结果;将所述置信度预测结果与所述一组特征图集输入到所述深度卷积神经网络的第二分支,得到亲和场预测结果;根据所述置信度预测结果和亲和场预测结果得到人体骨骼图。
2.根据权利要求1所述的训练方法,其特征在于,所述方法还包括:
在所述第一分支得到所述置信度预测结果后,计算置信度损失函数,判断是否满足预设置信度损失函数阈值;
在所述第二分支得到所述局部亲和矢量场预测结果后,计算局部亲和矢量场损失函数,判断是否满足预设局部亲和矢量场损失函数阈值;
计算所述置信度损失函数与局部亲和矢量场损失函数之和,判断是否满足预设目标损失函数阈值;
当满足预设置信度损失函数阈值、满足预设局部亲和矢量场损失函数阈值且满足预设目标损失函数阈值时,所述深度卷积神经网络训练完成。
3.根据权利要求1所述的训练方法,其特征在于,所述对所述待识别图像进行特征分析前,所述方法还包括:提高所述待识别图像的分辨率;所述得到的包含所述待识别图像中待识别对象的多组特征图集中,至少有两组特征图集的分辨率不同。
4.根据权利要求1所述的训练方法,其特征在于,
所述第二分支中卷积块的数量大于第一分支中卷积块的数量。
5.根据权利要求1所述的训练方法,其特征在于,
所述第二分支中包括顺序排列的x个卷积块,所述第二分支中最后h个卷积块中每个卷积块的宽度均大于前面x-h个卷积块的宽度,x和h为大于1的正整数,h<x。
6.一种基于深度卷积神经网络的异常行为监控方法,其特征在于,所述深度卷积神经网络为采用权利要求1-5中任一方法训练得到的深度卷积神经网络,所述方法包括:
获取待识别图像;
采用所述深度卷积神经网络获取所述待识别图像中的人体的骨骼图;
对所述骨骼图进行行为识别,判断为异常行为时,触发报警。
7.根据权利要求6所述的异常行为监控方法,其特征在于,所述深度卷积神经网络为单阶段双分支卷积神经网络,包括用于预测置信度的第一分支和用于预测局部亲和矢量场的第二分支,所述采用深度卷积神经网络获取所述待识别图像中的人体的骨骼图包括:
输入待识别图像;根据预设的待识别对象,对所述待识别图像进行特征分析,得到包含所述待识别图像中待识别对象的一组或多组特征图集,每组特征图集对应一个待识别对象;将所述一组特征图集输入到所述深度卷积神经网络的第一分支,得到置信度预测结果;将所述置信度预测结果与所述一组特征图集输入到所述深度卷积神经网络的第二分支,得到亲和场预测结果;根据所述置信度预测结果和亲和场预测结果得到人体骨骼图。
8.根据权利要求7所述的异常行为监控方法,其特征在于,所述对所述待识别图像进行特征分析前,所述方法还包括:提高所述待识别图像的分辨率;所述得到的包含所述待识别图像中待识别对象的多组特征图集中,至少有两组特征图集的分辨率不同。
9.根据权利要求7所述的异常行为监控方法,其特征在于,所述根据所述置信度预测结果和亲和场预测结果得到人体骨骼图,包括:
对于每个待识别对象,根据所述置信度预测结果得到关键点的位置,根据所述关键点采用二分图匹配方法计算获得每种肢体类型的肢体连接,共享位置相同的关键点,组成所述待识别对象的骨骼图。
10.一种基于深度卷积神经网络的异常行为监控系统,所述深度卷积神经网络为采用权利要求1-5中任一方法训练得到的深度卷积神经网络,所述系统包括:
图像采集装置,用于采集待识别图像;
服务器端,用于获取图像采集装置发送的待识别图像,采用CNN网络获取所述待识别图像中的人体的骨骼图,并对所述骨骼图进行行为识别,判断有异常行为时,向客户端发送报警信号;以及
客户端,用于接收服务器端发送的报警信号,根据所述报警信号触发报警。
11.一种计算机可读存储介质,存储有程序指令,当该程序指令被执行时可实现权利要求1-5或6-9中任一项所述的方法。
12.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-5或6-9中任一项所述方法的步骤。
CN201911034172.XA 2019-10-28 2019-10-28 网络训练方法、监控方法、系统、存储介质和计算机设备 Pending CN110929584A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201911034172.XA CN110929584A (zh) 2019-10-28 2019-10-28 网络训练方法、监控方法、系统、存储介质和计算机设备
PCT/CN2019/119826 WO2021082112A1 (zh) 2019-10-28 2019-11-21 神经网络训练、骨骼图构建、异常行为监控方法和系统
US16/704,304 US20210124914A1 (en) 2019-10-28 2019-12-05 Training method of network, monitoring method, system, storage medium and computer device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911034172.XA CN110929584A (zh) 2019-10-28 2019-10-28 网络训练方法、监控方法、系统、存储介质和计算机设备

Publications (1)

Publication Number Publication Date
CN110929584A true CN110929584A (zh) 2020-03-27

Family

ID=69849636

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911034172.XA Pending CN110929584A (zh) 2019-10-28 2019-10-28 网络训练方法、监控方法、系统、存储介质和计算机设备

Country Status (3)

Country Link
US (1) US20210124914A1 (zh)
CN (1) CN110929584A (zh)
WO (1) WO2021082112A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112131985A (zh) * 2020-09-11 2020-12-25 同济人工智能研究院(苏州)有限公司 一种基于OpenPose改进的实时轻量人体姿态估计方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11138414B2 (en) * 2019-08-25 2021-10-05 Nec Corporation Of America System and method for processing digital images
TWI733616B (zh) * 2020-11-04 2021-07-11 財團法人資訊工業策進會 人體姿勢辨識系統、人體姿勢辨識方法以及非暫態電腦可讀取儲存媒體
CN113326778B (zh) * 2021-05-31 2022-07-12 中科计算技术西部研究院 基于图像识别的人体姿态检测方法、装置和存储介质
CN113673601B (zh) * 2021-08-23 2023-02-03 北京三快在线科技有限公司 一种行为识别方法、装置、存储介质及电子设备
CN114550287A (zh) * 2022-01-27 2022-05-27 福建和盛高科技产业有限公司 基于人体关键点的变电站场景下人员行为异常检测方法
CN116189311B (zh) * 2023-04-27 2023-07-25 成都愚创科技有限公司 一种防护服穿戴标准化流程监测系统
CN116863638B (zh) * 2023-06-01 2024-02-23 国药集团重庆医药设计院有限公司 一种基于主动预警的人员异常行为检测方法及安防系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052896A (zh) * 2017-12-12 2018-05-18 广东省智能制造研究所 基于卷积神经网络与支持向量机的人体行为识别方法
CN109460702A (zh) * 2018-09-14 2019-03-12 华南理工大学 基于人体骨架序列的乘客异常行为识别方法
CN110135319A (zh) * 2019-05-09 2019-08-16 广州大学 一种异常行为检测方法及其系统
CN110210323A (zh) * 2019-05-09 2019-09-06 浙江大学 一种基于机器视觉的溺水行为在线识别方法
CN110298332A (zh) * 2019-07-05 2019-10-01 海南大学 行为识别的方法、系统、计算机设备和存储介质
CN110378281A (zh) * 2019-07-17 2019-10-25 青岛科技大学 基于伪3d卷积神经网络的组群行为识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10019629B2 (en) * 2016-05-31 2018-07-10 Microsoft Technology Licensing, Llc Skeleton-based action detection using recurrent neural network

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052896A (zh) * 2017-12-12 2018-05-18 广东省智能制造研究所 基于卷积神经网络与支持向量机的人体行为识别方法
CN109460702A (zh) * 2018-09-14 2019-03-12 华南理工大学 基于人体骨架序列的乘客异常行为识别方法
CN110135319A (zh) * 2019-05-09 2019-08-16 广州大学 一种异常行为检测方法及其系统
CN110210323A (zh) * 2019-05-09 2019-09-06 浙江大学 一种基于机器视觉的溺水行为在线识别方法
CN110298332A (zh) * 2019-07-05 2019-10-01 海南大学 行为识别的方法、系统、计算机设备和存储介质
CN110378281A (zh) * 2019-07-17 2019-10-25 青岛科技大学 基于伪3d卷积神经网络的组群行为识别方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
CHRISTOPH FEICHTENHOFER .ET AL: "Convolutional Two-Stream Network Fusion for Video Action Recognition", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
ZHOU ZHIGANG .ET AL: "Human behavior recognition method based on double-branch deep convolution neural network", 《2018 CHINESE CONTROL AND DECISION CONFERENCE (CCDC)》 *
张怡佳等: "基于双流卷积神经网络的改进人体行为识别算法", 《计算机测量与控制》 *
李庆辉等: "结合有序光流图和双流卷积网络的行为识别", 《光学学报》 *
袁智 等: "一种基于双流卷积神经网络跌倒识别方法", 《河南师范大学学报(自然科学版)》 *
郑潇等: "基于姿态时空特征的人体行为识别方法", 《计算机辅助设计与图形学学报》 *
马翠红等: "基于深度LSTM与双流融合网络的行为识别", 《计算机工程与设计》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112131985A (zh) * 2020-09-11 2020-12-25 同济人工智能研究院(苏州)有限公司 一种基于OpenPose改进的实时轻量人体姿态估计方法
CN112131985B (zh) * 2020-09-11 2024-01-09 同济人工智能研究院(苏州)有限公司 一种基于OpenPose改进的实时轻量人体姿态估计方法

Also Published As

Publication number Publication date
US20210124914A1 (en) 2021-04-29
WO2021082112A1 (zh) 2021-05-06

Similar Documents

Publication Publication Date Title
CN110929584A (zh) 网络训练方法、监控方法、系统、存储介质和计算机设备
CN108629791B (zh) 行人跟踪方法和装置及跨摄像头行人跟踪方法和装置
JP6905850B2 (ja) 画像処理システム、撮像装置、学習モデル作成方法、情報処理装置
JP4984728B2 (ja) 被写体照合装置および被写体照合方法
CN107256377B (zh) 用于检测视频中的对象的方法、设备和系统
CN111383421A (zh) 隐私保护跌倒检测方法和系统
CN109684989A (zh) 安全监护方法、装置、终端及计算机可读存储介质
KR102195706B1 (ko) 침입 탐지방법 및 그 장치
US20020135483A1 (en) Monitoring system
CN108234927A (zh) 视频追踪方法和系统
CN110659391A (zh) 一种视频侦查方法及装置
US10719717B2 (en) Scan face of video feed
CN111241913A (zh) 一种检测人员摔倒的方法、装置及系统
CN110414400A (zh) 一种施工现场安全帽穿戴自动检测方法及系统
CN109766755A (zh) 人脸识别方法及相关产品
CN114155595A (zh) 行为检测监控方法、智能摄像头及智能监控系统
CN107122743A (zh) 安防监控方法、装置和电子设备
CN111444758A (zh) 一种基于时空信息的行人重识别方法及装置
CN114882251A (zh) 一种物联网大数据智能视频安防监控方法及装置
KR20220000226A (ko) 엣지 컴퓨팅 기반 지능형 보안 감시 서비스 제공 시스템
CN114792429A (zh) 多视角摔倒检测方法、装置及存储介质
CN113989321A (zh) 入侵检测方法、装置及系统、计算机存储介质
EP1261951B1 (en) Surveillance method, system and module
JP2012124658A (ja) 特定人物検知システムおよび検知方法
CN107301373A (zh) 数据处理方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200327