CN110505440A - 一种区域监控方法和装置 - Google Patents
一种区域监控方法和装置 Download PDFInfo
- Publication number
- CN110505440A CN110505440A CN201810482054.4A CN201810482054A CN110505440A CN 110505440 A CN110505440 A CN 110505440A CN 201810482054 A CN201810482054 A CN 201810482054A CN 110505440 A CN110505440 A CN 110505440A
- Authority
- CN
- China
- Prior art keywords
- distribution
- scene image
- density distribution
- image
- crowd
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19645—Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本说明书实施例提供一种区域监控方法和装置,其中方法包括:根据预置的多个预置位,分别获取每一个预置位的分布场景图像,所述分布场景图像对应所述预置位的监控视场的人群场景;将分布场景图像输入预先训练得到的密度分布识别模型,得到识别输出的人群密度分布图,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到。
Description
技术领域
本公开涉及监控技术领域,特别涉及一种区域监控方法和装置。
背景技术
随着人口的快速增长,因人群聚集而引起的安全事件越来越多,这也逐步提升了政府部门对人群的监控力度,例如,在一些室外公共场景下(如广场、景区、闹市街区等),更加需要加强对人群分布状况的监控和评估。其中,人群密度分布、人群数量统计等人群分布特征可以作为评估群体聚集的风险的重要参考,可以通过获取所监控的区域的人群分布特征来评估该区域是否存在群体聚集风险,并进而采取必要的公共安全管理。
相关技术中,在对某个场景区域尤其是大场景区域进行监控时,可以设置多个固定的监控点位,每个监控点位可以安装摄像机拍摄该点位的视频图像,再由摄像机将采集的视频图像传输至后端的分析服务器,分析服务器分析该视频图像获得人群分布特征。其中,分析服务器在获取人群分布特征时,可以结合摄像头的拍摄高度、拍摄角度、人的头发为黑色等特点和拍摄参数,检测图像中包含的人数,而这种分析方式容易受到场景因素的干扰造成误检,并且需要的拍摄参数较多,处理效率较低。综上,目前的区域监控方式成本高,操作繁琐,并且监控结果的准确度也不够理想。
发明内容
有鉴于此,本公开提供一种区域监控方法和装置,以降低监控成本,且提高监控的准确性和操作便利性。
具体地,本说明书一个或多个实施例是通过如下技术方案实现的:
第一方面,提供一种区域监控方法,所述方法包括:
根据预置的多个预置位,分别获取每一个预置位的分布场景图像,所述分布场景图像对应所述预置位的监控视场的人群场景;
将所述分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到。
第二方面,提供一种区域监控系统,所述系统包括:摄像设备和控制中心服务器;
所述摄像设备,设置在监控区域,所述监控区域包括多个监控视场,所述摄像设备设置有多个预置位,每个所述预置位对应一个监控视场;所述摄像设备用于:根据预置的多个预置位,分别获取每一个预置位的分布场景图像,所述分布场景图像对应所述监控视场的人群场景;将所述分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到;
所述控制中心服务器,用于接收所述摄像设备在根据人群密度分布图确定所述人群场景达到安全警报条件时,输出的对于所述监控视场的报警信息。
第三方面,提供一种区域监控装置,所述装置包括:
图像获取模块,用于根据预置的多个预置位,分别获取每一个预置位的分布场景图像,所述分布场景图像对应所述预置位的监控视场的人群场景;
图像识别模块,用于将所述分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到。
第四方面,提供一种摄像设备,所述摄像设备包括存储器、处理器,以及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行指令时实现以下步骤:
根据预置的多个预置位,分别获取每一个预置位的分布场景图像,所述分布场景图像对应所述预置位的监控视场的人群场景;
将所述分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到。
本说明书一个或多个实施例的区域监控方法和装置,通过由摄像设备根据采集的分布场景图像直接利用密度分布识别模型得到人群分布特征,不仅简化了监控系统的架构设计,降低了监控系统成本,并且,摄像设备通过采用预先训练的密度分布识别模型进行处理,使得该方法具有较强的抗干扰力,不容易受到外界环境因素的干扰,使得模型的输出结果是综合了较为周全的各种因素的获得结果,获得的人群分布特征更为准确;再次,通过使用模型获取人群分布特征,能够适应各种拍摄参数获得的图像的识别,提升了监控处理效率。
附图说明
为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书一个或多个实施例中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书一个或多个实施例提供的区域监控系统的系统架构;
图2为本说明书一个或多个实施例提供的一种全卷积神经网络模型的结构设计;
图3为本说明书一个或多个实施例提供的一种模型训练的过程;
图4为本说明书一个或多个实施例提供的一种密度分布真值图的获取流程;
图5为本说明书一个或多个实施例提供的一种人头标定的示意图;
图6为本说明书一个或多个实施例提供的一种全卷积神经网络模型的另一种结构设计;
图7为本说明书一个或多个实施例提供的一种区域监控方法的流程图;
图8为本说明书一个或多个实施例提供的一种区域监控装置的结构图;
图9为本说明书一个或多个实施例提供的一种区域监控装置的结构图;
图10为本说明书一个或多个实施例提供的一种摄像设备的结构示意图;
图11为本说明书一个或多个实施例提供的一种计算机可读存储介质的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书一个或多个实施例中的技术方案,下面将结合本说明书一个或多个实施例中的附图,对本说明书一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是一部分实施例,而不是全部的实施例。基于本说明书一个或多个实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本公开保护的范围。
人群聚集的场所容易引起安全事故,因此,在一些广场、景区等室外公共场所下,更需要加强对人群的安全监控。监控的方式可以包括,通过摄像头采集人群聚集的场景图像,并根据该图像进行分析处理,得到图像中包含的一些人群分布特征,比如,人数统计(总共有多少人),或者人群密度分布(哪个位置人聚集较多,密度较高),据此来确定需要重点监控的场景区域。
本公开例子提供的方法,可以应用于对较大的场景区域的监控,当然也并不局限于大场景区域,小一些的区域的监控也可以采用该方法。图1示例了一种区域监控系统的系统架构,如图1所示,假设这是一个较大的场景监控区域,其中包括多个监控视场,比如,监控视场11,监控视场12,监控视场13等。所述的监控视场可以是一个需要进行监控的地点,举例来说,对于一个大型的广场,可以将广场的西北角位置设置为一个监控视场,将广场的东南角位置设置为另一个监控视场,监控视场的确定可以是选择具有人群聚集大概率的位置,可以是需要重点进行人群聚集安全管理的场所。
请继续参见图1,本例子中,在监控区域可以设置一台摄像设备,例如,该摄像设备可以是云台相机14,该云台相机14可以预先设置多个预置位,该多个预置位对应上述的多个监控视场,可以是一个预置位对应一个监控视场。比如,对应于监控视场11设置一个预置位,对应于监控视场12设置另一个预置位。云台相机14可以采取分时多预置位轮巡监控模式,实现对上述多个监控视场的图像采集和监控,即在不同的时间段内在多个监控视场之间轮巡切换检测。此外,图1所示的区域监控系统还可以包括控制中心服务器15,云台相机14可以自身对采集的图像进行分析得到人群分布特征,并在根据人群分布特征确定监控视场的人群聚集达到报警级别时,通知给控制中心服务器15。
本例子中,云台相机14可以对采集到的监控视场的视频图像进行分析,得到人群分布特征,比如,人群密度分布图或者人群的人数,并且,云台相机14可以是根据本公开例子的密度分布识别模型来获取视频图像对应的人群分布特征。在如下的描述中,将说明该密度分布识别模型的训练和应用过程,例如,可以预先训练密度分布识别模型,在得到训练完成的模型后,可以将该模型设置在云台相机14,以使得云台相机14通过该模型进行人群分布特征的获取。其中,可以将云台相机14对应每一个监控视场采集的视频图像称为人群场景的分布场景图像,例如可以是通过云台相机的摄像头拍摄的某广场上的特定监控视场的人群图像。
上述提到的本公开的区域监控方法中使用到的密度分布识别模型,可以应用于人群密度分布图的生成,可以将用于根据分布场景图像生成人群密度分布图的模型称为密度分布识别模型。例如,该密度分布识别模型可以采用全卷积神经网络模型。如下以全卷积神经网络模型为例,来说明模型的训练获得的过程以及模型的应用。在密度分布识别模型的训练方法可以应用于服务器、视频存储设备、云分析系统等等,在此不作限定。
密度分布识别模型的训练:
在训练模型之前,可以先设计模型的结构。图2示例了一个例子中的全卷积神经网络模型的结构设计。该全卷积神经网络中可以不包含全连接层。可以首先利用一系列卷积层和降采样层,依次提取由低层到高层的特征图,提取的特征图包括低层特征图(包含低层特征)和高层特征图(包含高层特征),然后通过反卷积层将特征上采样到原始图像(即模型输入的分布场景图像)大小,最后再通过卷积层获得与原始输入图像相同分辨率的人群密度分布图。
可以基于图2所示的模型结构进行模型的训练。如图2所示,该模型的输入可以是分布场景图像,模型的输出可以是该分布场景图像对应的人群密度分布图。所得的人群密度分布图中的每一个像素点的像素值表示该位置所对应的人群密度。
在对图2所示的全卷积神经网络模型进行训练时,可以先进行训练样本的生成,根据该训练样本来训练模型。图3示例了对图1的模型进行训练的过程。
在步骤301中,获取多类型训练样本,所述多类型训练样本包括采用不同的摄像参数拍摄得到的样本分布场景图像。
本步骤中,样本分布场景图像可以是历史拍摄的图像,这些图像可以是对某个人群场景进行拍摄得到,例如,可以是广场上的人群,或者是火车站的人群。所述的摄像参数,可以包括摄像头的拍摄高度、拍摄角度等。例如,当摄像设备是云台相机时,云台相机的不同预置位可以对应不同的摄像参数,该摄像参数可以是云台相机的不同摄像角度、焦距等。在使用云台相机采集图像之前,可以调整其摄像参数,以使得云台相机能够获取到想要的监控视场。当用户在相机上确认了想要的监控视场时,相机可以保存该视场对应的摄像参数,这些摄像参数对应一个预置位,作为该预置位对应的参数,当下次用户要拍摄该监控视场的图像时,只要选择了所述的预置位,云台相机就可以按照预置位对应的摄像参数进行运动,比如,旋转到一定的摄像角度,调整到一定的焦距,从而获取到监控视场的理想图像。
本例子中,所述的多类型训练样本,可以包括不同的摄像参数拍摄得到的样本分布场景图像。例如,其中一个样本分布场景图像的拍摄高度是L1,另一个样本分布场景图像的拍摄高度是L2。
通过在获取训练样本时,覆盖多种摄像参数拍摄得到的样本分布场景图像,使得根据这些训练样本训练得到的模型,也能够对各种摄像参数拍摄得到的图像进行分析识别,从而使得模型对待分析的图像的拍摄参数没有限定性要求,多种拍摄参数拍摄得到的图像都可以输入该模型进行分析。那么对于图像拍摄者来说,在拍摄图像时,不需要再限制固定摄像头的拍摄角度或者高度等参数,图像的拍摄位置不用固定,从而使得在采集图像时更加自由和方便,并且对于要根据图像来得到人群密度分布的图像处理方来说,由于后续直接使用模型即可输出对应的密度分布图,也不再需要将图像拍摄时使用的拍摄参数引入到相关计算中,从而可以使得识别处理更加快速。
在步骤302中,根据每一个所述样本分布场景图像,得到对应的密度分布真值图,所述密度分布真值图作为所述样本分布场景图的模型训练目标。
本例子中,对于每一个样本分布场景图像,还可以获取对应该图像的密度分布真值图,该真值图相当于样本分布场景图的模型训练目标。图4示例了一个例子中的密度分布真值图的获取流程,但是实际实施中并不局限于此:
在步骤3021中,根据样本分布场景图像中标定的真实人体的人体标识,获取所述真实人体对应的人体区域。
本例子中,对于样本分布场景图像,可以由人工在图像上进行真实人体的标定,即标示出图像中哪个是人。例如,在标定时可以标定出人头中心点,找到一个图像中的人,标定该人的人头中心点,最终可以得到图像中的人头中心点的标定点集合,该集合可以用P表示,其中每一个标定点可以用p表示。
上述的人头中心点的标定点,即可以称为人体标识,人体标识即为一个用于表示图像中人的标识。当然,在人头标定是一个例子,后续的描述中也以标定人头为例。此外,本步骤中,还可以根据标定出的各个人体,得到对应的人体区域。该人体区域可以是一个用于表示图像中人的区域,但是该区域并不一定是图像中的人体所占用的实际图像区域,该人体区域的区域大小可以随图像中人体的显示大小而确定,例如,如果图像中的人显示较大,则该人对应的人体区域可以较大。
在一个例子中,假设图像中其中一个人距离摄像头较近,拍摄出的图像中显示的较大,那么该人体在图像中占用的图像像素点可能会较多,比如,占用5*5的像素区域,那么可以将上述标定出的人头中心点作为一个圆心,划定一个圆形区域,该圆形区域相当于人头,并且该圆形区域的占用面积可以相当于接近5*5的像素区域,或者,该圆形区域的占用面积也可以是这个人的人头在图像中占用的区域面积。参见图5的示例,图5中的图像仅示例了较少数量的人,示意了对图像中的人的标定。例如,对于图5中的人51标定时,人头中心点52即人体标识,圆形区域53即对应的人体区域。图像中的每个人都可以按照上述的方法进行标定。
在步骤3022中,根据所述样本分布场景图像的场景景深,得到所述人体区域的中心点的像素值。
经过步骤3021的标定,已经将样本分布场景图像中的各个人进行了区分,每个人都可以用一个对应的人体区域进行标识。本步骤以及步骤3023,可以对该人体区域中的各个像素点的像素值进行确定。本步骤可以确定人体区域的中心点的像素值,后续的步骤3023可以根据该中心点的像素值,确定人体区域的其他像素点的像素值。
其中,步骤3021中标识的人体区域,可以反映不同人体在图像中占用图像区域的大小不同,比如,显示较大的人可以给予较大的人体区域,显示较小的人可以给予较小的人体区域。本步骤在为该人体区域的像素点确定像素值时,可以假设人体平均高度大致相等,并结合样本分布场景图像的景深变化情况,根据图像中的不同位置的人体高度估算出该位置单位高度对应的像素数,并将该像素数作为该人体的人体区域的中心点的像素值。
例如,假如图像中的一个人在拍摄时距离摄像头较近,在图像中显示的较大,那么这个人在图像中占用的图像像素数较多,当假设人体平均高度大致相等时,该人的单位高度对应的像素数就相对较低,所以这个人的人体区域的中心点的像素值较低。同理,如果图像中一个人显示较小,距离较远,该人的人体区域的中心点的像素值就相对较高。
在步骤3023中,根据所述中心点的像素值和所述人体区域的密度分布规律,得到所述人体区域中其他各个像素点的像素值。
本步骤在确定人体区域的中心点以外的其他各个像素点的像素值时,可以假设人头的密度分布规律是服从圆形高斯分布,则在步骤3022确定了中心点的像素值的基础上,可以根据该圆形高斯分布的分布规律,结合其他各个像素点与中心点之间的距离,得到各像素点的像素值。
可以按照如下公式(1)计算各像素点的像素值:
其中
上式中,Ph为人头中心点的位置坐标,δh为高斯分布的方差,其大小正比于人头中心位置Ph对应的场景透视图值M(Ph),该场景透视图值M(Ph)即上述步骤3022确定的中心点的像素值。此外,可以利用||Z||起到归一化的作用,保证每个人体对应的人群密度之和为1,这样整幅图像的人群密度分布真值图中,各像素点的像素值之和等于样本图像的人群数量。
在步骤3024中,获得密度分布真值图,所述密度分布真值图包括人体区域以及其中各个像素点的像素值,并建立与所述样本分布场景图像的对应关系。
至此,可以得到样本分布场景图对应的密度分布真值图,该密度分布真值图中包括上述标定出的人体区域以及其中各个像素点的像素值。本步骤可以建立样本分布场景图像及其密度分布真值图的对应关系,每一个样本分布场景图像都有其对应的密度分布真值图。
上述图4所示的密度分布真值图的获取流程中,通过结合图像中的景深变化,将不同位置的人体显示为不同的像素值,这种方式能够对拍摄的不同大小和远近的人体在真值图显示上进行区分。这种方式也体现了本例子的密度分布识别模型能够适应不同拍摄参数的输入图像,即使输入的各个图像的拍摄高度和拍摄角度不同,对于这种拍摄参数不同导致的图像中人体显示的不同(例如,大小不同,远近不同),本例子的模型仍然能够识别到这种区别,并且在识别这种区别的基础上仍然能够清楚准确的识别到各种图像中的真实人体所在。
在步骤303中,将所述多类型训练样本中的各个样本分布场景图像及对应的密度分布真值图,输入构建的密度分布识别模型进行模型训练。
本步骤中,可以将各个样本分布场景图像及对应的密度分布真值图,输入图2中构建的密度分布识别模型进行模型训练。例如,模型的训练可以采用反向传播算法进行训练,网络参数梯度的计算可以采用随机梯度下降法(SGD,Stochastic Gradient Descent)。
例如,本例子的全卷积神经网络模型的优化所依据的函数可以是下面的代价函数(或者称为损失函数):
上面公式(2)中,θ为全卷积神经网络的网络参数,N为训练样本数,Fd(Xi;θ)为输入的样本分布场景图像Xi经过全卷积神经网络预测输出的人群密度分布图,Di为样本分布场景图像Xi对应的密度分布真值图。
在步骤304中,当达到预定的模型训练结束条件时,结束所述密度分布识别模型的训练,得到训练完成的所述密度分布识别模型。
在一个例子中,可以在密度分布识别模型输出的人群密度分布图与对应的密度分布真值图之间的代价函数,满足函数优化条件时,确定达到预定的模型训练结束条件,得到密度分布识别模型。
例如,根据步骤303中的公式(2),当密度分布识别模型输出的人群密度分布图与对应的密度分布真值图之间的误差较小时,即模型输出的人群密度分布图与预先生成的对应的密度分布真值图特别接近时,满足优化条件,则完成模型的训练。使用该训练完的模型,就可以对输入的分布场景图像分析到对应的较为准确的人群密度分布图。此外,密度分布识别模型的训练还可以依据其他条件,比如,达到预定的迭代次数时,可以结束模型的训练。例如,迭代次数达到35次、50次、29次或100次等等,在此不作限定。
通过利用大量的训练样本来训练模型,并且利用全卷积神经网络强大的学习能力,自动提取出图像的特征与人群密度分布图的映射关系,使得利用模型得到密度分布图的方法能够对光照变化、角度变化等都具有较好的鲁棒性,可以更好的适应各种不同的复杂场景。
此外,在其他的例子中,密度分布识别模型也可以是其他的网络结构。例如,图6示例了另一个例子中的全卷积神经网络模型的结构设计。该全卷积神经网络的结构相比于图2中的模型结构,是在反卷积和上采样的过程中还进行了不同特征图之间的特征融合。
可以参见图6所示,可以将经过卷积层和降采样层得到的特征图都称为第一特征图,例如,图6中所示的第一特征图61、第一特征图63等,模型输入的分布场景图像可以经过多次卷积层和降采样层的处理,对应的可以得到多个第一特征图。通过卷积层和降采样层可以依次提取输入的分布场景图像中的由低层到高层的特征,因此,上述的多个第一特征图中既可以有包含低层视觉特征(例如,图像中的线条、颜色、纹理等局部特征)的特征图,也可以有包含高层语义特征(例如,图像中的人体轮廓等全局特征)的特征图。高层语义特征是低层视觉特征的组合,从低层到高层的表示越来越抽象,越来越能表现语义,比如,一个人脸的图像,最开始识别的低层视觉特征只是一些线条、颜色等局部的特征,逐渐的显现得到更高层的全局的人脸图像。
在提取完特征后,再将最后得到的第一特征开始经过多个卷积层和上采样层的处理,以将图像恢复到原始图像的大小,即恢复到与输入模型的分布场景图像相同的图像尺寸。请继续参见图6,其中,每经过一次上采样得到的特征图可以称为第二特征图,例如,第二特征图62、第二特征图64等。
本例子中,在每次得到一个第二特征图后,可以将与该第二特征图具有相同的图像尺寸的第一特征图进行特征融合,即将对应的第一特征图中的特征与该第二特征图中的特征进行特征合并和反卷积操作。例如,可以参见图6,在得到第二特征图62后,可以将第二特征图62与对应相同图像尺寸的第一特征图61之间进行特征合并和反卷积操作,然后,继续对执行完上述特征合并和反卷积操作的第二特征图62进行上采样,得到第二特征图64。同样的,将第二特征图64按照相同的方式与对应的第一特征图63进行特征融合。当然,图6中只是示例了部分的卷积层和反卷积层,在不同的实施例中的层数可以进行变通。
同样可以根据图3所示的训练流程,来训练具有图6所示结构的全卷积神经网络模型。图6所示的模型在训练时,只是样本分布场景图像在模型中所经过的处理过程有所不同,而关于样本分布场景图像的确定、真值图的生成以及模型训练结束条件的设定,都可以参照与图3所示的流程,不再详述。
在完成模型训练的基础上,如下描述应用该模型来对摄像设备采集到的分布场景图像进行人群密度分布的识别,得到对应的人群密度分布图,根据该人群密度分布图可以观察到某个人群场景的各个区域的人群聚集性,对人群较多的区域进行重点监控。
密度分布识别模型的应用:
图7示例了一个例子中的区域监控方法,该方法描述摄像设备如何对预置位的监控视场进行人群聚集性的跟踪监控,其中,摄像设备以云台相机为例,如图7所示,该方法可以包括:
在步骤701中,根据预置的多个预置位,分别获取每一个预置位的分布场景图像,所述分布场景图像对应所述预置位的监控视场的人群场景。
例如,以云台相机为例,可以预先设置预置位。可以调整云台相机的摄像参数,以使得云台相机获取监控视场。比如,云台相机可以旋转到一定的方向,并且调整到一定的焦距,获取到想要拍摄的画面。此时,用户可以确认该监控视场,即确认此时的旋转方向或者焦距大小等参数是合适的,能够拍摄到用户想要的画面,则云台相机可以保存该确认的监控视场对应的摄像参数,具体可以是保存此时的相机参数,如,角度、焦距等,作为该预置位的参数。当下次用户调取该预置位进行拍摄时,云台相机只要按照这些参数进行拍摄即可。预置的多个预置位可以分别对应云台相机的不同摄像参数。
本步骤中,云台相机可以根据预先设置的多个预置位,分时轮巡这些预置位的监控视场,采集到监控视场的人群场景的分布场景图像。其中,该分布场景图像也可以是云台相机采集到的视频流数据中的某一帧图像。
在步骤702,将所述分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图。
本步骤中,云台相机可以对采集到的分布场景图像进行实时分析,其中,对于实时视频流的数据,可以实时动态的分析每一帧图像对应的人群密度分布图,或者也可以间隔一定时间分析某一帧图像的人群密度分布图。可以将图像输入预先训练得到的密度分布识别模型,该模型即为上面训练得到的模型。各个预置位的分布场景图像可以分别输入到该模型中进行识别,例如,可以将一个预置位拍摄的分布场景图像输入模型,得到该图像对应的人群密度分布图;还可以将另一个预置位的分布场景图像输入模型得到对应的人群密度分布图。
该模型可以适应多种类型的拍摄参数得到的图像,比如,当使用该同一个密度分布识别模型分析不同的分布场景图像时,所述不同的分布场景图像可以包括:由不同的摄像参数拍摄得到的图像。比如,对于使用不同的拍摄高度或者拍摄角度采集到的各个图像,都可以使用该模型进行密度分布的识别。用于训练该模型的样本分布场景图像对应的密度分布真值图,可以是根据样本分布场景图像中各个人体对应的场景景深得到的。利用该密度分布识别模型,可以识别得到分布场景图像对应的人群密度分布图。
此外,若所述人群密度分布图表示所述人群场景达到安全警报条件,还可以输出对于所述预置位的监控视场的报警信息。
例如,云台相机可以根据得到的人群密度分布图,识别到监控视场的人群密度等级,属于低密度人群还是高密度人群,还可以识别到人群的人数。如果当前的人群密度等级超过用户设定的等级阈值,云台相机还可以向控制中心服务器发送报警信息,该报警信息可以指示当前监控视场的人群密度等级超过阈值,需要进行人流控制。
此外,对于控制中心服务器来说,服务器侧可以显示云台相机传送的各个监控视场的视频信息、或者图像信息,还可以显示各个监控视场的人群密度等级、人数等信息,方便服务器侧的监控人员对各个监控视场进行实时监测。对于云台相机发出了报警信息的监控视场,控制中心服务器还可以据此向对应该视场的监管人员发送报警指示,以通知该监管人员进行人流疏导,防止出现公共安全事件。
本例子的区域监控方法,通过由云台相机根据采集的分布场景图像直接利用密度分布识别模型得到人群分布特征,不仅简化了监控系统的架构设计,降低了监控系统成本,并且,云台相机通过采用预先训练的密度分布识别模型进行处理,使得该方法具有较强的抗干扰力,不容易受到外界环境因素的干扰,使得模型的输出结果是综合了较为周全的各种因素的获得结果,获得的人群分布特征更为准确;再次,云台相机通过使用模型获取人群分布特征,能够适应各种拍摄参数获得的图像的识别,提升了监控处理效率。
在一个例子中,在利用模型得到人群密度分布图之后,可以进行实时展示。例如,云台相机可以将实时采集的各个监控视场的视频流数据发送至控制中心服务器,控制中心服务器可以通过一个演示模块,例如可以是一块演示屏幕,实时展示各个监控视场对应的人群密度分布图的动态变化,直观的反映出人群分布的实时变化。
在另一个例子中,在利用模型得到人群密度分布图之后,还可以进一步获取人数统计。例如,可以根据输入模型的一个预置位对应的分布场景图像的人群密度分布图,在所述分布场景图像中的指定图像区域进行积分,得到所述指定图像区域中的统计人数。比如,人群密度分布图的每个像素点表示该位置所对应的人群密度估计值,人群密度分布图中的每个区域通过将密度积分可以得到该区域的人数统计量。图像所有区域人群密度图的积分和即为该图像场景内的人数统计量。由此,通过人群密度分布图,可以得到人数统计的信息以及人群分布的位置信息,既可以得到图中哪个地方人多,哪个地方人少,还可以统计出各个区域的人数。
用户还可以通过人群密度分布图设定自己感兴趣的检测区域。比如,用户可以在一个分布场景图像上,划定一块要重点观察的图像区域,可以是一块聚集了很多人的区域,此时模型就可以对这块区域进行分析,通过累加感兴趣区内的人群密度积分和,即可以得到感兴趣区域内的人数。
当统计人数超过报警阈值时,比如,超过了用户设置的人数报警阈值,还可以进行人数报警,提醒监控人员对人数较多的地方进行重点安全监控。报警的方式可以有多种,比如,可以将图像中报警的位置和人数发送至监控人员的终端设备,或者在演示人群密度分布图的演示屏幕上进行突出颜色显示,或者进行人群拥挤的警报提示。
此外,当用多个预置位进行监控时,还可以综合各个预置位的图像识别得到一个总的监控人数。例如,假设一个广场有三个入口,可以设置每个入口对应一个预置位,在各个预置位的图像分别处理得到入口人数后,将这三个入口处的人数相加得到总的入场人数。当然,报警阈值的设定也可以依据该总人数。
为了实现本公开的区域监控方法,本公开还提供了一种区域监控装置,该装置可以应用于摄像设备。如图8所示,该装置可以包括:图像获取模块81、图像识别模块82和报警输出模块83。
图像获取模块81,用于根据预置的多个预置位,分别获取每一个预置位的分布场景图像,所述分布场景图像对应所述预置位的监控视场的人群场景;
图像识别模块82,用于将所述分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到。
在一个例子中,如图9所示,该装置还可以包括报警输出模块83,用于在所述人群密度分布图表示所述人群场景达到安全警报条件时,则输出对于所述预置位的监控视场的报警信息。
在一个例子中,当使用所述密度分布识别模型分析不同的分布场景图像时,所述不同的分布场景图像包括:由不同的摄像参数拍摄得到的图像。
在一个例子中,该装置还可以包括:样本处理模块84和人数统计模块85。
样本处理模块84,用于获取多个样本分布场景图像,所述多个样本分布场景图像采用不同的摄像参数拍摄得到;根据每个所述样本分布场景图像中各个人体对应的场景景深,得到所述样本分布场景图像中的人体区域的中心点的像素值;根据所述中心点的像素值和所述人体区域的密度分布规律,确定所述人体区域中其他各个像素点的像素值,得到与所述样本分布场景图像对应的所述密度分布真值图。
人数统计模块85,用于根据一个预置位对应的所述分布场景图像的人群密度分布图,在所述分布场景图像中的指定图像区域进行积分,得到所述指定图像区域中的统计人数。
在一个例子中,图像识别模块82,在用于将所述分布场景图像输入预先训练得到的密度分布识别模型得到人群密度分布图时,包括:所述密度分布识别模型通过多个卷积层和降采样层的处理,依次提取输入的所述分布场景图像中的由低层到高层的特征图,得到多个第一特征图;将最后得到的所述第一特征图经过多个反卷积层和上采样层的处理,恢复到与输入的所述分布场景图像相同的图像尺寸,其中,每经过一次上采样层,得到一个第二特征图;通过卷积层的处理,获得与所述输入的分布场景图像具有相同分辨率的人群密度分布图。
在一个例子中,图像识别模块82,在用于将所述分布场景图像输入预先训练得到的密度分布识别模型得到人群密度分布图时,包括:所述密度分布识别模型通过多个卷积层和降采样层的处理,依次提取输入的所述分布场景图像中由低层到高层的特征图,依次得到多个第一特征图;将最后得到的所述第一特征图经过多个反卷积层和上采样层的处理,恢复到与输入的所述分布场景图像相同的图像尺寸,其中,每经过一次上采样层,得到第二特征图,将所述第二特征图与对应的相同尺寸的第一特征图进行特征融合;通过卷积层的处理,获得与所述输入的分布场景图像具有相同分辨率的人群密度分布图。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书一个或多个实施例时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
此外,上述方法实施例流程中的各个步骤,其执行顺序不限制于流程图中的顺序。此外,各个步骤的描述,可以实现为软件、硬件或者其结合的形式,例如,本领域技术人员可以将其实现为软件代码的形式,可以为能够实现所述步骤对应的逻辑功能的计算机可执行指令。当其以软件的方式实现时,所述的可执行指令可以存储在存储器中,并被设备中的处理器执行。
例如,对应于上述方法,本说明书一个或多个实施例同时提供一种摄像设备,该摄像设备可以应用于使用模型识别图像的人群密度分布。如图10所示,该摄像设备可以包括处理器1001、存储器1002、以及存储在存储器上并可在处理器上运行的计算机指令1003,所述处理器可以通过执行所述指令,用于实现如下步骤:
根据预置的多个预置位,分别获取每一个预置位的分布场景图像,所述分布场景图像对应所述预置位的监控视场的人群场景;
将所述分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到。
本领域内的技术人员应明白,本说明书一个或多个实施例可提供为方法、系统、或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
如图11所示,本公开还提供了一种计算机可读存储介质1101,其上存储有计算机指令1102,该指令被处理器执行时实现使用模型识别图像的人群密度分布,包括以下步骤:
根据预置的多个预置位,分别获取每一个预置位的分布场景图像,所述分布场景图像对应所述预置位的监控视场的人群场景;
将所述分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
本公开还提供了一种区域监控系统,该系统可以包括:摄像设备和控制中心服务器;
所述摄像设备,设置在监控区域,所述监控区域包括多个监控视场,所述摄像设备设置有多个预置位,每个所述预置位对应一个监控视场;所述摄像设备用于:根据预置的多个预置位,分别获取每一个预置位的分布场景图像,所述分布场景图像对应所述监控视场的人群场景;将所述分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到;
所述控制中心服务器,用于接收所述摄像设备在根据人群密度分布图确定所述人群场景达到安全警报条件时,输出的对于所述监控视场的报警信息。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
以上所述仅为本说明书一个或多个实施例的较佳实施例而已,并不用以限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开保护的范围之内。
Claims (15)
1.一种区域监控方法,其特征在于,所述方法包括:
根据预置的多个预置位,分别获取每一个预置位的分布场景图像,所述分布场景图像对应所述预置位的监控视场的人群场景;
将所述分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到。
2.根据权利要求1所述的方法,其特征在于,所述多个预置位分别对应摄像设备的不同摄像参数;
在所述获取每一个预置位的分布场景图像之前,所述方法还包括:
调整所述摄像设备的摄像参数,以使得所述摄像设备获取监控视场;
当确认所述监控视场时,保存所述监控视场对应的摄像参数,对应预置位。
3.根据权利要求1所述的方法,其特征在于,所述将分布场景图像输入预先训练得到的密度分布识别模型之前,所述方法还包括:
获取多个样本分布场景图像,所述多个样本分布场景图像采用不同的摄像参数拍摄得到;
根据每个所述样本分布场景图像中各个人体对应的场景景深,得到所述样本分布场景图像中的人体区域的中心点的像素值;
根据所述中心点的像素值和所述人体区域的密度分布规律,确定所述人体区域中其他各个像素点的像素值,得到与所述样本分布场景图像对应的所述密度分布真值图。
4.根据权利要求1所述的方法,其特征在于,所述获得所述密度分布识别模型输出的人群密度分布图之后,所述方法还包括:
根据一个预置位对应的所述分布场景图像的人群密度分布图,在所述分布场景图像中的指定图像区域进行积分,得到所述指定图像区域中的统计人数。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:若所述统计人数超过报警阈值,则进行人数报警。
6.根据权利要求1所述的方法,其特征在于,所述将所述分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图,包括:
所述密度分布识别模型通过多个卷积层和降采样层的处理,依次提取输入的所述分布场景图像中的由低层到高层的特征图,得到多个第一特征图;
将最后得到的所述第一特征图经过多个反卷积层和上采样层的处理,恢复到与输入的所述分布场景图像相同的图像尺寸,其中,每经过一次上采样层,得到一个第二特征图;
通过卷积层的处理,获得与所述输入的分布场景图像具有相同分辨率的人群密度分布图。
7.根据权利要求1所述的方法,其特征在于,所述将分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图,包括:
所述密度分布识别模型通过多个卷积层和降采样层的处理,依次提取输入的所述分布场景图像中由低层到高层的特征图,依次得到多个第一特征图;
将最后得到的所述第一特征图经过多个反卷积层和上采样层的处理,恢复到与输入的所述分布场景图像相同的图像尺寸,其中,每经过一次上采样层,得到第二特征图,将所述第二特征图与对应的相同尺寸的第一特征图进行特征融合;
通过卷积层的处理,获得与所述输入的分布场景图像具有相同分辨率的人群密度分布图。
8.一种区域监控系统,其特征在于,所述系统包括:摄像设备和控制中心服务器;
所述摄像设备,设置在监控区域,所述监控区域包括多个监控视场,所述摄像设备设置有多个预置位,每个所述预置位对应一个监控视场;所述摄像设备用于:根据预置的多个预置位,分别获取每一个预置位的分布场景图像,所述分布场景图像对应所述监控视场的人群场景;将所述分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到;
所述控制中心服务器,用于接收所述摄像设备在根据人群密度分布图确定所述人群场景达到安全警报条件时,输出的对于所述监控视场的报警信息。
9.一种区域监控装置,其特征在于,所述装置包括:
图像获取模块,用于根据预置的多个预置位,分别获取每一个预置位的分布场景图像,所述分布场景图像对应所述预置位的监控视场的人群场景;
图像识别模块,用于将所述分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到。
10.根据权利要求9所述的装置,其特征在于,当使用所述密度分布识别模型分析不同的分布场景图像时,所述不同的分布场景图像包括:由不同的摄像参数拍摄得到的图像。
11.根据权利要求9所述的装置,其特征在于,所述装置还包括:
样本处理模块,用于获取多个样本分布场景图像,所述多个样本分布场景图像采用不同的摄像参数拍摄得到;根据每个所述样本分布场景图像中各个人体对应的场景景深,得到所述样本分布场景图像中的人体区域的中心点的像素值;根据所述中心点的像素值和所述人体区域的密度分布规律,确定所述人体区域中其他各个像素点的像素值,得到与所述样本分布场景图像对应的所述密度分布真值图。
12.根据权利要求9所述的装置,其特征在于,所述装置还包括:
人数统计模块,用于根据一个预置位对应的所述分布场景图像的人群密度分布图,在所述分布场景图像中的指定图像区域进行积分,得到所述指定图像区域中的统计人数。
13.根据权利要求9所述的装置,其特征在于,
所述图像识别模块,在用于将所述分布场景图像输入预先训练得到的密度分布识别模型得到人群密度分布图时,包括:所述密度分布识别模型通过多个卷积层和降采样层的处理,依次提取输入的所述分布场景图像中的由低层到高层的特征图,得到多个第一特征图;将最后得到的所述第一特征图经过多个反卷积层和上采样层的处理,恢复到与输入的所述分布场景图像相同的图像尺寸,其中,每经过一次上采样层,得到一个第二特征图;通过卷积层的处理,获得与所述输入的分布场景图像具有相同分辨率的人群密度分布图。
14.根据权利要求9所述的装置,其特征在于,
所述图像识别模块,在用于将所述分布场景图像输入预先训练得到的密度分布识别模型得到人群密度分布图时,包括:所述密度分布识别模型通过多个卷积层和降采样层的处理,依次提取输入的所述分布场景图像中由低层到高层的特征图,依次得到多个第一特征图;将最后得到的所述第一特征图经过多个反卷积层和上采样层的处理,恢复到与输入的所述分布场景图像相同的图像尺寸,其中,每经过一次上采样层,得到第二特征图,将所述第二特征图与对应的相同尺寸的第一特征图进行特征融合;通过卷积层的处理,获得与所述输入的分布场景图像具有相同分辨率的人群密度分布图。
15.一种摄像设备,其特征在于,所述摄像设备包括存储器、处理器,以及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行指令时实现以下步骤:
根据预置的多个预置位,分别获取每一个预置位的分布场景图像,所述分布场景图像对应所述预置位的监控视场的人群场景;
将所述分布场景图像输入预先训练得到的密度分布识别模型,得到所述密度分布识别模型识别输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810482054.4A CN110505440A (zh) | 2018-05-18 | 2018-05-18 | 一种区域监控方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810482054.4A CN110505440A (zh) | 2018-05-18 | 2018-05-18 | 一种区域监控方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110505440A true CN110505440A (zh) | 2019-11-26 |
Family
ID=68584096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810482054.4A Pending CN110505440A (zh) | 2018-05-18 | 2018-05-18 | 一种区域监控方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110505440A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111010546A (zh) * | 2019-12-20 | 2020-04-14 | 浙江大华技术股份有限公司 | 监控预置点的调整方法、装置及存储介质 |
CN111310581A (zh) * | 2020-01-17 | 2020-06-19 | 杭州电子科技大学 | 一种基于模糊推理的人群安全性评估方法 |
CN111866736A (zh) * | 2020-06-12 | 2020-10-30 | 深圳市元征科技股份有限公司 | 一种风险提醒方法、风险提醒装置及服务器 |
CN114419698A (zh) * | 2021-12-27 | 2022-04-29 | 天津天地伟业信息系统集成有限公司 | 一种人脸识别摄像机的控制方法及计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105160313A (zh) * | 2014-09-15 | 2015-12-16 | 中国科学院重庆绿色智能技术研究院 | 视频监控中人群行为分析的方法及装置 |
CN106326937A (zh) * | 2016-08-31 | 2017-01-11 | 郑州金惠计算机系统工程有限公司 | 基于卷积神经网络的人群密度分布估计方法 |
CN106815563A (zh) * | 2016-12-27 | 2017-06-09 | 浙江大学 | 一种基于人体表观结构的人群数量预测方法 |
-
2018
- 2018-05-18 CN CN201810482054.4A patent/CN110505440A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105160313A (zh) * | 2014-09-15 | 2015-12-16 | 中国科学院重庆绿色智能技术研究院 | 视频监控中人群行为分析的方法及装置 |
CN106326937A (zh) * | 2016-08-31 | 2017-01-11 | 郑州金惠计算机系统工程有限公司 | 基于卷积神经网络的人群密度分布估计方法 |
CN106815563A (zh) * | 2016-12-27 | 2017-06-09 | 浙江大学 | 一种基于人体表观结构的人群数量预测方法 |
Non-Patent Citations (2)
Title |
---|
YINGYING ZHANG,ETAL: "Single-Image Crowd Counting via Multi-Column Convolutional Neural Network", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
马海军等: "基于卷积神经网络的监控视频人数统计算法", 《安徽大学学报》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111010546A (zh) * | 2019-12-20 | 2020-04-14 | 浙江大华技术股份有限公司 | 监控预置点的调整方法、装置及存储介质 |
US11856285B2 (en) | 2019-12-20 | 2023-12-26 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for adjusting a monitoring device |
CN111310581A (zh) * | 2020-01-17 | 2020-06-19 | 杭州电子科技大学 | 一种基于模糊推理的人群安全性评估方法 |
CN111310581B (zh) * | 2020-01-17 | 2023-04-25 | 杭州电子科技大学 | 一种基于模糊推理的人群安全性评估方法 |
CN111866736A (zh) * | 2020-06-12 | 2020-10-30 | 深圳市元征科技股份有限公司 | 一种风险提醒方法、风险提醒装置及服务器 |
CN114419698A (zh) * | 2021-12-27 | 2022-04-29 | 天津天地伟业信息系统集成有限公司 | 一种人脸识别摄像机的控制方法及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110505440A (zh) | 一种区域监控方法和装置 | |
CN109508583A (zh) | 一种人群分布特征的获取方法和装置 | |
CN104166841B (zh) | 一种视频监控网络中指定行人或车辆的快速检测识别方法 | |
CN104463117B (zh) | 一种基于视频方式的人脸识别样本采集方法及系统 | |
CN108288027A (zh) | 一种图像质量的检测方法、装置及设备 | |
CN104106260B (zh) | 基于地理图的控制 | |
CN110210276A (zh) | 一种移动轨迹获取方法及其设备、存储介质、终端 | |
CN109816745B (zh) | 人体热力图展示方法及相关产品 | |
CN109690624A (zh) | 用于视频分析的自动场景校准方法 | |
CN108229335A (zh) | 关联人脸识别方法和装置、电子设备、存储介质、程序 | |
CN110458895A (zh) | 图像坐标系的转换方法、装置、设备及存储介质 | |
CN105208325B (zh) | 基于图像定点抓拍及比对分析的国土资源监控预警方法 | |
CN108154110A (zh) | 一种基于深度学习人头检测的密集人流量统计方法 | |
CN112287827A (zh) | 基于智慧灯杆的复杂环境行人口罩佩戴检测方法及系统 | |
Ancheta et al. | FEDSecurity: implementation of computer vision thru face and eye detection | |
CN109935080A (zh) | 一种交通线路上的车流量实时计算的监测系统及方法 | |
Arif et al. | Counting of people in the extremely dense crowd using genetic algorithm and blobs counting | |
CN109815813A (zh) | 图像处理方法及相关产品 | |
CN109740444A (zh) | 人流量信息展示方法及相关产品 | |
CN110348343A (zh) | 一种暴力行为监测方法、装置、存储介质及终端设备 | |
CN107330414A (zh) | 暴力行为监控方法 | |
CN108288017A (zh) | 获取对象密度的方法及装置 | |
CN109523041A (zh) | 核电站管理系统 | |
Yen et al. | Abnormal event detection using HOSF | |
CN108229289A (zh) | 目标检索方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191126 |