CN109508583A - 一种人群分布特征的获取方法和装置 - Google Patents

一种人群分布特征的获取方法和装置 Download PDF

Info

Publication number
CN109508583A
CN109508583A CN201710833463.XA CN201710833463A CN109508583A CN 109508583 A CN109508583 A CN 109508583A CN 201710833463 A CN201710833463 A CN 201710833463A CN 109508583 A CN109508583 A CN 109508583A
Authority
CN
China
Prior art keywords
distribution
density distribution
sample
image
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710833463.XA
Other languages
English (en)
Other versions
CN109508583B (zh
Inventor
童超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN201710833463.XA priority Critical patent/CN109508583B/zh
Publication of CN109508583A publication Critical patent/CN109508583A/zh
Application granted granted Critical
Publication of CN109508583B publication Critical patent/CN109508583B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本说明书实施例提供一种人群分布特征的获取方法和装置,其中方法包括:将待分析的人群场景的分布场景图像,输入预先训练得到的密度分布识别模型,进行图像识别;所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像头拍摄参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到;获得所述密度分布识别模型输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况。本说明书的方法具有较强的抗干扰力,获得的人群分布特征更为准确。

Description

一种人群分布特征的获取方法和装置
技术领域
本公开涉及计算机技术领域,特别涉及一种人群分布特征的获取方法和装置。
背景技术
随着人口的快速增长,因人群聚集而引起的安全事件越来越多,这也逐步提升了政府部门对人群的监控力度,例如,在一些室外公共场景下(如广场、景区、闹市街区等),更加需要加强对人群分布状况的监控和评估。其中,人群密度分布、人群数量统计等人群分布特征可以作为评估群体聚集的风险的重要参考,可以利用摄像头拍摄公共场景下的人群分布的分布场景图像,并分析该分布场景图像得到该公共场景下的人群分布特征。
上述对分布场景图像的分析,可以结合摄像头的拍摄高度和角度,确定图像中人体对应的像素区域大小,并且还可以根据人的头发为黑色的特点,对图像进行二值化操作,获取人头区域,最终通过检测人头区域得到图像人数。但是这种分析方式容易受到场景因素的干扰造成误检,比如,人头发的颜色对光照变化影响敏感,可能导致无法提取人头区域,抗干扰能力差,并且还需要结合摄像头拍摄的角度和高度等参数来分析,处理效率较低。
发明内容
有鉴于此,本公开提供一种人群分布特征的获取方法和装置,以提高获取人群分布特征方法的抗干扰力,使得获得的人群分布特征更为准确,并且提高处理效率。
具体地,本说明书一个或多个实施例是通过如下技术方案实现的:
第一方面,提供一种人群分布特征的获取方法,所述方法包括:
将待分析的人群场景的分布场景图像,输入预先训练得到的密度分布识别模型,进行图像识别,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像头拍摄参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到;
获得所述密度分布识别模型输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况。
在一个例子中,当使用所述密度分布识别模型分析不同的分布场景图像时,所述不同的分布场景图像包括:由不同的摄像头拍摄参数拍摄得到的图像。该模型可以识别不同拍摄参数得到的图像,从而对图像的拍摄参数没有特定要求,方便了图像拍摄者采集图像。
在一个例子中,所述将待分析的人群场景的分布场景图像,输入预先训练得到的密度分布识别模型之前,所述方法还包括:
获取多个样本分布场景图像,所述多个样本分布场景图像采用不同的摄像头拍摄参数拍摄得到;
根据每个所述样本分布场景图像中各个人体对应的场景景深,得到所述样本分布场景图像中的人体区域的中心点的像素值;
根据所述中心点的像素值和所述人体区域的密度分布规律,确定所述人体区域中其他各个像素点的像素值,得到与所述样本分布场景图像对应的所述密度分布真值图。
在一个例子中,所述摄像头拍摄参数,包括:摄像头的拍摄位置、或者摄像头的拍摄角度。
在一个例子中,所述待分析的人群场景的分布场景图像,是人群场景中指定的感兴趣区域的分布场景图像。
在一个例子中,所述获得所述密度分布识别模型输出的人群密度分布图之后,所述方法还包括:根据所述人群密度分布图,在所述分布场景图像中的指定图像区域进行积分,得到所述指定图像区域中的统计人数。该方法还可以获取人数,使得方便了对人数的统计分析,更好的进行安全监控。
在一个例子中,所述方法还包括:若所述统计人数超过报警阈值,则进行人数报警。
在一个例子中,所述人群场景的分布场景图像,由无人机上的摄像头在不同的拍摄位置采集得到。
第二方面,提供一种密度分布识别模型的训练方法,所述方法包括:
获取多类型训练样本,所述多类型训练样本包括:采用不同的摄像头拍摄参数拍摄得到的多个样本分布场景图像;
根据每一个所述样本分布场景图像中各个人体对应的场景景深,确定所述各个人体对应的人体区域中各个像素点的像素值,得到对应的密度分布真值图,所述密度分布真值图用于表示所述样本分布场景图像中的人群密度分布;
将所述多类型训练样本中的各个样本分布场景图像及对应的密度分布真值图,输入待训练的密度分布识别模型进行模型训练,并将所述密度分布真值图作为对应的所述样本分布场景图像的模型训练目标;
当达到预定的模型训练结束条件时,结束所述密度分布识别模型的训练,得到训练完成的所述密度分布识别模型。
在一个例子中,所述根据每一个所述样本分布场景图像,得到对应的密度分布真值图,包括:
根据所述样本分布场景图像中标定的真实人体的人体标识,获取所述真实人体对应的人体区域;
根据所述样本分布场景图像的场景景深,得到所述人体区域的中心点的像素值;
根据所述中心点的像素值和所述人体区域的密度分布规律,得到所述人体区域中其他各个像素点的像素值;
获得所述密度分布真值图,所述密度分布真值图包括所述人体区域以及其中各个像素点的像素值,并建立与所述样本分布场景图像的对应关系。
上述方法通过考虑了图像中的景深变化,使得可以对不同景深的图像提供了一种表示方式,从而可以准确表示不同拍摄参数的图像的区别,有助于提高模型训练的准确性。
在一个例子中,所述密度分布识别模型,包括:全卷积神经网络模型;
所述达到预定的模型训练结束条件,包括:
根据所述密度分布识别模型识别所述样本分布场景图像得到的人群密度分布图与对应的密度分布真值图之间的代价函数,满足函数优化条件时,确定达到预定的模型训练结束条件;
或者,当模型迭代次数达到预定的次数时,确定达到预定的模型训练条件。
第三方面,提供了一种人群分布特征的获取系统,所述系统包括:
无人机,装载有摄像头,用于通过所述摄像头在不同的拍摄位置采集得到人群场景的分布场景图像;
图像处理设备,用于接收所述无人机采集的所述分布场景图像,并且将所述分布场景图像输入预先训练的密度分布识别模型,识别得到对应所述分布场景图像的人群密度分布图,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像头拍摄参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到。
第四方面,提供一种人群分布特征的获取装置,所述装置包括:
图像识别模块,用于将待分析的人群场景的分布场景图像,输入预先训练得到的密度分布识别模型,进行图像识别,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像头拍摄参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到;
模型输出模块,用于获得所述密度分布识别模型输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况。
在一个例子中,所述图像识别模块,在用于接收不同的分布场景图像时输入所述密度分布识别模型时,所述不同的分布场景图像包括:由不同的摄像头拍摄参数拍摄得到的图像。
在一个例子中,所述装置还包括:人数统计模块,用于根据所述人群密度分布图,在所述分布场景图像中的指定图像区域进行积分,得到所述指定图像区域中的统计人数。
第五方面,提供一种密度分布识别模型的训练装置,所述装置包括:
样本获取模块,用于获取多类型训练样本,所述多类型训练样本包括:采用不同的摄像头拍摄参数拍摄得到的多个样本分布场景图像;
样本处理模块,用于根据每一个所述样本分布场景图像中各个人体对应的场景景深,确定所述各个人体对应的人体区域中各个像素点的像素值,得到对应的密度分布真值图,所述密度分布真值图用于表示所述样本分布场景图像中的人群密度分布;
训练处理模块,用于将所述多类型训练样本中的各个样本分布场景图像及对应的密度分布真值图,输入待训练的密度分布识别模型进行模型训练,并将所述密度分布真值图作为对应的所述样本分布场景图像的模型训练目标;
训练决策模块,用于当达到预定的模型训练结束条件时,结束所述密度分布识别模型的训练,得到训练完成的所述密度分布识别模型。
在一个例子中,所述样本处理模块,在用于根据每一个所述样本分布场景图像,得到对应的密度分布真值图时,包括:
根据所述样本分布场景图像中标定的真实人体的人体标识,获取所述真实人体对应的人体区域;
根据所述样本分布场景图像的场景景深,得到所述人体区域的中心点的像素值;
根据所述中心点的像素值和所述人体区域的密度分布规律,得到所述人体区域中其他各个像素点的像素值;
获得所述密度分布真值图,所述密度分布真值图包括所述人体区域以及其中各个像素点的像素值,并建立与所述样本分布场景图像的对应关系。
在一个例子中,所述训练决策模块,在用于确定达到预定的模型训练结束条件时,包括:
根据所述密度分布识别模型识别所述样本分布场景图像得到的人群密度分布图与对应的密度分布真值图之间的代价函数,满足函数优化条件时,确定达到预定的模型训练结束条件;
或者,当模型迭代次数达到预定的次数时,确定达到预定的模型训练条件。
第六方面,提供一种图像处理设备,所述设备包括存储器、处理器,以及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行指令时实现以下步骤:
将待分析的人群场景的分布场景图像,输入预先训练得到的密度分布识别模型,进行图像识别,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像头拍摄参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到;
获得所述密度分布识别模型输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况。
第七方面,提供一种图像处理设备,所述设备包括存储器、处理器,以及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行指令时实现以下步骤:
获取多类型训练样本,所述多类型训练样本包括:采用不同的摄像头拍摄参数拍摄得到的多个样本分布场景图像;
根据每一个所述样本分布场景图像中各个人体对应的场景景深,确定所述各个人体对应的人体区域中各个像素点的像素值,得到对应的密度分布真值图,所述密度分布真值图用于表示所述样本分布场景图像中的人群密度分布;
将所述多类型训练样本中的各个样本分布场景图像及对应的密度分布真值图,输入待训练的密度分布识别模型进行模型训练,并将所述密度分布真值图作为对应的所述样本分布场景图像的模型训练目标;
当达到预定的模型训练结束条件时,结束所述密度分布识别模型的训练,得到训练完成的所述密度分布识别模型。
本说明书一个或多个实施例的人群分布特征的获取方法和装置,通过采用预先训练的密度分布识别模型进行处理,使得该方法具有较强的抗干扰力,不容易受到外界环境因素的干扰,并且利用密度分布识别模型进行分析,能够使得输出结果是综合了较为周全的各种因素的获得结果,获得的人群分布特征更为准确;此外,使用模型可以直接输出获得密度分布,该模型也能够适应各种拍摄参数获得的图像的识别,提升了处理效率。
附图说明
为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书一个或多个实施例中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书一个或多个实施例提供的全卷积神经网络模型的结构设计;
图2为本说明书一个或多个实施例提供的密度分布识别模型的训练过程;
图3为本说明书一个或多个实施例提供的密度分布真值图的获取流程;
图4为本说明书一个或多个实施例提供的人头标定示意图;
图5为本说明书一个或多个实施例提供的人群密度分布图的获取流程;
图6为本说明书一个或多个实施例提供的人群分布特征的获取装置的结构图;
图7为本说明书一个或多个实施例提供的人群分布特征的获取装置的结构图;
图8为本说明书一个或多个实施例提供的密度分布识别模型的训练装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书一个或多个实施例中的技术方案,下面将结合本说明书一个或多个实施例中的附图,对本说明书一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是一部分实施例,而不是全部的实施例。基于本说明书一个或多个实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本公开保护的范围。
人群聚集的场所容易引起安全事故,因此,在一些广场、景区等室外公共场所下,更需要加强对人群的安全监控。监控的方式可以包括,通过摄像头采集人群聚集的场景图像,并根据该图像进行分析处理,得到图像中包含的一些人群分布特征,比如,人数统计(总共有多少人),或者人群密度分布(哪个位置人聚集较多,密度较高),据此来确定需要重点监控的场景区域。
本公开例子提供的方法,可以应用于根据采集的人群聚集的场景图像,得到人群分布特征,比如,该特征可以是人群密度分布图。其中,可以将采集的图像称为人群场景的分布场景图像,例如可以是通过摄像头拍摄的某广场上的部分区域的人群图像。图像的采集方式,可以是固定摄像头拍摄,或者也可以是非固定摄像头拍摄,比如采用无人机上安装的摄像头拍摄得到。本公开实施例的方法可以应用在与摄像头通过有线或无线方式连接的服务器上,也可以应用于具有计算功能的智能摄像机上等等,在此不作限定。
该方法将密度分布识别模型应用于人群密度分布图的生成,可以将用于根据分布场景图像生成人群密度分布图的模型称为密度分布识别模型。例如,该密度分布识别模型可以采用全卷积神经网络模型。如下以全卷积神经网络模型为例,来说明模型的训练获得的过程以及模型的应用。在密度分布识别模型的训练方法可以应用于服务器、视频存储设备、云分析系统等等,在此不作限定。
密度分布识别模型的训练:
图1示例了一个例子中的全卷积神经网络模型的结构设计。该全卷积神经网络中可以不包含全连接层。可以首先利用一系列卷积层和降采样层,依次提取由低层到高层的特征图,然后通过反卷积层将特征上采样到原始图像大小,最后再通过卷积层获得与原始输入图像相同分辨率的人群密度分布图。
如图1所示,该模型的输入可以是分布场景图像,模型的输出可以是该分布场景图像对应的人群密度分布图。所得的人群密度分布图中的每一个像素点的像素值表示该位置所对应的人群密度。
在对图1所示的全卷积神经网络模型进行训练时,可以先进行训练样本的生成,根据该训练样本来训练模型。图2示例了对图1的模型进行训练的过程。
在步骤201中,获取多类型训练样本,所述多类型训练样本包括采用不同的摄像头拍摄参数拍摄得到的样本分布场景图像。
本步骤中,样本分布场景图像可以是历史拍摄的图像,这些图像可以是对某个人群场景进行拍摄得到,例如,可以是广场上的人群,或者是火车站的人群。所述的摄像头拍摄参数,可以包括摄像头的拍摄高度、拍摄角度等。
本例子中,所述的多类型训练样本,可以包括不同的摄像头拍摄参数拍摄得到的样本分布场景图像。例如,其中一个样本分布场景图像的拍摄高度是L1,另一个样本分布场景图像的拍摄高度是L2。
通过在获取训练样本时,覆盖多种摄像头拍摄参数拍摄得到的样本分布场景图像,使得根据这些训练样本训练得到的模型,也能够对各种摄像头拍摄参数拍摄得到的图像进行分析识别,从而使得模型对待分析的图像的拍摄参数没有限定性要求,多种拍摄参数拍摄得到的图像都可以输入该模型进行分析。那么对于图像拍摄者来说,在拍摄图像时,不需要在限制固定摄像头的拍摄角度或者高度等参数,图像的拍摄位置不用固定,从而使得在采集图像时更加自由和方便,并且对于要根据图像来得到人群密度分布的图像处理方来说,由于后续直接使用模型即可输出对应的密度分布图,也不再需要将图像拍摄时使用的拍摄参数引入到相关计算中,从而可以使得识别处理更加快速。
在步骤202中,根据每一个所述样本分布场景图像,得到对应的密度分布真值图,所述密度分布真值图作为所述样本分布场景图的模型训练目标。
本例子中,对于每一个样本分布场景图像,还可以获取对应该图像的密度分布真值图,该真值图相当于样本分布场景图的模型训练目标。图3示例了一个例子中的密度分布真值图的获取流程,但是实际实施中并不局限于此:
在步骤2021中,根据样本分布场景图像中标定的真实人体的人体标识,获取所述真实人体对应的人体区域。
本例子中,对于样本分布场景图像,可以由人工在图像上进行真实人体的标定,即标示出图像中哪个是人。例如,在标定时可以标定出人头中心点,找到一个图像中的人,标定该人的人头中心点,最终可以得到图像中的人头中心点的标定点集合,该集合可以用P表示,其中每一个标定点可以用p表示。
上述的人头中心点的标定点,即可以称为人体标识,人体标识即为一个用于表示图像中人的标识。当然,在人头标定是一个例子,后续的描述中也以标定人头为例。此外,本步骤中,还可以根据标定出的各个人体,得到对应的人体区域。该人体区域可以是一个用于表示图像中人的区域,但是该区域并不一定是图像中的人体所占用的实际图像区域,该人体区域的区域大小可以随图像中人体的显示大小而确定,例如,如果图像中的人显示较大,则该人对应的人体区域可以较大。
在一个例子中,假设图像中其中一个人距离摄像头较近,拍摄出的图像中显示的较大,那么该人体在图像中占用的图像像素点可能会较多,比如,占用5*5的像素区域,那么可以将上述标定出的人头中心点作为一个圆心,划定一个圆形区域,该圆形区域相当于人头,并且该圆形区域的占用面积可以相当于接近5*5的像素区域,或者,该圆形区域的占用面积也可以是这个人的人头在图像中占用的区域面积。参见图4的示例,图4中的图像仅示例了较少数量的人,示意了对图像中的人的标定。例如,对于图4中的人41标定时,人头中心点42即人体标识,圆形区域43即对应的人体区域。图像中的每个人都可以按照上述的方法进行标定。
在步骤2022中,根据所述样本分布场景图像的场景景深,得到所述人体区域的中心点的像素值。
经过步骤2021的标定,已经将样本分布场景图像中的各个人进行了区分,每个人都可以用一个对应的人体区域进行标识。本步骤以及步骤2023,可以对该人体区域中的各个像素点的像素值进行确定。本步骤可以确定人体区域的中心点的像素值,后续的步骤2023可以根据该中心点的像素值,确定人体区域的其他像素点的像素值。
其中,步骤2021中标识的人体区域,可以反映不同人体在图像中占用图像区域的大小不同,比如,显示较大的人可以给予较大的人体区域,显示较小的人可以给予较小的人体区域。本步骤在为该人体区域的像素点确定像素值时,可以假设人体平均高度大致相等,并结合样本分布场景图像的景深变化情况,根据图像中的不同位置的人体高度估算出该位置单位高度对应的像素数,并将该像素数作为该人体的人体区域的中心点的像素值。
例如,假如图像中的一个人在拍摄时距离摄像头较近,在图像中显示的较大,那么这个人在图像中占用的图像像素数较多,当假设人体平均高度大致相等时,该人的单位高度对应的像素数就相对较低,所以这个人的人体区域的中心点的像素值较低。同理,如果图像中一个人显示较小,距离较远,该人的人体区域的中心点的像素值就相对较高。
在步骤2023中,根据所述中心点的像素值和所述人体区域的密度分布规律,得到所述人体区域中其他各个像素点的像素值。
本步骤在确定人体区域的中心点以外的其他各个像素点的像素值时,可以假设人头的密度分布规律是服从圆形高斯分布,则在步骤2022确定了中心点的像素值的基础上,可以根据该圆形高斯分布的分布规律,结合其他各个像素点与中心点之间的距离,得到各像素点的像素值。
可以按照如下公式(1)计算各像素点的像素值:
其中
上式中,Ph为人头中心点的位置坐标,δh为高斯分布的方差,其大小正比于人头中心位置Ph对应的场景透视图值M(Ph),该场景透视图值M(Ph)即上述步骤2022确定的中心点的像素值。此外,可以利用||Z||起到归一化的作用,保证每个人体对应的人群密度之和为1,这样整幅图像的人群密度分布真值图中,各像素点的像素值之和等于样本图像的人群数量。
在步骤2024中,获得密度分布真值图,所述密度分布真值图包括人体区域以及其中各个像素点的像素值,并建立与所述样本分布场景图像的对应关系。
至此,可以得到样本分布场景图对应的密度分布真值图,该密度分布真值图中包括上述标定出的人体区域以及其中各个像素点的像素值。本步骤可以建立样本分布场景图像及其密度分布真值图的对应关系,每一个样本分布场景图像都有其对应的密度分布真值图。
上述图3所示的密度分布真值图的获取流程中,通过结合图像中的景深变化,将不同位置的人体显示为不同的像素值,这种方式能够对拍摄的不同大小和远近的人体在真值图显示上进行区分。这种方式也体现了本例子的密度分布识别模型能够适应不同拍摄参数的输入图像,即使输入的各个图像的拍摄高度和拍摄角度不同,对于这种拍摄参数不同导致的图像中人体显示的不同(例如,大小不同,远近不同),本例子的模型仍然能够识别到这种区别,并且在识别这种区别的基础上仍然能够清楚准确的识别到各种图像中的真实人体所在。
在步骤203中,将所述多类型训练样本中的各个样本分布场景图像及对应的密度分布真值图,输入构建的密度分布识别模型进行模型训练。
本步骤中,可以将各个样本分布场景图像及对应的密度分布真值图,输入图1中构建的密度分布识别模型进行模型训练。例如,模型的训练可以采用反向传播算法进行训练,网络参数梯度的计算可以采用随机梯度下降法(SGD,Stochastic Gradient Descent)。
例如,本例子的全卷积神经网络模型的优化所依据的函数可以是下面的代价函数(或者称为损失函数):
上面公式(2)中,θ为全卷积神经网络的网络参数,N为训练样本数,Fd(Xi;θ)为输入的样本分布场景图像Xi经过全卷积神经网络预测输出的人群密度分布图,Di为样本分布场景图像Xi对应的密度分布真值图。
在步骤204中,当达到预定的模型训练结束条件时,结束所述密度分布识别模型的训练,得到训练完成的所述密度分布识别模型。
在一个例子中,可以在密度分布识别模型输出的人群密度分布图与对应的密度分布真值图之间的代价函数,满足函数优化条件时,确定达到预定的模型训练结束条件,得到密度分布识别模型。
例如,根据步骤203中的公式(2),当密度分布识别模型输出的人群密度分布图与对应的密度分布真值图之间的误差较小时,即模型输出的人群密度分布图与预先生成的对应的密度分布真值图特别接近时,满足优化条件,则完成模型的训练。使用该训练完的模型,就可以对输入的分布场景图像分析到对应的较为准确的人群密度分布图。此外,密度分布识别模型的训练还可以依据其他条件,比如,达到预定的迭代次数时,可以结束模型的训练。例如,迭代次数达到35次、50次、29次或100次等等,在此不作限定。
通过利用大量的训练样本来训练模型,并且利用全卷积神经网络强大的学习能力,自动提取出图像的特征与人群密度分布图的映射关系,使得利用模型得到密度分布图的方法能够对光照变化、角度变化等都具有较好的鲁棒性,可以更好的适应各种不同的复杂场景。
在完成模型训练的基础上,如下描述应用该模型来对输入图像进行人群密度分布的识别,得到对应的人群密度分布图,根据该人群密度分布图可以观察到某个人群场景的各个区域的人群聚集性,对人群较多的区域进行重点监控。
密度分布识别模型的应用:
图5示例了一个例子中的人群分布特征的获取方法,该方法描述如何根据一个输入图像得到对应的人群密度分布图,该方法可以包括:
在步骤501中,将待分析的人群场景的分布场景图像,输入预先训练得到的密度分布识别模型,该密度分布识别模型根据多类型训练样本训练得到,该多类型训练样本包括采用不同的摄像头拍摄参数拍摄得到的样本分布场景图像。
本步骤中待分析的人群场景的分布场景图像,例如,可以是利用无人机上的摄像头实时采集的视频流数据,可以通过无线传输模块传递至地面的工作台,由工作台上对接收到的视频流数据进行分析。其中,对于实时视频流的数据,可以实时动态的分析每一帧图像对应的人群密度分布图,或者也可以间隔一定时间分析某一帧图像的人群密度分布图,当然,无人机摄像头可以采集拍摄的单个的图像传输至地面工作台分析,具体的实施可以根据业务需要确定。
地面工作台在接收到待分析的人群场景的分布场景图像后,可以将图像输入预先训练得到的密度分布识别模型,该模型即为上面训练得到的模型。该模型可以适应多种类型的拍摄参数得到的图像,比如,当使用该同一个密度分布识别模型分析不同的分布场景图像时,所述不同的分布场景图像可以包括:由不同的摄像头拍摄参数拍摄得到的图像。比如,对于使用不同的拍摄高度或者拍摄角度采集到的各个图像,都可以使用该模型进行密度分布的识别。用于训练该模型的样本分布场景图像对应的密度分布真值图,可以是根据样本分布场景图像中各个人体对应的场景景深得到的。
在步骤502中,获得所述密度分布识别模型输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况。
本步骤即为模型处理的过程,利用上面训练得到的密度分布识别模型,该模型可以将输入的分布场景图像,识别得到其对应的人群密度分布图。
本例子的人群分布特征的获取方法,通过采用预先训练的密度分布识别模型进行处理,使得该方法具有较强的抗干扰力,不容易受到外界环境因素的干扰,并且利用密度分布识别模型进行分析,能够使得输出结果是综合了较为周全的各种因素的获得结果,获得的人群分布特征更为准确;此外,使用模型可以直接输出获得密度分布,该模型也能够适应各种拍摄参数获得的图像的识别,提升了处理效率。
在一个例子中,在利用模型得到人群密度分布图之后,可以进行实时展示。例如,无人机上的摄像头将实时采集的视频流数据发送至地面工作台,地面工作台对视频流数据中的各帧图像进行分析,得到对应的人群密度分布图,可以通过一个演示模块,例如可以是一块演示屏幕,实时展示对应的人群密度分布图的动态变化,直观的反映出人群分布的实时变化。
在另一个例子中,在利用模型得到人群密度分布图之后,还可以进一步获取人数统计。例如,可以根据人群密度分布图,在所述分布场景图像中的指定图像区域进行积分,得到所述指定图像区域中的统计人数。比如,人群密度分布图的每个像素点表示该位置所对应的人群密度估计值,人群密度分布图中的每个区域通过将密度积分可以得到该区域的人数统计量。图像所有区域人群密度图的积分和即为该图像场景内的人数统计量。由此,通过人群密度分布图,可以得到人数统计的信息以及人群分布的位置信息,既可以得到图中哪个地方人多,哪个地方人少,还可以统计出各个区域的人数。
用户还可以通过人群密度分布图设定自己感兴趣的检测区域。比如,用户可以在地面工作台的人机交互界面上,在待分析的一个分布场景图像上,划定一块要重点观察的图像区域,可以是一块聚集了很多人的区域,此时模型就可以对这块区域进行分析,通过累加感兴趣区内的人群密度积分和,即可以得到感兴趣区域内的人数。
当统计人数超过报警阈值时,比如,超过了用户设置的人数报警阈值,还可以进行人数报警,提醒监控人员对人数较多的地方进行重点安全监控。报警的方式可以有多种,比如,可以将图像中报警的位置和人数发送至监控人员的终端设备,或者在演示人群密度分布图的演示屏幕上进行突出颜色显示,或者进行人群拥挤的警报提示。
本例子的方法,通过采用密度分布识别模型来得到输入图像对应的密度分布图,使得无需在图像采集时固定摄像头的拍摄参数,可以更加方便图像的采集;并且,该方法可以用来分析室外任意公共场所下的人群分布状态,帮助管理人员提高现场管理调度,避免公共安全事件的发生。
为了实现本公开的人群分布特征的获取方法,本公开还提供了一种人群分布特征的获取装置,该装置可以应用于使用模型识别图像的人群密度分布。如图6所示,该装置可以包括:图像识别模块61和模型输出模块62。
图像识别模块61,用于将待分析的人群场景的分布场景图像,输入预先训练得到的密度分布识别模型,进行图像识别,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像头拍摄参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到;
模型输出模块62,用于获得所述密度分布识别模型输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况。
在一个例子中,图像识别模块61,在用于接收不同的分布场景图像时输入所述密度分布识别模型时,所述不同的分布场景图像包括:由不同的摄像头拍摄参数拍摄得到的图像。
在一个例子中,如图7所示,该装置还可以包括:人数统计模块63,用于根据所述人群密度分布图,在所述分布场景图像中的指定图像区域进行积分,得到所述指定图像区域中的统计人数。
为了实现本公开的密度分布识别模型的训练方法,本公开还提供了一种密度分布识别模型的训练装置,该装置可以应用于密度分布识别模型的训练。如图8所示,该装置可以包括:样本获取模块81、样本处理模块82、训练处理模块83和训练决策模块84。
样本获取模块81,用于获取多类型训练样本,所述多类型训练样本包括:采用不同的摄像头拍摄参数拍摄得到的多个样本分布场景图像;
样本处理模块82,用于根据每一个所述样本分布场景图像中各个人体对应的场景景深,确定所述各个人体对应的人体区域中各个像素点的像素值,得到对应的密度分布真值图,所述密度分布真值图用于表示所述样本分布场景图像中的人群密度分布;
训练处理模块83,用于将所述多类型训练样本中的各个样本分布场景图像及对应的密度分布真值图,输入待训练的密度分布识别模型进行模型训练,并将所述密度分布真值图作为对应的所述样本分布场景图像的模型训练目标;
训练决策模块84,用于当达到预定的模型训练结束条件时,结束所述密度分布识别模型的训练,得到训练完成的所述密度分布识别模型。
在一个例子中,所述样本处理模块82,在用于根据每一个所述样本分布场景图像,得到对应的密度分布真值图时,包括:
根据所述样本分布场景图像中标定的真实人体的人体标识,获取所述真实人体对应的人体区域;
根据所述样本分布场景图像的景深,得到所述人体区域的中心点的像素值;
根据所述中心点的像素值和所述人体区域的密度分布规律,得到所述人体区域中其他各个像素点的像素值;
获得所述密度分布真值图,所述密度分布真值图包括所述人体区域以及其中各个像素点的像素值,并建立与所述样本分布场景图像的对应关系。
在一个例子中,所述训练决策模块84,在用于确定达到预定的模型训练结束条件时,包括:
根据所述密度分布识别模型识别所述样本分布场景图像得到的人群密度分布图与对应的密度分布真值图之间的代价函数,满足函数优化条件时,确定达到预定的模型训练结束条件;
或者,当模型迭代次数达到预定的次数时,确定达到预定的模型训练条件。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书一个或多个实施例时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
此外,上述方法实施例流程中的各个步骤,其执行顺序不限制于流程图中的顺序。此外,各个步骤的描述,可以实现为软件、硬件或者其结合的形式,例如,本领域技术人员可以将其实现为软件代码的形式,可以为能够实现所述步骤对应的逻辑功能的计算机可执行指令。当其以软件的方式实现时,所述的可执行指令可以存储在存储器中,并被设备中的处理器执行。
例如,对应于上述方法,本说明书一个或多个实施例同时提供一种图像处理设备,该设备可以应用于使用模型识别图像的人群密度分布。该设备可以包括处理器、存储器、以及存储在存储器上并可在处理器上运行的计算机指令,所述处理器通过执行所述指令,用于实现如下步骤:将待分析的人群场景的分布场景图像,输入预先训练得到的密度分布识别模型,进行图像识别,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像头拍摄参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到;获得所述密度分布识别模型输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况。
例如,对应于上述方法,本说明书一个或多个实施例同时提供一种图像处理设备,该设备可以应用于密度分布识别模型的训练。该设备可以包括处理器、存储器、以及存储在存储器上并可在处理器上运行的计算机指令,所述处理器通过执行所述指令,用于实现如下步骤:获取多类型训练样本,所述多类型训练样本包括:采用不同的摄像头拍摄参数拍摄得到的多个样本分布场景图像;根据每一个所述样本分布场景图像中各个人体对应的场景景深,确定所述各个人体对应的人体区域中各个像素点的像素值,得到对应的密度分布真值图,所述密度分布真值图用于表示所述样本分布场景图像中的人群密度分布;将所述多类型训练样本中的各个样本分布场景图像及对应的密度分布真值图,输入待训练的密度分布识别模型进行模型训练,并将所述密度分布真值图作为对应的所述样本分布场景图像的模型训练目标;当达到预定的模型训练结束条件时,结束所述密度分布识别模型的训练,得到训练完成的所述密度分布识别模型。
本公开的例子还提供了一种人群分布特征的获取系统,该系统可以包括:
无人机,装载有摄像头,用于通过所述摄像头以不同的拍摄参数采集得到人群场景的分布场景图像;
图像处理设备,用于接收所述无人机采集的所述分布场景图像,并且将所述分布场景图像输入预先训练的密度分布识别模型,识别得到对应所述分布场景图像的人群密度分布图,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像头拍摄参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到。
本领域内的技术人员应明白,本说明书一个或多个实施例可提供为方法、系统、或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
本公开还提供了一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现使用模型识别图像的人群密度分布,包括以下步骤:
将待分析的人群场景的分布场景图像,输入预先训练得到的密度分布识别模型,进行图像识别,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像头拍摄参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到;
获得所述密度分布识别模型输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况。
本公开还提供了一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现对密度分布识别模型的训练,包括以下步骤:
获取多类型训练样本,所述多类型训练样本包括:采用不同的摄像头拍摄参数拍摄得到的多个样本分布场景图像;
根据每一个所述样本分布场景图像中各个人体对应的场景景深,确定所述各个人体对应的人体区域中各个像素点的像素值,得到对应的密度分布真值图,所述密度分布真值图用于表示所述样本分布场景图像中的人群密度分布;
将所述多类型训练样本中的各个样本分布场景图像及对应的密度分布真值图,输入待训练的密度分布识别模型进行模型训练,并将所述密度分布真值图作为对应的所述样本分布场景图像的模型训练目标;
当达到预定的模型训练结束条件时,结束所述密度分布识别模型的训练,得到训练完成的所述密度分布识别模型。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
以上所述仅为本说明书一个或多个实施例的较佳实施例而已,并不用以限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开保护的范围之内。

Claims (20)

1.一种人群分布特征的获取方法,其特征在于,所述方法包括:
将待分析的人群场景的分布场景图像,输入预先训练得到的密度分布识别模型,进行图像识别,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像头拍摄参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到;
获得所述密度分布识别模型输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况。
2.根据权利要求1所述的方法,其特征在于,当使用所述密度分布识别模型分析不同的分布场景图像时,所述不同的分布场景图像包括:由不同的摄像头拍摄参数拍摄得到的图像。
3.根据权利要求1所述的方法,其特征在于,所述将待分析的人群场景的分布场景图像,输入预先训练得到的密度分布识别模型之前,所述方法还包括:
获取多个样本分布场景图像,所述多个样本分布场景图像采用不同的摄像头拍摄参数拍摄得到;
根据每个所述样本分布场景图像中各个人体对应的场景景深,得到所述样本分布场景图像中的人体区域的中心点的像素值;
根据所述中心点的像素值和所述人体区域的密度分布规律,确定所述人体区域中其他各个像素点的像素值,得到与所述样本分布场景图像对应的所述密度分布真值图。
4.根据权利要求1所述的方法,其特征在于,所述摄像头拍摄参数,包括:摄像头的拍摄位置、或者摄像头的拍摄角度。
5.根据权利要求1所述的方法,其特征在于,所述待分析的人群场景的分布场景图像,是人群场景中指定的感兴趣区域的分布场景图像。
6.根据权利要求1所述的方法,其特征在于,所述获得所述密度分布识别模型输出的人群密度分布图之后,所述方法还包括:
根据所述人群密度分布图,在所述分布场景图像中的指定图像区域进行积分,得到所述指定图像区域中的统计人数。
7.根据权利要求5所述的方法,其特征在于,所述方法还包括:若所述统计人数超过报警阈值,则进行人数报警。
8.根据权利要求1所述的方法,其特征在于,所述人群场景的分布场景图像,由无人机上的摄像头在不同的拍摄位置采集得到。
9.一种密度分布识别模型的训练方法,其特征在于,所述方法包括:
获取多类型训练样本,所述多类型训练样本包括:采用不同的摄像头拍摄参数拍摄得到的多个样本分布场景图像;
根据每一个所述样本分布场景图像中各个人体对应的场景景深,确定所述各个人体对应的人体区域中各个像素点的像素值,得到对应的密度分布真值图,所述密度分布真值图用于表示所述样本分布场景图像中的人群密度分布;
将所述多类型训练样本中的各个样本分布场景图像及对应的密度分布真值图,输入待训练的密度分布识别模型进行模型训练,并将所述密度分布真值图作为对应的所述样本分布场景图像的模型训练目标;
当达到预定的模型训练结束条件时,结束所述密度分布识别模型的训练,得到训练完成的所述密度分布识别模型。
10.根据权利要求9所述的方法,其特征在于,所述根据每一个所述样本分布场景图像,得到对应的密度分布真值图,包括:
根据所述样本分布场景图像中标定的真实人体的人体标识,获取所述真实人体对应的人体区域;
根据所述样本分布场景图像的场景景深,得到所述人体区域的中心点的像素值;
根据所述中心点的像素值和所述人体区域的密度分布规律,得到所述人体区域中其他各个像素点的像素值;
获得所述密度分布真值图,所述密度分布真值图包括所述人体区域以及其中各个像素点的像素值,并建立与所述样本分布场景图像的对应关系。
11.根据权利要求9所述的方法,其特征在于,所述密度分布识别模型,包括:全卷积神经网络模型;
所述达到预定的模型训练结束条件,包括:
根据所述密度分布识别模型识别所述样本分布场景图像得到的人群密度分布图与对应的密度分布真值图之间的代价函数,满足函数优化条件时,确定达到预定的模型训练结束条件;
或者,当模型迭代次数达到预定的次数时,确定达到预定的模型训练结束条件。
12.一种人群分布特征的获取系统,其特征在于,所述系统包括:
无人机,装载有摄像头,用于通过所述摄像头以不同的拍摄参数采集得到人群场景的分布场景图像;
图像处理设备,用于接收所述无人机采集的所述分布场景图像,并且将所述分布场景图像输入预先训练的密度分布识别模型,识别得到对应所述分布场景图像的人群密度分布图,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像头拍摄参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到。
13.一种人群分布特征的获取装置,其特征在于,所述装置包括:
图像识别模块,用于将待分析的人群场景的分布场景图像,输入预先训练得到的密度分布识别模型,进行图像识别,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像头拍摄参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到;
模型输出模块,用于获得所述密度分布识别模型输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况。
14.根据权利要求13所述的装置,其特征在于,
所述图像识别模块,在用于接收不同的分布场景图像时输入所述密度分布识别模型时,所述不同的分布场景图像包括:由不同的摄像头拍摄参数拍摄得到的图像。
15.根据权利要求13所述的装置,其特征在于,所述装置还包括:
人数统计模块,用于根据所述人群密度分布图,在所述分布场景图像中的指定图像区域进行积分,得到所述指定图像区域中的统计人数。
16.一种密度分布识别模型的训练装置,其特征在于,所述装置包括:
样本获取模块,用于获取多类型训练样本,所述多类型训练样本包括:采用不同的摄像头拍摄参数拍摄得到的多个样本分布场景图像;
样本处理模块,用于根据每一个所述样本分布场景图像中各个人体对应的场景景深,确定所述各个人体对应的人体区域中各个像素点的像素值,得到对应的密度分布真值图,所述密度分布真值图用于表示所述样本分布场景图像中的人群密度分布;
训练处理模块,用于将所述多类型训练样本中的各个样本分布场景图像及对应的密度分布真值图,输入待训练的密度分布识别模型进行模型训练,并将所述密度分布真值图作为对应的所述样本分布场景图像的模型训练目标;
训练决策模块,用于当达到预定的模型训练结束条件时,结束所述密度分布识别模型的训练,得到训练完成的所述密度分布识别模型。
17.根据权利要求16所述的装置,其特征在于,所述样本处理模块,在用于根据每一个所述样本分布场景图像,得到对应的密度分布真值图时,包括:
根据所述样本分布场景图像中标定的真实人体的人体标识,获取所述真实人体对应的人体区域;
根据所述样本分布场景图像的场景景深,得到所述人体区域的中心点的像素值;
根据所述中心点的像素值和所述人体区域的密度分布规律,得到所述人体区域中其他各个像素点的像素值;
获得所述密度分布真值图,所述密度分布真值图包括所述人体区域以及其中各个像素点的像素值,并建立与所述样本分布场景图像的对应关系。
18.根据权利要求16所述的装置,其特征在于,
所述训练决策模块,在用于确定达到预定的模型训练结束条件时,包括:
根据所述密度分布识别模型识别所述样本分布场景图像得到的人群密度分布图与对应的密度分布真值图之间的代价函数,满足函数优化条件时,确定达到预定的模型训练结束条件;
或者,当模型迭代次数达到预定的次数时,确定达到预定的模型训练条件。
19.一种图像处理设备,其特征在于,所述设备包括存储器、处理器,以及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行指令时实现以下步骤:
将待分析的人群场景的分布场景图像,输入预先训练得到的密度分布识别模型,进行图像识别,所述密度分布识别模型根据各个样本分布场景图像及对应的密度分布真值图训练得到,所述各个样本分布场景图像包括采用不同的摄像头拍摄参数拍摄得到的图像,所述密度分布真值图根据所述样本分布场景图像中各个人体对应的场景景深得到;
获得所述密度分布识别模型输出的人群密度分布图,所述人群密度分布图用于表示所述人群场景的人群密度分布状况。
20.一种图像处理设备,其特征在于,所述设备包括存储器、处理器,以及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行指令时实现以下步骤:
获取多类型训练样本,所述多类型训练样本包括:采用不同的摄像头拍摄参数拍摄得到的多个样本分布场景图像;
根据每一个所述样本分布场景图像中各个人体对应的场景景深,确定所述各个人体对应的人体区域中各个像素点的像素值,得到对应的密度分布真值图,所述密度分布真值图用于表示所述样本分布场景图像中的人群密度分布;
将所述多类型训练样本中的各个样本分布场景图像及对应的密度分布真值图,输入待训练的密度分布识别模型进行模型训练,并将所述密度分布真值图作为对应的所述样本分布场景图像的模型训练目标;
当达到预定的模型训练结束条件时,结束所述密度分布识别模型的训练,得到训练完成的所述密度分布识别模型。
CN201710833463.XA 2017-09-15 2017-09-15 一种人群分布特征的获取方法和装置 Active CN109508583B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710833463.XA CN109508583B (zh) 2017-09-15 2017-09-15 一种人群分布特征的获取方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710833463.XA CN109508583B (zh) 2017-09-15 2017-09-15 一种人群分布特征的获取方法和装置

Publications (2)

Publication Number Publication Date
CN109508583A true CN109508583A (zh) 2019-03-22
CN109508583B CN109508583B (zh) 2020-11-06

Family

ID=65744890

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710833463.XA Active CN109508583B (zh) 2017-09-15 2017-09-15 一种人群分布特征的获取方法和装置

Country Status (1)

Country Link
CN (1) CN109508583B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991225A (zh) * 2019-10-22 2020-04-10 同济大学 基于多列卷积神经网络的人群计数与密度估计方法及装置
CN111178276A (zh) * 2019-12-30 2020-05-19 上海商汤智能科技有限公司 图像处理方法、图像处理设备及计算机可读存储介质
CN111428546A (zh) * 2019-04-11 2020-07-17 杭州海康威视数字技术股份有限公司 图像中人体标记方法、装置、电子设备及存储介质
CN111695544A (zh) * 2020-06-23 2020-09-22 中国平安人寿保险股份有限公司 基于人群检测模型的信息发送方法、装置和计算机设备
CN111866736A (zh) * 2020-06-12 2020-10-30 深圳市元征科技股份有限公司 一种风险提醒方法、风险提醒装置及服务器
CN112598725A (zh) * 2019-09-17 2021-04-02 佳能株式会社 图像处理设备、图像处理方法和计算机可读介质
CN113420720A (zh) * 2021-07-21 2021-09-21 中通服咨询设计研究院有限公司 一种高精度低延时大型室内场馆人群分布计算方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3116361B1 (fr) * 2020-11-18 2023-12-08 Thales Sa Procédé de détermination d'une densité d'éléments dans des zones d'un environnement, produit programme d'ordinateur associé

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103839065A (zh) * 2014-02-14 2014-06-04 南京航空航天大学 人群动态聚集特征提取方法
CN106326937A (zh) * 2016-08-31 2017-01-11 郑州金惠计算机系统工程有限公司 基于卷积神经网络的人群密度分布估计方法
CN106778502A (zh) * 2016-11-21 2017-05-31 华南理工大学 一种基于深度残差网络的人群计数方法
CN106815563A (zh) * 2016-12-27 2017-06-09 浙江大学 一种基于人体表观结构的人群数量预测方法
CN107145821A (zh) * 2017-03-23 2017-09-08 华南农业大学 一种基于深度学习的人群密度检测方法和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103839065A (zh) * 2014-02-14 2014-06-04 南京航空航天大学 人群动态聚集特征提取方法
CN106326937A (zh) * 2016-08-31 2017-01-11 郑州金惠计算机系统工程有限公司 基于卷积神经网络的人群密度分布估计方法
CN106778502A (zh) * 2016-11-21 2017-05-31 华南理工大学 一种基于深度残差网络的人群计数方法
CN106815563A (zh) * 2016-12-27 2017-06-09 浙江大学 一种基于人体表观结构的人群数量预测方法
CN107145821A (zh) * 2017-03-23 2017-09-08 华南农业大学 一种基于深度学习的人群密度检测方法和系统

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428546A (zh) * 2019-04-11 2020-07-17 杭州海康威视数字技术股份有限公司 图像中人体标记方法、装置、电子设备及存储介质
CN111428546B (zh) * 2019-04-11 2023-10-13 杭州海康威视数字技术股份有限公司 图像中人体标记方法、装置、电子设备及存储介质
CN112598725A (zh) * 2019-09-17 2021-04-02 佳能株式会社 图像处理设备、图像处理方法和计算机可读介质
CN110991225A (zh) * 2019-10-22 2020-04-10 同济大学 基于多列卷积神经网络的人群计数与密度估计方法及装置
CN111178276A (zh) * 2019-12-30 2020-05-19 上海商汤智能科技有限公司 图像处理方法、图像处理设备及计算机可读存储介质
CN111178276B (zh) * 2019-12-30 2024-04-02 上海商汤智能科技有限公司 图像处理方法、图像处理设备及计算机可读存储介质
CN111866736A (zh) * 2020-06-12 2020-10-30 深圳市元征科技股份有限公司 一种风险提醒方法、风险提醒装置及服务器
CN111695544A (zh) * 2020-06-23 2020-09-22 中国平安人寿保险股份有限公司 基于人群检测模型的信息发送方法、装置和计算机设备
CN111695544B (zh) * 2020-06-23 2023-07-25 中国平安人寿保险股份有限公司 基于人群检测模型的信息发送方法、装置和计算机设备
CN113420720A (zh) * 2021-07-21 2021-09-21 中通服咨询设计研究院有限公司 一种高精度低延时大型室内场馆人群分布计算方法
CN113420720B (zh) * 2021-07-21 2024-01-09 中通服咨询设计研究院有限公司 一种高精度低延时大型室内场馆人群分布计算方法

Also Published As

Publication number Publication date
CN109508583B (zh) 2020-11-06

Similar Documents

Publication Publication Date Title
CN109508583A (zh) 一种人群分布特征的获取方法和装置
CN109697435B (zh) 人流量监测方法、装置、存储介质及设备
US10812761B2 (en) Complex hardware-based system for video surveillance tracking
US10922585B2 (en) Deterministic labeled data generation and artificial intelligence training pipeline
CN103914802B (zh) 用于使用导入的深度信息的图像选择和掩蔽的系统与方法
EP3766044B1 (en) Three-dimensional environment modeling based on a multicamera convolver system
US20190286938A1 (en) Real-to-synthetic image domain transfer
CN109816745B (zh) 人体热力图展示方法及相关产品
CN105745687B (zh) 情景感知移动目标检测
CN106033601B (zh) 检测异常情形的方法和装置
CN109447169A (zh) 图像处理方法及其模型的训练方法、装置和电子系统
CN110458895A (zh) 图像坐标系的转换方法、装置、设备及存储介质
CN109308490A (zh) 用于生成信息的方法和装置
CN110009614A (zh) 用于输出信息的方法和装置
CN110428449A (zh) 目标检测跟踪方法、装置、设备及存储介质
CN109766779A (zh) 徘徊人员识别方法及相关产品
CN110505440A (zh) 一种区域监控方法和装置
CN110263748A (zh) 用于发送信息的方法和装置
CN110288024A (zh) 一种基于原型网络少样本学习的图像分类器构建、图像识别方法及系统
CN108364029A (zh) 用于生成模型的方法和装置
CN109711241A (zh) 物体检测方法、装置与电子设备
CN108717520A (zh) 一种行人重识别方法及装置
CN111126411B (zh) 一种异常行为识别方法及装置
CN109271929A (zh) 检测方法和装置
CN115063442A (zh) 一种输电线路隐患目标跟踪方法、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant