CN112906594B - 一种布防区域生成方法、装置、设备及存储介质 - Google Patents

一种布防区域生成方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112906594B
CN112906594B CN202110234977.XA CN202110234977A CN112906594B CN 112906594 B CN112906594 B CN 112906594B CN 202110234977 A CN202110234977 A CN 202110234977A CN 112906594 B CN112906594 B CN 112906594B
Authority
CN
China
Prior art keywords
video
target
thermodynamic diagram
defense
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110234977.XA
Other languages
English (en)
Other versions
CN112906594A (zh
Inventor
施登科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN202110234977.XA priority Critical patent/CN112906594B/zh
Publication of CN112906594A publication Critical patent/CN112906594A/zh
Application granted granted Critical
Publication of CN112906594B publication Critical patent/CN112906594B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

本发明实施例提供了一种布防区域生成方法、装置、设备及存储介质,方法包括:对视频进行语义分割得到分割结果;对视频进行目标检测及定位得到视频的目标信息;将该分割结果和该目标信息输入至预先训练得到的第一热力图生成模型,得到第一热力图生成模型输出的第一布防区域热力图;确定第一布防区域热力图中置信度满足预设条件的像素点,作为目标像素点;根据目标像素点所在位置,确定布防区域。可见,本方案中,通过语义分割、目标检测及定位和第一热力图生成模型三部分,实现了自动生成布防区域。

Description

一种布防区域生成方法、装置、设备及存储介质
技术领域
本发明涉及监控技术领域,特别是涉及一种布防区域生成方法、装置、设备及存储介质。
背景技术
布防区域(Protection area),是指需要布置监控的区域,例如人脸抓拍区域、周界防范区域等等。当人员或者其他监控目标出现在布防区域中时,可以触发相应的事件,例如,人脸出现在人脸抓拍区域时,触发人脸抓拍事件,再例如,人员或车辆出现在周界防范区域时,触发报警事件、或者人员身份识别事件、或者车牌识别事件等等。
相关方案中,通常是由相关人员根据现场环境划定布防区域,例如,相关人员勘察现场环境,确定哪个区域适合进行人脸抓拍,将这个区域划定为人脸抓拍区域,再例如,相关人员根据实际情况设定周界防范区域等等。
目前亟需一种能够自动生成布防区域的方案。
发明内容
本发明实施例的目的在于提供一种布防区域生成方法、装置、设备及存 储介质,以自动生成布防区域。
为达到上述目的,本发明实施例提供了一种布防区域生成方法,包括:
获取第一视频;
对所述第一视频进行语义分割,得到所述第一视频的分割结果;
对所述第一视频进行目标检测及定位,得到所述第一视频的目标信息;
将所述第一视频的分割结果和所述第一视频的目标信息输入至预先训练 得到的第一热力图生成模型,得到所述第一热力图生成模型输出的第一布防 区域热力图;所述第一热力图生成模型为:以样本视频对应的布防区域热力 图为监督,以样本视频的分割结果和目标信息为训练数据,对预设结构的第 一神经网络进行训练得到的;所述第一布防区域热力图中包括每个像素点属 于布防区域的置信度;
确定所述第一布防区域热力图中置信度满足预设条件的像素点,作为目 标像素点;
根据所述目标像素点所在位置,确定布防区域。
可选的,所述第一视频中包括多帧第一图像,所述对所述第一视频进行 目标检测及定位,得到所述第一视频的目标信息,包括:
利用目标检测模型,对所述每帧第一图像进行目标检测,并对所述每帧 第一图像的检测结果进行连接,得到第一连接检测结果;
将所述第一连接检测结果输入至预先训练得到的第二热力图生成模型, 得到所述第二热力图生成模型输出的目标位置热力图,作为所述第一视频的 目标信息;所述第二热力图生成模型为:以样本视频对应的目标位置热力图 为监督,以样本视频的连接检测结果为训练数据,对预设结构的第二神经网 络进行训练得到的;所述目标位置热力图中包括每个像素点属于目标的置信 度。
可选的,所述确定由所述目标像素点组成的布防区域之后,还包括:
获取第二视频,所述第二视频与所述第一视频为针对同一场景采集的视 频;
对所述第二视频进行语义分割,得到所述第二视频的分割结果,所述第 二视频的分割结果中包括所述第二视频中各像素点的类别;
通过将所述布防区域映射至所述第二视频中,得到所述第二视频中的目 标区域;
根据所述第二视频的分割结果,判断所述目标区域中是否存在预设类别 的像素点,所述预设类别为预设遮挡物的类别;如果存在,确定所述预设类 别的像素点映射至所述布防区域中的区域,作为待剔除区域;将所述待剔除 区域从所述布防区域中剔除。
可选的,所述根据所述第二视频的分割结果,判断所述目标区域中是否 存在预设类别的像素点之前,还包括:
确定所述第二视频的分割结果与所述第一视频的分割结果之间的差异, 作为第一差异,判断所述第一差异是否大于第一预设阈值;
如果大于,再执行所述根据所述第二视频的分割结果,判断所述目标区 域中是否存在预设类别的像素点的步骤。
可选的,所述对所述第一视频进行目标检测及定位,得到所述第一视频 的目标信息,包括:
利用预设尺寸的过滤框,对所述第一视频进行目标检测及定位,得到所 述第一视频的目标信息;
所述确定由所述目标像素点组成的布防区域之后,还包括:
获取第三视频,所述第三视频与所述第一视频为针对同一场景采集的视 频,所述第三视频中包括多帧第三图像;
利用所述预设尺寸的过滤框,对所述第三视频进行目标检测及定位,得到所述第三视频的目标信息;
确定所述第三视频的目标信息与所述第一视频的目标信息中包括的目标 的尺寸差异,判断所述尺寸差异是否大于第二预设阈值;
如果大于,调整所述过滤框的尺寸,得到调整后的过滤框;
获取第四视频,所述第四视频与所述第三视频为针对同一场景采集的视频,所述第四视频中包括多帧第四图像;
利用所述调整后的过滤框,对所述第四视频进行目标检测及定位,得到 所述第四视频的目标信息;
对所述第四视频进行语义分割,得到所述第四视频的分割结果;
将所述第四视频的目标信息和所述第四视频的分割结果输入至所述第一 热力图生成模型,得到所述第一热力图生成模型输出的第二布防区域热力图; 所述第二布防区域热力图中包括每个像素点属于布防区域的置信度;
根据所述第二布防区域热力图,对所述布防区域进行调整。
可选的,所述确定由所述目标像素点组成的布防区域之后,还包括:
获取第五视频,所述第五视频与所述第一视频为针对同一场景采集的视 频;
对所述第五视频进行目标检测及定位,得到所述第五视频的目标信息;
确定所述第五视频的目标信息与所述第一视频的目标信息中包括的目标 的位置差异,判断所述位置差异是否大于第三预设阈值;
如果大于,根据所述位置差异,对所述布防区域进行调整。
为达到上述目的,本发明实施例还提供了一种布防区域生成装置,包括:
第一获取模块,用于获取第一视频;
第一语义分割模块,用于对所述第一视频进行语义分割,得到所述第一 视频的分割结果;
第一目标检测定位模块,用于对所述第一视频进行目标检测及定位,得 到所述第一视频的目标信息;
第一热力图生成模块,用于将所述第一视频的分割结果和所述第一视频 的目标信息输入至预先训练得到的第一热力图生成模型,得到所述第一热力 图生成模型输出的第一布防区域热力图;所述第一热力图生成模型为:以样 本视频对应的布防区域热力图为监督,以样本视频的分割结果和目标信息为 训练数据,对预设结构的第一神经网络进行训练得到的;所述第一布防区域 热力图中包括每个像素点属于布防区域的置信度;
第一确定模块,用于确定所述第一布防区域热力图中置信度满足预设条 件的像素点,作为目标像素点;
第二确定模块,用于根据所述目标像素点所在位置,确定布防区域。
可选的,所述第一视频中包括多帧第一图像,所述第一目标检测定位模 块,具体用于:
利用目标检测模型,对所述每帧第一图像进行目标检测,并对所述每帧 第一图像的检测结果进行连接,得到第一连接检测结果;
将所述第一连接检测结果输入至预先训练得到的第二热力图生成模型, 得到所述第二热力图生成模型输出的目标位置热力图,作为所述第一视频的 目标信息;所述第二热力图生成模型为:以样本视频对应的目标位置热力图 为监督,以样本视频的连接检测结果为训练数据,对预设结构的第二神经网 络进行训练得到的;所述目标位置热力图中包括每个像素点属于目标的置信 度。
可选的,所述装置还包括:
第二获取模块,用于获取第二视频,所述第二视频与所述第一视频为针 对同一场景采集的视频;
第二语义分割模块,用于对所述第二视频进行语义分割,得到所述第二 视频的分割结果,所述第二视频的分割结果中包括所述第二视频中各像素点 的类别;
映射模块,用于通过将所述布防区域映射至所述第二视频中,得到所述 第二视频中的目标区域;
第三确定模块,用于确定所述第二视频的分割结果与所述第一视频的分 割结果之间的差异,作为第一差异;
第一判断模块,用于判断所述第一差异是否大于第一预设阈值;如果大 于,则触发第二判断模块;
第二判断模块,用于根据所述第二视频的分割结果,判断所述目标区域 中是否存在预设类别的像素点,所述预设类别为预设遮挡物的类别;如果存 在,触发第四确定模块;
第四确定模块,用于确定所述预设类别的像素点映射至所述布防区域中 的区域,作为待剔除区域;
剔除模块,用于将所述待剔除区域从所述布防区域中剔除。
可选的,所述第一目标检测定位模块还用于:利用预设尺寸的过滤框, 对所述第一视频进行目标检测及定位,得到所述第一视频的目标信息;
所述装置还包括:
第三获取模块,用于获取第三视频,所述第三视频与所述第一视频为针 对同一场景采集的视频,所述第三视频中包括多帧第三图像;
第二目标检测定位模块,用于利用所述预设尺寸的过滤框,对所述第三视频进行目标检测及定位,得到所述第三视频的目标信息;
第五确定模块,用于确定所述第三视频的目标信息与所述第一视频的目 标信息中包括的目标的尺寸差异;
第三判断模块,用于判断所述尺寸差异是否大于第二预设阈值;如果大 于,触发第一调整模块;
第一调整模块,用于调整所述过滤框的尺寸,得到调整后的过滤框;
第四获取模块,用于获取第四视频,所述第四视频与所述第三视频为针对同一场景采集的视频,所述第四视频中包括多帧第四图像;
第三目标检测定位模块,用于利用所述调整后的过滤框,对所述第四视 频进行目标检测及定位,得到所述第四视频的目标信息;
第三语义分割模块,用于对所述第四视频进行语义分割,得到所述第四 视频的分割结果;
第二热力图生成模块,用于将所述第四视频的目标信息和所述第四视频 的分割结果输入至所述第一热力图生成模型,得到所述第一热力图生成模型 输出的第二布防区域热力图;所述第二布防区域热力图中包括每个像素点属 于布防区域的置信度;
第二调整模块,用于根据所述第二布防区域热力图,对所述布防区域进 行调整。
可选的,所述装置还包括:
第五获取模块,用于获取第五视频,所述第五视频与所述第一视频为针 对同一场景采集的视频;
第四目标检测定位模块,用于对所述第五视频进行目标检测及定位,得 到所述第五视频的目标信息;
第六确定模块,用于确定所述第五视频的目标信息与所述第一视频的目 标信息中包括的目标的位置差异;
第四判断模块,用于判断所述位置差异是否大于第三预设阈值;如果大 于,触发第三调整模块;
第三调整模块,用于根据所述位置差异,对所述布防区域进行调整。
为达到上述目的,本发明实施例还提供了一种电子设备,包括处理器和 存储器;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任意一种布防区 域生成方法。
为达到上述目的,本发明实施例还提供了一种计算机可读存储介质,所 述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行 时实现上述任意一种布防区域生成方法。
应用本发明所示实施例,对视频进行语义分割得到分割结果;对视频进 行目标检测及定位得到视频的目标信息;将该分割结果和该目标信息输入至 预先训练得到的第一热力图生成模型,得到第一热力图生成模型输出的第一 布防区域热力图;确定第一布防区域热力图中置信度满足预设条件的像素点, 作为目标像素点;根据目标像素点所在位置,确定布防区域。可见,本方案 中,通过语义分割、目标检测及定位和第一热力图生成模型三部分,实现了 自动生成布防区域。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实 施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面 描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲, 在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种布防区域生成方法的流程示意图;
图2为本发明实施例提供的一种语义分割网络的结构示意图;
图3为本发明实施例提供的一种第二热力图生成模型的结构示意图;
图4为本发明实施例提供的一种第一热力图生成模型的结构示意图;
图5为本发明实施例提供的一种具体实施方式的示意图;
图6为本发明实施例提供的一种布防区域生成装置的结构示意图;
图7为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行 清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而 不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做 出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了达到上述目的,本发明实施例提供了一种布防区域生成方法、装置、 设备及存储介质,该方法及装置可以应用于各种电子设备,例如图像采集设 备,或者与图像采集设备通信连接的后端处理设备,具体电子设备的类型不 做限定。下面首先对该布防区域生成方法进行详细介绍。以下方法实施例中 的各个步骤按照合乎逻辑的顺序执行即可,步骤标号或者对各步骤进行介绍 的先后顺序,并不对各步骤的执行顺序构成限定。
图1为本发明实施例提供的一种布防区域生成方法的流程示意图,包括:
S101:获取第一视频。
为了与后续内容中的视频相区分,将生成布防区域的过程中涉及的视频 称为第一视频。举例来说,一些用于监控的图像采集设备可以持续地进行图 像采集,形成视频流,可以将视频流中的任意一段视频作为第一视频。第一 视频中包括多帧图像,为了区分描述,将第一视频中的图像称为第一图像, 第一视频中包括的第一图像的数量不做限定。
S102:对第一视频进行语义分割,得到第一视频的分割结果。
举例来说,可以对每帧第一图像进行语义分割,并对每帧第一图像的分 割结果进行融合,得到第一视频的分割结果。
对图像进行语义分割可以理解为:对图像中每个像素点进行分类,确定 每个像素点的类别,例如,像素点的类别可以包括背景、人员、车辆等等, 然后根据每个像素点的类别进行区域划分。
本实施例中进行语义分割有利于更准确地对场景进行识别,可以将场景 中的一些目标分割出来,场景中的目标可以包括人、机动车、非机动车、植 被、道路、围墙、路灯、斑马线、墙体、桌子、椅子、门、栏杆等等,不再 一一列举。
对图像进行语义分割的方式有多种:例如,可以将多帧第一图像输入至PSPNet(Pyramid Scene Parsing Network,金字塔场景分析网络),第一图像可 以为RGB(RedGreen Blue,红绿蓝)图像,通过PSPNet对每帧图像进行语义 分割,并对每帧第一图像的分割结果进行融合,得到第一视频的分割结果。
PSPNet的结构可以参考图2所示,输入图像(多帧第一图像)先进入一个 卷积神经网络,卷积神经网络输出特征图,该特征图进入金字塔池化模块中 的池化层,池化层依次与卷积层、上采样层和连接层相连接,金字塔池化模 块中的连接层输出的数据进入与金字塔池化模块外的卷积层,该卷积层输出 第一视频的分割结果。
再例如,也可以利用FCN(Fully Convolutional Networks for SemanticSegmentation,用于语义分割的全卷积网络)对图像进行语义分割。具体语义 分割的方式不做限定。
S103:对第一视频进行目标检测及定位,得到第一视频的目标信息。
举例来说,可以先对第一视频进行目标检测,再对检测到的目标进行定 位,这样既能得到目标的尺寸、特征等信息,也可以得到目标的位置信息。 第一视频的目标信息可以包括第一视频中出现目标的尺寸、特征、位置等信 息。
S103中检测的目标可以为场景中需要关注的目标,例如,人、机动车、 非机动车等等。S103中得到的目标信息有利于确定目标的运动情况。一种情 况下,S103中可以生成表示目标位置的热力图,为了区分描述,将该热力图 称为目标位置热力图,该目标位置热力图可以反应目标的运动情况。目标位 置热力图中包括每个像素点属于某一目标的置信度,或者说,目标位置热力 图中像素点的像素值可以为该像素点属于某一目标的概率,某像素点的置信 度越大,则该像素值属于某一目标的概率越大,这样,便能反应出该目标的 运动情况。换句话说,目标信息的表现形式可以为目标位置热力图。
一种实施方式中,S103可以包括:利用目标检测模型,对所述每帧第一 图像进行目标检测,并对所述每帧第一图像的检测结果进行连接,得到第一 连接检测结果;
将所述第一连接检测结果输入至预先训练得到的第二热力图生成模型, 得到所述第二热力图生成模型输出的目标位置热力图,作为所述第一视频的 目标信息;所述第二热力图生成模型为:以样本视频对应的目标位置热力图 为监督,以样本视频的连接检测结果为训练数据,对预设结构的第二神经网 络进行训练得到的;所述目标位置热力图中包括每个像素点属于目标的置信 度。
举例来说,可以先采用目标检测模型cascadeR-CNN对每帧第一图像进行 目标检测,然后将每帧第一图像的检测结果连接在一起得到第一连接检测结 果,将该第一连接检测结果输入至第二热力图生成模型,得到第二热力图生 成模型输出的目标位置热力图。
或者,也可以采用其他目标检测模型,例如,Faster R-CNN(Faster Region-Convolutional Neural Networks,快速区域-卷积神经网络)、YOLO(You Only Look Once,你只需要看一次)等等,不再一一列举。
举例来说,假设第一视频中包括N帧第一图像,每帧图像中检测得到多个 检测框,对于每帧图像来说,将该帧图像中检测得到的检测框按照面积由大 到小进行排序,取排序靠前的前K个检测框,或者不足K个,则用0补齐。每 个检测框可以表示为四个元素(x,y,w,h),其中,x和y表示检测框中指定 点的坐标值,指定点可以为中心点、或者左上角点、或者右下角点等等,具 体指定点的位置不做限定,w表示检测框的宽度,h表示检测框的高度。第一 连接结果的维度可以表示为N×K×4,N表示第一视频图像中包括的图像帧数, K表示每帧图像中所取的检测框个数,4表示检测框的四个元素。将该N×K× 4维度的数据输入至第二热力图生成模型。
第二热力图生成模型可以参考图3所示,包括两个reshape函数层和3个FC (FullyConnected)层,输入的N×K×4维的数据经第一个reshape函数层处理 后,得到1×1×1×4NK维的数据,该1×1×1×4NK维的数据经第一个FC层 处理后,得到1×1×1×8NK维的数据,该1×1×1×8NK维的数据经第二个 FC层处理后,得到1×1×1×16NK维的数据,该1×1×1×16NK维的数据经 第三个FC层处理后,得到1×1×1×HW维的数据,该1×1×1×HW维的数据 经第二个reshape函数层处理后,输出1×1×HW维的数据。目标位置热力图为 1×1×HW维的数据,H表示目标位置热力图的高度,W表示目标位置热力图 的宽度。
训练第二热力图生成模型时可以采用L2-Norm loss(L2范数作为正则项的 损失函数)作为损失函数,训练过程可以理解为对第二热力图生成模型中的 参数进行迭代调整的过程,当调整至该第二热力图生成模型收敛时,训练完 成。训练第二热力图生成模型可以采用有监督的训练,以样本视频对应的目 标位置热力图为监督(样本视频对应的目标位置热力图可以为人工标注的真 值,或者为通过其他方式获取的真值),以样本视频的连接检测结果为训练数 据,对第二热力图生成模型中的参数进行调整。具体的训练过程、以及训练 过程采用的损失函数不做限定。
S104:将第一视频的分割结果和第一视频的目标信息输入至预先训练得 到的第一热力图生成模型,得到第一热力图生成模型输出的第一布防区域热 力图。第一热力图生成模型为:以样本视频对应的布防区域热力图为监督, 以样本视频的分割结果和目标信息为训练数据,对预设结构的第一神经网络 进行训练得到的;第一布防区域热力图中包括每个像素点属于布防区域的置 信度。
为了区分描述,将输出布防区域热力图的模型称为第一热力图生成模型, 将输出目标位置热力图的模型称为第二热力图生成模型。参考图4所示,将第 一视频的分割结果和目标信息一并输入至第一热力图生成模型中,该分割结 果和该目标信息分别经过三层卷积层的卷积处理:第一层卷积层1-1、第二层 卷积层2-1和第三层卷积层3-1分别对该分割结果进行卷积处理,第一层卷积层 1-2、第二层卷积层2-2和第三层卷积层3-2分别对该分割结果进行卷积处理; 然后连接层对第三层卷积层3-1输出的卷积结果与第三层卷积层3-2输出的卷 积结果进行连接,并将连接结果输入到第四层卷积层(卷积层4)进行卷积处理,第四层卷积层输出第一布防区域热力图。
为了区分描述,将布防区域生成过程中得到的布防区域热力图称为第一 布防区域热力图,将后续布防区域调整过程中得到的布防区域热力图称为第 二布防区域热力图。
训练第一热力图生成模型时可以采用L2-Norm loss(L2范数作为正则项的 损失函数)作为损失函数,训练过程可以理解为对第一热力图生成模型中的 参数进行迭代调整的过程,当调整至该第一热力图生成模型收敛时,训练完 成。训练第一热力图生成模型可以采用有监督的训练,以样本视频的分割结 果和目标信息为训练数据,并以样本视频的布防区域热力图为监督(样本视 频的布防区域热力图可以为人工标注的真值,或者为通过其他方式获取的真 值),对第一热力图生成模型中的参数进行调整。具体的训练过程、以及训练 过程采用的损失函数不做限定。
S105:确定第一布防区域热力图中置信度满足预设条件的像素点,作为 目标像素点。
如上所述,第一布防区域热力图中包括每个像素点属于布防区域的置信 度,或者说,第一布防区域热力图中像素点的像素值可以为该像素点属于布 防区域的概率。某像素点的置信度越大,则该像素值属于布防区域的概率越 大。可以设定一个概率阈值,将置信度大于该概率阈值的像素点确定为目标 像素点。
S106:根据目标像素点所在位置,确定布防区域。
举例来说,可以将目标像素点所在位置连通,将得到的连通区域确定为 布防区域。或者,可以先确定目标像素点形成的小区域,然后将这些小区域 进行合并,得到布防区域。
应用本发明所示实施例,对视频进行语义分割得到分割结果;对视频进 行目标检测及定位得到视频的目标信息;将该分割结果和该目标信息输入至 预先训练得到的第一热力图生成模型,得到第一热力图生成模型输出的第一 布防区域热力图;确定第一布防区域热力图中置信度满足预设条件的像素点, 作为目标像素点;根据目标像素点所在位置,确定布防区域。可见,本方案 中,通过语义分割、目标检测及定位和第一热力图生成模型三部分,实现了 自动生成布防区域。
在得到布防区域后,可以根据实际情况对该布防区域进行自适应调整, 自适应调整方案可以包括:屏蔽遮挡区域、调整目标过滤框尺寸、根据目标 位置调整布防区域位置等等。
下面首先对该“屏蔽遮挡区域”的方案进行介绍:
一种实施方式中,S106之后可以获取第二视频,所述第二视频与所述第 一视频为针对同一场景采集的视频;对所述第二视频进行语义分割,得到所 述第二视频的分割结果,所述第二视频的分割结果中包括所述第二视频中各 像素点的类别;通过将所述布防区域映射至所述第二视频中,得到所述第二 视频中的目标区域;根据所述第二视频的分割结果,判断所述目标区域中是 否存在预设类别的像素点,所述预设类别为预设遮挡物的类别;如果存在, 确定所述预设类别的像素点映射至所述布防区域中的区域,作为待剔除区域; 将所述待剔除区域从所述布防区域中剔除。
上述一种情况下,一些用于监控的图像采集设备持续地进行图像采集, 形成视频流,将视频流中的任意一段视频作为第一视频。这种情况下,可以 在确定布防区域后,将视频流中的任意一段视频作为第二视频,第一视频与 第二视频针对的场景相同,第二视频中包括的图像数量不做限定。举例来说, 可以在确定布防区域后,每隔预设时间段,获取第二视频,并利用本实施方 式对布防区域进行调整,该预设时间段可以为1天、2天、12小时等等,具体 时长不做限定。为了区分描述,将本实施方式中获取的视频称为第二视频。
S106中确定的布防区域可以理解为在视频画面中划定出一个区域,由于 第一视频与第二视频针对的场景相同,因此,S106中确定的布防区域同样适 用于第二视频,可以基于第二视频的视频画面对布防区域进行调整。将布防 区域映射至第二视频中,一种情况下,可以将映射得到的区域直接作为目标 区域,另一种情况下,可以对映射得到的区域进行扩大,将扩大后的区域作 为目标区域,具体的扩大情况不做限定。
本实施方式中,对第二视频进行语义分割,得到所述第二视频的分割结 果。如上所述,对图像进行语义分割可以理解为:对图像中每个像素点进行 分类,确定每个像素点的类别,例如,像素点的类别可以包括背景、人员、 车辆等等,然后根据每个像素点的类别进行区域划分。第二视频的分割结果 中包括第二视频中各像素点的类别。
判断目标区域中是否存在预设类别的像素点,所述预设类别为预设遮挡 物的类别。举例来说,预设类别可以为树叶、或者处于静止状态的车辆等等, 一些场景下,树叶、或者处于静止状态的车辆通常会对需要进行布防的区域 形成遮挡。可以根据实际情况设定预设遮挡物的类别,具体类别不做限定。
如果目标区域中存在预设类别的像素点,则确定所述预设类别的像素点 映射至所述布防区域中的区域,作为待剔除区域;将所述待剔除区域从所述 布防区域中剔除。
可以理解,如果树叶、或者处于静止状态的车辆等物体对布防区域形成 遮挡,则可以将布防区域进行调整,剔除该遮挡区域,也就是屏蔽遮挡区域, 这样可以合理利用布防相关的资源。如上所述,可以每隔预设时间段,利用 本实施方式对布防区域进行调整,如果下一次获取到第二视频时,该遮挡消 失,则可以重新执行图1所示实施例,重新确定布防区域,或者也可以恢复之 前确定的布防区域。
一种实施方式中,对所述第二视频进行语义分割,得到所述第二视频的 分割结果后,可以先确定所述第二视频的分割结果与所述第一视频的分割结 果之间的差异,作为第一差异,判断所述第一差异是否大于第一预设阈值; 如果大于,再根据所述第二视频的分割结果,判断所述目标区域中是否存在 预设类别的像素点。
本实施方式中,得到第二视频的分割结果后,仅在第一视频的分割结果 与第一视频的分割结果存在较大差异的情况下,再继续判断是否需要对布防 区域进行调整,这样,可以减少不必要的调整,节省计算资源。
下面对该“调整目标过滤框尺寸”的方案进行介绍:
一种实施方式中,S103包括:利用预设尺寸的过滤框,对所述第一视频 进行目标检测及定位,得到所述第一视频的目标信息。
本实施方式中,可以将目标检测过程中检测出的尺寸小于过滤框的目标 过滤掉。举例来说,可以采用目标检测模型对每帧第一图像进行目标检测, 得到多个检测框,然后判断该检测框是否小于过滤框的尺寸,如果小于,则 将该检测框过滤掉,不作为检测结果。
本实施方式中,S106之后可以获取第三视频,所述第三视频与所述第一视频为针对同一场景采集的视频,所述第三视频中包括多帧第三图像;利用所述预设尺寸的过滤框,对所述第三视频进行目标检测及定位,得到所述第三视频的目标信息。
上述一种情况下,一些用于监控的图像采集设备持续地进行图像采集, 形成视频流,将视频流中的任意一段视频作为第一视频。这种情况下,可以 在确定布防区域后,将视频流中的任意一段视频作为第三视频,第一视频与 第三视频针对的场景相同。为了区分描述,将第三视频中包括的图像称为第 三图像,第三视频中包括的第三图像的数量不做限定。举例来说,可以在确 定布防区域后,每隔预设时间段,获取第三视频,该预设时间段可以为1天、 2天、12小时等等,具体时长不做限定。
可以将对第三视频进行目标检测过程中检测出的尺寸小于过滤框的目标 过滤掉。举例来说,可以采用目标检测模型对每帧第三图像进行目标检测, 得到多个检测框,然后判断该检测框是否小于过滤框的尺寸,如果小于,则 将该检测框过滤掉,不作为检测结果。
确定所述第三视频的目标信息与所述第一视频的目标信息中包括的目标 的尺寸差异,判断所述尺寸差异是否大于第二预设阈值;如果大于,调整所 述过滤框的尺寸,得到调整后的过滤框。
如上所述,目标信息可以包括目标的尺寸、特征、位置等信息,如果第 一视频中目标的尺寸与第三视频中目标的尺寸差异过大,说明设定的过滤框 的尺寸已经不再合适,可以对该过滤框的尺寸进行调整,调整之后再重新执 行图1所示实施例中的S101-S104,重新生成布防区域热力图。
例如,如果第三视频中目标的尺寸明显大于第一视频中目标的尺寸,表 示图像采集设备向更靠近目标的方向进行了移动,原设定的过滤框的尺寸偏 小,可以将该过滤框的尺寸调大。再例如,如果第三视频中目标的尺寸明显 小于第一视频中目标的尺寸,表示图像采集设备向更远离目标的方向进行了 移动,原设定的过滤框的尺寸偏大,可以将该过滤框的尺寸调小。
但重新执行图1所示实施例中的S101-S104时,实时获取的视频已不再是 第一视频,为了区分描述,将获取的视频称为第四视频。此外,生成的布防 区域热力图也不再是第一布防区域热力图,为了区分描述,将生成的布防区 域热力图称为第二布防区域热力图。重新生成布防区域热力图的方案如下:
获取第四视频,所述第四视频与所述第三视频为针对同一场景采集的视 频,所述第四视频中包括多帧第四图像;利用所述调整后的过滤框,对所述 第四视频进行目标检测及定位,得到所述第四视频的目标信息;对所述第四 视频进行语义分割,得到所述第四视频的分割结果;将所述第四视频的目标 信息和所述第四视频的分割结果输入至所述第一热力图生成模型,得到所述 第一热力图生成模型输出的第二布防区域热力图;所述第二布防区域热力图 中包括每个像素点属于布防区域的置信度。
图1实施例中已经详细介绍过这部分内容,这里不再赘述。
根据所述第二布防区域热力图,对所述布防区域进行调整。举例来说, 可以确定所述第二布防区域热力图中置信度满足预设条件的像素点,根据这 些像素点所在位置,重新确定布防区域。或者,一种情况下,还可以将原布 防区域与重新确定的布防区域进行整合,形成最终的布防区域,例如,可以 将原布防区域与重新确定的布防区域之间的交集作为最终的布防区域,再例 如,也可以将原布防区域与重新确定的布防区域之间的并集作为最终的布防 区域,具体整合情况不做限定。
下面对该“根据目标位置调整布防区域位置”的方案进行介绍:
一种实施方式中,S106之后,可以获取第五视频,所述第五视频与所述 第一视频为针对同一场景采集的视频;对所述第五视频进行目标检测及定位, 得到所述第五视频的目标信息;确定所述第五视频的目标信息与所述第一视 频的目标信息中包括的目标的位置差异,判断所述位置差异是否大于第三预 设阈值;如果大于,根据所述位置差异,对所述布防区域进行调整。
上述一种情况下,一些用于监控的图像采集设备持续地进行图像采集, 形成视频流,将视频流中的任意一段视频作为第一视频。这种情况下,可以 在确定布防区域后,将视频流中的任意一段视频作为第五视频,第一视频与 第五视频针对的场景相同,第五视频中包括的图像数量不做限定。举例来说, 可以在确定布防区域后,每隔预设时间段,获取第五视频,并利用本实施方 式对布防区域进行调整,该预设时间段可以为1天、2天、12小时等等,具体 时长不做限定。为了区分描述,将本实施方式中获取的视频称为第五视频。
如上所述,目标信息可以包括目标的尺寸、特征、位置等信息,如果第 一视频中目标的位置与第五视频中目标的位置差异过大,说明确定的布防区 域的位置已经不再合适。举例来说,理想情况下,目标应该位于布防区域中 靠近中心的位置,如果第五视频中,目标持续偏向右下角,则可以将布防区 域向右下方向移动,以使得目标靠近布防区域的中心位置,或者,如果第五 视频中,目标持续偏向左上角,则可以将布防区域向左上方向移动,以使得 目标靠近布防区域的中心位置。具体情况不再列举。
再举一例,人脸抓拍场景中,如果在第五视频中检测出目标所在的一块 区域,但该区域不属于S106中确定出的布防区域,这种情况下,可以修改布 防区域以覆盖这部分区域。
或者,如果第五视频的目标信息与第一视频的目标信息中包括的目标的 位置差异大于第三预设阈值,可以重新执行图1所示实施例,重新确定布防区 域。
应用上述各种实施方式,实现了对布防区域的自适应调整,方案更加智 能,由设备感知环境转向了设备认知环境。一些场景中,相机拍摄的场景会 随着时间不断变化,这种情况下,应用上述各种实施方式,能够实现对布防 区域进行动态调整。
一些情况下,在对布防区域进行自适应调整后,可以获取对调整后的布 防性能的反馈,以判断该调整是否有助于提升布防性能。例如,设定周界防 范区域的场景中,可以在对布防区域进行自适应调整后,判断误报率、漏报 率是否降低,再例如,人脸抓拍场景中,可以在对布防区域进行自适应调整 后,判断检出率是否提高、误检率是否降低,等等。根据这种反馈,可以输 出提示信息,以提示相关人员重新调整布防区域,或提示相关人员对调整布 防区域的方案进行检查。
下面参考图5介绍一种具体的实施方式:
获取第一视频,第一视频中包括多帧第一图像。
分别将第一视频输入至语义分割网络和目标检测模型。
下面先对语义分割网络进行介绍:
将第一视频中的每帧第一图像输入至语义分割网络,得到语义分割网络 输出的第一视频的分割结果。
对图像进行语义分割可以理解为:对图像中每个像素点进行分类,确定 每个像素点的类别,例如,像素点的类别可以包括背景、人员、车辆等等, 然后根据每个像素点的类别进行区域划分。
该语义分割网络可以为PSPNet,可以通过PSPNet对每帧图像进行语义分 割,并对每帧第一图像的分割结果进行融合,得到第一视频的分割结果。
训练语义分割网络可以采用有监督的训练,以样本视频的分割结果为监 督(样本视频的分割结果可以为人工标注的真值,或者为通过其他方式获取 的真值),以样本视频为训练数据,对语义分割网络中的参数进行迭代调整。 具体的训练过程、以及训练过程采用的损失函数不做限定。
下面再对目标检测模型进行介绍:
利用目标检测模型,对每帧第一图像进行目标检测,并对每帧第一图像 的检测结果进行连接,得到第一连接检测结果。
举例来说,可以先采用目标检测模型cascadeR-CNN对每帧第一图像进行 目标检测,然后将每帧第一图像的检测结果连接在一起得到第一连接检测结 果,将该第一连接检测结果输入至第二热力图生成模型。
或者,也可以采用其他目标检测模型,例如,Faster R-CNN(Faster Region-Convolutional Neural Networks,快速区域-卷积神经网络)、YOLO(You Only Look Once,你只需要看一次)等等,不再一一列举。
举例来说,假设第一视频中包括N帧第一图像,每帧图像中检测得到多个 检测框,对于每帧图像来说,将该帧图像中检测得到的检测框按照面积由大 到小进行排序,取排序靠前的前K个检测框,或者不足K个,则用0补齐。每 个检测框可以表示为四个元素(x,y,w,h),其中,x和y表示检测框中指定 点的坐标值,指定点可以为中心点、或者左上角点、或者右下角点等等,具 体指定点的位置不做限定,w表示检测框的宽度,h表示检测框的高度。第一 连接结果的维度可以表示为N×K×4,N表示第一视频图像中包括的图像帧数, K表示每帧图像中所取的检测框个数,4表示检测框的四个元素。将该N×K× 4维度的数据输入至第二热力图生成模型。
下面再对第二热力图生成模型进行介绍:
将第一连接检测结果输入至预先训练得到的第二热力图生成模型,得到 所述第二热力图生成模型输出的目标位置热力图,作为所述第一视频的目标 信息;所述第二热力图生成模型为:以样本视频对应的目标位置热力图为监 督,以样本视频的连接检测结果为训练数据,对预设结构的第二神经网络进 行训练得到的;所述目标位置热力图中包括每个像素点属于目标的置信度。
第二热力图生成模型可以参考图3所示,包括两个reshape函数层和3个FC (FullyConnected)层,输入的N×K×4维的数据经第一个reshape函数层处理 后,得到1×1×1×4NK维的数据,该1×1×1×4NK维的数据经第一个FC层 处理后,得到1×1×1×8NK维的数据,该1×1×1×8NK维的数据经第二个 FC层处理后,得到1×1×1×16NK维的数据,该1×1×1×16NK维的数据经 第三个FC层处理后,得到1×1×1×HW维的数据,该1×1×1×HW维的数据 经第二个reshape函数层处理后,输出1×1×HW维的数据。目标位置热力图为 1×1×HW维的数据,H表示目标位置热力图的高度,W表示目标位置热力图 的宽度。
训练第二热力图生成模型时可以采用L2-Norm loss(L2范数作为正则项的 损失函数)作为损失函数,训练过程可以理解为对第二热力图生成模型中的 参数进行迭代调整的过程,当调整至该第二热力图生成模型收敛时,训练完 成。训练第二热力图生成模型可以采用有监督的训练,以样本视频对应的目 标位置热力图为监督(样本视频对应的目标位置热力图可以为人工标注的真 值,或者为通过其他方式获取的真值),以样本视频的连接检测结果为训练数 据,对第二热力图生成模型中的参数进行调整。具体的训练过程、以及训练 过程采用的损失函数不做限定。
下面对第一热力图生成模型进行介绍:
将语义分割网络输出的第一视频的分割结果、以及第二热力图生成模型 输出的目标位置热力图一并输入至预先训练得到的第一热力图生成模型,得 到所述第一热力图生成模型输出的第一布防区域热力图。
所述第一热力图生成模型为:以样本视频对应的布防区域热力图为监督, 以样本视频的分割结果和目标信息为训练数据,对预设结构的第一神经网络 进行训练得到的;所述第一布防区域热力图中包括每个像素点属于布防区域 的置信度。
参考图4所示,将第一视频的分割结果和目标信息一并输入至第一热力图 生成模型中,该分割结果和该目标信息分别经过三层卷积层的卷积处理:第 一层卷积层1-1、第二层卷积层2-1和第三层卷积层3-1分别对该分割结果进行 卷积处理,第一层卷积层1-2、第二层卷积层2-2和第三层卷积层3-2分别对该 分割结果进行卷积处理;然后连接层对第三层卷积层3-1输出的卷积结果与第 三层卷积层3-2输出的卷积结果进行连接,并将连接结果输入到第四层卷积层 (卷积层4)进行卷积处理,第四层卷积层输出第一布防区域热力图。
为了区分描述,将布防区域生成过程中得到的布防区域热力图称为第一 布防区域热力图,将后续布防区域调整过程中得到的布防区域热力图称为第 二布防区域热力图。
训练第一热力图生成模型时可以采用L2-Norm loss(L2范数作为正则项的 损失函数)作为损失函数,训练过程可以理解为对第一热力图生成模型中的 参数进行迭代调整的过程,当调整至该第一热力图生成模型收敛时,训练完 成。训练第一热力图生成模型可以采用有监督的训练,以样本视频的分割结 果和目标信息为训练数据,并以样本视频的布防区域热力图为监督(样本视 频的布防区域热力图可以为人工标注的真值,或者为通过其他方式获取的真 值),对第一热力图生成模型中的参数进行调整。具体的训练过程、以及训练 过程采用的损失函数不做限定。
确定第一布防区域热力图中置信度满足预设条件的像素点,作为目标像 素点,根据目标像素点所在位置,确定布防区域。
如上所述,第一布防区域热力图中包括每个像素点属于布防区域的置信 度,或者说,第一布防区域热力图中像素点的像素值可以为该像素点属于布 防区域的概率。某像素点的置信度越大,则该像素值属于布防区域的概率越 大。可以设定一个概率阈值,将置信度大于该概率阈值的像素点确定为目标 像素点。
举例来说,可以将目标像素点所在位置连通,将得到的连通区域确定为 布防区域。或者,可以先确定目标像素点形成的小区域,然后将这些小区域 进行合并,得到布防区域。
应用上述实施方式,通过语义分割网络、目标检测模型、第二热力图生 成模型和第一热力图生成模型,实现了自动生成布防区域。
与上述方法实施例相对应,本发明实施例还提供了一种布防区域生成装 置,参考图6所示,包括:
第一获取模块601,用于获取第一视频;
第一语义分割模块602,用于对所述第一视频进行语义分割,得到所述第 一视频的分割结果;
第一目标检测定位模块603,用于对所述第一视频进行目标检测及定位, 得到所述第一视频的目标信息;
第一热力图生成模块604,用于将所述第一视频的分割结果和所述第一视 频的目标信息输入至预先训练得到的第一热力图生成模型,得到所述第一热 力图生成模型输出的第一布防区域热力图;所述第一热力图生成模型为:以 样本视频对应的布防区域热力图为监督,以样本视频的分割结果和目标信息 为训练数据,对预设结构的第一神经网络进行训练得到的;所述第一布防区 域热力图中包括每个像素点属于布防区域的置信度;
第一确定模块605,用于确定所述第一布防区域热力图中置信度满足预设 条件的像素点,作为目标像素点;
第二确定模块606,用于根据所述目标像素点所在位置,确定布防区域。
一种实施方式中,所述第一视频中包括多帧第一图像,第一目标检测定 位模块603具体用于:
利用目标检测模型,对所述每帧第一图像进行目标检测,并对所述每帧 第一图像的检测结果进行连接,得到第一连接检测结果;
将所述第一连接检测结果输入至预先训练得到的第二热力图生成模型, 得到所述第二热力图生成模型输出的目标位置热力图,作为所述第一视频的 目标信息;所述第二热力图生成模型为:以样本视频对应的目标位置热力图 为监督,以样本视频的连接检测结果为训练数据,对预设结构的第二神经网 络进行训练得到的;所述目标位置热力图中包括每个像素点属于目标的置信 度。
一种实施方式中,所述装置还包括:第二获取模块、第二语义分割模块、 映射模块、第三确定模块、第一判断模块、第二判断模块、第四确定模块和 剔除模块(图中未示出),其中,
第二获取模块,用于获取第二视频,所述第二视频与所述第一视频为针 对同一场景采集的视频;
第二语义分割模块,用于对所述第二视频进行语义分割,得到所述第二 视频的分割结果,所述第二视频的分割结果中包括所述第二视频中各像素点 的类别;
映射模块,用于通过将所述布防区域映射至所述第二视频中,得到所述 第二视频中的目标区域;
第三确定模块,用于确定所述第二视频的分割结果与所述第一视频的分 割结果之间的差异,作为第一差异;
第一判断模块,用于判断所述第一差异是否大于第一预设阈值;如果大 于,则触发第二判断模块;
第二判断模块,用于根据所述第二视频的分割结果,判断所述目标区域 中是否存在预设类别的像素点,所述预设类别为预设遮挡物的类别;如果存 在,触发第四确定模块;
第四确定模块,用于确定所述预设类别的像素点映射至所述布防区域中 的区域,作为待剔除区域;
剔除模块,用于将所述待剔除区域从所述布防区域中剔除。
一种实施方式中,第一目标检测定位模块603还用于:利用预设尺寸的过 滤框,对所述第一视频进行目标检测及定位,得到所述第一视频的目标信息。
所述装置还包括:第三获取模块、第二目标检测定位模块、第五确定模 块、第三判断模块、第一调整模块、第四获取模块、第三目标检测定位模块、 第三语义分割模块、第二热力图生成模块和第二调整模块(图中未示出),其 中,
第三获取模块,用于获取第三视频,所述第三视频与所述第一视频为针 对同一场景采集的视频,所述第三视频中包括多帧第三图像;
第二目标检测定位模块,用于利用所述预设尺寸的过滤框,对所述第三视频进行目标检测及定位,得到所述第三视频的目标信息;
第五确定模块,用于确定所述第三视频的目标信息与所述第一视频的目 标信息中包括的目标的尺寸差异;
第三判断模块,用于判断所述尺寸差异是否大于第二预设阈值;如果大 于,触发第一调整模块;
第一调整模块,用于调整所述过滤框的尺寸,得到调整后的过滤框;
第四获取模块,用于获取第四视频,所述第四视频与所述第三视频为针对同一场景采集的视频,所述第四视频中包括多帧第四图像;
第三目标检测定位模块,用于利用所述调整后的过滤框,对所述第四视 频进行目标检测及定位,得到所述第四视频的目标信息;
第三语义分割模块,用于对所述第四视频进行语义分割,得到所述第四 视频的分割结果;
第二热力图生成模块,用于将所述第四视频的目标信息和所述第四视频 的分割结果输入至所述第一热力图生成模型,得到所述第一热力图生成模型 输出的第二布防区域热力图;所述第二布防区域热力图中包括每个像素点属 于布防区域的置信度;
第二调整模块,用于根据所述第二布防区域热力图,对所述布防区域进 行调整。
一种实施方式中,所述装置还包括:第五获取模块、第四目标检测定位 模块、第六确定模块、第四判断模块和第三调整模块(图中未示出),其中,
第五获取模块,用于获取第五视频,所述第五视频与所述第一视频为针 对同一场景采集的视频;
第四目标检测定位模块,用于对所述第五视频进行目标检测及定位,得 到所述第五视频的目标信息;
第六确定模块,用于确定所述第五视频的目标信息与所述第一视频的目 标信息中包括的目标的位置差异;
第四判断模块,用于判断所述位置差异是否大于第三预设阈值;如果大 于,触发第三调整模块;
第三调整模块,用于根据所述位置差异,对所述布防区域进行调整。
应用本发明所示实施例,对视频进行语义分割得到分割结果;对视频进 行目标检测及定位得到视频的目标信息;将该分割结果和该目标信息输入至 预先训练得到的第一热力图生成模型,得到第一热力图生成模型输出的第一 布防区域热力图;确定第一布防区域热力图中置信度满足预设条件的像素点, 作为目标像素点;根据目标像素点所在位置,确定布防区域。可见,本方案 中,通过语义分割、目标检测及定位和第一热力图生成模型三部分,实现了 自动生成布防区域。
本发明实施例还提供了一种电子设备,如图7所示,包括处理器701和存 储器702,
存储器702,用于存放计算机程序;
处理器701,用于执行存储器702上所存放的程序时,实现上述任意一种 布防区域生成方法。
上述电子设备提到的存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM), 例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述 处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号 处理器(DigitalSignal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array, FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组 件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该 计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时 实现上述任意一种布防区域生成方法。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产 品,当其在计算机上运行时,使得计算机执行上述任意一种布防区域生成方 法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意 组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形 式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载 和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的 流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或 者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或 者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所 述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例 如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等) 方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机 可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个 可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁 性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来 将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示 这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、 “包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列 要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确 列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的 要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同 相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同 之处。尤其,对于装置实施例、设备实施例、计算机可读存储介质实施例、 以及计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述 的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例,并非用于限定本发明的保护范围。 凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含 在本发明的保护范围内。

Claims (10)

1.一种布防区域生成方法,其特征在于,包括:
获取第一视频;
对所述第一视频进行语义分割,得到所述第一视频的分割结果;
对所述第一视频进行目标检测及定位,得到所述第一视频的目标信息;
将所述第一视频的分割结果和所述第一视频的目标信息输入至预先训练得到的第一热力图生成模型,得到所述第一热力图生成模型输出的第一布防区域热力图;所述第一热力图生成模型为:以样本视频对应的布防区域热力图为监督,以样本视频的分割结果和目标信息为训练数据,对预设结构的第一神经网络进行训练得到的;所述第一布防区域热力图中包括每个像素点属于布防区域的置信度;
确定所述第一布防区域热力图中置信度满足预设条件的像素点,作为目标像素点;
根据所述目标像素点所在位置,确定布防区域。
2.根据权利要求1所述的方法,其特征在于,所述第一视频中包括多帧第一图像,所述对所述第一视频进行目标检测及定位,得到所述第一视频的目标信息,包括:
利用目标检测模型,对每帧第一图像进行目标检测,并对所述每帧第一图像的检测结果进行连接,得到第一连接检测结果;
将所述第一连接检测结果输入至预先训练得到的第二热力图生成模型,得到所述第二热力图生成模型输出的目标位置热力图,作为所述第一视频的目标信息;所述第二热力图生成模型为:以样本视频对应的目标位置热力图为监督,以样本视频的连接检测结果为训练数据,对预设结构的第二神经网络进行训练得到的;所述目标位置热力图中包括每个像素点属于目标的置信度。
3.根据权利要求1所述的方法,其特征在于,所述确定由所述目标像素点组成的布防区域之后,还包括:
获取第二视频,所述第二视频与所述第一视频为针对同一场景采集的视频;
对所述第二视频进行语义分割,得到所述第二视频的分割结果,所述第二视频的分割结果中包括所述第二视频中各像素点的类别;
通过将所述布防区域映射至所述第二视频中,得到所述第二视频中的目标区域;
根据所述第二视频的分割结果,判断所述目标区域中是否存在预设类别的像素点,所述预设类别为预设遮挡物的类别;如果存在,确定所述预设类别的像素点映射至所述布防区域中的区域,作为待剔除区域;将所述待剔除区域从所述布防区域中剔除。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第二视频的分割结果,判断所述目标区域中是否存在预设类别的像素点之前,还包括:
确定所述第二视频的分割结果与所述第一视频的分割结果之间的差异,作为第一差异,判断所述第一差异是否大于第一预设阈值;
如果大于,再执行所述根据所述第二视频的分割结果,判断所述目标区域中是否存在预设类别的像素点的步骤。
5.根据权利要求1所述的方法,其特征在于,所述对所述第一视频进行目标检测及定位,得到所述第一视频的目标信息,包括:
利用预设尺寸的过滤框,对所述第一视频进行目标检测及定位,得到所述第一视频的目标信息;
所述确定由所述目标像素点组成的布防区域之后,还包括:
获取第三视频,所述第三视频与所述第一视频为针对同一场景采集的视频,所述第三视频中包括多帧第三图像;
利用所述预设尺寸的过滤框,对所述第三视频进行目标检测及定位,得到所述第三视频的目标信息;
确定所述第三视频的目标信息与所述第一视频的目标信息中包括的目标的尺寸差异,判断所述尺寸差异是否大于第二预设阈值;
如果大于,调整所述过滤框的尺寸,得到调整后的过滤框;
获取第四视频,所述第四视频与所述第三视频为针对同一场景采集的视频,所述第四视频中包括多帧第四图像;
利用所述调整后的过滤框,对所述第四视频进行目标检测及定位,得到所述第四视频的目标信息;
对所述第四视频进行语义分割,得到所述第四视频的分割结果;
将所述第四视频的目标信息和所述第四视频的分割结果输入至所述第一热力图生成模型,得到所述第一热力图生成模型输出的第二布防区域热力图;所述第二布防区域热力图中包括每个像素点属于布防区域的置信度;
根据所述第二布防区域热力图,对所述布防区域进行调整。
6.根据权利要求1所述的方法,其特征在于,所述确定由所述目标像素点组成的布防区域之后,还包括:
获取第五视频,所述第五视频与所述第一视频为针对同一场景采集的视频;
对所述第五视频进行目标检测及定位,得到所述第五视频的目标信息;
确定所述第五视频的目标信息与所述第一视频的目标信息中包括的目标的位置差异,判断所述位置差异是否大于第三预设阈值;
如果大于,根据所述位置差异,对所述布防区域进行调整。
7.一种布防区域生成装置,其特征在于,包括:
第一获取模块,用于获取第一视频;
第一语义分割模块,用于对所述第一视频进行语义分割,得到所述第一视频的分割结果;
第一目标检测定位模块,用于对所述第一视频进行目标检测及定位,得到所述第一视频的目标信息;
第一热力图生成模块,用于将所述第一视频的分割结果和所述第一视频的目标信息输入至预先训练得到的第一热力图生成模型,得到所述第一热力图生成模型输出的第一布防区域热力图;所述第一热力图生成模型为:以样本视频对应的布防区域热力图为监督,以样本视频的分割结果和目标信息为训练数据,对预设结构的第一神经网络进行训练得到的;所述第一布防区域热力图中包括每个像素点属于布防区域的置信度;
第一确定模块,用于确定所述第一布防区域热力图中置信度满足预设条件的像素点,作为目标像素点;
第二确定模块,用于根据所述目标像素点所在位置,确定布防区域。
8.根据权利要求7所述的装置,其特征在于,所述第一视频中包括多帧第一图像,所述第一目标检测定位模块,具体用于:
利用目标检测模型,对每帧第一图像进行目标检测,并对所述每帧第一图像的检测结果进行连接,得到第一连接检测结果;
将所述第一连接检测结果输入至预先训练得到的第二热力图生成模型,得到所述第二热力图生成模型输出的目标位置热力图,作为所述第一视频的目标信息;所述第二热力图生成模型为:以样本视频对应的目标位置热力图为监督,以样本视频的连接检测结果为训练数据,对预设结构的第二神经网络进行训练得到的;所述目标位置热力图中包括每个像素点属于目标的置信度;
所述装置还包括:
第二获取模块,用于获取第二视频,所述第二视频与所述第一视频为针对同一场景采集的视频;
第二语义分割模块,用于对所述第二视频进行语义分割,得到所述第二视频的分割结果,所述第二视频的分割结果中包括所述第二视频中各像素点的类别;
映射模块,用于通过将所述布防区域映射至所述第二视频中,得到所述第二视频中的目标区域;
第三确定模块,用于确定所述第二视频的分割结果与所述第一视频的分割结果之间的差异,作为第一差异;
第一判断模块,用于判断所述第一差异是否大于第一预设阈值;如果大于,则触发第二判断模块;
第二判断模块,用于根据所述第二视频的分割结果,判断所述目标区域中是否存在预设类别的像素点,所述预设类别为预设遮挡物的类别;如果存在,触发第四确定模块;
第四确定模块,用于确定所述预设类别的像素点映射至所述布防区域中的区域,作为待剔除区域;
剔除模块,用于将所述待剔除区域从所述布防区域中剔除;
所述第一目标检测定位模块还用于:利用预设尺寸的过滤框,对所述第一视频进行目标检测及定位,得到所述第一视频的目标信息;
所述装置还包括:
第三获取模块,用于获取第三视频,所述第三视频与所述第一视频为针对同一场景采集的视频,所述第三视频中包括多帧第三图像;
第二目标检测定位模块,用于利用所述预设尺寸的过滤框,对所述第三视频进行目标检测及定位,得到所述第三视频的目标信息;
第五确定模块,用于确定所述第三视频的目标信息与所述第一视频的目标信息中包括的目标的尺寸差异;
第三判断模块,用于判断所述尺寸差异是否大于第二预设阈值;如果大于,触发第一调整模块;
第一调整模块,用于调整所述过滤框的尺寸,得到调整后的过滤框;
第四获取模块,用于获取第四视频,所述第四视频与所述第三视频为针对同一场景采集的视频,所述第四视频中包括多帧第四图像;
第三目标检测定位模块,用于利用所述调整后的过滤框,对所述第四视频进行目标检测及定位,得到所述第四视频的目标信息;
第三语义分割模块,用于对所述第四视频进行语义分割,得到所述第四视频的分割结果;
第二热力图生成模块,用于将所述第四视频的目标信息和所述第四视频的分割结果输入至所述第一热力图生成模型,得到所述第一热力图生成模型输出的第二布防区域热力图;所述第二布防区域热力图中包括每个像素点属于布防区域的置信度;
第二调整模块,用于根据所述第二布防区域热力图,对所述布防区域进行调整;
所述装置还包括:
第五获取模块,用于获取第五视频,所述第五视频与所述第一视频为针对同一场景采集的视频;
第四目标检测定位模块,用于对所述第五视频进行目标检测及定位,得到所述第五视频的目标信息;
第六确定模块,用于确定所述第五视频的目标信息与所述第一视频的目标信息中包括的目标的位置差异;
第四判断模块,用于判断所述位置差异是否大于第三预设阈值;如果大于,触发第三调整模块;
第三调整模块,用于根据所述位置差异,对所述布防区域进行调整。
9.一种电子设备,其特征在于,包括处理器和存储器;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-6任一所述的方法步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-6任一所述的方法步骤。
CN202110234977.XA 2021-03-03 2021-03-03 一种布防区域生成方法、装置、设备及存储介质 Active CN112906594B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110234977.XA CN112906594B (zh) 2021-03-03 2021-03-03 一种布防区域生成方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110234977.XA CN112906594B (zh) 2021-03-03 2021-03-03 一种布防区域生成方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN112906594A CN112906594A (zh) 2021-06-04
CN112906594B true CN112906594B (zh) 2022-06-03

Family

ID=76107486

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110234977.XA Active CN112906594B (zh) 2021-03-03 2021-03-03 一种布防区域生成方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN112906594B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113762219A (zh) * 2021-11-03 2021-12-07 恒林家居股份有限公司 一种移动会议室内人物识别方法、系统和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229575A (zh) * 2018-01-19 2018-06-29 百度在线网络技术(北京)有限公司 用于检测目标的方法和装置
EP3396596A1 (en) * 2017-04-25 2018-10-31 Accenture Global Solutions Limited Heat ranking of media objects
CN108932456A (zh) * 2017-05-23 2018-12-04 北京旷视科技有限公司 人脸识别方法、装置和系统及存储介质
CN110991319A (zh) * 2019-11-29 2020-04-10 广州市百果园信息技术有限公司 手部关键点检测方法、手势识别方法及相关装置
CN111754386A (zh) * 2019-03-26 2020-10-09 杭州海康威视数字技术股份有限公司 图像区域屏蔽方法、装置、设备及存储介质
CN111882816A (zh) * 2020-06-24 2020-11-03 国网宁夏电力有限公司检修公司 一种用于变电站的危险报警方法、介质及系统
WO2020221031A1 (zh) * 2019-04-28 2020-11-05 杭州海康威视数字技术股份有限公司 行为热力图生成及报警方法、装置、电子设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8379981B1 (en) * 2011-08-26 2013-02-19 Toyota Motor Engineering & Manufacturing North America, Inc. Segmenting spatiotemporal data based on user gaze data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3396596A1 (en) * 2017-04-25 2018-10-31 Accenture Global Solutions Limited Heat ranking of media objects
CN108932456A (zh) * 2017-05-23 2018-12-04 北京旷视科技有限公司 人脸识别方法、装置和系统及存储介质
CN108229575A (zh) * 2018-01-19 2018-06-29 百度在线网络技术(北京)有限公司 用于检测目标的方法和装置
CN111754386A (zh) * 2019-03-26 2020-10-09 杭州海康威视数字技术股份有限公司 图像区域屏蔽方法、装置、设备及存储介质
WO2020221031A1 (zh) * 2019-04-28 2020-11-05 杭州海康威视数字技术股份有限公司 行为热力图生成及报警方法、装置、电子设备及存储介质
CN110991319A (zh) * 2019-11-29 2020-04-10 广州市百果园信息技术有限公司 手部关键点检测方法、手势识别方法及相关装置
CN111882816A (zh) * 2020-06-24 2020-11-03 国网宁夏电力有限公司检修公司 一种用于变电站的危险报警方法、介质及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
一种主动移动侦测布防方法;林鹰 等;《计算机应用研究》;20090531;第1974-1976页 *

Also Published As

Publication number Publication date
CN112906594A (zh) 2021-06-04

Similar Documents

Publication Publication Date Title
CN110428522B (zh) 一种智慧新城的智能安防系统
KR102155182B1 (ko) 비디오 리코딩 방법, 서버, 시스템 및 저장 매체
CN109766779B (zh) 徘徊人员识别方法及相关产品
TW202013252A (zh) 車牌辨識系統與方法
WO2020134528A1 (zh) 目标检测方法及相关产品
CN111163259A (zh) 一种图像抓拍方法、监控相机及监控系统
WO2021139049A1 (zh) 检测方法、检测装置、监控设备和计算机可读存储介质
CN106851229B (zh) 一种基于图像识别的安防智能决策的方法与系统
WO2022142417A1 (zh) 目标跟踪方法、装置、电子设备及存储介质
CN111723773B (zh) 遗留物检测方法、装置、电子设备及可读存储介质
Sabri et al. Low-cost intelligent surveillance system based on fast CNN
CN110852147A (zh) 一种安防报警方法、装置、服务器及计算机可读存储介质
CN112906594B (zh) 一种布防区域生成方法、装置、设备及存储介质
Lalonde et al. A system to automatically track humans and vehicles with a PTZ camera
CN111639668A (zh) 一种基于深度学习的人群密度检测方法
KR20160093253A (ko) 영상 기반 이상 흐름 감지 방법 및 그 시스템
US20240048672A1 (en) Adjustment of shutter value of surveillance camera via ai-based object recognition
CN113657250A (zh) 一种基于监控视频的火焰检测方法及系统
CN116229336B (zh) 视频移动目标识别方法、系统、存储介质及计算机
CN115409991B (zh) 目标识别方法、装置、电子设备和存储介质
KR101950151B1 (ko) 영상 감시 시스템
KR102122853B1 (ko) 외부기기 제어가 가능한 모니터링시스템
KR20220072316A (ko) 다객체의 이벤트 검출을 위한 영상분석장치 및 그 장치의 구동방법
CN112613516A (zh) 用于航拍视频数据的语义分割方法
CN112183183A (zh) 一种目标检测方法、装置及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant