CN114283384A - 一种摄像机拍摄区域的检测方法及装置 - Google Patents

一种摄像机拍摄区域的检测方法及装置 Download PDF

Info

Publication number
CN114283384A
CN114283384A CN202111631784.4A CN202111631784A CN114283384A CN 114283384 A CN114283384 A CN 114283384A CN 202111631784 A CN202111631784 A CN 202111631784A CN 114283384 A CN114283384 A CN 114283384A
Authority
CN
China
Prior art keywords
picture
feature
frame
label
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111631784.4A
Other languages
English (en)
Inventor
卢玉清
夏凤君
汪昊
周斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Unisinsight Technology Co Ltd
Original Assignee
Chongqing Unisinsight Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Unisinsight Technology Co Ltd filed Critical Chongqing Unisinsight Technology Co Ltd
Priority to CN202111631784.4A priority Critical patent/CN114283384A/zh
Publication of CN114283384A publication Critical patent/CN114283384A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本申请公开了一种摄像机拍摄区域的检测方法及装置,通过目标检测的方式确定摄像机拍摄区域是否为摄像机的完整可视区域,以此确定摄像机的视野是否被遮挡,避免浪费摄像机的资源。该方法包括:获取视频流;对视频流中至少一帧图片进行目标检测,确定各图片对应的特征矩阵,特征矩阵包括表征图片中包括的目标及目标所在的区域的特征数据;对各图片对应的特征矩阵的特征数据进行合并,确定待检测特征矩阵;将待检测矩阵输入到预先训练好的神经网络模型中,得到与待检测特征矩阵所关联的标签,标签用于指示摄像机当前拍摄区域是否为摄像机的完整可视区域。

Description

一种摄像机拍摄区域的检测方法及装置
技术领域
本发明涉及智能视频监控技术领域,尤其涉及一种摄像机拍摄区域的检测方法及装置。
背景技术
随着社会基础设施建设的大力发展,为了维护社会治安稳定,目前基于安防监控的各类业务需求日益增多,面向安防或者交通等行业的监控摄像机的部署越来越多。但是在一些场景中,由于摄像机安装不规范、人为外力或者恶劣天气的影响因素,导致摄像机的监控画面被遮挡,有效的可视区域减少,浪费了摄像机资源。然而在传统的摄像机运维中,通常采用针对摄像机的工作状态或者网络运行状态等进行检测,并没有进行检测摄像机是否存在被遮挡的问题。所以在对摄像机的运维中,增加对摄像机拍摄区域的检测就变得尤为重要了。
发明内容
本申请实施例提供了一种摄像机拍摄区域的检测方法及装置,通过目标检测的方式确定摄像机拍摄区域是否为摄像机的完整可视区域,以此确定摄像机的视野是否被遮挡,避免浪费摄像机的资源。
第一方面,本申请实施例提供了一种摄像机拍摄区域的检测方法,包括:
获取视频流;
对所述视频流中至少一帧图片进行目标检测,确定各图片对应的特征矩阵,所述特征矩阵包括表征图片中包括的目标及所述目标所在的区域的特征数据;
对所述各图片对应的特征矩阵的特征数据进行合并,确定待检测特征矩阵;
将所述待检测矩阵输入到预先训练好的神经网络模型中,得到与所述待检测特征矩阵所关联的标签,所述标签用于指示摄像机当前拍摄区域是否为所述摄像机的完整可视区域。
基于上述方案,本申请采用对图片进行目标检测,并根据目标检测的结果确定待检测特征矩阵,然后根据预先训练好的神经网络模型,来确定待检测特征矩阵需要关联的标签,从而确定摄像机视野范围内是否存在遮挡情况。相比于现有技术中,采用的计算图片梯度值来确定是否存在遮挡问题,本申请的方案能够更好地识别出摄像机拍摄范围内存在的大目标遮挡,比如卡车遮挡的情况,提升了判断遮挡的准确性。
在一些实施例中,所述神经网络模型是根据不同标签以及所述不同标签所关联的多个特征矩阵训练得到的,所述不同标签所关联的多个特征矩阵为通过对带标签的帧图片进行目标检测,确定的与各带标签的帧图片对应的特征矩阵。
基于上述方案,本申请提出预先根据标签和标签关联的多个特征矩阵训练一个神经网络模型,然后采用该神经网络模型确定待检测特征矩阵关联的标签,以此提升预测标签的准确性。
在一些实施例中,所述对所述视频流中至少一帧图片进行目标检测,确定各图片对应的特征矩阵,包括:
为所述至少一帧图片中的任一帧图片创建初始矩阵,所述初始矩阵包括与所述任一帧图片被划分的网格区域一一对应的特征数据,且各特征数据初始为第一取值;
对所述任一帧图片进行目标检测,识别到目标时确定目标在所述任一帧图片中所占的目标网格区域;
将所述初始矩阵中与所述目标网格区域对应的特征数据的第一取值替换为第二取值,得到所述任一帧图片对应的特征矩阵。
基于上述方案,本申请提出了一种将图片转化为特征矩阵的方法,即,将图片中包括目标的区域映射到特征矩阵中具体特征数据的取值上。采用这种方法得到的特征矩阵可以与图片的关联性强,可以很好的表征图片目标检测的结果。
在一些实施例中,对带标签的帧图片进行目标检测,确定与各带标签的帧图片对应的特征矩阵的方式,包括:
为带标签的帧图片创建初始矩阵,所述初始矩阵包括与帧图片被划分的网格区域一一对应的特征数据,且各特征数据初始为第一取值;
对所述带标签的帧图片进行目标检测,识别到目标时确定目标在所述带标签的帧图片中所占的目标网格区域;
将所述初始矩阵中与所述目标网格区域对应的特征数据的第一取值替换为第二取值,得到所述带标签的帧图片对应的特征矩阵。
在一些实施例中,所述带标签的帧图片通过如下方式至少一个步骤获取:
采集带第一标签的视频流,并抽取部分带第一标签的第一帧图片,所述第一标签用于指示摄像机当前拍摄区域为所述摄像机的完整可视区域的标签;
从所述带第一标签的视频流中,抽取带第一标签的第二帧图片,将所述第二帧图片对应的特征矩阵中部分第二取值的特征数据的取值,替换为第一取值,并将所述第二帧图片的标签修改为第二标签;
采集带第二标签的视频流,并抽取带第二标签的第三帧图片。
在对模型进行训练时,很可能会出现训练样本分布不均匀的问题,例如,关联用于指示摄像机当前拍摄区域不是所述摄像机的完整可视区域的第二标签的图片比较少。在这种情况下,本申请提出了将带第一标签的帧图片转化为带第二标签的帧图片的方法,以此避免训练样本分布不均的问题。
在一些实施例中,在获取视频流之后,所述方法还包括:
间隔设定时间间隔,从所述视频流中抽取帧图片,所述设定时间间隔为预设数量个帧图片对应的传输间隔。
在一些实施例中,对所述各图片对应的特征矩阵的特征数据进行合并,确定待检测特征矩阵,包括:
若任意两个特征矩阵中对应同一网格区域的特征数据相同,则所述待检测特征矩阵中该网格区域对应的特征数据为相同的第一取值或第二取值;
若所述任意两个特征矩阵对应同一网格区域的特征数据不相同,则所述待检测特征矩阵中该网格区域对应的特征数据为所述第二取值。
如果采用单张图片判断遮挡时,由于单张图片中目标所占区域并不会特别大导致图片大部分区域并不存在目标,使得模型会将这类图片误判为存在遮挡的情况。所以本申请提出了将一段视频流包括的多个图片对应的多个特征矩阵进行特征数据合并操作,避免上述问题。
第二方面,本申请实施例提供了一种摄像机拍摄区域的检测装置,包括:
获取单元,用于获取视频流;
处理单元,被配置为执行:
对所述视频流中至少一帧图片进行目标检测,确定各图片对应的特征矩阵,所述特征矩阵包括表征图片中包括的目标及所述目标所在的区域的特征数据;
对所述各图片对应的特征矩阵的特征数据进行合并,确定待检测特征矩阵;
将所述待检测矩阵输入到预先训练好的神经网络模型中,得到与所述待检测特征矩阵所关联的标签,所述标签用于指示摄像机当前拍摄区域是否为所述摄像机的完整可视区域。
在一些实施例中,所述神经网络模型是根据不同标签以及所述不同标签所关联的多个特征矩阵训练得到的,所述不同标签所关联的多个特征矩阵为通过对带标签的帧图片进行目标检测,确定的与各带标签的帧图片对应的特征矩阵。
在一些实施例中,所述处理单元,具体用于:
为所述至少一帧图片中的任一帧图片创建初始矩阵,所述初始矩阵包括与所述任一帧图片被划分的网格区域一一对应的特征数据,且各特征数据初始为第一取值;
对所述任一帧图片进行目标检测,识别到目标时确定目标在所述任一帧图片中所占的目标网格区域;
将所述初始矩阵中与所述目标网格区域对应的特征数据的第一取值替换为第二取值,得到所述任一帧图片对应的特征矩阵。
在一些实施例中,所述处理单元,还用于:
为带标签的帧图片创建初始矩阵,所述初始矩阵包括与帧图片被划分的网格区域一一对应的特征数据,且各特征数据初始为第一取值;
对所述带标签的帧图片进行目标检测,识别到目标时确定目标在所述带标签的帧图片中所占的目标网格区域;
将所述初始矩阵中与所述目标网格区域对应的特征数据的第一取值替换为第二取值,得到所述带标签的帧图片对应的特征矩阵。
在一些实施例中,所述获取单元,还用于获取带标签的帧图片;
所述获取单元,具体用于:
采集带第一标签的视频流,并抽取部分带第一标签的第一帧图片,所述第一标签用于指示摄像机当前拍摄区域为所述摄像机的完整可视区域的标签;
从所述带第一标签的视频流中,抽取带第一标签的第二帧图片,将所述第二帧图片对应的特征矩阵中部分第二取值的特征数据的取值,替换为第一取值,并将所述第二帧图片的标签修改为第二标签;
采集带第二标签的视频流,并抽取带第二标签的第三帧图片。
在一些实施例中,所述获取单元,还用于:
间隔设定时间间隔,从所述视频流中抽取帧图片,所述设定时间间隔为预设数量个帧图片对应的传输间隔。
在一些实施例中,所述处理单元,还用于:
在任意两个特征矩阵中对应同一网格区域的特征数据相同时,将所述待检测特征矩阵中该网格区域对应的特征数据设置为相同的第一取值或第二取值;
在所述任意两个特征矩阵对应同一网格区域的特征数据不相同时,将所述待检测特征矩阵中该网格区域对应的特征数据设置为所述第二取值。
第三方面,本申请实施例提供了一种电子设备,包括存储器以及处理器;
存储器,用于存储程序指令;
处理器,用于调用所述存储器中存储的程序指令,按照获得的程序执行第一方面所述的摄像机拍摄区域的检测方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,当所述计算机指令在计算机上运行时,使得计算机执行第一方面所述的摄像机拍摄区域的检测方法。
第五方面,本申请实施例提供了一种计算机程序产品,该计算机程序产品包括计算机程序或指令,当该计算机程序或指令被计算机执行时,实现上述第一方面中任意可能的实现方式中的方法。
另外,第二方面至第五方面中的任一种实现方式所带来的技术效果可参见第一方面不同的实现方式所带来的技术效果,此处不再赘述。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例。
图1为本申请实施例提供的一种摄像机拍摄区域的检测方法流程图;
图2A为本申请实施例提供的一种用于进行目标检测的图片;
图2B为本申请实施例提供的一种特征矩阵的示意图;
图3为本申请实施例提供的一种创建特征矩阵的方法流程图;
图4为本申请实施例提供的一种初始矩阵的示意图;
图5A为本申请实施例提供的一种摄像机视野存在遮挡的场景示意图;
图5B为本申请实施例提供的另一种摄像机视野存在遮挡的场景示意图;
图6为本申请实施例提供的一种特征矩阵合并的过程示意图;
图7为本申请实施例提供的另一种摄像机拍摄区域的检测方法流程图;
图8为本申请实施例提供的一种摄像机拍摄区域的检测装置的结构示意图;
图9为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请技术方案的一部分实施例,而不是全部的实施例。基于本申请文件中记载的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请技术方案保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”和“第二”是用于区别不同对象,而非用于描述特定顺序。此外,术语“包括”以及它们任何变形,意图在于覆盖不排他的保护。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请中的“多个”可以表示至少两个,例如可以是两个、三个或者更多个,本申请实施例不做限制。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,在不做特别说明的情况下,一般表示前后关联对象是一种“或”的关系。
在相关技术中,对于判断摄像机的视野是否被遮挡所采用的方法,主要是基于摄像机内置的算法进行判断摄像机拍摄的画面是否存在遮挡问题。常规技术中,为了判断摄像机的拍摄区域是否为摄像机完整的可视区域,一般是基于摄像机拍摄的视频流中的多帧图片,计算图片的近邻梯度值,从而量化渐变程度值。并基于不同区域的渐变程度值判断摄像机的视野是否被遮挡。上述方法中,通过梯度值变化确定是否被遮挡只能够识别出,例如毛巾或者树叶等异物的遮挡,因为这种遮挡情况会使得图片的梯度值变化较大。但是对于摄像机拍摄范围内存在的大目标遮挡,比如卡车或者树木等目标遮挡的情况,采用上述方案是无法识别到的。有鉴于此,本申请实施例提供了一种摄像机拍摄区域的检测方法及装置,通过对图片进行目标检测的方法来确定摄像机的拍摄区域是否为摄像机的完整可视区域。
可选地,本申请实施例提出的摄像机拍摄区域的检测方法可以由摄像机中配置的芯片或者处理器来执行,或者也可以由独立于摄像机或者与摄像机相连的服务器或者服务器集群来执行,本申请对此不作具体限定。为了便于描述,后续均以由摄像机来执行该检测方法为例进行介绍。
首先,为了便于理解本申请的方案,参见图1,为本申请实施例提供的一种摄像机拍摄区域的检测方法流程图。具体包括:
101,获取视频流。
可选地,可以实时获取摄像机的视频流进行检测,也可以周期性地获取时间范围相同或者不相同的视频流,或者,还可以非周期性地获取时间范围相同或者不相同的视频流。
作为一种举例,可以通过摄像机的实时流协议地址(Real Time StreamingProtocol,RTSP)获取摄像机拍摄的视频流。
102,对视频流中的至少一帧图片进行目标检测,确定各图片对应的特征矩阵。
其中,某一帧图片对应的特征矩阵中包括的特征数据,用于表征该图片中包括的目标以及目标所在的区域。
作为一种举例,可以每间隔设定时间间隔从视频流中抽取一帧图片,该设定时间间隔可以为预设数量个帧图片对应的传输间隔。或者,作为另一种举例,可以随机从一段视频流中抽取任意数量的帧图片。
103,对各图片对应的特征矩阵的特征数据进行合并,确定待检测特征矩阵。
可选地,在将各个特征矩阵进行合并时,可以将各个特征矩阵进行相加处理,或者也可以对各个特征矩阵进行取并集处理。本申请对于特征矩阵的合并方式不作具体限定。将各个特征矩阵的合并结果作为待检测特征矩阵。
104,将待检测矩阵输入到预先训练好的神经网络模型中,得到与待检测特征矩阵所关联的标签。
其中,标签用于指示摄像机当前的拍摄区域是否为摄像机的完整可视区域。具体地,摄像机的完整可视区域指的是,摄像机位置固定的情况下,可以拍摄到的最大的区域。即,只要摄像机的位置固定,该区域就是固定不变的。标签可以用于指示当前的拍摄区域是否为完整可视区域,即标签用于指示当前摄像机的视野是否被遮挡。
可选地,可以预先通过不同的标签,以及每一个标签关联的多个特征矩阵,对神经网络模型进行训练。训练所用的特征矩阵可以是通过对带标签的帧图片进行目标检测,从而确定的与各带标签的帧图片对应的特征矩阵。进一步地,可以将确定的待检测矩阵输入到该训练好的神经网络模型中,确定其所要关联的标签。
基于上述方案,本申请采用对图片进行目标检测,并根据目标检测的结果确定待检测特征矩阵,然后根据预先训练好的神经网络模型,来确定待检测特征矩阵需要关联的标签,从而确定摄像机视野范围内是否存在遮挡情况。相比于现有技术中,采用的计算图片梯度来确定是否存在遮挡问题,本申请的方案能够更好地识别出摄像机拍摄范围内存在的大目标,比如卡车遮挡的情况,提升了判断遮挡的准确性。
在一些实施例中,可以根据摄像机的RTSP地址周期性地获取视频流,视频流的时间范围是可以预先设定的。例如可以每间隔一个周期获取10分钟的视频流。可选地,可以设置不同的时间段对应不同的视频流时间范围。例如,由于早晨人流量和车流量都比较少,所以在早晨的时间段,可以将视频流的时间范围设置的大一些,比如可以获取20分钟的视频流。由于中午或者傍晚下班或者放学时段的人流量和车流量都比较大,所以在这些时间段,可以将视频流的时间范围设置的小一些,比如可以获取5分钟的视频流。
进一步地,可以每间隔设定的时间间隔从获取的视频流中抽取一帧图片,即从视频流中抽取多帧图片。并可以对多帧图片中的每一帧图片进行目标检测,然后根据目标检测的结果确定每一帧图片对应的特征矩阵。特征矩阵中的特征数据用于表征图片中的目标和各个目标所处的区域。可选地,可以设定包括目标的区域对应的特征数据与不包括目标的区域对应的特征数据不相同。作为一种示例,可以参见图2A所示的图片,包括三个目标。图2A所示的图片转化而来的特征矩阵可以参见图2B所示的特征矩阵。在图2B所示的特征矩阵中,包括目标的区域对应的特征数据取值为1,不包括目标的区域对应的特征数据取值为0。需要说明的是,本申请对于特征矩阵中的特征数据的取值不作具体限定,图2B中仅以0和1为例进行说明。
进一步地,结合具体实施例对创建图片对应的特征矩阵的过程进行说明。为了便于描述,以视频流中提取到的多帧图片中的第一图片为例,对根据第一图片的目标检测结果创建第一图片对应的特征矩阵的过程进行介绍。可选地,可以参见图3,为本申请实施例提供的一种创建特征矩阵的方法流程图,具体包括:
301,为第一图片创建初始矩阵。
其中,初始矩阵包括与第一图片被划分的网格区域一一对应的特征数据,且初始矩阵中包括的特征数据初始为第一取值。例如,初始矩阵中包括的特征数据可以均取值为0(当然,也可以取其他的数值,本申请对此不作具体限定)。
作为一种示例,可以将第一图片划分为10*10个网格区域,每一个网格区域对应初始矩阵中的一个特征数据,即初始矩阵中包括100个特征数据,该100个特征数据的取值均为第一取值。可选地,第一图片对应的初始矩阵可以参见图4所示的矩阵。
302,对第一图片进行目标检测,识别目标时确定目标在第一图片中所占的目标网格区域。
可选地,可以采用设定算法对第一图片进行目标检测,例如可以采用YOLO目标检测算法。需要说明的是,在对第一图片进行目标检测时,对于图片中存在的较大的遮挡物,比如卡车等,是不会被识别为目标的。作为一种可能的场景,可以参见图5A所示的图片。图5A所示的图片中的遮挡物为卡车,在这种场景下,卡车将不会被识别为目标。作为另一种可能的场景,可以参见图5B所示的图片。图5B所示的图片中遮挡物为树木,在这种场景下,树木将不会被识别为目标。
进一步地,识别出第一图片中包括的目标之后,可以进一步确定各个目标在第一图片中所占的目标网格区域。继续上述举例,将第一图片划分为10*10个网格区域,那么在进行目标检测识别出目标之后,就可以确定每个目标占据的网格区域具体有哪些,将这些网格区域作为目标网格区域。
303,将初始矩阵中与目标网格区域对应的特征数据的第一取值替换为第二取值,得到第一图片对应的特征矩阵。
其中,第二取值与第一取值不相同。
具体地,已知第一图片中每个网格区域对应初始矩阵中的一个特征数据,在确定第一图片中包含目标的目标网格区域之后,可以将目标网格区域对应的初始矩阵中的特征数据由第一取值替换为第二取值,从而得到第一图片对应的特征矩阵。
基于上述方案,本申请提出了一种将图片转化为特征矩阵的方法,即,将图片中包括目标的区域映射到特征矩阵中具体特征数据的取值上。采用这种方法得到的特征矩阵可以与图片的关联性强,可以很好的表征图片目标检测的结果。
在一些实施例中,在针对从视频流提取出的多帧图片中的每一帧图片均进行了目标检测以及转化为特征矩阵之后,可以得到多帧图片分别对应的特征矩阵。进一步地,可以将多个特征矩阵进行合并,得到用于预测标签的一个待检测特征矩阵。作为一种可选的方式,可以对多个特征矩阵进行取并集操作,得到待检测特征矩阵。举例来说,以多个特征矩阵中任意两个特征矩阵为例,可以首先对该任意两个特征矩阵包括的特征数据进行判断。
一种可能的情况下,若该任意两个特征矩阵中对应同一网格区域的特征数据相同(例如,均为第一取值或者均为第二取值),则这两个矩阵合并后的得到的特征矩阵中该网格区域对应的数据为相同的第一取值或者第二取值。例如,任意两个特征矩阵中对应同一网格区域的特征数据均为1(或0),则这两个特征矩阵合并后的特征矩阵的取值为1(或0)。另一种可能的情况下,若该任意两个特征矩阵中对应同一网格区域的特征数据不相同,则这两个矩阵合并后的得到的特征矩阵中该网格区域对应的数据为第二取值。例如,任意两个特征矩阵中第一个特征矩阵在某一网格区域的特征数据为第二取值(比如取值为1),任意两个特征矩阵中第二个特征矩阵在该网格区域的特征数据为第一取值(比如取值为0),则这两个特征矩阵合并后的得到的特征矩阵在该网格区域的特征数据为第二取值。
为了方便理解,参见图6,为本申请实施例提供的一种特征矩阵合并的过程示意图。待合并的两个特征矩阵可以分别参见图6中的(a)和(b),图6中的(a)所示的特征矩阵和图6中的(b)所示的特征矩阵合并后得到的特征矩阵可以参见图6中的(c)所示的特征矩阵。
进一步地,可以采用上述方法将所有从视频中提取的图片转化而来的特征矩阵进行合并,得到待检测特征矩阵。在得到待检测特征矩阵之后,可以将待检测特征矩阵输入到预先训练好的神经网络模型中,确定待检测特征矩阵关联第一标签。已知标签是用于指示摄像机当前的拍摄区域是否为摄像机完整的可视区域的,那么在确定待检测特征矩阵关联的第一标签之后,就可以根据第一标签的指示,确定摄像机当前的拍摄区域是否为摄像机完整的可视区域,即,摄像机的视野是否被遮挡。
作为一种可能实现的方式,本申请涉及的用于预测标签的神经网络模型,可以是根据不同标签以及不同标签所关联的多个特征矩阵训练得到的。其中,不同标签关联的多个特征矩阵为通过带标签的帧图片进行目标检测,确定的与各带标签的帧图片对应的特征矩阵。也就是说,可以先获取多个带标签的帧图片,然后确定这些带标签的帧图片对应的特征矩阵,以及特征矩阵所关联的标签。
可选地,带标签的帧图片可以有多种获取方式。在一些实施例中,可以采集带第一标签的视频流,并从视频流中抽取多个带第一标签的帧图片。其中,第一标签用于指示摄像机当前拍摄区域为摄像机的完整可视区域。
在另一些实施例中,可以从带第一标签的视频流中,抽取多个带第一标签的帧图片之后,将这些帧图片对应的特征矩阵中部分第二取值的特征数据的取值,替换为第一取值(第一取值用于指示该网格区域内不包括目标,第二取值用于指示该网格区域内包括目标)。然后,可以将这部分替换后的多个帧图片改为关联第二标签。第二标签用于指示摄像机当前拍摄区域不是摄像机的完整可视区域。
在另一些实施例中,还可以直接采集带第二标签的视频流,并从该视频流中抽取带第二标签的多个帧图片。
进一步地,可以根据带标签的帧图片确定的多个关联不同标签的特征矩阵。例如,可以对多个带标签的帧图片进行目标检测,得到多个带标签的帧图片分别对应的特征矩阵,以及这些特征矩阵所关联的标签。具体的通过目标检测的方法获取多个带标签的帧图片对应的特征矩阵的方式可以参见上述图3所示的方法,在此不再进行赘述。再进一步地,确定多个关联不同标签的特征矩阵之后,就可以采用这些特征矩阵,以及分别关联的标签对神经网络模型进行训练。例如,可以将某一个特征矩阵作为输入,将该特征矩阵关联的标签作为输出,来训练神经网络模型。可选地,还可以将这些关联标签的特征矩阵的顺序随机打乱,抽取其中的一部分再次对神经网络模型进行训练,避免各个关联标签的特征矩阵的输入顺序对模型训练的影响。
以上,结合多个实施例对神经网络模型的训练过程进行了介绍,需要说明的是,上述各个实施例可以随机进行组合。在实际应用中,可以将待检测特征矩阵输入到训练好的神经网络模型中,得到待检测特征矩阵关联的标签,从而确定当前摄像机的拍摄区域是否为摄像机的完整可视区域,以此确定摄像机视野内是否存在遮挡现象。
为了便于理解,下面结合具体地实施例对本申请提出的摄像机拍摄区域的检测方法进行介绍。可选地,可以参见图7,为本申请实施例提供的一种摄像机拍摄区域的检测方法流程图,具体包括:
701,获取视频流。
可选地,可以根据摄像机的RTSP地址获取该摄像机拍摄的视频流。可以周期性地获取视频流,例如,可以每间隔一段时间获取一段设定长度的视频流。
702,从视频流中抽取至少一帧图片。
可选地,也可以周期性地从视频流中抽取图片。例如,可以预先设置抽取频率,根据该抽取频率每间隔设定时间间隔抽取一帧图片。
703,对至少一帧图片进行目标检测,确定每一帧图片对应的特征矩阵。
具体可以参见上述图3中的相关介绍,在此不再进行赘述。
704,将至少一帧图片对应的至少一个特征矩阵进行合并,确定待检测特征矩阵。
具体合并过程也可以参见上述实施例中的相关介绍,在此不再进行详述。
705,将待检测特征矩阵输入到预先训练好的神经网络模型中,确定待检测特征矩阵关联的标签。
其中,训练神经网络模型的过程可以参见上述实施例中的介绍。
706,根据待检测特征矩阵关联的标签确定摄像机的拍摄区域是否为摄像机的完整可视区域。
可选地,可以预先设定不同的标签指示意义。例如,可以定义第一标签指示摄像机的拍摄区域为摄像机的完整可视区域,第二标签指示摄像机的拍摄区域不是摄像机的完整可视区域。
基于与上述方法的同一构思,参见图8,为本申请实施例提供的一种摄像机拍摄区域的检测装置800。装置800用于执行上述方法的各个步骤,为了避免重复,此处不再进行赘述。装置800包括:获取单元801和处理单元802。
获取单元801,用于获取视频流;
处理单元802,被配置为执行:
对所述视频流中至少一帧图片进行目标检测,确定各图片对应的特征矩阵,所述特征矩阵包括表征图片中包括的目标及所述目标所在的区域的特征数据;
对所述各图片对应的特征矩阵的特征数据进行合并,确定待检测特征矩阵;
将所述待检测矩阵输入到预先训练好的神经网络模型中,得到与所述待检测特征矩阵所关联的标签,所述标签用于指示摄像机当前拍摄区域是否为所述摄像机的完整可视区域。
在一些实施例中,所述神经网络模型是根据不同标签以及所述不同标签所关联的多个特征矩阵训练得到的,所述不同标签所关联的多个特征矩阵为通过对带标签的帧图片进行目标检测,确定的与各带标签的帧图片对应的特征矩阵。
在一些实施例中,所述处理单元802,具体用于:
为所述至少一帧图片中的任一帧图片创建初始矩阵,所述初始矩阵包括与所述任一帧图片被划分的网格区域一一对应的特征数据,且各特征数据初始为第一取值;
对所述任一帧图片进行目标检测,识别到目标时确定目标在所述任一帧图片中所占的目标网格区域;
将所述初始矩阵中与所述目标网格区域对应的特征数据的第一取值替换为第二取值,得到所述任一帧图片对应的特征矩阵。
在一些实施例中,所述处理单元802,还用于:
为带标签的帧图片创建初始矩阵,所述初始矩阵包括与帧图片被划分的网格区域一一对应的特征数据,且各特征数据初始为第一取值;
对所述带标签的帧图片进行目标检测,识别到目标时确定目标在所述带标签的帧图片中所占的目标网格区域;
将所述初始矩阵中与所述目标网格区域对应的特征数据的第一取值替换为第二取值,得到所述带标签的帧图片对应的特征矩阵。
在一些实施例中,所述获取单元801,还用于获取带标签的帧图片;
所述获取单元801,具体用于:
采集带第一标签的视频流,并抽取部分带第一标签的第一帧图片,所述第一标签用于指示摄像机当前拍摄区域为所述摄像机的完整可视区域的标签;
从所述带第一标签的视频流中,抽取带第一标签的第二帧图片,将所述第二帧图片对应的特征矩阵中部分第二取值的特征数据的取值,替换为第一取值,并将所述第二帧图片的标签修改为第二标签;
采集带第二标签的视频流,并抽取带第二标签的第三帧图片。
在一些实施例中,所述获取单元801,还用于:
间隔设定时间间隔,从所述视频流中抽取帧图片,所述设定时间间隔为预设数量个帧图片对应的传输间隔。
在一些实施例中,所述处理单元802,还用于:
在任意两个特征矩阵中对应同一网格区域的特征数据相同时,将所述待检测特征矩阵中该网格区域对应的特征数据设置为相同的第一取值或第二取值;
在所述任意两个特征矩阵对应同一网格区域的特征数据不相同时,将所述待检测特征矩阵中该网格区域对应的特征数据设置为所述第二取值。
图9示出了本申请实施例提供的电子设备900结构示意图。本申请实施例中的电子设备900还可以包括通信接口903,该通信接口903例如是网口,电子设备可以通过该通信接口903传输数据,例如通信接口903可以实现上述图8中的获取单元801的部分功能。例如,通信接口903可以根据摄像机的RTSP地址获取摄像机拍摄的视频流。
在本申请实施例中,存储器902存储有可被至少一个控制器901执行的指令,至少一个控制器901通过执行存储器902存储的指令,可以用于执行上述方法中的各个步骤,例如,控制器901可以实现上述图8中的处理单元802的功能和获取单元801的部分功能。
其中,控制器901是电子设备的控制中心,可以利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器902内的指令以及调用存储在存储器902内的数据。可选的,控制器901可包括一个或多个处理单元,控制器901可集成应用控制器和调制解调控制器,其中,应用控制器主要处理操作系统和应用程序等,调制解调控制器主要处理无线通信。可以理解的是,上述调制解调控制器也可以不集成到控制器901中。在一些实施例中,控制器901和存储器902可以在同一芯片上实现,在一些实施例中,它们也可以在独立的芯片上分别实现。
控制器901可以是通用控制器,例如中央控制器(CPU)、数字信号控制器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本申请实施例中公开的各方法、步骤及逻辑框图。通用控制器可以是微控制器或者任何常规的控制器等。结合本申请实施例所公开的数据统计平台所执行的步骤可以直接由硬件控制器执行完成,或者用控制器中的硬件及软件模块组合执行完成。
存储器902作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器902可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(Random AccessMemory,RAM)、静态随机访问存储器(Static Random Access Memory,SRAM)、可编程只读存储器(Programmable Read Only Memory,PROM)、只读存储器(Read Only Memory,ROM)、带电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性存储器、磁盘、光盘等等。存储器902是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本申请实施例中的存储器902还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
通过对控制器901进行设计编程,例如,可以将前述实施例中介绍的神经网络模型的训练方法所对应的代码固化到芯片内,从而使芯片在运行时能够执行前述的神经网络模型训练方法的步骤,如何对控制器901进行设计编程为本领域技术人员所公知的技术,这里不再赘述。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其它可编程数据处理设备的控制器以产生一个机器,使得通过计算机或其它可编程数据处理设备的控制器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其它可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其它可编程数据处理设备上,使得在计算机或其它可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其它可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (10)

1.一种摄像机拍摄区域的检测方法,其特征在于,包括:
获取视频流;
对所述视频流中至少一帧图片进行目标检测,确定各图片对应的特征矩阵,所述特征矩阵包括表征图片中包括的目标及所述目标所在的区域的特征数据;
对所述各图片对应的特征矩阵的特征数据进行合并,确定待检测特征矩阵;
将所述待检测矩阵输入到预先训练好的神经网络模型中,得到与所述待检测特征矩阵所关联的标签,所述标签用于指示摄像机当前拍摄区域是否为所述摄像机的完整可视区域。
2.如权利要求1所述的方法,其特征在于,所述神经网络模型是根据不同标签以及所述不同标签所关联的多个特征矩阵训练得到的,所述不同标签所关联的多个特征矩阵为通过对带标签的帧图片进行目标检测,确定的与各带标签的帧图片对应的特征矩阵。
3.如权利要求1或2所述的方法,其特征在于,所述对所述视频流中至少一帧图片进行目标检测,确定各图片对应的特征矩阵,包括:
为所述至少一帧图片中的任一帧图片创建初始矩阵,所述初始矩阵包括与所述任一帧图片被划分的网格区域一一对应的特征数据,且各特征数据初始为第一取值;
对所述任一帧图片进行目标检测,识别到目标时确定目标在所述任一帧图片中所占的目标网格区域;
将所述初始矩阵中与所述目标网格区域对应的特征数据的第一取值替换为第二取值,得到所述任一帧图片对应的特征矩阵。
4.如权利要求2所述的方法,其特征在于,对带标签的帧图片进行目标检测,确定与各带标签的帧图片对应的特征矩阵的方式,包括:
为带标签的帧图片创建初始矩阵,所述初始矩阵包括与帧图片被划分的网格区域一一对应的特征数据,且各特征数据初始为第一取值;
对所述带标签的帧图片进行目标检测,识别到目标时确定目标在所述带标签的帧图片中所占的目标网格区域;
将所述初始矩阵中与所述目标网格区域对应的特征数据的第一取值替换为第二取值,得到所述带标签的帧图片对应的特征矩阵。
5.如权利要求4所述的方法,其特征在于,所述带标签的帧图片通过如下方式至少一个步骤获取:
采集带第一标签的视频流,并抽取部分带第一标签的第一帧图片,所述第一标签用于指示摄像机当前拍摄区域为所述摄像机的完整可视区域的标签;
从所述带第一标签的视频流中,抽取带第一标签的第二帧图片,将所述第二帧图片对应的特征矩阵中部分第二取值的特征数据的取值,替换为第一取值,并将所述第二帧图片的标签修改为第二标签;
采集带第二标签的视频流,并抽取带第二标签的第三帧图片。
6.如权利要求1所述的方法,其特征在于,在获取视频流之后,所述方法还包括:
间隔设定时间间隔,从所述视频流中抽取帧图片,所述设定时间间隔为预设数量个帧图片对应的传输间隔。
7.如权利要求3所述的方法,其特征在于,所述对所述各图片对应的特征矩阵的特征数据进行合并,确定待检测特征矩阵,包括:
若任意两个特征矩阵中对应同一网格区域的特征数据相同,则所述待检测特征矩阵中该网格区域对应的特征数据为相同的第一取值或第二取值;
若所述任意两个特征矩阵对应同一网格区域的特征数据不相同,则所述待检测特征矩阵中该网格区域对应的特征数据为所述第二取值。
8.一种摄像机拍摄区域的检测装置,其特征在于,包括:
获取单元,用于获取视频流;
处理单元,被配置为执行:
对所述视频流中至少一帧图片进行目标检测,确定各图片对应的特征矩阵,所述特征矩阵包括表征图片中包括的目标及所述目标所在的区域的特征数据;
对所述各图片对应的特征矩阵的特征数据进行合并,确定待检测特征矩阵;
将所述待检测矩阵输入到预先训练好的神经网络模型中,得到与所述待检测特征矩阵所关联的标签,所述标签用于指示摄像机当前拍摄区域是否为所述摄像机的完整可视区域。
9.一种电子设备,其特征在于,包括:
存储器以及处理器;
存储器,用于存储程序指令;
处理器,用于调用所述存储器中存储的程序指令,按照获得的程序执行权利要求1~7任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,当所述计算机指令在计算机上运行时,使得计算机执行权利要求1~7中任一项所述的方法。
CN202111631784.4A 2021-12-29 2021-12-29 一种摄像机拍摄区域的检测方法及装置 Pending CN114283384A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111631784.4A CN114283384A (zh) 2021-12-29 2021-12-29 一种摄像机拍摄区域的检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111631784.4A CN114283384A (zh) 2021-12-29 2021-12-29 一种摄像机拍摄区域的检测方法及装置

Publications (1)

Publication Number Publication Date
CN114283384A true CN114283384A (zh) 2022-04-05

Family

ID=80877417

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111631784.4A Pending CN114283384A (zh) 2021-12-29 2021-12-29 一种摄像机拍摄区域的检测方法及装置

Country Status (1)

Country Link
CN (1) CN114283384A (zh)

Similar Documents

Publication Publication Date Title
CN109166261B (zh) 基于图像识别的图像处理方法、装置、设备及存储介质
JP6425856B1 (ja) ビデオ録画方法、サーバー、システム及び記憶媒体
CN109740004B (zh) 一种归档方法及装置
US10515117B2 (en) Generating and reviewing motion metadata
CN107392932A (zh) 更新用于图像的背景减除的背景模型的方法和装置
CN109740003B (zh) 一种归档方法及装置
CN110659391A (zh) 一种视频侦查方法及装置
CN111160187B (zh) 一种遗留物体检测的方法、装置及系统
CN104680504A (zh) 场景变化检测方法及其装置
CN110114801B (zh) 图像前景检测装置及方法、电子设备
CN102740121A (zh) 应用于视频监控网络的视频质量诊断控制系统及方法
CN110619308A (zh) 一种过道杂物检测方法、装置、系统和设备
CN110659546A (zh) 一种违法摊位检测方法及装置
CN109800675A (zh) 一种确定人脸对象的识别图像的方法及装置
US11836935B2 (en) Method and apparatus for detecting motion deviation in a video
CN114926791A (zh) 一种路口车辆异常变道检测方法、装置、存储介质及电子设备
CN114139016A (zh) 一种智慧小区的数据处理方法及系统
CN113470013A (zh) 一种搬移物品的检测方法及装置
CN111192286A (zh) 一种图像合成方法、电子设备及存储介质
CN114283384A (zh) 一种摄像机拍摄区域的检测方法及装置
CN112053382A (zh) 出入口监测方法、设备及计算机可读存储介质
CN108073854A (zh) 一种现场巡检的检测方法及装置
CN110322391A (zh) 基于多线程的视频告警事件分析方法
CN116419059A (zh) 基于行为标签的自动监控方法、装置、设备及介质
CN110647858B (zh) 一种视频遮挡判断方法、装置和计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination