CN114359594A - 一种场景匹配方法、装置、电子设备和存储介质 - Google Patents

一种场景匹配方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN114359594A
CN114359594A CN202210261082.XA CN202210261082A CN114359594A CN 114359594 A CN114359594 A CN 114359594A CN 202210261082 A CN202210261082 A CN 202210261082A CN 114359594 A CN114359594 A CN 114359594A
Authority
CN
China
Prior art keywords
scene
image set
target
matching
scene matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210261082.XA
Other languages
English (en)
Other versions
CN114359594B (zh
Inventor
顾海军
金伟
应红力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Mirui Technology Co ltd
Original Assignee
Hangzhou Mirui Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Mirui Technology Co ltd filed Critical Hangzhou Mirui Technology Co ltd
Priority to CN202210261082.XA priority Critical patent/CN114359594B/zh
Publication of CN114359594A publication Critical patent/CN114359594A/zh
Application granted granted Critical
Publication of CN114359594B publication Critical patent/CN114359594B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本申请公开了一种场景匹配方法、装置、电子设备和存储介质,该方法包括:获取待检测的图像集合,对待检测的图像集合进行目标语义分割,得到特征图像集合;待检测的图像集合中的图像为不同摄像机拍摄得到;对特征图像集合中的各个特征图像之间进行场景匹配初步过滤,得到初步匹配结果;将初步匹配结果为匹配成功信息所对应的特征图像输入孪生网络,得到相似度结果;根据相似度结果,确定场景匹配结果。该方法在摄像机安装完成之后,无需人为判断,可智能化的判定摄像机是否处于同一场景,对摄像机设备安装要求较低、普适性强、方便操作,且具有较快的运行速度和较高的准确性。

Description

一种场景匹配方法、装置、电子设备和存储介质
技术领域
本申请涉及安防监控技术领域,特别涉及一种场景匹配方法、装置、电子设备和存储介质。
背景技术
监控设备已经广泛应用于日常生活中,为人身及住宅安全提供了有效保障。智能技术的快速发展,使得传统的家用监控设备具有了更多智能功能。为了有效保障安全,避免出现监控死角,往往会在不同的角度及位置,安装多个智能摄像机,通过多个智能摄像机的相互协作,监控预警家中情况,可有效防止或者减少各类行为分析中出现的误报或者漏报,例如家中老人、小孩摔倒的错误报警,人和动物的异常行为漏报,打砸家中物品漏报等。而多个摄像机之间协作的前提就是需要快速准确的判定是否在同一场景内。
相关技术中,通常的方法就是在安装过程中,人工确定各相机之间是否监控同一场景,安装完成之后,各相机间不能进行随意位置更换。这种方式的安装,一般需要安装工人(陌生人)现场安装,逐一比对确认,不仅费时费力,对家中安全也存在一定隐患。
发明内容
本申请的目的是提供一种场景匹配方法、装置、电子设备和存储介质,摄像机安装完成之后,无需人为判断,可智能化的判定摄像机是否处于同一场景,对摄像机设备安装要求较低、普适性强、方便操作,且具有较快的运行速度和较高的准确性。其具体方案如下:
第一方面,本申请公开了一种场景匹配方法,包括:
获取待检测的图像集合,对所述待检测的图像集合进行目标语义分割,得到特征图像集合;所述待检测的图像集合中的图像为不同摄像机拍摄得到;
对所述特征图像集合中的各个特征图像之间进行场景匹配初步过滤,得到初步匹配结果;
将所述初步匹配结果为匹配成功信息所对应的特征图像输入孪生网络,得到相似度结果;
根据所述相似度结果,确定场景匹配结果。
可选的,所述对所述特征图像集合中的各个特征图像之间进行场景匹配初步过滤,得到初步匹配结果,包括:
获取所述特征图像集合中各个特征图像的目标对象个数和目标对象的空间位置关系;
对所述特征图像集合中的各个特征图像之间进行目标对象类别比对,得到类别比对结果;
根据所述目标对象个数、所述目标对象的空间位置关系以及所述类别比对结果,确定所述初步匹配结果。
可选的,所述对所述待检测的图像集合进行目标语义分割,得到特征图像集合,包括:
利用DeepLabv3网络模型对所述待检测的图像集合进行目标语义分割,得到所述特征图像集合。
可选的,所述对所述待检测的图像集合进行目标语义分割,得到特征图像集合,包括:
利用含有类别标签的样本图像对初始语义分割模型进行训练,得到目标语义分割模型;
将所述待检测的图像集合输入所述目标语义分割模型进行语义分割,得到所述特征图像集合。
可选的,在所述确定场景匹配结果之后,还包括:
当所述场景匹配结果为属于同一场景时,获取属于同一场景的特征图像各自对应摄像机拍摄的含有动态目标的图像;
利用所述含有动态目标的图像,对属于同一场景的场景匹配结果进行场景匹配校验,以验证所述属于同一场景的场景匹配结果的可靠性。
可选的,所述利用所述含有动态目标的图像,对属于同一场景的场景匹配结果进行场景匹配校验,包括:
对所述含有动态目标的图像进行目标语义分割,得到动态目标特征图;
根据所述动态目标特征图中的动态目标信息,判定所述含有动态目标的图像中的动态目标是否相同;
若是,则所述属于同一场景的场景匹配结果校验通过;
若否,则所述属于同一场景的场景匹配结果校验未通过。
第二方面,本申请公开了一种场景匹配装置,包括:
获取模块,用于获取待检测的图像集合,对所述待检测的图像集合进行目标语义分割,得到特征图像集合;所述待检测的图像集合中的图像为不同摄像机拍摄得到;
过滤模块,用于对所述特征图像集合中的各个特征图像之间进行场景匹配初步过滤,得到初步匹配结果;
输入模块,用于将所述初步匹配结果为匹配成功信息所对应的特征图像输入孪生网络,得到相似度结果;
确定模块,用于根据所述相似度结果,确定场景匹配结果。
可选的,所述过滤模块,包括:
获取单元,用于获取所述特征图像集合中各个特征图像的目标对象个数和目标对象的空间位置关系;
类别比对单元,用于对所述特征图像集合中的各个特征图像之间进行目标对象类别比对,得到类别比对结果;
确定单元,用于根据所述目标对象个数、所述目标对象的空间位置关系以及所述类别比对结果,确定所述初步匹配结果。
第三方面,本申请公开了一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上述场景匹配方法的步骤。
第四方面,本申请公开了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述场景匹配方法的步骤。
本申请提供一种场景匹配方法,包括:获取待检测的图像集合,对所述待检测的图像集合进行目标语义分割,得到特征图像集合;所述待检测的图像集合中的图像为不同摄像机拍摄得到;对所述特征图像集合中的各个特征图像之间进行场景匹配初步过滤,得到初步匹配结果;将所述初步匹配结果为匹配成功信息所对应的特征图像输入孪生网络,得到相似度结果;根据所述相似度结果,确定场景匹配结果。
可见,本申请通过目标语义分割,并结合孪生网络进行相似度分析,确定场景匹配结果即判定摄像机是否处于同一场景,无需人工逐一比对确认,仅需一次完成摄像机的安装工作,即可智能化的判定摄像机是否处于同一场景,避免了相关技术中需要安装工人(陌生人)现场安装,逐一比对确认,费时费力,对家中安全也存在一定隐患的缺陷,本申请摄像机安装完成之后,无需人为判断,可智能化的判定摄像机是否处于同一场景,对摄像机设备安装要求较低、普适性强、方便操作,且具有较快的运行速度和较高的准确性。本申请同时还提供了一种场景匹配装置、一种电子设备和计算机可读存储介质,具有上述有益效果,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例所提供的一种场景匹配方法的流程图;
图2为本申请实施例所提供的一种摄像机安装位置示意图;
图3为本申请实施例所提供的一种具体实施例中利用DeepLabv3网络模型进行语义分割得到的特征图;
图4为本申请实施例所提供的一种孪生网络模型的网络框架示意图;
图5为本申请实施例所提供的一种基于语义分割的多相机场景匹配的流程示意图;
图6为本申请实施例提供的一种场景匹配装置的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
相关技术中为了确保多个摄像机监控同一房间即同一场景,需要在安装过程中,人工确定各相机之间是否监控同一场景,安装完成之后,各相机间不能进行随意位置更换。这种方式的安装,一般需要安装工人(陌生人)现场安装,逐一比对确认,不仅费时费力,对家中安全也存在一定隐患。基于上述技术问题,本实施例提供一种场景匹配方法,可智能化的判定摄像机是否处于同一场景,对摄像机设备安装要求较低、普适性强、方便操作,且具有较快的运行速度和较高的准确性,具体请参考图1,图1为本申请实施例所提供的一种场景匹配方法的流程图,具体包括:
S101、获取待检测的图像集合,对待检测的图像集合进行目标语义分割,得到特征图像集合;待检测的图像集合中的图像为不同摄像机拍摄得到。
可以理解的是,本申请实施例是对摄像机是否在同一场景的判断,因此,本实施例中待检测的图像集合为不同摄像机拍摄得到,通过对图像是否在同一场景的判断进而得到摄像机是否在同一场景下。还可以理解的是,语义分割的含义为输入图像,并对图像中的每个像素做分类,而目标语义分割是仅对人工标注好的目标进行语义分割。本实施例并不限定进行目标语义分割的具体对象/类别,可以包含人、墙、窗户、床、椅子、桌子、柜子、电视、空调、洗衣机、灯及其它常见家具和家电等,可根据实际情况进行设定。还可以理解的是,为得到可靠的目标语义分割模型,需要准备充足的数据。但是目前开源的室内场景样本较少,无法满足训练要求,因此需要自主采集相关样本。在一种具体的实施例中,为监控更广的范围,同时避免安装出现极端情况(水平拍摄墙面,或者同一场景下,两个摄像机拍摄交集太小等),家用室内监控摄像机一般安装在房顶斜向下(水平向下30度-60度范围内)或者垂直向下,因此,本次数据采集过程中,主要收集从房顶斜向下且在规定角度范围内的4个方向和垂直向下的1个方向的样本数据,图2为本实施例中提供的一种摄像机安装位置示意图,其中正方体表示一个房间,c1、c2、c3、c4分别表示4个斜向下角度的相机安装位置,c5表示垂直向下的相机安装位置,箭头表示视角方向。此图中相机安装位置及斜视角度只作为示例,实际安装过程中,除了c5需要垂直向下,其余几个只需保证摄像机斜视即可。
本实施例并不限定待检测的图像集合的图像个数,根据判定摄像机的个数而定,可以是2个,可以是5个。可以理解的是,本实施例中得到的特征图像集合中的特征图像包含有不同的类别即代表不同的对象种类。
本实施例并不限定进行目标语义分割的具体算法,可以是DeepLabv3网络模型(深度卷积神经网络的一种),还可以是其他算法。在这一种具体的实施例中,对待检测的图像集合进行目标语义分割,得到特征图像集合,可以包括:
利用DeepLabv3网络模型对待检测的图像集合进行目标语义分割,得到特征图像集合。
可以理解的是,目前的语义分割方法中,DeepLabv3网络模型性能相对较好。本实施例采用DeepLabv3网络模型来对待检测的图像集合进行目标语义分割,相比较于DeepLabv1、DeepLabv2网络模型进行目标语义分割,能够取得良好的效果。本实施例中利用DeepLabv3网络模型对待检测的图像集合进行目标语义分割,利用多个不同采样率的空洞卷积提取特征并融合,结合全局平均池化,有效地捕获了全局语义信息。图3为本实施例中提供的一种具体实施例中利用DeepLabv3网络模型进行语义分割得到的特征图。其中类别0表示背景,类别1,类别2,类别3,类别4分别表示不同的目标类别。同一类别的像素灰度值均相等。
可以理解的是,本实施例中进行目标语义分割的模型是预先训练好的,即是利用标注好的标签的样本图像对初始的语义分割模型进行训练得到。在这一种具体的实施例中,对待检测的图像集合进行目标语义分割,得到特征图像集合,可以包括:
利用含有类别标签的样本图像对初始语义分割模型进行训练,得到目标语义分割模型;
将待检测的图像集合输入目标语义分割模型进行语义分割,得到特征图像集合。
可以理解的是,本实施例中的类别标签是利用标注工具对不同摄像机拍摄的图像进行语义标注生成的,标注内容为目标/对象的整个轮廓范围;其中,类别标签代表图像中包含对象的类别,不同种类的对象具有不同的类别标签,类别标签可从1依次往上增加,每个类别对应一个数字标签。本实施例通过利用含有类别标签的样本图像对初始语义分割模型进行训练,得到目标语义分割模型后,再将待检测的图像集合输入目标语义分割模型进行语义分割,得到特征图像集合。
S102、对特征图像集合中的各个特征图像之间进行场景匹配初步过滤,得到初步匹配结果。
在得到特征图像集合后,本实施例对特征图像集合中的各个特征图像进行场景匹配初步过滤,也就是对两两特征图像之间进行场景匹配初步过滤,本实施例并不限定对各个特征图像之间进行场景匹配初步过滤的具体方式,可以是对两两特征图像所包含的目标对象类别的比对,如特征图像A中包含目标对象类别有类别1,类别2,类别3;特征图像B中包含目标对象类别有类别1,类别2,类别4;还可以是对两两特征图像所包含的目标对象个数的比对,例如,特征图像C中包含目标对象个数为3个,而特征图像D中包含目标对象个数有5个;还可以是对目标对象的空间位置关系的比对,例如,特征图像E中桌子旁边有一个椅子,而特征图像F中桌子旁边没有椅子。
在一种具体的实施例中,对特征图像集合中的各个特征图像之间进行场景匹配初步过滤,得到初步匹配结果,可以包括:
获取特征图像集合中各个特征图像的目标对象个数和目标对象的空间位置关系;
对特征图像集合中的各个特征图像之间进行目标对象类别比对,得到类别比对结果;
根据目标对象个数、目标对象的空间位置关系以及类别比对结果,确定初步匹配结果。
即本实施例中场景初步过滤是通过对目标对象个数、目标对象的空间位置关系以及类别比对结果这三者结合进行比对,来确定得到初步匹配结果。本实施例并不限定根据目标对象个数、目标对象的空间位置关系以及类别比对结果进行场景匹配的顺序,可按照目标对象个数、目标对象的空间位置关系、类别比对结果的顺序进行场景匹配,还可按照目标对象的空间位置关系、类别比对结果、目标对象个数的顺序进行场景匹配,还可以是其他顺序。
还可以理解的是,本实施例并不限定若初步匹配结果为匹配不成功时,以上三个比对项目所对应的比对结果,可以是只要类别比对结果中类别数之差大于预设阈值,就可判定匹配不成功;还可以是目标对象的空间位置关系存在差异,就判定为匹配不成功;还可以是目标对象个数不相同,就可判定为匹配不成功;还可以是满足其中的任意两个或三个时,判定为匹配不成功。例如,在实际场景下,室内房间中一般都存在多种家具及家电,且不同房间内,家具及家电的数目、种类、摆放位置都存在一定差异。因此,对不同摄像机下的多幅图像同时进行语义分割,通过排列组合的方式,任意选取两幅分割图即特征图像之间进行比较,例如有5个摄像机,则选取比较的次数为4+3+2+1=10次。若选择的两幅分割图中不存在相同类别,或者两者分割得到的类别数之差大于设置阈值时,则可判定这两幅图不在同一场景。否则,进入下一步特征图像的相似度判断,即初步匹配结果为匹配成功时,可初步判定在一个场景,需进一步进行场景判定。
S103、将初步匹配结果为匹配成功信息所对应的特征图像输入孪生网络,得到相似度结果。
可以理解的是,孪生网络主要用来衡量两个输入的相似程度。本实施例将初步匹配结果为匹配成功信息的所对应的特征图像输入到孪生网络,得到相似度结果。还可以理解的是,本实施例中的孪生网络是将目标语义分割之后带有标签信息的特征图,结合标注时给的信息(是否为同一场景),也就是类别标签和环境标签进行训练,获取得到的孪生网络模型;其中,环境标签用来判断不同图像是否在同一环境,若多个角度得到的图像为同一场景时,同时给这几幅图像相同的标签,例如给这些图标签都为ID1,下一个场景的多个样本则给出标签ID2,以此类推。图4为本实施例提供的一种孪生网络模型的网络框架示意图。其中,分支网络中的卷积层、池化层是用来进行特征提取的,全连接层和损失函数即对应交叉熵计算损失是用来特征分类的。
S104、根据相似度结果,确定场景匹配结果。
本实施例中在得到相似度结果后,即可根据相似度结果确定场景匹配结果,即属于同一场景或不属于同一场景。例如,当相似度结果为1时,代表输入的两特征图像属于同一场景,当相似度结果为0时,代表输入的两特征图像不属于同一场景。
可以理解的是,对于内部环境极为相似的不同房间,如家具家电的数量、种类、摆放位置均相似时,孪生网络会出现误判,认为是同一环境,此时,需要增加对该情况下的一个结果校验。单凭室内静态物体,即使是人,都无法准确判断结果,因此需要进一步进行校验。在一种具体的实施例中,为了验证场景匹配结果的可靠性,在确定场景匹配结果之后,还可以包括:
当场景匹配结果为属于同一场景时,获取属于同一场景的特征图像各自对应摄像机拍摄的含有动态目标的图像;
利用含有动态目标的图像,对属于同一场景的场景匹配结果进行场景匹配校验,以验证属于同一场景的场景匹配结果的可靠性。
本实施例中对属于同一场景的特征图像进一步校验,通过获取该属于同一场景下的摄像机拍摄的含有动态目标的图像,利用拍摄的含有动态目标的图像,对场景匹配结果进行校验,以验证结果可靠性。例如,若判断出拍摄的图像中该动态目标是同一物体,那么说明是属于同一环境/场景,校验通过;否则,说明不属于同一场景,校验未通过。
在一种具体的实施例中,利用含有动态目标的图像,对属于同一场景的场景匹配结果进行场景匹配校验,可以包括:
对含有动态目标的图像进行目标语义分割,得到动态目标特征图;
根据动态目标特征图中的动态目标信息,判定含有动态目标的图像中的动态目标是否相同;
若是,则属于同一场景的场景匹配结果校验通过;
若否,则属于同一场景的场景匹配结果校验未通过。
本实施例通过对含有动态目标的图像进行目标语义分割,得到动态目标特征图,然后根据动态目标特征图中的动态目标信息,来判定含有动态目标的图像中的动态目标是否相同。本实施例并不限定动态目标信息的具体内容,可以包括动态目标的类别,并结合动态目标本身颜色特征,动态目标的运动速度、方向等。若动态目标相同,那么说明属于同一场景,属于同一场景的场景匹配结果校验通过;若动态目标不相同,那么说明不属于同一场景,属于同一场景的场景匹配结果校验未通过。
基于上述技术方案,本实施例通过目标语义分割,并结合孪生网络进行相似度分析,确定场景匹配结果即判定摄像机是否处于同一场景,无需人工逐一比对确认,仅需一次完成摄像机的安装工作,即可智能化的判定摄像机是否处于同一场景,对摄像机设备安装要求较低、普适性强、方便操作,且具有较快的运行速度和较高的准确性。
以下提供一种基于语义分割的多相机场景匹配的具体实施例。首先对不同摄像机获取的图像,使用深度卷积神经网络进行目标语义分割,获取对应的特征图(或特征图像)。然后采用排列组合的方式,依次选取两幅特征图进行比较,根据特征图中目标对象个数、目标对象类别等信息,得到场景是否匹配的初步判断结果即初步匹配结果。若无法判断,接着再将这两幅特征图分别送入孪生网络中,进行相似度计算,根据计算结果,判断是否匹配。在特殊场景下(如房间环境一模一样时),相似度判断会出现误判,最后通过增加场景校验环节,以减少误判。步骤如下,图5为本实施例提供的一种基于语义分割的多相机场景匹配的流程示意图:
1、获取不同摄像机下的实时图像,使用深度卷积网络进行目标语义分割;
2、随机选取两张目标语义分割得到的特征图,进行场景匹配初步过滤,若满足匹配要求即初步匹配结果为匹配成功,则到步骤3,不匹配则到步骤5;
3、将步骤2中的两张特征图分别送入孪生网络,计算两者的相似度,若根据相似度结果判定为匹配,则到步骤4,否则到步骤5;
4、根据运动目标即动态目标的目标类别、自身颜色、运动速度、方向等信息进行匹配结果校正。
5、输出匹配结果。
基于上述实施例,通过基于深度学习的目标语义分割技术,利用卷积神经网络自动学习图像的特征,进行端到端的分类学习,大大提升语义分割的精确度。如果使用不同角度的样本进行深度卷积神经网络训练,训练后的模型就可以获取不同角度图像中丰富的语义信息,这些语义信息除了包含目标类别、个数等常见特征,还包括各物体之间的空间位置关系,可用来进行场景匹配。
基于上述技术方案,本申请通过基于深度卷积神经网络进行语义分割,并结合孪生网络进行图像相似度分析,只需要在安装完摄像机之后,进行一次自动匹配即可,对设备安装角度要求较低、普适性强、方便操作,具有较快的运行速度和较高的准确性。
下面对本申请实施例提供的一种场景匹配装置进行介绍,下文描述的场景匹配装置与上文描述的场景匹配方法可相互对应参照,相关模块均设置于中,参考图6,图6为本申请实施例所提供的一种场景匹配装置的结构示意图,包括:
在一些具体的实施例中,具体包括:
获取模块601,用于获取待检测的图像集合,对待检测的图像集合进行目标语义分割,得到特征图像集合;待检测的图像集合中的图像为不同摄像机拍摄得到;
过滤模块602,用于对特征图像集合中的各个特征图像之间进行场景匹配初步过滤,得到初步匹配结果;
输入模块603,用于将初步匹配结果为匹配成功信息所对应的特征图像输入孪生网络,得到相似度结果;
确定模块604,用于根据相似度结果,确定场景匹配结果。
在一些具体的实施例中,过滤模块602,包括:
获取单元,用于获取特征图像集合中各个特征图像的目标对象个数和目标对象的空间位置关系;
类别比对单元,用于对特征图像集合中的各个特征图像之间进行目标对象类别比对,得到类别比对结果;
确定单元,用于根据目标对象个数、目标对象的空间位置关系以及类别比对结果,确定初步匹配结果。
在一些具体的实施例中,获取模块601,包括:
第一语义分割单元,用于利用DeepLabv3网络模型对待检测的图像集合进行目标语义分割,得到特征图像集合。
在一些具体的实施例中,获取模块601,包括:
训练单元,用于利用含有类别标签的样本图像对初始语义分割模型进行训练,得到目标语义分割模型;
第二语义分割单元,用于将待检测的图像集合输入目标语义分割模型进行语义分割,得到特征图像集合。
在一些具体的实施例中,还包括:
动态目标图像获取模块,用于当场景匹配结果为属于同一场景时,获取属于同一场景的特征图像各自对应摄像机拍摄的含有动态目标的图像;
校验模块,用于利用含有动态目标的图像,对属于同一场景的场景匹配结果进行场景匹配校验,以验证属于同一场景的场景匹配结果的可靠性。
在一些具体的实施例中,校验模块,包括:
第三语义分割单元,用于对含有动态目标的图像进行目标语义分割,得到动态目标特征图;
判定单元,用于根据动态目标特征图中的动态目标信息,判定含有动态目标的图像中的动态目标是否相同;
第一判定结果单元,用于若是,则属于同一场景的场景匹配结果校验通过;
第二判定结果单元,用于若否,则属于同一场景的场景匹配结果校验未通过。
由于场景匹配装置部分的实施例与场景匹配方法部分的实施例相互对应,因此场景匹配装置部分的实施例请参见场景匹配方法部分的实施例的描述,这里暂不赘述。
下面对本申请实施例提供的一种电子设备进行介绍,下文描述的电子设备与上文描述的场景匹配方法可相互对应参照。
本申请还公开一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行计算机程序时实现如上述场景匹配方法的步骤。
由于电子设备部分的实施例与场景匹配方法部分的实施例相互对应,因此电子设备部分的实施例请参见场景匹配方法部分的实施例的描述,这里暂不赘述。
下面对本申请实施例提供的一种计算机可读存储介质进行介绍,下文描述的计算机可读存储介质与上文描述的场景匹配方法可相互对应参照。
本申请还公开一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现如上述场景匹配方法的步骤。
由于计算机可读存储介质部分的实施例与场景匹配方法部分的实施例相互对应,因此计算机可读存储介质部分的实施例请参见场景匹配方法部分的实施例的描述,这里暂不赘述。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本申请所提供的一种场景匹配方法、装置、电子设备及计算机可读存储介质进行了详细介绍。本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。

Claims (10)

1.一种场景匹配方法,其特征在于,包括:
获取待检测的图像集合,对所述待检测的图像集合进行目标语义分割,得到特征图像集合;所述待检测的图像集合中的图像为不同摄像机拍摄得到;
对所述特征图像集合中的各个特征图像之间进行场景匹配初步过滤,得到初步匹配结果;
将所述初步匹配结果为匹配成功信息所对应的特征图像输入孪生网络,得到相似度结果;
根据所述相似度结果,确定场景匹配结果。
2.根据权利要求1所述的场景匹配方法,其特征在于,所述对所述特征图像集合中的各个特征图像之间进行场景匹配初步过滤,得到初步匹配结果,包括:
获取所述特征图像集合中各个特征图像的目标对象个数和目标对象的空间位置关系;
对所述特征图像集合中的各个特征图像之间进行目标对象类别比对,得到类别比对结果;
根据所述目标对象个数、所述目标对象的空间位置关系以及所述类别比对结果,确定所述初步匹配结果。
3.根据权利要求1所述的场景匹配方法,其特征在于,所述对所述待检测的图像集合进行目标语义分割,得到特征图像集合,包括:
利用DeepLabv3网络模型对所述待检测的图像集合进行目标语义分割,得到所述特征图像集合。
4.根据权利要求1所述的场景匹配方法,其特征在于,所述对所述待检测的图像集合进行目标语义分割,得到特征图像集合,包括:
利用含有类别标签的样本图像对初始语义分割模型进行训练,得到目标语义分割模型;
将所述待检测的图像集合输入所述目标语义分割模型进行语义分割,得到所述特征图像集合。
5.根据权利要求1至4任一项所述的场景匹配方法,其特征在于,在所述确定场景匹配结果之后,还包括:
当所述场景匹配结果为属于同一场景时,获取属于同一场景的特征图像各自对应摄像机拍摄的含有动态目标的图像;
利用所述含有动态目标的图像,对属于同一场景的场景匹配结果进行场景匹配校验,以验证所述属于同一场景的场景匹配结果的可靠性。
6.根据权利要求5所述的场景匹配方法,其特征在于,所述利用所述含有动态目标的图像,对属于同一场景的场景匹配结果进行场景匹配校验,包括:
对所述含有动态目标的图像进行目标语义分割,得到动态目标特征图;
根据所述动态目标特征图中的动态目标信息,判定所述含有动态目标的图像中的动态目标是否相同;
若是,则所述属于同一场景的场景匹配结果校验通过;
若否,则所述属于同一场景的场景匹配结果校验未通过。
7.一种场景匹配装置,其特征在于,包括:
获取模块,用于获取待检测的图像集合,对所述待检测的图像集合进行目标语义分割,得到特征图像集合;所述待检测的图像集合中的图像为不同摄像机拍摄得到;
过滤模块,用于对所述特征图像集合中的各个特征图像之间进行场景匹配初步过滤,得到初步匹配结果;
输入模块,用于将所述初步匹配结果为匹配成功信息所对应的特征图像输入孪生网络,得到相似度结果;
确定模块,用于根据所述相似度结果,确定场景匹配结果。
8.根据权利要求7所述的场景匹配装置,其特征在于,所述过滤模块,包括:
获取单元,用于获取所述特征图像集合中各个特征图像的目标对象个数和目标对象的空间位置关系;
类别比对单元,用于对所述特征图像集合中的各个特征图像之间进行目标对象类别比对,得到类别比对结果;
确定单元,用于根据所述目标对象个数、所述目标对象的空间位置关系以及所述类别比对结果,确定所述初步匹配结果。
9.一种电子设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至6任一项所述场景匹配方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述场景匹配方法的步骤。
CN202210261082.XA 2022-03-17 2022-03-17 一种场景匹配方法、装置、电子设备和存储介质 Active CN114359594B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210261082.XA CN114359594B (zh) 2022-03-17 2022-03-17 一种场景匹配方法、装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210261082.XA CN114359594B (zh) 2022-03-17 2022-03-17 一种场景匹配方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN114359594A true CN114359594A (zh) 2022-04-15
CN114359594B CN114359594B (zh) 2022-08-19

Family

ID=81094710

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210261082.XA Active CN114359594B (zh) 2022-03-17 2022-03-17 一种场景匹配方法、装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN114359594B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114792368A (zh) * 2022-04-28 2022-07-26 上海兴容信息技术有限公司 一种智能判断门店合规的方法和系统
CN115474084A (zh) * 2022-08-10 2022-12-13 北京奇艺世纪科技有限公司 一种视频封面图像的生成方法、装置、设备和存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101751677A (zh) * 2008-12-17 2010-06-23 中国科学院自动化研究所 基于多摄像机的目标连续跟踪方法
US20130259323A1 (en) * 2012-03-27 2013-10-03 Kevin Keqiang Deng Scene-based people metering for audience measurement
CN104809720A (zh) * 2015-04-08 2015-07-29 西北工业大学 基于小交叉视场的两相机目标关联方法
CN111612043A (zh) * 2020-04-27 2020-09-01 腾讯科技(深圳)有限公司 道路场景匹配方法、装置及存储介质
CN111696118A (zh) * 2020-05-25 2020-09-22 东南大学 动态场景下基于语义分割与图像修复的视觉回环检测方法
CN112966697A (zh) * 2021-03-17 2021-06-15 西安电子科技大学广州研究院 基于场景语义的目标检测方法、装置、设备及存储介质
CN112990234A (zh) * 2021-04-28 2021-06-18 广东西尼科技有限公司 基于改进孪生网络检测超分辨率小样本数据的方法
CN113112480A (zh) * 2021-04-16 2021-07-13 北京文安智能技术股份有限公司 视频场景变换检测方法、存储介质和电子设备
CN113762280A (zh) * 2021-04-23 2021-12-07 腾讯科技(深圳)有限公司 一种图像类别识别方法、装置及介质
CN113822427A (zh) * 2021-07-29 2021-12-21 腾讯科技(深圳)有限公司 一种模型训练的方法、图像匹配的方法、装置及存储介质
CN113920516A (zh) * 2021-12-08 2022-01-11 南京信息工程大学 一种基于孪生神经网络的书法字骨架匹配方法及系统
US20220058429A1 (en) * 2020-08-24 2022-02-24 Changqing ZOU Method for fine-grained sketch-based scene image retrieval

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101751677A (zh) * 2008-12-17 2010-06-23 中国科学院自动化研究所 基于多摄像机的目标连续跟踪方法
US20130259323A1 (en) * 2012-03-27 2013-10-03 Kevin Keqiang Deng Scene-based people metering for audience measurement
CN104809720A (zh) * 2015-04-08 2015-07-29 西北工业大学 基于小交叉视场的两相机目标关联方法
CN111612043A (zh) * 2020-04-27 2020-09-01 腾讯科技(深圳)有限公司 道路场景匹配方法、装置及存储介质
CN111696118A (zh) * 2020-05-25 2020-09-22 东南大学 动态场景下基于语义分割与图像修复的视觉回环检测方法
US20220058429A1 (en) * 2020-08-24 2022-02-24 Changqing ZOU Method for fine-grained sketch-based scene image retrieval
CN112966697A (zh) * 2021-03-17 2021-06-15 西安电子科技大学广州研究院 基于场景语义的目标检测方法、装置、设备及存储介质
CN113112480A (zh) * 2021-04-16 2021-07-13 北京文安智能技术股份有限公司 视频场景变换检测方法、存储介质和电子设备
CN113762280A (zh) * 2021-04-23 2021-12-07 腾讯科技(深圳)有限公司 一种图像类别识别方法、装置及介质
CN112990234A (zh) * 2021-04-28 2021-06-18 广东西尼科技有限公司 基于改进孪生网络检测超分辨率小样本数据的方法
CN113822427A (zh) * 2021-07-29 2021-12-21 腾讯科技(深圳)有限公司 一种模型训练的方法、图像匹配的方法、装置及存储介质
CN113920516A (zh) * 2021-12-08 2022-01-11 南京信息工程大学 一种基于孪生神经网络的书法字骨架匹配方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LUO SHENG ET.AL: "Matching images based on consistency graph and region adjacency graphs", 《SIGNAL IMAGE AND VIDEO PROCESSING》 *
陆蓉蓉: "基于深度学习的智能视频监控中的关键技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114792368A (zh) * 2022-04-28 2022-07-26 上海兴容信息技术有限公司 一种智能判断门店合规的方法和系统
CN115474084A (zh) * 2022-08-10 2022-12-13 北京奇艺世纪科技有限公司 一种视频封面图像的生成方法、装置、设备和存储介质
CN115474084B (zh) * 2022-08-10 2023-10-31 北京奇艺世纪科技有限公司 一种视频封面图像的生成方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN114359594B (zh) 2022-08-19

Similar Documents

Publication Publication Date Title
CN114359594B (zh) 一种场景匹配方法、装置、电子设备和存储介质
CN104303193B (zh) 基于聚类的目标分类
CN111626188B (zh) 一种室内不可控明火监测方法及系统
CN109815904B (zh) 一种基于卷积神经网络的火灾识别方法
CN111161206A (zh) 一种图像抓拍方法、监控相机及监控系统
CN111222478A (zh) 一种工地安全防护检测方法和系统
CN109842787A (zh) 一种监测高空抛物的方法及系统
CN110674790A (zh) 一种视频监控中异常场景处理方法及系统
CN110942450A (zh) 一种基于深度学习的多生产流水线实时缺陷检测方法
CN111446920A (zh) 光伏电站监控方法、装置及系统
CN112001327A (zh) 一种阀厅设备故障识别方法及系统
CN112686186A (zh) 一种基于深度学习的高空抛物识别方法及其相关组件
CN114926781A (zh) 支持实时监控场景的多人时空域异常行为定位方法及系统
CN114120171A (zh) 基于视频帧的火灾烟雾检测方法、装置、设备及存储介质
CN112381054A (zh) 摄像机的工作状态检测方法及相关设备、系统
CN106781167B (zh) 监测物体运动状态的方法及设备
US8311345B2 (en) Method and system for detecting flame
CN111382720A (zh) 基于顶视单目摄像机的人员数量的实时统计方法及装置
CN111144465A (zh) 一种面向多场景的烟雾检测算法及应用该算法的电子设备
CN112633157B (zh) 一种agv工作区域安全性的实时检测方法及系统
CN110895663A (zh) 一种两轮车识别方法、装置、电子设备及监控系统
CN112991665A (zh) 烟雾探测方法、烟雾探测装置以及烟雾探测系统
CN110798618B (zh) 一种动态追踪中的摄像头资源调度方法及装置
CN113312981B (zh) 机房鼠类图像识别方法、系统和存储介质
CN114037937A (zh) 一种基于多目标追踪的实时冰箱食材识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant