CN113139428A - 目标识别方法、边缘设备、边防监控系统及可读存储介质 - Google Patents
目标识别方法、边缘设备、边防监控系统及可读存储介质 Download PDFInfo
- Publication number
- CN113139428A CN113139428A CN202110279451.3A CN202110279451A CN113139428A CN 113139428 A CN113139428 A CN 113139428A CN 202110279451 A CN202110279451 A CN 202110279451A CN 113139428 A CN113139428 A CN 113139428A
- Authority
- CN
- China
- Prior art keywords
- target
- video frame
- target identification
- identification result
- radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000007123 defense Effects 0.000 title claims abstract description 39
- 238000012544 monitoring process Methods 0.000 title claims abstract description 30
- 230000004927 fusion Effects 0.000 claims abstract description 60
- 238000007499 fusion processing Methods 0.000 claims abstract description 10
- 230000002159 abnormal effect Effects 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 19
- 238000004891 communication Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000005693 optoelectronics Effects 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000005622 photoelectricity Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请适用于计算机技术领域,提供了一种目标识别方法、边缘设备、边防监控系统及可读存储介质,该方法包括:获取边防监控视频的第一视频帧,以及与第一视频帧对应的雷达目标识别结果;对第一视频帧进行目标识别,得到第一视频帧的目标识别结果,目标识别结果包括目标的类别信息;将目标识别结果与雷达目标识别结果进行融合处理,得到融合目标识别结果。该方法中,通过对目标识别结果与雷达目标识别结果进行融合处理,相比单靠雷达设备的目标识别结果,大大提高了对跟踪目标的识别结果的准确性,进而可以减少光电设备的无效跟踪,提高了监控效率。
Description
技术领域
本申请属于计算机技术领域,尤其涉及一种目标识别方法、边缘设备、边防监控系统及可读存储介质。
背景技术
我国国土幅员辽阔、边防线漫长,边防线的安全与否直接关系到我国的国土安全。近年来,我国边防线的安全形势更为严峻,危害国土安全的事件时有发生,因此,提高对边防线的监控能力,对维护国土安全、国家安全和经济建设具有十分重要的意义。
传统的边防监控多以雷达引导光电的方式进行,采用雷达目标识别技术发现目标后,引导光电设备对目标进行跟踪监控。
但是,传统技术中单靠雷达目标识别技术进行目标识别的准确性不高,导致雷达引导光电后可能会对无效目标进行跟踪,监控效率不高。
发明内容
本申请提供了一种目标识别方法、边缘设备、边防监控系统及可读存储介质,可以提高边防监控过程中目标识别的准确性,进而提高监控效率。
第一方面,本申请提供了一种目标识别方法,应用于边缘设备,该方法包括:
获取边防监控视频的第一视频帧,以及与第一视频帧对应的雷达目标识别结果;
对第一视频帧进行目标识别,得到第一视频帧的目标识别结果,目标识别结果包括目标的类别信息;
将目标识别结果与雷达目标识别结果进行融合处理,得到融合目标识别结果。
上述目标识别方法,边缘设备通过对目标识别结果与雷达目标识别结果进行融合处理,相比单靠雷达设备的目标识别结果,大大提高了对跟踪目标的识别结果的准确性,进而可以减少光电设备的无效跟踪,提高了监控效率。另外,上述目标识别过程由边缘设备完成,还可节省后台计算资源,有效减少数据传输带宽。
在第一方面的一种可能的实现方式中,上述对第一视频帧进行目标识别,得到第一视频帧的目标识别结果,包括:
对第一视频帧进行目标识别,得到第一视频帧的至少一个候选目标识别结果;
从候选目标识别结果中选取目标识别结果;其中,目标识别结果对应的目标为第一视频帧所包括的目标中,距离第一视频帧的中心位置最近的目标。
在第一方面的一种可能的实现方式中,上述目标的类别信息包括目标属于不同分类类别的概率。
在第一方面的一种可能的实现方式中,上述将目标识别结果与雷达目标识别结果进行融合处理,得到融合目标识别结果,包括:
将目标识别结果中目标属于不同分类类别的概率、与雷达目标识别结果中目标属于不同分类类别的概率进行加权求和,得到融合目标识别结果。
在第一方面的一种可能的实现方式中,上述方法还包括:
接收上位机发送的数据请求指令,数据请求指令用于指示边缘设备向上位机发送融合目标识别结果;
响应于数据请求指令,根据预设的配置文件,将融合目标识别结果发送至上位机。
在第一方面的一种可能的实现方式中,上述根据预设的配置文件,将融合目标识别结果发送至上位机,包括:
若配置文件中未包括异常目标类型,将融合目标识别结果发送至上位机;
若配置文件中包括异常目标类型、且异常目标类型与目标的类别信息匹配,将融合目标识别结果发送至上位机;
若配置文件中包括异常目标类型、且异常目标类型与目标的类别信息不匹配,将预设的标记信息发送至上位机。
在第一方面的一种可能的实现方式中,上述方法还包括:
将融合目标识别结果叠加至第一视频帧,得到第二视频帧;
将第二视频帧发送至上位机,以使上位机将第二视频帧进行展示。
第二方面,本申请提供了一种目标识别装置,包括:
获取模块,用于获取边防监控视频的第一视频帧,以及与第一视频帧对应的雷达目标识别结果;
目标识别模块,用于对第一视频帧进行目标识别,得到第一视频帧的目标识别结果,目标识别结果包括目标的类别信息;
融合模块,用于将目标识别结果与雷达目标识别结果进行融合处理,得到融合目标识别结果。
第三方面,本申请提供了一种边缘设备,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面中任一项所述的目标识别方法。
第四方面,本申请提供了一种边防监控系统,包括:边缘设备、雷达设备、光电设备和上位机,雷达设备、光电设备、上位机分别与边缘设备通信连接;
光电设备用于采集边防监控视频,雷达设备用于对采集的雷达数据进行识别得到雷达目标识别结果;
边缘设备用于从光电设备获取边防监控视频的第一视频帧,对第一视频帧进行目标识别,得到第一视频帧的目标识别结果,以及从雷达设备获取与第一视频帧对应的雷达目标识别结果,将目标识别结果与雷达目标识别结果进行融合处理,得到融合目标识别结果;
上位机用于从边缘设备获取融合目标识别结果,并根据融合目标识别结果确定光电设备是否继续对目标进行跟踪。
第五方面,本申请提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面中任一项所述的目标识别方法。
第六方面,本申请提供了一种计算机程序产品,当计算机程序产品在边缘设备上运行时,使得边缘设备执行上述第一方面中任一项所述的目标识别方法。
可以理解的是,上述第二方面至第六方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的边防监控系统示意图;
图2是本申请一实施例提供的目标识别方法的流程示意图;
图3是本申请另一实施例提供的目标识别方法的流程示意图;
图4是本申请又一实施例提供的目标识别方法的流程示意图;
图5是本申请一实施例提供的第二视频帧的展示示意图;
图6是本申请又一实施例提供的目标识别方法的流程示意图;
图7是本申请一实施例提供的目标识别装置的结构示意图;
图8是本申请一实施例提供的边缘设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
通常,在边防监控场景中,传统技术多采用雷达引导光电的方式,当雷达设备发现目标后将目标信息传送至光电设备,则光电设备根据接收到的目标信息进行跟踪监控,也即是说,光电设备所跟踪的目标依赖于雷达设备的识别结果。其中,雷达设备多采用雷达目标识别技术,利用雷达回波中的幅度、相位、频谱和极化等目标特征信息,通过数学上的各种多维空间变换来估算目标的大小、形状、重量和表面层的物理特性参数,最后根据大量的训练样本所确定的鉴别函数,由分类器进行目标识别确定目标类型(如人物、车辆等)。然而,由于边防场景较为复杂,单靠雷达设备进行目标识别的效果欠佳,所得到的目标识别结果准确性不高,雷达设备所发现的目标有可能并不属于威胁对象,比如其不能很好的区分与人物运动和形态信息相近的动物、旗帜等目标;因此,可能导致雷达引导光电后会对无效目标进行跟踪,监控效率不高。本申请实施例提供的目标识别方法、边缘设备、边防监控系统及可读存储介质,旨在解决上述技术问题。
本申请实施例提供的目标识别方法可以应用于如图1所示的边防监控系统中,参见图1,该系统可以包括边缘设备1、雷达设备2、光电设备3和上位机4,其中,雷达设备2、光电设备3、上位机4分别与边缘设备1通信连接。上述边缘设备1可以为具有数据处理能力的计算机设备,上位机4可以为平板电脑、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobile personalcomputer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等终端设备。
可以理解,雷达设备2开始工作后,可以对采集的雷达数据进行识别得到雷达目标识别结果,该雷达目标识别结果包括但不限于目标的位置信息和类别信息。当雷达设备2发现目标后,可以引导光电设备3进行目标跟踪。光电设备3可以采集边防监控视频,该边防监控视频中包括所跟踪的目标的图像画面。作为示例而非限定的,雷达设备2可以利用信号处理技术实时对雷达数据进行数据分析,采用机器学习算法对雷达数据进行分析得到目标类别信息,或者采用雷达数据融合技术,根据雷达回波信息、目标物理特征、速度等数据得到目标类别信息。
然后,边缘设备1可以从光电设备3获取边防监控视频的第一视频帧,并对该第一视频帧进行目标识别,得到目标识别结果;以及从雷达设备2获取雷达目标识别结果,将目标识别结果与雷达目标识别结果进行融合处理,得到融合目标识别结果。
接下来,上位机4可以从边缘设备1获取该融合目标识别结果,并根据该融合目标识别结果确定是否需要光电设备3继续对该目标进行跟踪,假如所得到的目标并不是威胁目标(如飞鸟等),则光电设备3可以停止对该目标进行跟踪,以减少光电设备3的无效跟踪,提高了监控效率。
下面对目标识别方法的实施过程做具体说明,图2示出了本申请提供的目标识别方法的示意性流程图,作为示例而非限定,该方法可以应用于上述边缘设备1中,该方法可以包括:
S101,获取边防监控视频的第一视频帧,以及与第一视频帧对应的雷达目标识别结果。
其中,光电设备在对目标进行跟踪时,会不断的采集包括目标的边防监控视频,该边防监控视频包括多张视频帧,本申请实施例将当前处理的视频帧作为第一视频帧。另外,因光电设备是由雷达引导工作的,那么此时雷达也已发现了目标,并可以对采集的雷达数据进行识别得到雷达目标识别结果,需要说明的是,此时的雷达目标识别结果对应的目标与第一视频帧中跟踪的目标为同一个目标。
可以理解,边缘设备在系统上电后,首先会进行系统初始化,例如读取配置文件,获得接入边防监控视频的实时流传输协议(real time streaming protocol,RTSP)地址、上位机IP地址及端口等。然后,边缘设备可以根据RTSP地址获取第一视频帧,以及根据与雷达设备之间的数据协议获取雷达目标识别结果。
需要说明的是,光电设备所采集的边防监控视频通常为第一数据格式,如H264数据格式、M3U8数据格式、FLV数据格式等,而边缘设备能够处理的数据格式为第二数据格式,如Mat数据格式等。因此,边缘设备在获取到边防监控视频后,还需要对第一数据格式的视频帧进行解码处理,得到第二数据格式的第一视频帧。可选地,边缘设备可以通过硬件解码器对第一数据格式的视频帧进行解码处理。
S102,对第一视频帧进行目标识别,得到第一视频帧的目标识别结果,该目标识别结果包括目标的类别信息。
在本申请实施例中,边缘设备可以采用目标识别模型对第一视频帧进行目标识别,得到第一视频帧的目标识别结果。
其中,目标识别模型可以为基于深度学习的模型,例如,可以包括yolo模型(youonly look once)、基于区域的卷积神经网络模型(region-convolutional neuralnetworks,R-CNN)、快速的基于区域的卷积神经网络模型(fast region-convolutionalneural networks,fast R-CNN)、单阶段的多框预测模型(single shot multiboxdetector,SSD)等等,本申请实施例对此不作限制。
考虑到边防监控场景,本申请实施例中目标的类别信息可以包括人、船只、车辆等。因此,目标识别模型可以通过视频帧样本进行模型训练得到,视频帧样本可以包括正视频帧样本和负视频帧样本,正视频帧样本中包括人、船只、车辆中的至少一种目标,负视频帧样本中可以包括除人、船只、车辆之外的目标。
可选地,边缘设备还可以先对第一视频帧进行预处理,该预处理可以包括对第一视频帧进行灰度化处理和图像增强处理等,由此可以减少第一视频帧中的冗余信息,从而提高目标识别结果的准确性。
可以理解,边缘设备在进行上述系统初始化时,还可以进行目标识别模型的预加载,由此可避免后续进行目标识别时的时间损耗,提高了识别效率。另外,在加载目标识别模型时还可以进行多线程socket初始化,绑定IP地址和端口,由此对第一视频帧进行目标识别时,可采用多线程的方式处理视频帧,以减少视频帧的处理时间。
S103,将目标识别结果与雷达目标识别结果进行融合处理,得到融合目标识别结果。
因目标识别结果包括了目标的类别信息,雷达目标识别结果也包括了目标的类别信息,因此,边缘设备可以根据目标识别结果和雷达目标识别结果确定最终的融合目标识别结果。作为示例而非限定的,若目标识别结果中目标的类别信息与雷达目标识别结果中目标的类别信息一致,则边缘设备可以将该类别信息作为融合目标识别结果;若目标识别结果中目标的类别信息与雷达目标识别结果中目标的类别信息不一致,则边缘设备可以根据预设的配置规则选取目标识别结果或者雷达目标识别结果作为融合目标识别结果,或者作为异常目标。然后,上位机可以根据该融合目标识别结果确定光电设备所跟踪的目标是否为威胁目标,例如将融合目标识别结果中目标的类别信息与威胁目标的类别信息进行比对,若是威胁目标(比如无人机)则指示光电设备继续对其进行跟踪,若不是则可以指示光电设备停止对其进行跟踪。
本实施例中,边缘设备通过对目标识别结果与雷达目标识别结果进行融合,相比单靠雷达设备的目标识别结果,大大提高了对跟踪目标的识别结果的准确性,进而可以减少光电设备的无效跟踪,提高了监控效率。另外,上述目标识别过程由边缘设备完成,还可节省后台计算资源,有效减少数据传输带宽。
在一个实施例中,第一视频帧中可能包括多个目标,但其中只有一个是跟踪目标,通常是将距离视频帧中心位置最近的目标作为跟踪目标。因此,上述S102中,边缘设备对第一视频帧进行目标识别时,可以得到至少一个候选目标识别结果,可选地,该候选目标识别结果还可以包括目标的位置信息,该位置信息可以用目标在第一视频帧中的坐标信息进行表示。然后,边缘设备根据各个目标的位置信息与第一视频帧的中心位置信息,确定距离中心位置最近的目标,将该目标对应的候选目标识别结果作为上述目标识别结果,进而边缘设备将该目标识别结果与上述雷达目标识别结果进行融合。本实施例中,通过先确定第一视频帧中所跟踪的目标,再将该目标的识别结果进行后续融合过程,可提高融合目标识别结果的准确性,避免将不同目标的识别结果进行融合而导致的结果误差。
在一个实施例中,上述目标的类别信息可以包括目标属于不同分类类别的概率,示例性地,假设所设置的分类类别包括人物、车辆、动物和虚景,那么所得到的目标的分类信息包括属于人物类别的概率、属于车辆类别的概率、属于动物类别的概率和属于虚景类别的概率,且各概率之和为1,例如各概率分别为(0.8、0、0.2、0),同理上述雷达目标识别结果也可以包括目标属于不同分类类别的概率。可选地,各分类类别还可以用不同字符表示,比如0代表无目标,1代表人物,2代表车辆,3代表动物,4代表虚景。
在此情形下,上述S103中,边缘设备可以将目标识别结果中目标属于不同分类类别的概率、与雷达目标识别结果中目标属于不同分类类别的概率进行加权求和,得到融合目标识别结果。示例性地,目标识别结果中目标属于不同分类类别的概率为(0.8、0、0.2、0),雷达目标识别结果中目标属于不同分类类别的概率为(0.7、0、0.2、0.1),则融合目标识别结果为a×(0.8、0、0.2、0)+b(0.7、0、0.2、0.1),其中,a为目标识别结果的权重,b为雷达目标识别结果的权重。可选地,a和b的值可以预先设定,能够满足a+b=1即可。进一步地,若目标在第一视频帧中所占的像素比较小(如小于10×10个像素),则可以将b的值设置的大一些;若由雷达数据所反馈的目标运动速度较小时,则可以将a的值设置的大一些。
然后,边缘设备可以根据融合目标识别结果确定目标类别,可选地,可以将最大概率值所对应的类别作为目标类别,或者将大于阈值的概率值所对应的类别作为目标类别。例如针对上述示例,假设a=0.5,b=0.5,则融合目标识别结果为(0.75,0、0.2、0.05),可以将0.75所对应的类别(即人物类别)作为目标类别。
在一种可能的实现方式中,上述目标识别结果还可以包括目标的位置信息,雷达目标识别结果也包括目标的位置信息,则边缘设备也可以将目标的位置信息进行融合。通常,目标的位置信息可以用目标的中心点坐标进行表示,则边缘设备可以对目标识别结果中的中心点坐标与雷达目标识别结果中的中心点坐标进行加权求和,得到融合目标结果中的中心点坐标。
在另一种可能的实现方式中,上述目标识别结果还可以包括目标的尺寸信息,雷达目标识别结果也可以包括目标的尺寸信息,则边缘设备也可以将目标的尺寸信息进行融合。通常,目标的尺寸信息可以用矩形框的长和宽进行表示,该矩形框可以为能将目标包围的最小矩形,则边缘设备可以对目标识别结果中矩形框的长和宽与雷达目标识别结果中矩形框的长和宽进行加权求和,得到融合目标结果中矩形框的长和宽。
本实施例中,边缘设备根据目标识别结果中目标属于不同分类类别的概率、以及雷达目标识别结果中目标属于不同分类类别的概率得到融合目标识别结果,提高了该目标识别过程的普适性,且综合考虑两个结果中的概率值,也进一步提高了融合目标识别结果的准确性。
在一个实施例中,边缘设备还可以根据预设的配置文件将融合目标识别结果发送至上位机,则如图3所示,上述方法还可以包括:
S104,接收上位机发送的数据请求指令,数据请求指令用于指示边缘设备向上位机发送融合目标识别结果。
S105,响应于数据请求指令,根据预设的配置文件,将融合目标识别结果发送至上位机。
其中,数据请求指令可以为用户通过上位机所输入的,比如当用户想查看融合目标识别结果时,可以在上位机输入数据请求指令,输入数据请求指令的方式包括但不限于文字输入、语音输入或点击相关按钮输入等。当边缘设备接收到上位机发送的数据请求指令后,可以根据预设的配置文件将融合目标识别结果发送至上位机。
可选地,边缘设备与上位机之间可以采用socket协议进行数据通信,也可以采用Mqtt协议或其他协议进行数据通信。当边缘设备接收到数据请求指令后,可以先对数据请求指令进行解析,根据解析结果确定是否向上位机发送融合目标识别结果;例如解析结果中包括表征是否发送数据的字节,字节00代表不发送融合目标识别结果,01代表发送融合目标识别结果。
可以理解,边缘设备在进行上述系统初始化读取配置文件时,还可以获取异常目标类型,可选地,该异常目标类型可以设置,也可以不设置。若配置文件中未包括异常目标类型,即没有设置,则边缘设备可以直接将上述得到的融合目标识别结果发送至上位机。若配置文件中包括异常目标类型,即进行了设置(如设置为车辆类别),且该异常目标类型与上述目标的类别信息匹配,则边缘设备可以将融合目标识别结果(如类别字符2)发送至上位机。若配置文件中包括异常目标类型,但该异常目标类型与目标的类别信息不匹配,则边缘设备将预设的标记信息(如字符0)发送至上位机。
可选地,当用户通过上位机查看到跟踪目标不是威胁目标时,可以通过上位机发送指令,指示光电设备停止跟踪该目标。
另外,为了体现边缘设备的计算优势,在将融合目标识别结果发送至上位机之前,还可以对融合目标识别结果进行数据结构化处理,比如利用Json将数据进行键值对应,便于上位机中的数据库存储及数据查询。例如,可以将目标的类别信息进行首位体现,并将视频帧数据先编码再存入Json键值内。
本实施例中,边缘设备通过向上位机发送识别得到的融合目标识别结果,可以使用户实时获取到跟踪目标的类别信息,进而可以对威胁目标做出及时响应。
在一个实施例中,考虑到用户会有观看边防监控视频的需求,那么,若将上述识别出来的目标标记在边防监控视频上,则可以较好的辅助监控人员快速地发现可疑目标。如图4所示,上述方法还包括:
S106,将融合目标识别结果叠加至第一视频帧,得到第二视频帧。
S107,将第二视频帧发送至上位机,以使上位机将第二视频帧进行展示。
具体地,本实施例中的融合目标识别结果可以包括目标的类别信息和尺寸信息,边缘设备将融合目标识别结果叠加至第一视频帧,即在第一视频帧上对目标进行矩形框标记,并显示该目标的类别信息。示例性地,图5展示了第二视频帧的一个示意图,图中叠加有标记目标的矩形框,并在矩形框旁边显示了该目标的类别(car,即车辆)以及该类别对应的概率(47%)。
然后边缘设备可以对得到的第二视频帧进行编码压缩,编码为H264格式的视频帧并存入帧队列buffer中。当用户想要观看第二视频帧,则可以通过上位机向边缘设备请求该视频帧,边缘设备便可以从buffer中获取第二视频帧,并发送至上位机进行展示。
本实施例中,边缘设备通过将融合目标识别结果叠加至第一视频帧,并发送至上位机进行展示,可使用户一目了然的找到视频中需要重点观察的目标,提高了用户的体验度及监控效率。
为更好理解上述目标识别方法的整个流程,下面再以一个实施例对该方法进行介绍,如图6所示,该方法可以包括:
S201,系统初始化,读取配置文件。
S202,获取边防监控视频的第一视频帧,以及与第一视频帧对应的雷达目标识别结果。
S203,对第一视频帧进行目标识别,得到第一视频帧的至少一个候选目标识别结果。
S204,从候选目标识别结果中选取目标识别结果;其中,目标识别结果对应的目标为第一视频帧所包括的目标中,距离第一视频帧的中心位置最近的目标。
S205,将目标识别结果与雷达目标识别结果进行融合处理,得到融合目标识别结果。
S206,接收上位机发送的数据请求指令,数据请求指令用于指示边缘设备向上位机融合目标识别结果。
S207,响应于数据请求指令,根据配置文件,将融合目标识别结果发送至上位机。
S208,将融合目标识别结果叠加至第一视频帧,得到第二视频帧。
S209,将第二视频帧发送至上位机,以使上位机将第二视频帧进行展示。
需要说明的是,本实施例中各步骤的实现过程可以参见上述实施例的描述,其实现原理和技术效果类似,在此不再赘述。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的目标识别方法,图7示出了本申请实施例提供的目标识别装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图7,该装置包括:获取模块21、目标识别模块22和融合模块23。
具体地,获取模块21,用于获取边防监控视频的第一视频帧,以及与第一视频帧对应的雷达目标识别结果;
目标识别模块22,用于对第一视频帧进行目标识别,得到第一视频帧的目标识别结果,目标识别结果包括目标的类别信息;
融合模块23,用于将目标识别结果与雷达目标识别结果进行融合处理,得到融合目标识别结果。
在一个实施例中,上述目标识别模块22,具体用于对第一视频帧进行目标识别,得到第一视频帧的至少一个候选目标识别结果;从候选目标识别结果中选取目标识别结果;其中,目标识别结果对应的目标为第一视频帧所包括的目标中,距离第一视频帧的中心位置最近的目标。
在一个实施例中,上述目标的类别信息包括目标属于不同分类类别的概率。
在一个实施例中,上述融合模块23,具体用于将目标识别结果中目标属于不同分类类别的概率、与雷达目标识别结果中目标属于不同分类类别的概率进行加权求和,得到融合目标识别结果。
在一个实施例中,上述装置还包括接收模块和发送模块;接收模块,用于接收上位机发送的数据请求指令,数据请求指令用于指示边缘设备向上位机发送融合目标识别结果;发送模块,用于响应于数据请求指令,根据预设的配置文件,将融合目标识别结果发送至上位机。
在一个实施例中,上述发送模块,具体用于在配置文件中未包括异常目标类型的情况下,将融合目标识别结果发送至上位机;在配置文件中包括异常目标类型、且异常目标类型与目标的类别信息匹配的情况下,将融合目标识别结果发送至上位机;在配置文件中包括异常目标类型、且异常目标类型与目标的类别信息不匹配的情况下,将预设的标记信息发送至上位机。
在一个实施例中,上述装置还包括视频推流模块,用于将融合目标识别结果叠加至第一视频帧,得到第二视频帧;将第二视频帧发送至上位机,以使上位机将第二视频帧进行展示。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图8为本申请一实施例提供的边缘设备的结构示意图。如图8所示,该实施例的边缘设备包括:至少一个处理器30(图8中仅示出一个)、存储器31以及存储在所述存储器31中并可在所述至少一个处理器30上运行的计算机程序32,所述处理器30执行所述计算机程序32时实现上述任意各个目标识别方法实施例中的步骤。
所述边缘设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该边缘设备可包括,但不仅限于,处理器30、存储器31。本领域技术人员可以理解,图8仅仅是边缘设备的举例,并不构成对边缘设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器30可以是中央处理单元(Central Processing Unit,CPU),该处理器30还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器31在一些实施例中可以是所述边缘设备的内部存储单元,例如边缘设备的硬盘或内存。所述存储器31在另一些实施例中也可以是所述边缘设备的外部存储设备,例如边缘设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器31还可以既包括所述边缘设备的内部存储单元也包括外部存储设备。所述存储器31用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器31还可以用于暂时地存储已经输出或者将要输出的数据。
本申请实施例还提供了一种边防监控系统,具体可以参见上述图1所示的系统结构示意图,在此不再赘述。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在边缘设备上运行时,使得边缘设备执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到目标识别装置/边缘设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/边缘设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/边缘设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种目标识别方法,应用于边缘设备,其特征在于,所述方法包括:
获取边防监控视频的第一视频帧,以及与所述第一视频帧对应的雷达目标识别结果;
对所述第一视频帧进行目标识别,得到所述第一视频帧的目标识别结果,所述目标识别结果包括目标的类别信息;
将所述目标识别结果与所述雷达目标识别结果进行融合处理,得到融合目标识别结果。
2.如权利要求1所述的方法,其特征在于,所述对所述第一视频帧进行目标识别,得到所述第一视频帧的目标识别结果,包括:
对所述第一视频帧进行目标识别,得到所述第一视频帧的至少一个候选目标识别结果;
从所述候选目标识别结果中选取所述目标识别结果;其中,所述目标识别结果对应的目标为所述第一视频帧所包括的目标中,距离所述第一视频帧的中心位置最近的目标。
3.如权利要求1或2所述的方法,其特征在于,所述目标的类别信息包括所述目标属于不同分类类别的概率。
4.如权利要求3所述的方法,其特征在于,所述将所述目标识别结果与所述雷达目标识别结果进行融合处理,得到融合目标识别结果,包括:
将所述目标识别结果中所述目标属于不同分类类别的概率、与所述雷达目标识别结果中所述目标属于不同分类类别的概率进行加权求和,得到所述融合目标识别结果。
5.如权利要求1所述的方法,其特征在于,所述方法还包括:
接收上位机发送的数据请求指令,所述数据请求指令用于指示所述边缘设备向所述上位机发送所述融合目标识别结果;
响应于所述数据请求指令,根据预设的配置文件,将所述融合目标识别结果发送至所述上位机。
6.如权利要求5所述的方法,其特征在于,所述根据预设的配置文件,将所述融合目标识别结果发送至所述上位机,包括:
若所述配置文件中未包括异常目标类型,将所述融合目标识别结果发送至所述上位机;
若所述配置文件中包括异常目标类型、且所述异常目标类型与所述目标的类别信息匹配,将所述融合目标识别结果发送至所述上位机;
若所述配置文件中包括异常目标类型、且所述异常目标类型与所述目标的类别信息不匹配,将预设的标记信息发送至所述上位机。
7.如权利要求1所述的方法,其特征在于,所述方法还包括:
将所述融合目标识别结果叠加至所述第一视频帧,得到第二视频帧;
将所述第二视频帧发送至上位机,以使所述上位机将所述第二视频帧进行展示。
8.一种边缘设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
9.一种边防监控系统,其特征在于,包括:边缘设备、雷达设备、光电设备和上位机,所述雷达设备、所述光电设备、所述上位机分别与所述边缘设备通信连接;
所述光电设备用于采集边防监控视频,所述雷达设备用于对采集的雷达数据进行识别得到雷达目标识别结果;
所述边缘设备用于从所述光电设备获取所述边防监控视频的第一视频帧,对所述第一视频帧进行目标识别,得到所述第一视频帧的目标识别结果,以及从所述雷达设备获取与所述第一视频帧对应的雷达目标识别结果,将所述目标识别结果与所述雷达目标识别结果进行融合处理,得到融合目标识别结果;
所述上位机用于从所述边缘设备获取所述融合目标识别结果,并根据所述融合目标识别结果确定所述光电设备是否继续对目标进行跟踪。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110279451.3A CN113139428A (zh) | 2021-03-16 | 2021-03-16 | 目标识别方法、边缘设备、边防监控系统及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110279451.3A CN113139428A (zh) | 2021-03-16 | 2021-03-16 | 目标识别方法、边缘设备、边防监控系统及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113139428A true CN113139428A (zh) | 2021-07-20 |
Family
ID=76811120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110279451.3A Pending CN113139428A (zh) | 2021-03-16 | 2021-03-16 | 目标识别方法、边缘设备、边防监控系统及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113139428A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113723209A (zh) * | 2021-08-05 | 2021-11-30 | 浙江大华技术股份有限公司 | 目标识别方法、装置、电子设备和计算机可读存储介质 |
CN114095546A (zh) * | 2021-10-27 | 2022-02-25 | 许昌许继软件技术有限公司 | 一种基于mqtt协议的报文监视方法及装置 |
CN114879177A (zh) * | 2022-07-11 | 2022-08-09 | 浙江大华技术股份有限公司 | 一种基于雷达信息的目标分析方法及设备 |
CN115482672A (zh) * | 2022-08-11 | 2022-12-16 | 西安天和防务技术股份有限公司 | 车辆逆行检测的方法、装置、终端设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110147722A (zh) * | 2019-04-11 | 2019-08-20 | 平安科技(深圳)有限公司 | 一种视频处理方法、视频处理装置及终端设备 |
CN112215306A (zh) * | 2020-11-18 | 2021-01-12 | 同济大学 | 一种基于单目视觉与毫米波雷达融合的目标检测方法 |
CN112381092A (zh) * | 2020-11-20 | 2021-02-19 | 深圳力维智联技术有限公司 | 跟踪方法、装置及计算机可读存储介质 |
-
2021
- 2021-03-16 CN CN202110279451.3A patent/CN113139428A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110147722A (zh) * | 2019-04-11 | 2019-08-20 | 平安科技(深圳)有限公司 | 一种视频处理方法、视频处理装置及终端设备 |
CN112215306A (zh) * | 2020-11-18 | 2021-01-12 | 同济大学 | 一种基于单目视觉与毫米波雷达融合的目标检测方法 |
CN112381092A (zh) * | 2020-11-20 | 2021-02-19 | 深圳力维智联技术有限公司 | 跟踪方法、装置及计算机可读存储介质 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113723209A (zh) * | 2021-08-05 | 2021-11-30 | 浙江大华技术股份有限公司 | 目标识别方法、装置、电子设备和计算机可读存储介质 |
CN114095546A (zh) * | 2021-10-27 | 2022-02-25 | 许昌许继软件技术有限公司 | 一种基于mqtt协议的报文监视方法及装置 |
CN114095546B (zh) * | 2021-10-27 | 2024-03-01 | 许昌许继软件技术有限公司 | 一种基于mqtt协议的报文监视方法及装置 |
CN114879177A (zh) * | 2022-07-11 | 2022-08-09 | 浙江大华技术股份有限公司 | 一种基于雷达信息的目标分析方法及设备 |
CN114879177B (zh) * | 2022-07-11 | 2022-10-28 | 浙江大华技术股份有限公司 | 一种基于雷达信息的目标分析方法及设备 |
CN115482672A (zh) * | 2022-08-11 | 2022-12-16 | 西安天和防务技术股份有限公司 | 车辆逆行检测的方法、装置、终端设备及存储介质 |
CN115482672B (zh) * | 2022-08-11 | 2023-12-19 | 西安天和防务技术股份有限公司 | 车辆逆行检测的方法、装置、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113139428A (zh) | 目标识别方法、边缘设备、边防监控系统及可读存储介质 | |
CN112085952B (zh) | 监控车辆数据方法、装置、计算机设备及存储介质 | |
US20120114177A1 (en) | Image processing system, image capture apparatus, image processing apparatus, control method therefor, and program | |
CN110457974B (zh) | 图像叠加方法、装置、电子设备及可读存储介质 | |
CN111507342B (zh) | 一种图像处理方法、装置、系统及存储介质 | |
CN114663871A (zh) | 图像识别方法、训练方法、装置、系统及存储介质 | |
CN112040269B (zh) | 视频数据展示方法、装置、终端设备及存储介质 | |
CN113299073A (zh) | 识别车辆违章停车的方法、装置、设备和存储介质 | |
CN112163470A (zh) | 基于深度学习的疲劳状态识别方法、系统、存储介质 | |
CN113326773A (zh) | 识别模型训练方法、识别方法、装置、设备及存储介质 | |
CN110879986A (zh) | 人脸识别的方法、设备和计算机可读存储介质 | |
CN113255651A (zh) | 包裹安检方法、装置及系统和节点设备、存储装置 | |
CN115761571A (zh) | 基于视频的目标检索方法、装置、设备以及存储介质 | |
CN113989720A (zh) | 目标检测方法、训练方法、装置、电子设备及存储介质 | |
CN117292120B (zh) | 一种轻量化可见光绝缘子目标检测方法及系统 | |
CN113177483B (zh) | 视频目标分割方法、装置、设备以及存储介质 | |
CN114596188A (zh) | 水印检测方法、模型训练方法、装置及电子设备 | |
CN114842466A (zh) | 目标检测方法、计算机程序产品和电子设备 | |
CN114091503A (zh) | 人脸图像的校验方法、装置、电子设备及存储介质 | |
CN113158794B (zh) | 目标检测方法、边缘设备及计算机可读存储介质 | |
CN112422772A (zh) | 图像获取方法、图像获取装置、终端设备及可读存储介质 | |
CN112819953B (zh) | 三维重建方法、网络模型训练方法、装置及电子设备 | |
CN109214224B (zh) | 信息编码的风险识别方法和装置 | |
CN112270257A (zh) | 一种运动轨迹确定方法、装置及计算机可读存储介质 | |
CN113255512A (zh) | 用于活体识别的方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210720 |
|
RJ01 | Rejection of invention patent application after publication |