CN111383246A - 条幅检测方法、装置及设备 - Google Patents
条幅检测方法、装置及设备 Download PDFInfo
- Publication number
- CN111383246A CN111383246A CN201811636145.5A CN201811636145A CN111383246A CN 111383246 A CN111383246 A CN 111383246A CN 201811636145 A CN201811636145 A CN 201811636145A CN 111383246 A CN111383246 A CN 111383246A
- Authority
- CN
- China
- Prior art keywords
- detected
- target frame
- preset
- banner
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 186
- 238000013136 deep learning model Methods 0.000 claims abstract description 107
- 238000000034 method Methods 0.000 claims abstract description 57
- 238000012549 training Methods 0.000 claims abstract description 23
- 230000008569 process Effects 0.000 claims abstract description 16
- 238000012544 monitoring process Methods 0.000 claims description 49
- 238000004590 computer program Methods 0.000 claims description 25
- 238000004422 calculation algorithm Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 19
- 238000004891 communication Methods 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000003062 neural network model Methods 0.000 claims description 6
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims 1
- 239000000523 sample Substances 0.000 description 26
- 238000012545 processing Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000002902 bimodal effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供的一种条幅检测方法、装置及设备,通过获得待测图像,将待测图像输入预设的深度学习模型。其中,预设的深度学习模型为预先利用收集的多个包含条幅对象的样本图像训练得到的深度学习模型。获得所述预设的深度学习模型对所述待测图像进行处理后输出的待测对象及每个待测对象的类别置信度。其中,待测对象是所述预设的深度学习模型从所述待测图像中提取的。针对每个待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件。如果是,则确定该待测对象为条幅。与基于颜色识别以及角点检测从待测图像中检测条幅的方式相比,能够检测到被遮挡或者颜色与背景色接近的条幅,提高了图像中条幅的检测准确度。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种条幅检测方法、装置及设备。
背景技术
随着图像处理技术的发展,图像处理技术被广泛用于检测拍摄得到的图像中,是否存在目标对象。例如,利用图像处理技术,检测获取的图像中的条幅。
通常情况下,可以基于颜色识别与角点检测,检测图像中的目标对象。例如,检测拍摄得到的图像中的条幅时,可以获取图像的颜色直方图,判断颜色直方图是否为双峰图。若是,表明图像中存在颜色与所拍摄场景的背景颜色对比度高的对象,图像中可能存在条幅。则在图像中选取与颜色直方图的高峰对应的区域,并对该区域进行角点检测,判断该区域是否为矩形。若是,则该对象为矩形。由此,可以确定该对象为具有与背景高对比度颜色的矩形,为条幅,检测结果为图像中存在条幅。
但是,如果图像中的目标对象不具有与背景高对比度的颜色,将无法利用颜色识别区分目标对象与背景,导致颜色识别结果不准确。例如,背景是白色墙体,条幅也为白色时,颜色区分度不高,导致检测结果可能为图像中无条幅,识别结果不准确。或者目标对象被遮挡时,遮挡改变了目标对象的形状,将导致角点检测结果不准确。例如,遮挡目标对象条幅的一个顶角,则被遮住的条幅不再是矩形,进行角点检测时,会判断目标对象条幅为非矩形,图像中无条幅,识别结果不准确。
因此,上述基于颜色识别与角点检测,检测图像中的条幅时,检测准确度不高。
发明内容
本发明实施例的目的在于提供一种条幅检测方法、装置及设备,以实现提高图像中条幅的检测准确度。具体技术方案如下:
第一方面,本发明实施例提供了一种条幅检测方法,该方法包括:
获得待测图像;
将待测图像输入预设的深度学习模型,得到待测对象及每个待测对象的类别置信度;其中,预设的深度学习模型为预先利用收集的多个包含条幅对象的样本图像训练得到的,待测对象是预设的深度学习模型从所述待测图像中提取的;
针对所述待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件;如果是,则确定该待测对象为条幅。
第二方面,本发明实施例提供了一种条幅检测装置,该装置包括:
获取模块,用于获得待测图像;
目标检测模块,用于将所述待测图像输入预设的深度学习模型,得到待测对象及每个待测对象的类别置信度;其中,预设的深度学习模型为预先利用收集的多个包含条幅对象的样本图像训练得到的,待测对象是预设的深度学习模型从所述待测图像中提取的;针对所述待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件;如果是,则确定该待测对象为条幅。
第三方面,本发明实施例提供了一种电子设备,该设备包括:
处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过总线完成相互间的通信;存储器,用于存放计算机程序;处理器,用于执行存储器上所存放的程序,实现上述第一方面提供的条幅检测方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,该存储介质内存储有计算机程序,该计算机程序被处理器执行时实现上述第一方面提供的条幅检测方法的步骤。
本发明实施例提供的一种条幅检测方法、装置及设备,通过获得待测图像,将待测图像输入预设的深度学习模型,得到待测对象及每个待测对象的类别置信度;其中,预设的深度学习模型为预先利用收集的多个包含条幅对象的样本图像训练得到的,待测对象是所述预设的深度学习模型从所述待测图像中提取的。针对每个待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件。如果是,则确定该待测对象为条幅。与基于颜色识别以及角点检测从待测图像中检测条幅的方式相比,预设的深度学习模型是预先利用收集的多个包含条幅对象的样本图像训练得到的模型,提取的待测图像中待测对象的类别置信度可以表明待测对象属于条幅类别的概率。当待测对象的置信度大于属于条幅类别的第一置信度阈值,就表明待测对象所具有的条幅图像特征的数量,满足将待测对象确定为条幅的数量。当待测对象是被遮挡或者颜色与背景色接近的条幅时,由于该待测对象本身具有足够数量的条幅图像特征,因此,不受待测对象颜色和被遮挡的影响,依然能够被检测到,从而提高了图像中条幅的检测准确度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明一实施例的条幅检测方法的流程示意图;
图2为本发明一实施例的预设的深度学习模型的训练过程的流程示意图;
图3为本发明一实施例的预设的YOLO模型的结构示意图;
图4为本发明一实施例的预设的YOLO模型确定目标框的原理示意图;
图5为本发明另一实施例的条幅检测方法的流程示意图;
图6为本发明再一实施例的条幅检测方法的流程示意图;
图7(a)为本发明再一实施例的条幅检测方法的流程示意图;
图7(b)为本发明再一实施例的条幅检测方法的流程示意图;
图8为本发明一实施例的条幅检测装置的结构示意图;
图9(a)为本发明另一实施例的条幅检测装置的结构示意图;
图9(b)为本发明再一实施例的条幅检测装置的结构示意图;
图10为本发明再一实施例的条幅检测装置的结构示意图;
图11为本发明一实施例的电子设备的结构示意图。
具体实施方式
为了使本领域技术人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面首先对本发明一实施例的条幅检测方法进行介绍。
本发明实施例提供的条幅检测方法,可以应用于能够进行数据处理的电子设备,该设备包括台式计算机、便携式计算机、互联网电视,智能移动终端、可穿戴式智能终端、服务器等,在此不作限定,任何可以实现本发明实施例的电子设备,均属于本发明实施例的保护范围。
如图1所示,本发明一实施例的条幅检测方法的流程,该方法可以包括:
S101,获得待测图像。
待测图像具体可以是从监控设备录制的视频中截取的图像,也可以是图像采集设备,例如,照相机或者探头等设备拍摄的图像。
S102,将待测图像输入预设的深度学习模型,得到待测对象及每个待测对象的类别置信度;其中,预设的深度学习模型为预先利用收集的多个包含条幅对象的样本图像训练得到的,待测对象是预设的深度学习模型从待测图像中提取的。
深度学习模型可以提取待测图像中的待测对象,计算每个待测对象的类别置信度。预先利用收集的多个包含条幅对象的样本图像训练得到的预设的深度学习模型,可以提取待测图像中具有条幅对象特征的待测对象,每个待测对象的类别置信度是基于待测对象所具有的图像特征计算得到的,用于表明该待测对象的类别属于“条幅”这一类别的概率。示例性的,预设的深度学习模型可以是预设的YOLO模型,也可以是预设的RCNN(Regionswith CNN features,基于区域特征的卷积神经网络)模型等等。
其中,待测对象是待测图像中的物体,例如,待测图像是宣传墙图像时,待测对象可以包括宣传墙图像中的墙壁、宣传墙壁上的条幅、海报等。
S103,针对每个待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件,如果是,则执行S104。
S104,确定该待测对象为条幅。
每个待测对象的类别置信度是基于待测对象所具有的图像特征计算得到的,如果该待测对象为条幅,则该待测对象所具有的图像特征中条幅对象特征,满足条幅对象特征。相应的,该待测对象的类别属于“条幅”这一类别的类别置信度,也将满足预设条幅类别置信度条件。因此,当判断出该待测对象的类别置信度满足预设条幅类别置信度条件时,可以确定该待测对象为条幅。
其中,预设条幅类别置信度条件具体可以是类别置信度大于或者等于预设条幅类别置信度阈值,还可以是类别置信度属于预设条幅类别置信度区间。
本发明实施例提供的一种条幅检测方法,与基于颜色识别以及角点检测从待测图像中检测条幅的方式相比,预设的深度学习模型是预先利用收集的多个包含条幅对象的样本图像训练得到的模型,提取的待测图像中待测对象的类别置信度可以表明待测对象属于条幅类别的概率。当待测对象的置信度大于属于条幅类别的第一置信度阈值,就表明待测对象所具有的条幅图像特征的数量,满足将待测对象确定为条幅的数量。当待测对象是被遮挡或者颜色与背景色接近的条幅时,由于该待测对象本身具有足够数量的条幅图像特征,因此,不受待测对象颜色和被遮挡的影响,依然能够被检测到,从而提高了图像中条幅的检测准确度。
如图2所示,本发明图一实施例中预设的深度学习模型的训练过程的流程,可以包括:
S201,将收集的多个包含条幅对象的样本图像输入当前深度学习模型,得到每个样本图像对应的预测待测对象及每个预测待测对象的预测类别置信度。其中,当前神经网络模型初次使用时为预设初始深度学习模型。
S202,根据得到的多个预测待测对象、每个预测待测对象的预测类别置信度以及预设代价函数,判断当前深度学习模型是否收敛。其中,预设代价函数为基于每个样本图像中预先标注的待测对象及每个待测对象的类别置信度确定的。如果收敛,则执行S203,如果不收敛,则执行S204至S205。
预设代价函数为计算每个样本图像中预先标注的待测对象及每个待测对象的类别置信度,与预测待测对象与每个样本图像中预先标注的待测对象的误差的函数。判断当前深度学习模型是否收敛具体可以是,以最小化代价函数为目标,计算预设代价函数的最小值,当趋近于最小值附近时,则代表当前深度学习模型收敛,当还未得到最小值时,则代表当前深度学习模型不收敛。
S203,将当前深度学习模型确定为预设的深度学习模型。
S204,调整当前深度学习模型的模型参数,得到新的深度学习模型。
具体的,调整当前深度学习模型的模型参数时,可以利用预设的代价函数,确定调整后的模型参数。
S205,将当前深度学习模型更新为所得到的新的深度学习模型。返回执行步骤S201。
将当前深度学习模型更新为所得到的新的深度学习模型,以在每一次调整了模型参数的最新的深度学习模型的基础上,进行迭代,直到获取了收敛的当前深度学习模型。一般情况下,当前深度学习模型收敛时,该深度学习模型的模型参数已达到可准确提取待测图像中待测对象以及每个待测对象的类别置信度的目标值。
可选的,本发明一实施例的预设的深度学习模型具体可以为预设的YOLO模型,如图3所示的预设的YOLO模型的结构,该模型可以包含卷积层301和预测层302。
相应的,经过预设的YOLO模型的卷积层301和预测层302对待测图像的处理,本发明图1实施例中的S102,具体可以包括:
将待测图像输入预设的YOLO模型,得到包含待测对象的目标框,以及每个目标框所包含的待测对象的类别置信度。
待测图像中的不同对象具有不同的图像特征信息,因此,可以提取待测图像中各个对象的图像特征信息,进而输出包含待测对象的目标框,以及每个目标框所包含的待测对象的类别置信度,用于确定各个对象是否为条幅。具体的,如图4(a)所示,预设的YOLO模型对待测图像处理后,同一个待测对象可能被包含在多个目标框中,例如,目标框4010以及目标框4011均包含待测对象狗。对此,由于对于某一待测对象,每个目标框包含的该待测对象的图像特征数量不同,相应的,每个目标框中的待测对象的类别置信度也不同。例如,如图4(b)所示,目标框dog(狗)包含的狗的图像特征最多,最能反映待测对象狗的特征。类似的,图4(b)中的目标框bicycle(自行车)包含的自行车的图像特征最多,最能反映待测对象自行车的特征,目标框car(汽车)包含的自行车的图像特征最多,最能反映待测对象自行车的特征。
因此,对于某一待测对象,可以将包含有该待测对象的每个目标框作为候选目标框。预设的YOLO模型针对每个候选目标框,按预设的类别置信度算法,计算获得候选目标框中的待测对象的类别置信度,进而从多个候选目标框中确定类别置信度最大的一个,也就是包含待测对象的图像特征最多的一个,作为包含待测对象的目标框。例如,图4(b)中的目标框bicycle,目标框car(汽车)目标框dog。
其中,预设的类别置信度算法,具体可以为公式一:
其中,Pr(Classi|Object)为基于图像特征信息得到的待测对象属于类别i的概率,为目标框中含有待测对象的概率,当确定出目标框所包含的图像特征信息属于某一待测对象的图像特征信息,则Pr(Object)的值为1,否则Pr(Object)的值为0。为预设的YOLO模型获得的目标框的准确度,为训练得到该预设的YOLO模型时,模型输出的预测目标框与预先标注的目标框的重叠面积,越大,表明预设的YOLO模型获得的目标框越准确。为目标框包含的待测对象所属类别的概率,也就是目标框包含的待测对象的类别置信度,为训练得到该预设的YOLO模型时,模型输出的目标框所包含待测对象的类别置信度与预先标注的待测对象的类别的重合度,越大,表明预设的YOLO模型获得的目标框所包含待测对象的类别置信度越准确。
预设的YOLO模型获得每个候选目标框所包含待测对象的类别置信度后,每个候选目标框的信息可以包括(x,y,w,h)和类别置信度共5个信息,其中x,y代表目标框所包含待测对象的中心的坐标,w,h是目标框的宽度和高度。当然,w和h的值可以是将目标框所包含图像的宽度和高度,归一化到[0,1]区间内得到的。例如,目标框包含的待测对象所属的类别有C类,将待测图像划分为S*S个子图像,目标框的个数为B个,则上述5个信息可以采用S*S*(5*B+C)的张量表示。
为了从多个候选目标框中选择最能反映待测对象的图像特征的候选目标框,可以利用预设NMS(Non-Maximum Suppression,非极大值抑制)处理算法,寻求针对某一待测对象的多个候选目标框,进行最优解搜索,从而选择出一个包含待测对象的图像特征最多的候选目标框,作为目标框。
同时,为了提高搜索最优解的效率,可以利用置信度阈值对候选目标框进行过滤。例如,置信度小于第二置信度置阈值的候选目标框包含的待测对象的图像特征过少,可以被过滤,从而将搜索目标框的范围缩减为类别置信度大于第二置信度置阈值的候选目标框。
由此,对于待测对象被遮挡和/或者多个待测对象之间颜色特征接近的情况,如图4(b)所示,目标框bicycle中同时包含了狗和自行车两个待测对象,目标框bicycle包含自行车相对多的图像特征,且包含相对少的狗的图像特征,因此,虽然自行车被狗遮挡,但是根据目标框bicycle所包含的图像特征,依然可以确定出所包含的待测对象为自行车。同理,在检测条幅对象时,如果采用预设的YOLO模型进行检测,可以应对待测对象被遮挡或者颜色接近的情况。
当然,上述实施例中为了便于对比理解,采用非条幅对象进行描述,对于待测对象为条幅对象的情况,获取目标框中待测对象的类别置信度的方法与上述方法类似,区别在于待测对象不同。
基于上述预设的YOLO模型对待测图像的处理,可选的,本发明图1实施例中的步骤S104具体可以包括:
分别判断每个目标框中的待测对象的类别置信度,是否大于属于条幅类别的第一置信度阈值。
如果大于,则步骤S105具体可以包括:确定目标框中的待测对象为条幅。
实际应用中,预设的YOLO模型存在容错度,检测结果可能存在误差,对此,可以针对同一个待测对象进行多次检测,通过分析多次检测结果的匹配情况,保留检测准确的结果,过滤检测异常的误检结果。特别是对于监控视频,由于监控视频获得的图像为周期性拍摄同一场景得到的图像帧,图像帧中的待测物体短时间内很少改变或者改变较少。与针对同一个待测图像进行多次检测相比,多个不同的图像帧可以更好地用于对多次检测结果的分析。
为此,如图5所示,本发明另一实施例的条幅检测方法的流程,可以包括:
S501,按照预设周期,从监控视频中获取当前图像帧,作为待测图像。
通过周期性获取监控视频中的当前图像帧,作为待测图像,从而用于对同一待测对象进行多次检测,以过滤检测异常的误检结果。
S502,将待测图像输入预设的YOLO模型,得到包含的对象为待测对象的目标框,以及每个目标框所包含的待测对象的类别置信度。
S502与S102为相似的步骤,区别在于S502中预设的深度学习模型具体为预设的YOLO模型,对于相同内容在此不再赘述,详见本发明图1实施例的描述。
S503,针对每个待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件,如果是,则执行S504。
S503与本发明图1实施例中的步骤S103的区别在于,执行的步骤S504不同,对于相同内容不再赘述,详见本发明图1实施例的描述。
S504,利用预设匹配算法,将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框与历史已保存的被跟踪目标框进行匹配。如果匹配失败,则执行步骤S505,如果匹配成功,则执行步骤S506。
其中,目标框的类别置信度大于属于条幅类别的第一置信度阈值,则该目标框中含有的待测对象可能为条幅对象,因此可以将这种目标框作为候选跟踪目标框,参与匹配。历史已保存的被跟踪目标框为检测历史待测图像得到的目标框,例如,对于将第四个周期获取的监控视频的当前图像帧作为待测图像,得到的候选跟踪目标框而言,分别将前三个周期获取的监控视频的当前图像帧作为待测图像,得到的候选跟踪目标框为历史已保存被跟踪目标框。当然,对于第一次获取的待测图像,由于不存在历史已保存被跟踪目标框,可以直接将匹配结果确定为匹配失败。
S505,将候选跟踪目标框保存为被跟踪目标框,返回步骤S501。
考虑到检测结果的容错度,当前周期获取的候选目标框匹配失败后,可能会与下一周期获取的候选目标框匹配成功。因此,匹配失败后,可以将候选跟踪目标框保存为被跟踪目标框,返回步骤S501,继续获取待测图像,从而获得下一周期的候选目标框,以用于匹配。
S506,确定该待测对象为条幅。
匹配成功,该候选目标框中的待测对象与历史已保存的被跟踪目标框中的待测对象的检测结果相同,表明对该待测对象的检测结果准确,不是误检,可以确定该待测对象为条幅。
可选的,上述本发明图5实施例中的步骤S504,具体可以包括:
将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框。
利用预设匹配算法,计算候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度。
其中,预设匹配度算法具体可以是欧式距离公式,也可以是杰卡尔德系数公式。任何可以用于计算候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度的相似度算法,均可用于本发明,本实施例对此不作限制。
通常情况下,条幅对象的位置不会改变或者改变不显著,如果检测结果准确,则在多次检测结果中,同一个待测对象的位置应当相同或相近。因此,进行匹配时,可以计算候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度。由于目标框的位置信息为目标框的四个顶点坐标,与直接计算目标框中待测对象的图像特征重合度相比,要处理的数据量大大减少,有利于提高匹配效率,进而提高条幅对象的检测效率。
如果候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度符合预设重合条件,则匹配成功。
如果候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度不符合预设重合条件,则匹配失败。
其中,预设重合条件可以是候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度,大于预设位置重合度阈值,还可以是候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度,属于预设位置重合度区间。
例如,候选跟踪目标框为目标框D,历史已保存的被跟踪目标框为目标框A、目标框B以及目标框C,分别计算目标框D与目标框A、目标框B以及目标框C之间的位置信息重合度。如果目标框D与历史已保存目标框中至少一个目标框的位置信息重合度符合预设重合条件,则目标框D匹配成功。如果目标框D与历史已保存目标框中任何一个目标框的位置信息重合度不符合预设重合条件,则目标框D匹配失败。
此外,通常情况下,如果某个待测对象的检测结果准确,则该待测对象被检测到的次数在一段时间内将达到一定数量。如果未达到,则表明该对象为偶然检测到的误检对象。因此,在匹配之前,还可以先进行预处理,以对偶然检测到的误检对象进行过滤。
为此,可选的,在本发明图5实施例中的步骤S505判断出匹配失败之后,本发明的条幅检测方法还可以包括:
记录该被跟踪目标框的检测次数为初始值。
当匹配失败后,候选目标框保存为被跟踪目标框,匹配失败表明该被跟踪目标框在获取当前图像帧作为待测图像之前的其他待测图像中,均未被检测到。本次检测为第一次检测到该跟踪目标框,则记录该被跟踪目标框的检测次数为初始值。
在本发明图5实施例中的步骤S504判断出匹配成功之后,本发明的条幅检测方法还可以包括:
保存候选跟踪目标框为被跟踪目标框。
记录该被跟踪目标框的检测次数为该被跟踪目标框和与该被跟踪目标匹配成功的历史已保存的被跟踪目标框的总个数。
匹配成功,表明该被跟踪目标框在获取当前图像帧作为待测图像之前的其他待测图像中,有被检测到。该被跟踪目标框和与该被跟踪目标匹配成功的历史已保存的被跟踪目标框的总个数,为检测到该待测对象的次数,可以记录该总个数为该被跟踪目标框的检测次数。例如,候选目标框D与历史已保存目标框中的被跟踪目标框A、被跟踪目标框B匹配,则保存候选目标框D为被跟踪目标框D,记录被跟踪目标框D的检测次数为3。
相应的,在本发明图5实施例中的步骤S505之前,本发明的条幅检测方法还可以包括:
判断各个已保存的历史被跟踪目标框的检测次数是否小于第一预设数量阈值。
如果是,则删除检测次数小于第一预设数量阈值的已保存的历史被跟踪目标框。
如果各个已保存的历史被跟踪目标框的检测次数不小于第一预设数量阈值,表明该已保存的历史被跟踪目标框在预设时间段内被检测到的次数,达到可以将该已保存的历史被跟踪目标框确定为非误检目标框的次数。如果各个已保存的历史被跟踪目标框的检测次数小于第一预设数量阈值,表明该已保存的历史被跟踪目标框在预设时间段内未被检测到,已有的检测为偶然检测的误检,该已保存的历史被跟踪目标框为误检目标框。
当已保存的历史被跟踪目标框为误检目标框时,可以将该误检目标框删除,不再参与和候选目标框的匹配,从而减少需要进行匹配的次数,提高匹配效率,进而提高条幅的检测效率。
实际应用中,由于监控视频拍摄得到图像反映了所拍摄场景的实时信息,因此,按预设周期获取监控视频中的图像帧作为待测图像时,待测对象可能从当前监控画面中消失,例如条幅也可能从监控场景中被取走。如果获取当前图像帧时待测对象出现即将离开监控场景的大的位置改变,那么当前时刻检测到的待测对象,由于即将离开监控场景可以被确定为是无效的检测结果。因此,在计算候选目标框与历史已保存的被跟踪目标框之间的匹配度之后,还可以进一步跟踪候选目标框与历史已保存的被跟踪目标框之间的位置信息,以进一步确定候选目标框中的待测对象是有效的,进而提高条幅检测准确度。
为此,如图6所示,本发明再一实施例的条幅检测方法的流程,可以包括:
S601,按照预设周期,从监控视频中获取当前图像帧,作为待测图像。
S602,将待测图像输入预设的YOLO模型,得到包含的对象为待测对象的目标框,以及每个目标框所包含的待测对象的类别置信度。
S603,针对每个待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件,如果是,则执行S604。
S601至S603与S501至S503为相同的步骤,在此不再赘述,详见本发明图5实施例的描述。
S604,利用预设匹配算法,将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框与历史已保存的被跟踪目标框进行匹配。如果匹配失败,则执行步骤S605,如果匹配成功,则执行步骤S606。
S604与本发明图5实施例中的步骤S504的区别在于,执行的步骤S606不同,对于相同内容不再赘述,详见本发明图1实施例的描述。
S605,将候选跟踪目标框保存为被跟踪目标框,返回步骤S601。
S605与S505为相同的步骤,在此不再赘述,详见本发明图5实施例的描述。
S606,根据候选跟踪目标框和匹配成功的被跟踪目标框,进行目标框跟踪。如果跟踪成功,则执行步骤S607至S608,如果跟踪不成功,则执行步骤S601。
如果获取当前图像帧时待测对象相对于当前时刻之前的检测时刻而言,出现即将离开监控场景的大的位置改变,那么当前时刻检测到的待测对象,由于即将离开监控场景可以被确定为是无效的检测结果。因此,在计算候选目标框与历史已保存的被跟踪目标框之间的匹配度之后,还可以进一步跟踪候选目标框与历史已保存的被跟踪目标框之间的位置信息,以进一步确定候选目标框中的待测对象是有效的,进而提高条幅检测准确度。
S607,将候选跟踪目标框保存为被跟踪目标框。
S608,确定该待测对象为条幅。
可选的,本发明图6实施例中的步骤S606,具体可以包括:
获得上一次跟踪成功后,保存的候选跟踪目标框对应的预测跟踪目标框和预测位置邻阈。
其中,预测跟踪目标框为根据上一次跟踪成功的候选目标框和与该候选目标框匹配成功的历史已保存的被跟踪目标框,预测得到的本次进行目标框跟踪的候选目标框。预测位置邻阈是基于预测跟踪目标框,在待测图像中确定的预测跟踪目标框所在位置的扩展区域。本次候选跟踪目标框的真实位置可能与预测跟踪目标框的预测位置相同,也可能在基于预测位置确定的预测位置邻阈内。
判断候选跟踪目标框是否在预测目标邻阈内。
如果候选跟踪目标框与预测目标邻阈有重合的部分,则表明候选跟踪目标框在预测目标邻阈内。实际应用中,待测图像中可能存在多个条幅对象,多个条幅对象之间可能存在重叠部分,相应的,与预测目标邻阈有重合部分的候选目标框的数量也为多个。
如果在预测目标邻阈内,则判断与预测目标框距离最近的候选跟踪目标框,与预测目标框的重合度是否满足第二预设重合条件。
对于某一待测对象对应的预测目标邻阈,如果存在多个候选目标框在该预测目标邻阈内,则需要确定出一个含有该待测对象的候选目标框用于进行该待测对象的目标框跟踪。为此,考虑到对于检测结果准确的待测对象,运动轨迹是稳定,不会出现大的改变,预测目标框与候选目标框的位置接近。因此,可以将与预测目标框距离最近的候选跟踪目标框,用于进行目标框跟踪。具体的,可以判断与预测目标框距离最近的候选跟踪目标框,与预测目标框的重合度是否满足第二预设重合条件。
其中,第二预设重合条件具体可以是与预测目标框距离最近的候选跟踪目标框,与预测目标框的重合度不小于第二预设重合度阈值,也可以是第二预设重合条件具体可以是与预测目标框距离最近的候选跟踪目标框,与预测目标框的重合度属于第二预设重合度区间。当然,采用第二预设重合度区间作为条件,可以避免直接采用第二预设重合度阈值时,容错度较低的问题,进而避免检测精度过高造成的漏检。
如果满足,则跟踪成功。
与预测目标框距离最近的候选跟踪目标框,与预测目标框的重合度满足第二预设重合条件,表明候选跟踪目标框包含的待测对象运动稳定,没有要离开监控场景的突变位移。因此,跟踪成功,该候选目标框包含的待测对象可以被确定为条幅。
如果不满足,则跟踪失败。
与预测目标框距离最近的候选跟踪目标框,与预测目标框的重合度不满足第二预设重合条件,表明候选跟踪目标框包含的待测对象运动不稳定,存在要离开监控场景的突变位移。因此,该候选目标框包含的待测对象是无效的,跟踪失败,该候选目标框包含的待测对象不可以被确定为条幅,返回重新获取待测图像。
相应的,在上述跟踪成功后,本发明实施例的条幅检测方法还可以包括:
根据候选跟踪目标框和匹配成功的被跟踪目标框,对下一次要进行目标框跟踪的候选跟踪目标框进行预测,获得预测跟踪目标框。
目标框跟踪是对目标框包含的待测对象的运动轨迹进行跟踪,考虑到短时间内同一个待测对象如果发生运动,该待测对象的图像特征不会出现较大改变。同时,可以根据候选跟踪目标框和匹配成功的被跟踪目标框,获得该待测对象的运动轨迹信息,例如运动方向和运动速度等。由此,预测目标框中包含的待测对象的图像特征为候选跟踪目标框包含的待测对象的图像特征,预测目标框的预测位置信息为根据候选跟踪目标框和匹配成功的被跟踪目标框所获得得该待测对象的运动轨迹信息,预测得到的位置信息。
基于预测跟踪目标框的位置信息,将预测目标框在下一次获取的待测图像中的位置邻阈,确定为预测目标邻阈。
预测目标邻阈为下一次跟踪时候选目标框可能出现的位置区域。具体的,可以将预测跟踪目标框的位置信息作为中心,将该中心四周符合按预设位置邻阈面积的区域确定为预测目标邻阈。
考虑到通过目标框跟踪确定待测对象运动轨迹稳定的过程中,也可能出现对目标框跟踪的误检,因此,可以对同一待测对象进行多次目标框跟踪,以确保跟踪结果有效,降低目标框跟踪误检引起的检测结果不准确。
为了降低目标框跟踪误检引起的检测效果不准确,可选的,在本发明图6实施例中的步骤S607之后,步骤S608之前,本发明实施例的条幅检测方法还可以包括:
将已保存的历史被跟踪目标框的个数,作为被跟踪目标框中的待测对象的跟踪成功次数。
具体的,可以将历史被跟踪目标框保存为跟踪队列,队列中历史被跟踪目标框的数量就是已保存的历史被跟踪目标框的个数。还可以在保存历史被跟踪目标框时记录已保存的历史被跟踪目标框的个数,历史被跟踪目标框每保存一次,则已保存的历史被跟踪目标框的个数就加一
同时,已保存的历史被跟踪目标框是在跟踪成功后保存候选跟踪目标框得到的,因此,已保存的历史被跟踪目标框的个数,可以作为被跟踪目标框中的待测对象的跟踪成功次数。
判断跟踪成功次数是否大于第三预设数量阈值。
若大于,则执行确定该待测对象为条幅。
当跟踪成功次数大于第三预设数量阈值,则表明被跟踪目标框中的待测对象在一定时间内被连续跟踪成功,该待测对象的运动轨迹稳定的检测结果是有效、可靠的,不存在误检。因此,确定该待测对象为条幅。
根据上述图5、图6以及对应的可选实施例,可以将对候选跟踪目标框进行匹配、跟踪、确定被检测到有效性以及确定跟踪成功有效性整合到一起。通过对候选跟踪目标框被检测到次数的确定,删除已保存的历史被跟踪目标框中误检的目标框,降低匹配时要进行的匹配次数。匹配成功后,对候选跟踪目标框和匹配成功的已保存的历史被跟踪目标框进行目标框跟踪,以确定候选跟踪目标框中的待测物体运动轨迹稳定,不存在从监控场景中消失的趋势。跟踪成功后,对跟踪成功的待测对象的跟踪次数进行确定,降低跟踪误检引起的检测结果不准确。通过上述整合,在检测出条幅后,进一步进行检测结果有效性的检测,降低误检,提高条幅检测结果的准确度。
具体的,如图7(a)所示,本发明再一实施例的条幅检测方法的流程,可以包括:
S701,按照预设周期,从监控视频中获取当前图像帧,作为待测图像。
S702,将待测图像输入预设的YOLO模型,得到包含的对象为待测对象的目标框,以及每个目标框所包含的待测对象的类别置信度。
S701至S702与S601至S602为相同的步骤,在此不再赘述,详见本发明图6实施例的描述。
S703,针对每个待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件,如果是,则执行S704。
步骤S703与S603的区别在于所执行的步骤S704不同,对于相同部分在此不再赘述,详见本发明图6实施例的描述。
S704,判断各个已保存的历史被跟踪目标框的检测次数是否小于第一预设数量阈值。如果是,则执行S705至S706。
S705,删除检测次数小于第一预设数量阈值的已保存的历史被跟踪目标框。
S704至S705与本发明图5实施例对应的可选实施例相同,在此不再赘述,详见本发明图5实施例对应的可选实施例的描述。
S706,利用预设匹配算法,将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框与历史已保存的被跟踪目标框进行匹配。如果匹配失败,则执行步骤S707至S708,如果匹配成功,则执行步骤S709至S711。
S706与本发明图6实施例中的步骤S604的区别在于,执行的步骤S708至S711不同,对于相同内容不再赘述,详见本发明图6实施例的描述。
S707,将候选跟踪目标框保存为被跟踪目标框,返回步骤S701。
S707与本发明图6实施例中的步骤S605相同,在此不再赘述,详见本发明图6实施例的描述。
S708,记录该被跟踪目标框的检测次数为初始值。
S709,保存候选跟踪目标框为被跟踪目标框。
S710,记录该被跟踪目标框的检测次数为该被跟踪目标框和与该被跟踪目标匹配成功的历史已保存的被跟踪目标框的总个数。
S711,根据候选跟踪目标框和匹配成功的被跟踪目标框,进行目标框跟踪。如果跟踪成功,则执行步骤S712至S7115,如果跟踪不成功,则执行步骤S701。
S712,将候选跟踪目标框保存为被跟踪目标框。
S713,将已保存的历史被跟踪目标框的个数,作为被跟踪目标框中的待测对象的跟踪成功次数。
S714,判断跟踪成功次数是否大于第三预设数量阈值。若大于,则执行步骤S715。
S715,确定该待测对象为条幅。
S708至S715与本发明图6实施例对应的可选实施例相同,在此不再赘述,详见本发明图6实施例对应的可选实施例的描述。
如图7(b)所示,本发明再一实施例的条幅检测方法的流程,该方法为本发明图7(a)实施例的另一种形式,可以包括:
S7011,输入目标。
步骤S7011具体包括本发明图7实施例的步骤S701至步骤S703,在此不再赘述,详见本发明图7实施例的描述。
S7012,目标预处理。
步骤S7012具体包括本发明图7实施例的步骤S704至步骤S705,在此不再赘述,详见本发明图7实施例的描述。
当然,目标预处理过程还可以包括:
获得候选目标框包含的待测对象的像素数量。
判断待测对象的像素数量是否满足预设像素条件,若满足,则执行S7013,若不满足,则返回获取待测图像的步骤。
实际应用中,可能出现将与条幅对象类似的其他对象,例如墙面广告以及店铺招牌等待测对象,误检为条幅的情况。对此,考虑到这些类似对象与的大小不与条幅对象不同,可以通过判断待测对象的像素数量是否满足预设像素条件进行过滤,剔除这类误检对象。
其中,预设像素条件可以待测对象的像素数量属于预设像素数量区间,也可以是待测对象的像素数量大于预设像素数量阈值。
S7013,目标匹配。
S7014,如果不匹配,则执行步骤S7015,如果匹配,则执行步骤S7016至S7017。
步骤S7013至S7014具体包括本发明图7(a)实施例中的步骤S706至S710,在此不再赘述,详见本发明图7(a)实施例的描述。
S7015,新建目标,记录新建目标的目标信息。
新建目标为记录匹配失败的候选目标框的检测次数为初始值。当然,新建目标后保存该进行新建目标的目标信息,该新建目标的候选目标框将被作为历史已保存的被跟踪目标框,参与下一次候选目标框的匹配。步骤S7015具体包括本发明图7(a)实施例中的步骤S708至步骤S709,在此不再赘述,详见本发明图7(a)实施例的描述。
S7016,目标跟踪预测。
S7017,记录目标信息。
步骤S7016至步骤S7017具体包括本发明图7(a)实施例中的步骤S711至步骤S715,在此不再赘述,详见本发明图7(a)实施例的描述。
实际应用中,对于监控视频,在通过上述任一实施例确定当前视频场景的图像中有条幅的基础上,还可以确定所检测的条幅是否为违规放置的条幅,以便对违规条幅进行处理。
对此,可选的,在通过上述任一实施例将从监控视频中获取的待测图像输入预设的YOLO模型之后,本发明实施例的条幅检测方法还可以包括:
获得YOLO模型对待测图像进行处理后,输出的每个待测对象在待测图像中的位置信息。
由于YOLO模型对待测图像进行处理后,通过目标框确定了待测对象,且目标框是包含待测对象图像特征最多的区域,因此,目标框的位置信息可以作为待测对象的位置信息。相应的,目标框的位置信息在待测图像中对应的位置信息,可以作为待测对象在待测图像中的位置信息。可以理解的是,每个待测对象各自对应一个目标框。
在确定该待测对象为条幅之后,本发明实施例的条幅检测方法还可以包括:
基于该待测对象的位置信息,确定该待测对象是否属于预设违规位置区间。其中,预设违规位置区间为:监控视频所监控场景中,禁止放置条幅的位置区间在该待测图像中对应的位置区间。
由于监控视频所监控的场景是固定场景,因此,可以预先确定该场景中静止放置条幅的区域在监控视频图像帧中对应的位置区间,从而用于确定该待测对象是否属于预设违规位置区间。具体的,当该待测对象的位置信息属于预设违规位置区间,可以确定该待测对象属于预设违规位置区间。
若是,则确定监控视频所监控场景中,存在条幅事件。
该待测对象属于预设违规位置区间,表明监控视频所监控的场景中,存在违规放置条幅的情况,则存在条幅事件。
可选的,在确定所述监控视频所监控场景中,存在条幅事件之后,所述方法还包括:
输出条幅违规放置的报警信息。
具体的,可以向违规放置行为管理者发送报警提示信息,提示信息可以包括条幅在监控视频所监控场景中的位置信息,例如第一街道红绿灯处。还可以包括预先存储的监控视频所监控场景的地理位置信息。
相应于上述方法实施例,本发明一实施例还提供了条幅检测装置。
如图8所示,本发明一实施例的条幅检测装置的结构,可以包括:
获取模块801,用于获得待测图像。
目标检测模块802,用于将所述待测图像输入预设的深度学习模型,得到待测对象及每个待测对象的类别置信度;其中,预设的深度学习模型为预先利用收集的多个包含条幅对象的样本图像训练得到的深度学习模型,所述待测对象是预设的深度学习模型从所述待测图像中提取的;针对所述待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件。如果是,则确定该待测对象为条幅。
本发明实施例提供的一种条幅检测装置,与基于颜色识别以及角点检测从待测图像中检测条幅的方式相比,预设的深度学习模型是预先利用收集的多个包含条幅对象的样本图像训练得到的模型,提取的待测图像中待测对象的类别置信度可以表明待测对象属于条幅类别的概率。当待测对象的置信度大于属于条幅类别的第一置信度阈值,就表明待测对象所具有的条幅图像特征的数量,满足将待测对象确定为条幅的数量。当待测对象是被遮挡或者颜色与背景色接近的条幅时,由于该待测对象本身具有足够数量的条幅图像特征,因此,不受待测对象颜色和被遮挡的影响,依然能够被检测到,从而提高了图像中条幅的检测准确度。
可选的,上述本发明图8实施例中预设的深度学习模型,采用如下步骤训练获得:
将收集的多个包含条幅对象的样本图像输入当前深度学习模型,得到每个样本图像对应的预测待测对象及每个预测待测对象的预测类别置信度。当前神经网络模型初次使用时为预设初始深度学习模型。
根据得到的多个预测待测对象、每个预测待测对象的预测类别置信度以及预设代价函数,判断。当前深度学习模型是否收敛。其中,预设代价函数为基于每个样本图像中预先标注的待测对象及每个待测对象的类别置信度确定的。
如果收敛,则将当前深度学习模型确定为预设的深度学习模型。
如果不收敛,则利用预设的梯度函数,采用随机梯度下降法调整所述当前深度学习模型的模型参数,得到新的深度学习模型。
将当前深度学习模型更新为所得到的新的深度学习模型。返回将收集的多个包含条幅对象的样本图像分别输入当前深度学习模型的步骤。
可选的,预设的深度学习模型为预设的YOLO模型;上述本发明图8实施例中的目标检测模块802,具体用于:
将所述待测图像输入预设的YOLO模型,得到包含的对象为待测对象的目标框,以及每个目标框所包含的待测对象的类别置信度。
可选的,上述本发明图8实施例中目标检测模块802,具体用于:
分别判断每个目标框中的待测对象的类别置信度,是否大于属于条幅类别的第一置信度阈值。如果是,则确定目标框中的待测对象为条幅。
如图9(a)所示,本发明另一实施例的条幅检测装置的结构,该装置可以包括:
获取模块901,用于按照预设周期,从监控视频中获取当前图像帧,作为待测图像;
目标检测模块902,用于将所述待测图像输入预设的YOLO模型,得到包含的对象为待测对象的目标框,以及每个目标框所包含的待测对象的类别置信度;针对所述待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件;如果是,则确定该待测对象为条幅。
目标匹配模块903,用于在所述目标检测模块确定目标框中的该待测对象为条幅之前,利用预设匹配算法,将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框与历史已保存的被跟踪目标框进行匹配。如果匹配失败,则将候选跟踪目标框保存为被跟踪目标框,获取模块901按照预设周期,从监控视频中获取当前图像帧,作为待测图像。如果匹配成功,则目标检测模903块确定该待测对象为条幅。
可选的,上述本发明图9(a)实施例中的目标匹配模块903,具体用于:
将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框;利用预设匹配算法,计算候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度。
如果候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度符合预设重合条件,则匹配成功。
如果候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度不符合预设重合条件,则匹配失败。
可选的,上述本发明图9(a)实施例中的条幅检测装置还可以包括:目标预处理模块;
目标预处理模块,用于在目标匹配模块903判断出匹配失败之后,记录该被跟踪目标框的检测次数为初始值;在目标匹配模块判断出匹配成功之后,保存候选跟踪目标框为被跟踪目标框。记录被跟踪目标框的检测次数为所述被跟踪目标框和与该被跟踪目标匹配成功的历史已保存的被跟踪目标框的总个数。
目标预处理模块,还用于在目标匹配模块进行匹配之前,判断各个已保存的历史被跟踪目标框的检测次数是否小于第一预设数量阈值。如果是,则删除检测次数小于第一预设数量阈值的已保存的历史被跟踪目标框。
如图9(b)所示,本发明再一实施例的条幅检测装置的结构,可以包括:
获取模块901,用于按照预设周期,从监控视频中获取当前图像帧,作为待测图像。
目标检测模块902,用于将所述待测图像输入预设的YOLO模型,得到包含的对象为待测对象的目标框,以及每个目标框所包含的待测对象的类别置信度;针对所述待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件;如果是,则确定该待测对象为条幅。
目标匹配模块903,用于在所述目标检测模块确定目标框中的该待测对象为条幅之前,利用预设匹配算法,将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框与历史已保存的被跟踪目标框进行匹配。如果匹配失败,则将所述候选跟踪目标框保存为被跟踪目标框,获取模块901按照预设周期,从监控视频中获取当前图像帧,作为待测图像。如果匹配成功,则目标检测模块903确定该待测对象为条幅。
目标跟踪模块904,用于在目标匹配模块903匹配成功后,根据候选跟踪目标框和匹配成功的被跟踪目标框,进行目标框跟踪。如果跟踪成功,则将候选跟踪目标框保存为被跟踪目标框,目标检测模块902执行确定该待测对象为条幅的步骤。如果跟踪不成功,则获取模块901按照预设周期,从监控视频中获取当前图像帧,作为待测图像。
可选的,上述本发明图9(b)实施例中的目标跟踪模块904,具体用于:
获得上一次跟踪成功后,保存的候选跟踪目标框对应的预测跟踪目标框和预测位置邻阈。判断所述候选跟踪目标框是否在预测目标邻阈内。如果在预测目标邻阈内,则判断与预测目标框距离最近的候选跟踪目标框,与预测目标框的重合度是否满足第二预设重合条件。如果满足,则跟踪成功;如果不满足,则跟踪失败。
所述目标跟踪模块904,还用于:
在跟踪成功后,根据候选跟踪目标框和匹配成功的被跟踪目标框,对下一次要进行目标框跟踪的候选跟踪目标框进行预测,获得预测跟踪目标框。基于所述预测跟踪目标框的位置信息,将预测目标框在下一次获取的待测图像中的位置邻阈,确定为预测目标邻阈。
可选的,上述本发明图9(b)实施例中的目标跟踪模块904,还用于:
在保存候选跟踪目标框为被跟踪目标框之后,目标检测模块903确定该待测对象为条幅之前,将已保存的历史被跟踪目标框的个数,作为被跟踪目标框中的待测对象的跟踪成功次数。判断跟踪成功次数是否大于第三预设数量阈值。若大于,则目标检测模块903确定该待测对象为条幅。
如图10所示,本发明再一实施例的条幅检测装置的结构,可以包括:
获取模块1001,用于按照预设周期,从监控视频中获取当前图像帧,作为待测图像。
目标检测模块1002,用于将所述待测图像输入预设的YOLO模型,得到包含的对象为待测对象的目标框,以及每个目标框所包含的待测对象的类别置信度;针对所述待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件;如果是,则确定该待测对象为条幅。
目标匹配模块1003,用于在所述目标检测模块确定目标框中的该待测对象为条幅之前,利用预设匹配算法,将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框与历史已保存的被跟踪目标框进行匹配。如果匹配失败,则将候选跟踪目标框保存为被跟踪目标框,获取模块1001按照预设周期,从监控视频中获取当前图像帧,作为待测图像的步骤。如果匹配成功,则目标检测模块1002执行所述确定该待测对象为条幅的步骤。
目标跟踪模块1004,用于在目标匹配模块1003匹配成功后,根据候选跟踪目标框和匹配成功的被跟踪目标框,进行目标框跟踪。如果跟踪成功,则将候选跟踪目标框保存为被跟踪目标框,目标检测模块1002执行确定该待测对象为条幅的步骤。如果跟踪不成功,则获取模块1001按照预设周期,从监控视频中获取当前图像帧,作为待测图像。
事件检测模块1005,用于获得目标检测模块1003中的YOLO模型对待测图像进行处理后输出的每个待测对象在所述待测图像中的位置信息。在目标检测模块1003确定该待测对象为条幅之后,基于该待测对象的位置信息,确定该待测对象是否属于预设违规位置区间。其中,预设违规位置区间为:监控视频所监控场景中,禁止放置条幅的位置区间在该待测图像中对应的位置区间。若是,则确定监控视频所监控场景中,存在条幅事件。
可选的,本发明图10实施例中的事件检测模块1005,还可以用于:在确定监控视频所监控场景中,存在条幅事件之后,输出条幅违规放置的报警信息。
相应于上述实施例,本发明实施例还提供了一种电子设备,如图11所示,存储服务器1100,可以包括:
处理器1101、通信接口1102、存储器1103和通信总线1104,其中,处理器1101,通信接口1102,存储器通1103过通信总线1104完成相互间的通信;
存储器1103,用于存放计算机程序;
处理器1101,用于执行上述存储器1103上所存放的计算机程序时,实现下述步骤:
获得待测图像。将待测图像输入预设的YOLO模型;预设的YOLO模型为预先利用收集的多个包含条幅对象的样本图像训练得到的YOLO模型。
获得YOLO模型对该待测图像进行处理后输出的待测对象及每个待测对象的类别置信度。其中,待测对象是YOLO模型从待测图像中提取的。
针对每个待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件。如果是,则确定该待测对象为条幅。
本发明实施例提供的一种电子设备,与基于颜色识别以及角点检测从待测图像中检测条幅的方式相比,预设的深度学习模型是预先利用收集的多个包含条幅对象的样本图像训练得到的模型,提取的待测图像中待测对象的类别置信度可以表明待测对象属于条幅类别的概率。当待测对象的置信度大于属于条幅类别的第一置信度阈值,就表明待测对象所具有的条幅图像特征的数量,满足将待测对象确定为条幅的数量。当待测对象是被遮挡或者颜色与背景色接近的条幅时,由于该待测对象本身具有足够数量的条幅图像特征,因此,不受待测对象颜色和被遮挡的影响,依然能够被检测到,从而提高了图像中条幅的检测准确度。
可选的,上述本发明图11实施例中的预设的深度学习模型,采用如下步骤训练获得:
将收集的多个包含条幅对象的样本图像输入当前深度学习模型,得到每个样本图像对应的预测待测对象及每个预测待测对象的预测类别置信度;当前神经网络模型初次使用时为预设初始深度学习模型。
根据得到的多个预测待测对象、每个预测待测对象的预测类别置信度以及预设代价函数,判断所述当前深度学习模型是否收敛。其中,预设代价函数为基于每个样本图像中预先标注的待测对象及每个待测对象的类别置信度确定的。
如果收敛,则将当前深度学习模型确定为预设的深度学习模型。
如果不收敛,则利用预设的梯度函数,采用随机梯度下降法调整所述当前深度学习模型的模型参数,得到新的深度学习模型。
将当前深度学习模型更新为所得到的新的深度学习模型。
返回将收集的多个包含条幅对象的样本图像分别输入当前深度学习模型的步骤。
可选的,预设的深度学习模型为预设的YOLO模型;上述本发明图11实施例中的处理器1101,用于执行上述存储器1103上所存放的计算机程序时,具体实现:
将所述待测图像输入预设的YOLO模型,得到包含的的对象为待测对象的目标框,以及每个目标框所包含的待测对象的类别置信度。
可选的,上述本发明图11实施例中的处理器1101,用于执行上述存储器1103上所存放的计算机程序时,具体实现:
分别判断每个目标框中的待测对象的类别置信度,是否大于属于条幅类别的第一置信度阈值。
如果是,则确定目标框中的待测对象为条幅。
可选的,上述本发明图11实施例中的处理器1101,用于执行上述存储器1103上所存放的计算机程序时,具体实现:
按照预设周期,从监控视频中获取当前图像帧,作为待测图像。
处理器1101,用于执行上述存储器1103上所存放的计算机程序时,还实现:
在确定目标框中的该待测对象为条幅之前,利用预设匹配算法,将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框与历史已保存的被跟踪目标框进行匹配。
如果匹配失败,则将候选跟踪目标框保存为被跟踪目标框,返回按照预设周期,从监控视频中获取当前图像帧,作为待测图像的步骤。
如果匹配成功,则执行确定该待测对象为条幅的步骤。
可选的,上述利用预设匹配算法,将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框与历史已保存的被跟踪目标框进行匹配的步骤,具体可以包括:
将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框。
利用预设匹配算法,计算所述候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度。
如果所述候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度符合预设重合条件,则匹配成功。
如果所述候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度不符合预设重合条件,则匹配失败。
可选的,上述本发明图11实施例中的处理器1101,用于执行上述存储器1103上所存放的计算机程序时,还实现:
在判断出匹配失败之后,记录该被跟踪目标框的检测次数为初始值;在断出匹配成功之后,保存所述候选跟踪目标框为被跟踪目标框。记录被跟踪目标框的检测次数为所述被跟踪目标框和与该被跟踪目标匹配成功的历史已保存的被跟踪目标框的总个数。
在利用预设匹配算法,将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框与历史已保存的被跟踪目标框进行匹配的步骤之前,判断各个已保存的历史被跟踪目标框的检测次数是否小于第一预设数量阈值。如果是,则删除检测次数小于第一预设数量阈值的已保存的历史被跟踪目标框。
可选的,上述本发明图11实施例中的处理器1101,用于执行上述存储器1103上所存放的计算机程序时,具体实现:
如果匹配成功,则根据候选跟踪目标框和匹配成功的被跟踪目标框,进行目标框跟踪。如果跟踪成功,则将候选跟踪目标框保存为被跟踪目标框,执行确定该待测对象为条幅的步骤。
如果跟踪不成功,返回按照预设周期,从监控视频中获取当前图像帧,作为待测图像的步骤。
可选的,上述根据所述候选跟踪目标框和匹配成功的被跟踪目标框,进行目标框跟踪的步骤,具体可以包括:
获得上一次跟踪成功后,保存的候选跟踪目标框对应的预测跟踪目标框和预测位置邻阈。判断候选跟踪目标框是否在所述预测目标邻阈内。如果在预测目标邻阈内,则判断与预测目标框距离最近的候选跟踪目标框,与预测目标框的重合度是否满足第二预设重合条件。如果满足,则跟踪成功;如果不满足,则跟踪失败。
相应的,上述本发明图11实施例中的处理器1101,用于执行上述存储器1103上所存放的计算机程序时,还实现:
在跟踪成功后,根据候选跟踪目标框和匹配成功的被跟踪目标框,对下一次要进行目标框跟踪的候选跟踪目标框进行预测,获得预测跟踪目标框。基于预测跟踪目标框的位置信息,将预测目标框在下一次获取的待测图像中的位置邻阈,确定为预测目标邻阈。
可选的,上述本发明图11实施例中的处理器1101,用于执行上述存储器1103上所存放的计算机程序时,还实现:
在保存所述候选跟踪目标框为被跟踪目标框之后,执行确定该待测对象为条幅之前,将已保存的历史被跟踪目标框的个数,作为所述被跟踪目标框中的待测对象的跟踪成功次数。判断跟踪成功次数是否大于第三预设数量阈值。若大于,则执行确定该待测对象为条幅的步骤。
可选的,上述本发明图11实施例中的处理器1101,用于执行上述存储器1103上所存放的计算机程序时,还实现:
在将待测图像输入预设的YOLO模型之后,获得YOLO模型对待测图像进行处理后输出的每个待测对象在所述待测图像中的位置信息。
在确定该待测对象为条幅之后,基于该待测对象的位置信息,确定该待测对象是否属于预设违规位置区间;其中,预设违规位置区间为:监控视频所监控场景中,禁止放置条幅的位置区间在该待测图像中对应的位置区间。
若是,则确定监控视频所监控场景中,存在条幅事件。
可选的,上述本发明图11实施例中的处理器1101,用于执行上述存储器1103上所存放的计算机程序时,还实现:
在确定监控视频所监控场景中,存在条幅事件之后,输出条幅违规放置的报警信息。
上述存储器可以包括RAM(Random Access Memory,随机存取存储器),也可以包括NVM(Non-Volatile Memory,非易失性存储器),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离于上述处理器的存储装置。
上述处理器可以是通用处理器,包括CPU(Central Processing Unit,中央处理器)、NP(Network Processor,网络处理器)等;还可以是DSP(Digital Signal Processor,数字信号处理器)、ASIC(Application Specific Integrated Circuit,专用集成电路)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本发明一实施例提供的计算机可读存储介质,包含于电子设备,该计算机可读存储介质内存储有计算机程序,该计算机程序被处理器执行时,实现上述任一实施例中条幅检测方法的步骤。
本发明实施例提供的一种计算机可读存储介质,包含于电子设备,该计算机可读存储介质内存储有计算机程序,该计算机程序被处理器执行时,与基于颜色识别以及角点检测从待测图像中检测条幅的方式相比,预设的深度学习模型是预先利用收集的多个包含条幅对象的样本图像训练得到的模型,提取的待测图像中待测对象的类别置信度可以表明待测对象属于条幅类别的概率。当待测对象的置信度大于属于条幅类别的第一置信度阈值,就表明待测对象所具有的条幅图像特征的数量,满足将待测对象确定为条幅的数量。当待测对象是被遮挡或者颜色与背景色接近的条幅时,由于该待测对象本身具有足够数量的条幅图像特征,因此,不受待测对象颜色和被遮挡的影响,依然能够被检测到,从而提高了图像中条幅的检测准确度。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一实施例中所述的条幅检测方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、DSL(Digital Subscriber Line,数字用户线)或无线(例如:红外线、无线电、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如:DVD(Digital Versatile Disc,数字通用光盘))、或者半导体介质(例如:SSD(Solid StateDisk,固态硬盘))等。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置和设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (24)
1.一种条幅检测方法,其特征在于,所述方法包括:
获得待测图像;
将所述待测图像输入预设深度学习模型,得到待测对象及每个待测对象的类别置信度;其中,所述预设深度学习模型为利用预先收集的多个包含条幅对象的样本图像训练得到的,所述待测对象是所述预设深度学习模型从所述待测图像中提取的;
针对所述待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件;
如果是,则确定该待测对象为条幅。
2.根据权利要求1所述的方法,其特征在于,所述预设的深度学习模型,采用如下步骤训练获得:
将收集的多个包含条幅对象的样本图像输入当前深度学习模型,得到每个样本图像对应的预测待测对象及每个预测待测对象的预测类别置信度;所述当前神经网络模型初次使用时为预设初始深度学习模型;
根据得到的多个预测待测对象、每个预测待测对象的预测类别置信度以及预设代价函数,判断所述当前深度学习模型是否收敛;其中,所述预设代价函数为基于每个样本图像中预先标注的待测对象及每个待测对象的类别置信度确定的;
如果收敛,则将所述当前深度学习模型确定为预设的深度学习模型;
如果不收敛,则调整所述当前深度学习模型的模型参数,得到新的深度学习模型;
将所述当前深度学习模型更新为所得到的新的深度学习模型;
返回将收集的多个包含条幅对象的样本图像分别输入当前深度学习模型的步骤。
3.根据权利要求1所述的方法,其特征在于,所述预设的深度学习模型为预设的YOLO模型;
所述将所述待测图像输入预设深度学习模型,得到待测对象及每个待测对象的类别置信度,包括:
将所述待测图像输入预设的YOLO模型,得到包含的对象为待测对象的目标框,以及每个目标框所包含的待测对象的类别置信度。
4.根据权利要求3所述的方法,其特征在于,
所述针对所述待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件的步骤,包括:
分别判断每个目标框中的待测对象的类别置信度,是否大于属于条幅类别的第一置信度阈值;
如果是,则所述确定该待测对象为条幅的步骤,包括:确定目标框中的待测对象为条幅。
5.根据权利要求4所述的方法,其特征在于,
所述获得待测图像,包括:
按照预设周期,从监控视频中获取当前图像帧,作为待测图像;
在所述确定目标框中的该待测对象为条幅之前,还包括:
利用预设匹配算法,将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框与历史已保存的被跟踪目标框进行匹配;
如果匹配失败,则将所述候选跟踪目标框保存为被跟踪目标框,返回所述按照预设周期,从监控视频中获取当前图像帧,作为待测图像的步骤;
如果匹配成功,则执行所述确定该待测对象为条幅的步骤。
6.根据权利要求5所述的方法,其特征在于,
所述利用预设匹配算法,将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框与历史已保存的被跟踪目标框进行匹配的步骤,包括:
将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框;
利用预设匹配算法,计算所述候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度;
如果所述候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度符合预设重合条件,则匹配成功;
如果所述候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度不符合预设重合条件,则匹配失败。
7.根据权利要求5所述的方法,其特征在于,
所述如果匹配成功,则执行所述确定该待测对象为条幅的步骤,包括:
如果匹配成功,则根据所述候选跟踪目标框和匹配成功的被跟踪目标框,进行目标框跟踪;
如果跟踪成功,则将所述候选跟踪目标框保存为被跟踪目标框,执行所述确定该待测对象为条幅的步骤;
所述方法还包括:
如果跟踪不成功,返回所述按照预设周期,从监控视频中获取当前图像帧,作为待测图像的步骤。
8.根据权利要求7所述的方法,其特征在于,
所述根据所述候选跟踪目标框和匹配成功的被跟踪目标框,进行目标框跟踪的步骤,包括:
获得上一次跟踪成功后,保存的所述候选跟踪目标框对应的预测跟踪目标框和预测位置邻阈;
判断所述候选跟踪目标框是否在所述预测目标邻阈内;
如果在所述预测目标邻阈内,则判断与所述预测目标框距离最近的候选跟踪目标框,与所述预测目标框的重合度是否满足第二预设重合条件;
如果满足,则跟踪成功;
如果不满足,则跟踪失败;
在所述跟踪成功后,所述方法还包括:
根据所述候选跟踪目标框和匹配成功的被跟踪目标框,对下一次要进行目标框跟踪的候选跟踪目标框进行预测,获得预测跟踪目标框;
基于所述预测跟踪目标框的位置信息,将所述预测目标框在下一次获取的待测图像中的位置邻阈,确定为预测目标邻阈。
9.根据权利要求5所述的方法,其特征在于,在所述判断出匹配失败之后,所述方法还包括:
记录该被跟踪目标框的检测次数为初始值;
在所述判断出匹配成功之后,所述方法还包括:
保存所述候选跟踪目标框为被跟踪目标框;
记录所述被跟踪目标框的检测次数为所述被跟踪目标框和与该被跟踪目标匹配成功的历史已保存的被跟踪目标框的总个数;
在所述利用预设匹配算法,将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框与历史已保存的被跟踪目标框进行匹配的步骤之前,还包括:
判断各个已保存的历史被跟踪目标框的检测次数是否小于第一预设数量阈值;
如果是,则删除检测次数小于第一预设数量阈值的已保存的历史被跟踪目标框。
10.根据权利要求7所述的方法,其特征在于,在所述保存所述候选跟踪目标框为被跟踪目标框之后,执行所述确定该待测对象为条幅之前,所述方法还包括:
将已保存的历史被跟踪目标框的个数,作为所述被跟踪目标框中的待测对象的跟踪成功次数;
判断所述跟踪成功次数是否大于第三预设数量阈值;
若大于,则执行所述确定该待测对象为条幅的步骤。
11.根据权利要求5-9任一项所述的方法,其特征在于,在将所述待测图像输入预设的YOLO模型之后,所述方法还包括:
获得所述YOLO模型对所述待测图像进行处理后输出的每个待测对象在所述待测图像中的位置信息:
在所述确定该待测对象为条幅之后,所述方法还包括:
基于该待测对象的位置信息,确定该待测对象是否属于预设违规位置区间;其中,所述预设违规位置区间为:所述监控视频所监控场景中,禁止放置条幅的位置区间在该待测图像中对应的位置区间;
若是,则确定所述监控视频所监控场景中,存在条幅事件。
12.一种条幅检测装置,其特征在于,所述装置包括:
获取模块,用于获得待测图像;
目标检测模块,用于将所述待测图像输入预设的深度学习模型,得到待测对象及每个待测对象的类别置信度;其中,所述预设的深度学习模型为预先利用收集的多个包含条幅对象的样本图像训练得到的,所述待测对象是所述预设的深度学习模型从所述待测图像中提取的;针对所述待测对象,判断该待测对象的类别置信度是否满足预设条幅类别置信度条件;如果是,则确定该待测对象为条幅。
13.根据权利要求12所述的装置,其特征在于,所述预设的深度学习模型,采用如下步骤训练获得:
将收集的多个包含条幅对象的样本图像输入当前深度学习模型,得到每个样本图像对应的预测待测对象及每个预测待测对象的预测类别置信度;所述当前神经网络模型初次使用时为预设初始深度学习模型;
根据得到的多个预测待测对象、每个预测待测对象的预测类别置信度以及预设代价函数,判断所述当前深度学习模型是否收敛;其中,所述预设代价函数为基于每个样本图像中预先标注的待测对象及每个待测对象的类别置信度确定的;
如果收敛,则将所述当前深度学习模型确定为预设的深度学习模型;
如果不收敛,则利用预设的梯度函数,采用随机梯度下降法调整所述当前深度学习模型的模型参数,得到新的深度学习模型;
将所述当前深度学习模型更新为所得到的新的深度学习模型;
返回将收集的多个包含条幅对象的样本图像分别输入当前深度学习模型的步骤。
14.根据权利要求12所述的装置,其特征在于,所述预设的深度学习模型为预设的YOLO模型;所述目标检测模块,具体用于:
将所述待测图像输入预设的YOLO模型,得到包含的对象为待测对象的目标框,以及每个目标框所包含的待测对象的类别置信度。
15.根据权利要求14所述的装置,其特征在于,所述目标检测模块,具体用于:
分别判断每个目标框中的待测对象的类别置信度,是否大于属于条幅类别的第一置信度阈值;
如果是,则确定目标框中的待测对象为条幅。
16.根据权利要求15所述的装置,其特征在于,获取模块,具体用于:
按照预设周期,从监控视频中获取当前图像帧,作为待测图像;
所述装置还包括:目标匹配模块;
所述目标匹配模块,用于在所述目标检测模块确定目标框中的该待测对象为条幅之前,利用预设匹配算法,将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框与历史已保存的被跟踪目标框进行匹配;
如果匹配失败,则将所述候选跟踪目标框保存为被跟踪目标框,所述获取模块执行按照预设周期,从监控视频中获取当前图像帧,作为待测图像的步骤;
如果匹配成功,则所述目标检测模块执行所述确定该待测对象为条幅的步骤。
17.根据权利要求16所述的装置,其特征在于,
所述目标匹配模块,具体用于:
将各个类别置信度大于属于条幅类别的第一置信度阈值的目标框作为候选跟踪目标框;
利用预设匹配算法,计算所述候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度;
如果所述候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度符合预设重合条件,则匹配成功;
如果所述候选跟踪目标框与历史已保存的被跟踪目标框之间的位置信息重合度不符合预设重合条件,则匹配失败。
18.根据权利要求16所述的装置,其特征在于,所述装置还包括:目标跟踪模块;
所述目标跟踪模块,用于在所述目标匹配模块匹配成功后,根据所述候选跟踪目标框和匹配成功的被跟踪目标框,进行目标框跟踪;
如果跟踪成功,则将所述候选跟踪目标框保存为被跟踪目标框,所述目标检测模块执行所述确定该待测对象为条幅的步骤;
所述目标跟踪模块,还用于:
如果跟踪不成功,则所述获取模块按照预设周期,从监控视频中获取当前图像帧,作为待测图像的步骤。
19.根据权利要求18所述的装置,其特征在于,所述目标跟踪模块,具体用于:
获得上一次跟踪成功后,保存的所述候选跟踪目标框对应的预测跟踪目标框和预测位置邻阈;
判断所述候选跟踪目标框是否在所述预测目标邻阈内;
如果在所述预测目标邻阈内,则判断与所述预测目标框距离最近的候选跟踪目标框,与所述预测目标框的重合度是否满足第二预设重合条件;
如果满足,则跟踪成功;
如果不满足,则跟踪失败;
所述目标跟踪模块,还用于:
在所述跟踪成功后,根据所述候选跟踪目标框和匹配成功的被跟踪目标框,对下一次要进行目标框跟踪的候选跟踪目标框进行预测,获得预测跟踪目标框;
基于所述预测跟踪目标框的位置信息,将所述预测目标框在下一次获取的待测图像中的位置邻阈,确定为预测目标邻阈。
20.根据权利要求16所述的装置,其特征在于,所述装置还包括:目标预处理模块;
所述目标预处理模块,用于在所述目标匹配模块判断出匹配失败之后,记录该被跟踪目标框的检测次数为初始值;
所述目标预处理模块,用于在所述目标匹配模块判断出匹配成功之后,保存所述候选跟踪目标框为被跟踪目标框;
记录所述被跟踪目标框的检测次数为所述被跟踪目标框和与该被跟踪目标匹配成功的历史已保存的被跟踪目标框的总个数;
所述目标预处理模块,还用于在所述目标匹配模块进行匹配之前,判断各个已保存的历史被跟踪目标框的检测次数是否小于第一预设数量阈值;
如果是,则删除检测次数小于第一预设数量阈值的已保存的历史被跟踪目标框。
21.根据权利要求18所述的装置,其特征在于,所述目标跟踪模块,还用于:
在所述保存所述候选跟踪目标框为被跟踪目标框之后,所述目标检测模块执行确定该待测对象为条幅之前,将已保存的历史被跟踪目标框的个数,作为所述被跟踪目标框中的待测对象的跟踪成功次数;
判断所述跟踪成功次数是否大于第三预设数量阈值;
若大于,则所述目标检测模块执行确定该待测对象为条幅。
22.根据权利要求16-20任一项所述的装置,其特征在于,所述装置还包括:事件检测模块,
所述事件检测模块,用于获得所述目标检测模块中的所述YOLO模型对所述待测图像进行处理后输出的每个待测对象在所述待测图像中的位置信息:
所述事件检测模块,还用于在所述目标检测模块确定该待测对象为条幅之后,基于该待测对象的位置信息,确定该待测对象是否属于预设违规位置区间;其中,所述预设违规位置区间为:所述监控视频所监控场景中,禁止放置条幅的位置区间在该待测图像中对应的位置区间;
若是,则确定所述监控视频所监控场景中,存在条幅事件。
23.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过总线完成相互间的通信;存储器,用于存放计算机程序;处理器,用于执行存储器上所存放的程序,实现如权利要求1-11任一所述的方法步骤。
24.一种计算机可读存储介质,其特征在于,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-11任一所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811636145.5A CN111383246B (zh) | 2018-12-29 | 2018-12-29 | 条幅检测方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811636145.5A CN111383246B (zh) | 2018-12-29 | 2018-12-29 | 条幅检测方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111383246A true CN111383246A (zh) | 2020-07-07 |
CN111383246B CN111383246B (zh) | 2023-11-07 |
Family
ID=71214769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811636145.5A Active CN111383246B (zh) | 2018-12-29 | 2018-12-29 | 条幅检测方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111383246B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112712504A (zh) * | 2020-12-30 | 2021-04-27 | 广东粤云工业互联网创新科技有限公司 | 基于云端的工件检测方法及系统、计算机可读存储介质 |
CN112990072A (zh) * | 2021-03-31 | 2021-06-18 | 广州敏视数码科技有限公司 | 一种基于高低双阈值的目标检测与跟踪方法 |
CN113206998A (zh) * | 2021-04-30 | 2021-08-03 | 中国工商银行股份有限公司 | 一种业务录制的视频数据质检方法及装置 |
CN113468998A (zh) * | 2021-06-23 | 2021-10-01 | 武汉虹信技术服务有限责任公司 | 一种基于视频流的人像检测方法、系统及存储介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101212658A (zh) * | 2007-12-21 | 2008-07-02 | 北京中星微电子有限公司 | 一种目标跟踪方法及装置 |
WO2010042068A1 (en) * | 2008-10-06 | 2010-04-15 | Agency For Science, Technology And Research | Method and system for object detection and tracking |
CN102968625A (zh) * | 2012-12-14 | 2013-03-13 | 南京思创信息技术有限公司 | 基于轨迹的船舶识别与跟踪方法 |
CN105405154A (zh) * | 2014-09-04 | 2016-03-16 | 成都理想境界科技有限公司 | 基于颜色-结构特征的目标对象跟踪方法 |
CN105825524A (zh) * | 2016-03-10 | 2016-08-03 | 浙江生辉照明有限公司 | 目标跟踪方法和装置 |
CN107194318A (zh) * | 2017-04-24 | 2017-09-22 | 北京航空航天大学 | 目标检测辅助的场景识别方法 |
CN107403444A (zh) * | 2017-09-12 | 2017-11-28 | 深圳市中联讯科技有限公司 | 识别系统 |
CN107527009A (zh) * | 2017-07-11 | 2017-12-29 | 浙江汉凡软件科技有限公司 | 一种基于yolo目标检测的遗留物检测方法 |
CN108108664A (zh) * | 2017-11-30 | 2018-06-01 | 江西洪都航空工业集团有限责任公司 | 一种基于多目标检测与分类的城市管理监控系统 |
US20180158189A1 (en) * | 2016-12-07 | 2018-06-07 | Samsung Electronics Co., Ltd. | System and method for a deep learning machine for object detection |
US10007863B1 (en) * | 2015-06-05 | 2018-06-26 | Gracenote, Inc. | Logo recognition in images and videos |
WO2018121286A1 (zh) * | 2016-12-30 | 2018-07-05 | 纳恩博(北京)科技有限公司 | 目标跟踪方法和装置 |
CN108446622A (zh) * | 2018-03-14 | 2018-08-24 | 海信集团有限公司 | 目标物体的检测跟踪方法及装置、终端 |
CN108805900A (zh) * | 2017-05-03 | 2018-11-13 | 杭州海康威视数字技术股份有限公司 | 一种跟踪目标的确定方法及装置 |
CN108875600A (zh) * | 2018-05-31 | 2018-11-23 | 银江股份有限公司 | 一种基于yolo的车辆信息检测和跟踪方法、装置及计算机存储介质 |
-
2018
- 2018-12-29 CN CN201811636145.5A patent/CN111383246B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101212658A (zh) * | 2007-12-21 | 2008-07-02 | 北京中星微电子有限公司 | 一种目标跟踪方法及装置 |
WO2010042068A1 (en) * | 2008-10-06 | 2010-04-15 | Agency For Science, Technology And Research | Method and system for object detection and tracking |
CN102968625A (zh) * | 2012-12-14 | 2013-03-13 | 南京思创信息技术有限公司 | 基于轨迹的船舶识别与跟踪方法 |
CN105405154A (zh) * | 2014-09-04 | 2016-03-16 | 成都理想境界科技有限公司 | 基于颜色-结构特征的目标对象跟踪方法 |
US10007863B1 (en) * | 2015-06-05 | 2018-06-26 | Gracenote, Inc. | Logo recognition in images and videos |
CN105825524A (zh) * | 2016-03-10 | 2016-08-03 | 浙江生辉照明有限公司 | 目标跟踪方法和装置 |
US20180158189A1 (en) * | 2016-12-07 | 2018-06-07 | Samsung Electronics Co., Ltd. | System and method for a deep learning machine for object detection |
WO2018121286A1 (zh) * | 2016-12-30 | 2018-07-05 | 纳恩博(北京)科技有限公司 | 目标跟踪方法和装置 |
CN107194318A (zh) * | 2017-04-24 | 2017-09-22 | 北京航空航天大学 | 目标检测辅助的场景识别方法 |
CN108805900A (zh) * | 2017-05-03 | 2018-11-13 | 杭州海康威视数字技术股份有限公司 | 一种跟踪目标的确定方法及装置 |
CN107527009A (zh) * | 2017-07-11 | 2017-12-29 | 浙江汉凡软件科技有限公司 | 一种基于yolo目标检测的遗留物检测方法 |
CN107403444A (zh) * | 2017-09-12 | 2017-11-28 | 深圳市中联讯科技有限公司 | 识别系统 |
CN108108664A (zh) * | 2017-11-30 | 2018-06-01 | 江西洪都航空工业集团有限责任公司 | 一种基于多目标检测与分类的城市管理监控系统 |
CN108446622A (zh) * | 2018-03-14 | 2018-08-24 | 海信集团有限公司 | 目标物体的检测跟踪方法及装置、终端 |
CN108875600A (zh) * | 2018-05-31 | 2018-11-23 | 银江股份有限公司 | 一种基于yolo的车辆信息检测和跟踪方法、装置及计算机存储介质 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112712504A (zh) * | 2020-12-30 | 2021-04-27 | 广东粤云工业互联网创新科技有限公司 | 基于云端的工件检测方法及系统、计算机可读存储介质 |
CN112712504B (zh) * | 2020-12-30 | 2023-08-15 | 广东粤云工业互联网创新科技有限公司 | 基于云端的工件检测方法及系统、计算机可读存储介质 |
CN112990072A (zh) * | 2021-03-31 | 2021-06-18 | 广州敏视数码科技有限公司 | 一种基于高低双阈值的目标检测与跟踪方法 |
CN113206998A (zh) * | 2021-04-30 | 2021-08-03 | 中国工商银行股份有限公司 | 一种业务录制的视频数据质检方法及装置 |
CN113206998B (zh) * | 2021-04-30 | 2022-12-09 | 中国工商银行股份有限公司 | 一种业务录制的视频数据质检方法及装置 |
CN113468998A (zh) * | 2021-06-23 | 2021-10-01 | 武汉虹信技术服务有限责任公司 | 一种基于视频流的人像检测方法、系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111383246B (zh) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111383246B (zh) | 条幅检测方法、装置及设备 | |
CN108256404B (zh) | 行人检测方法和装置 | |
US11599825B2 (en) | Method and apparatus for training trajectory classification model, and electronic device | |
CN111709975B (zh) | 多目标跟踪方法、装置、电子设备及存储介质 | |
EP2660753B1 (en) | Image processing method and apparatus | |
CN111583118B (zh) | 图像拼接方法、装置、存储介质及电子设备 | |
KR20140103046A (ko) | 객체 추적 방법 및 이를 지원하는 전자 장치 | |
CN115376109B (zh) | 障碍物检测方法、障碍物检测装置以及存储介质 | |
CN112541403B (zh) | 一种利用红外摄像头的室内人员跌倒检测方法 | |
CN114972490B (zh) | 一种数据自动标注方法、装置、设备及存储介质 | |
CN110335313A (zh) | 音频采集设备定位方法及装置、说话人识别方法及系统 | |
CN112085778A (zh) | 基于超像素和形态学的倾斜摄影违法建筑检测方法及系统 | |
CN115953434B (zh) | 轨迹匹配方法、装置、电子设备和存储介质 | |
CN112819889A (zh) | 位置信息的确定方法及装置、存储介质、电子装置 | |
CN111652034A (zh) | 一种基于sift算法的船只检索方法及装置 | |
WO2022252482A1 (zh) | 机器人及其环境地图构建方法和装置 | |
CN115393755A (zh) | 视觉目标跟踪方法、装置、设备以及存储介质 | |
CN113673288B (zh) | 空闲车位检测方法、装置、计算机设备及存储介质 | |
CN112784691A (zh) | 一种目标检测模型训练方法、目标检测方法和装置 | |
CN111522570B (zh) | 目标库更新方法、装置、电子设备及机器可读存储介质 | |
CN114022873A (zh) | 仪表状态检测方法、电子设备及存储介质 | |
CN114120309A (zh) | 一种仪表读数识别方法、装置及计算机设备 | |
CN111488771B (zh) | Ocr挂接方法、装置与设备 | |
CN113837091A (zh) | 识别方法、装置、电子设备及计算机可读存储介质 | |
CN111368624A (zh) | 基于生成对抗网络的回环检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |