CN114821433B - 一种基于目标检测信度动态融合的目标识别方法 - Google Patents
一种基于目标检测信度动态融合的目标识别方法 Download PDFInfo
- Publication number
- CN114821433B CN114821433B CN202210482566.7A CN202210482566A CN114821433B CN 114821433 B CN114821433 B CN 114821433B CN 202210482566 A CN202210482566 A CN 202210482566A CN 114821433 B CN114821433 B CN 114821433B
- Authority
- CN
- China
- Prior art keywords
- target
- reliability
- target detection
- confidence
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 46
- 238000001514 detection method Methods 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000004364 calculation method Methods 0.000 claims abstract description 4
- 238000005070 sampling Methods 0.000 claims abstract description 4
- 238000012544 monitoring process Methods 0.000 claims description 10
- 230000001629 suppression Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明公开了一种基于目标检测信度动态融合的目标识别方法,涉及计算机视觉、深度学习领域。本发明将有关待识别目标的视频文件进行采样,并把采样得到的图片流作为输入,送入已训练好的Yolo模型进行识别计算。然后,Yolo模型将会输出预测框对待识别目标进行标定,并得到目标每一时刻的识别置信度。随后,利用得到的当前时刻的置信度对历史时刻的置信度进行动态更新,得到当前时刻的动态置信度。最后,基于阈值,判断目标是否真实存在。本发明将目标识别信度进行动态融合,优化了传统的Yolo目标识别方法,可以有效提高目标在天气变化、局部目标遮挡等情况下的识别信度和准确度,进而有效提升目标识别的可靠性和稳定性。
Description
技术领域
本发明涉及计算机视觉、机器学习等领域,具体涉及一种基于目标检测信度动态融合的目标识别方法。
背景技术
目前大部分的目标识别模型是先将输入图像划分为网格形式,再通过训练好的神经网络提取当前时刻图像的特征,并对每个网格进行图像分类和定位,获得预测对象的边界框以及对应类的识别置信度,最后将识别置信度与预设信度阈值进行比较,判断目标是否出现。
虽然现在关于目标识别已经有很多研究,但是还是存在一些未解决好的问题。在实际中,天气变化、局部目标遮挡等原因都会造成每个时刻获取的信度值出现不确定性变化,间歇或长期的低于信度阈值,导致真实存在的目标暂时或长期丢失。
所以,如何提高目标在复杂场景下的识别信度,进而提升目标识别的可靠性和稳定性是有待解决的问题。
发明内容
为了解决上述的技术问题,本发明的目的就在于提高识别目标的置信度,提升目标识别的可靠性和稳定性,提供一种基于目标检测信度动态融合的目标识别方法。
本发明所采用的技术方案是:
(1)获取监控视频,将视频文件截取成图片流。
(2)建立YOLO目标识别模型,对图片中的目标施加预测框进行标定。
(3)利用非极大值抑制算法得到单一目标准确的预测框和目标检测信度。
(4)基于目标检测信度动态融合规则,将目标检测信度动态融合。
(5)将单一目标准确的预测框和动态融合信度标记在图片上。
上述的技术方案,其中,所述步骤(1)中获取监控视频,将视频文件截取成图片流包括如下步骤:
对于监控摄像头捕获的关于待识别目标的视频文件,利用Python中的OpenCV库将视频文件截取成图片流,记为P1,...,Pt,...,PT,t=1,2,...,T,t表示图片采样时刻,T表示获取图片的总个数,2<T<+∞。
上述的技术方案,其中,所述步骤(2)中建立YOLO目标识别模型,对图片中的目标施加预测框进行标定包括如下步骤:
建立YOLO目标识别模型,它是由N个权值参数构成的一个特征提取网络,权值参数集合记为Q={Qn|n=1,2…,N},Qn表示第n个权值参数,且0≤Qn≤1,将步骤(1)中图片Pt输入YOLO模型变换为416像素×416像素的三原色数据矩阵,对该三原色数据矩阵进行12次卷积计算提取图像中的目标特征,并对识别出的单一目标施加预测框进行标定。
上述的技术方案,其中,所述步骤(3)中利用非极大值抑制算法得到单一目标准确的预测框和目标检测信度包括如下步骤:
将步骤(2)中的预测框进行堆叠,并利用非极大抑制算法得到单一目标准确的预测框和目标检测信度,将目标检测信度记为Ct,0≤Ct≤1。
上述的技术方案,其中,所述步骤(4)中基于目标检测信度动态融合规则,将目标检测信度动态融合包括如下步骤:
基于目标检测信度动态融合规则,将当前t时刻的目标检测信度与历史时刻的目标检测信度进行融合,得到当前t时刻的动态融合信度,记为Bt,具体步骤如下:
(4-1)设定目标检测信度Ct的重要性权重为wt,且有0.7≤wt≤1(t=1,2…,T),目标检测信度Ct的可靠性为rt,通过如下公式计算:
其中,r0=0.5是可靠性初值,f是可靠性标志函数,通过如下公式计算:
设定A=(1,0,0),Bt *=(Bt,0,1-Bt),Ct *=(Ct,0,1-Ct),λ是可靠性变化系数,通过如下公式计算:
其中,cosθ1和cosθ2通过如下公式计算:
·表示求向量的内积,|A|×|Ct *|中||表示对向量取模;
式(3)中的为可靠性的平均值通过如下公式计算:
(4-2)当t=2时,通过步骤(3)获得t=2时刻的目标检测信度C2,将C2与B1进行融合,得到融合信度
其中ξt-1,t和通过如下的目标检测信度动态融合规则公式获得:
ξt-1,t=[(1-rt)wtCt+(1-rt-1)wt-1Bt-1]+CtBt-1+Ct(1-Bt-1)+(1-Ct)Bt-1 (6)
即把t=1时刻和t=2时刻的目标检测信度融合得到t=2时刻的融合信度,再将融合信度Mt进行Pignistic概率转换,得到目标的动态融合信度Bt,通过如下公式计算:
(4-3)当3≤t≤T时,重复以上步骤(4-1)和(4-2),即可获得该时刻目标的动态融合信度Bt。
上述的技术方案,其中,所述步骤(5)中将单一目标准确的预测框和动态融合信度标记在图片上包括如下步骤:
当t时刻的动态融合信度Bt>0.8时,则认为该目标确实存在,并利用Python中的PIL(Python Imaging Library)库将预测框和动态融合信度标记在Pt上。
本发明的有益效果:
1、本发明采用基于YOLO的目标识别模型,避免试用复杂的数学模型和辨识框架,快速检测出待识别目标,满足监控系统实时处理的要求。
2、本发明采用基于目标检测信度动态融合规则,相较于传统的YOLO模型能有效提高目标在天气变化、局部目标遮挡等情况下的置信度,进而提升目标识别的可靠性和稳定性。
附图说明
图1是本发明方法的步骤图;
图2是本发明方法的流程图;
图3(a)和图3(b)是实例中所提的港口识别图;
图4是本发明方法实例中Ct和Bt的数据图。
具体实施方案
以下结合附图和具体实施对本发明进行详细描述,但不作为对本发明的限定。
如图1和图2,本发明的实现步骤如下:
A获取监控视频,将视频文件截取成图片流。
在某港口的监控云台设有监控摄像头,摄像头从俯视角度观测港口吊机、轿车、集装箱等目标,并实时的将图像传入监控计算机,记为P1,...,Pt,...,PT,t=1,2,...,T,t表示图片采样时刻,T表示获取图片的总个数,2<T<+∞。
B建立YOLO目标识别模型,对图片中的目标施加预测框进行标定。
将步骤(1)中图片Pt输入已训练好的YOLO模型,将图片变换为416像素×416像素的三原色数据矩阵,对该三原色数据矩阵进行12次卷积计算提取图像中的目标特征,并对识别出的单一目标施加预测框进行标定。
C利用非极大值抑制算法得到单一目标准确的预测框和目标检测信度。
将步骤(2)中的预测框进行堆叠,并利用非极大抑制算法得到某一轿车准确的预测框和目标检测信度,不同时刻目标检测信度分别为C1,C2,...,C45,如表1所示:
表1目标识别信度表
在本案例中,由于存在局部目标遮挡和光线问题,目标的识别置信度出现不确定性变化,导致目标丢失。图3(a)为某时刻该港口的识别结果图,其中箭头所指示的轿车,由于被部分遮挡,使得其识别置信度低于阈值,导致目标无法被识别。
D基于目标检测信度动态融合规则,将目标检测信度动态融合。
根据步骤(4),基于目标识别信度动态融合规则,将当前时刻的目标识别信度与历史时刻的目标识别信度进行动态融合。
按照步骤(4)可以分别计算出这45个时刻的动态置信度如下:
当t=1时,根据步骤(4-1)可得,B1=C1=0.791;
当t=2时,根据步骤(4-2),取w1=w2=1,r1=0.5计算2时刻置信度的可靠性r2:通过公式(2)计算出f=1,通过公式(4)计算出cosθ1=0.970,通过公式(5)计算出cosθ2=0.967,进而通过公式(3)计算出λ=0.477,把可靠性初值r0、可靠性标志f、可靠性变化系数λ代入公式(1)中得到r2=0.738,根据步骤(4-3)利用公式(7)~(9)对B1进行更新可以得到更新后的融合置信度M2=0.888,最后利用公式(10)对融合置信度进行Pignistic概率转换得到动态置信度B2=0.944。
重复步骤(4)可以得到所有45个时刻的动态融合信度,如表2所示:
表2动态融合信度表
其数据图如图4中Bt所示。
E将单一目标准确的预测框和动态融合信度标记在图片上。
当t时刻的动态融合信度Bt>0.8时,则认为该目标确实存在,并利用Python中的PIL(Python Imaging Library)库将预测框和动态融合信度标记在Pt上。
识别结果如表3所示:
表3识别结果表
其中,目标在t=1至t=45时刻,由于部分遮挡和光线等原因导致识别置信度下降,利用普通的YOLO模型会导致目标丢失,识别准确率为8.89%,而本发明方法的在目标被遮挡时能稳定的识别出目标,识别准确率为97.78%。利用本发现动态融合后的动态融合信度取代目标识别信度后,可以将图3(a)中的目标车辆识别出来,如图3(b)所示,可见本发明可以有效提高目标识别的准确度。
Claims (1)
1.一种基于目标检测信度动态融合的目标识别方法,其特征在于该方法包括以下各步骤:
(1)获取监控视频,将视频文件截取成图片流;
(2)建立YOLO目标识别模型,对图片中的目标施加预测框进行标定;
(3)利用非极大值抑制算法得到单一目标准确的预测框和目标检测信度;
(4)基于目标检测信度动态融合规则,将目标检测信度动态融合;
(5)将单一目标准确的预测框和动态融合信度标记在图片上;
所述步骤(1)具体如下:
对于监控摄像头捕获的关于待识别目标的视频文件,利用Python中的OpenCV库将视频文件截取成图片流,记为P1,...,Pt,...,PT,t=1,2,...,T,t表示图片采样时刻,T表示获取图片的总个数,2<T<+∞;
所述步骤(2)具体如下:
建立YOLO目标识别模型,所述YOLO目标识别模型是由N个权值参数构成的一个特征提取网络,权值参数集合记为Q={Qn|n=1,2…,N},Qn表示第n个权值参数,且0≤Qn≤1,将步骤(1)中图片Pt输入YOLO模型变换为416像素×416像素的三原色数据矩阵,对该三原色数据矩阵进行12次卷积计算提取图像中的目标特征,并对识别出的单一目标施加预测框进行标定;
所述步骤(3)具体如下:
将步骤(2)中的预测框进行堆叠,并利用非极大抑制算法得到单一目标准确的预测框和目标检测信度,将目标检测信度记为Ct,0≤Ct≤1;
所述步骤(4)具体如下:
基于目标检测信度动态融合规则,将当前t时刻的目标检测信度与历史时刻的目标检测信度进行融合,得到当前t时刻的动态融合信度,记为Bt,具体步骤如下:
(4-1)设定目标检测信度Ct的重要性权重为wt,且有0.7≤wt≤1,目标检测信度Ct的可靠性为rt,通过如下公式计算:
其中,r0=0.5是可靠性初值,f是可靠性标志函数,通过如下公式计算:
设定A=(1,0,0),Bt *=(Bt,0,1-Bt),Ct *=(Ct,0,1-Ct),λ是可靠性变化系数,通过如下公式计算:
其中,cosq1和cosq2通过如下公式计算:
·表示求向量的内积,|A|×|Ct *|中||表示对向量取模;
式(3)中的r为可靠性的平均值,通过如下公式计算:
(4-2)当t=2时,通过步骤(3)获得t=2时刻的目标检测信度C2,将C2与B1进行融合,得到融合信度
其中xt-1,t和通过如下的目标检测信度动态融合规则公式获得:
xt-1,t=[(1-rt)wtCt+(1-rt-1)wt-1Bt-1]+CtBt-1+Ct(1-Bt-1)+(1-Ct)Bt-1 (6)
即把t=1时刻和t=2时刻的目标检测信度融合得到t=2时刻的融合信度,再将融合信度Mt进行Pignistic概率转换,得到目标的动态融合信度Bt,通过如下公式计算:
(4-3)当3≤t≤T时,重复以上步骤(4-1)和(4-2),即可获得该时刻目标的动态融合信度Bt;
所述步骤(5)具体如下:
当t时刻的动态融合信度Bt>0.8时,则认为该目标确实存在,并利用Python中的PIL库将预测框和动态融合信度标记在Pt上。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210482566.7A CN114821433B (zh) | 2022-05-05 | 2022-05-05 | 一种基于目标检测信度动态融合的目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210482566.7A CN114821433B (zh) | 2022-05-05 | 2022-05-05 | 一种基于目标检测信度动态融合的目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114821433A CN114821433A (zh) | 2022-07-29 |
CN114821433B true CN114821433B (zh) | 2024-04-12 |
Family
ID=82511496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210482566.7A Active CN114821433B (zh) | 2022-05-05 | 2022-05-05 | 一种基于目标检测信度动态融合的目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821433B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110889324A (zh) * | 2019-10-12 | 2020-03-17 | 南京航空航天大学 | 一种基于yolo v3面向末端制导的热红外图像目标识别方法 |
CN113239813A (zh) * | 2021-05-17 | 2021-08-10 | 中国科学院重庆绿色智能技术研究院 | 一种基于三阶级联架构的YOLOv3的远景目标检测方法 |
CN113537106A (zh) * | 2021-07-23 | 2021-10-22 | 仲恺农业工程学院 | 一种基于YOLOv5的鱼类摄食行为识别方法 |
CN113744262A (zh) * | 2021-09-17 | 2021-12-03 | 浙江工业大学 | 一种基于GAN和YOLO-v5的目标分割检测方法 |
WO2021244079A1 (zh) * | 2020-06-02 | 2021-12-09 | 苏州科技大学 | 智能家居环境中图像目标检测方法 |
-
2022
- 2022-05-05 CN CN202210482566.7A patent/CN114821433B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110889324A (zh) * | 2019-10-12 | 2020-03-17 | 南京航空航天大学 | 一种基于yolo v3面向末端制导的热红外图像目标识别方法 |
WO2021244079A1 (zh) * | 2020-06-02 | 2021-12-09 | 苏州科技大学 | 智能家居环境中图像目标检测方法 |
CN113239813A (zh) * | 2021-05-17 | 2021-08-10 | 中国科学院重庆绿色智能技术研究院 | 一种基于三阶级联架构的YOLOv3的远景目标检测方法 |
CN113537106A (zh) * | 2021-07-23 | 2021-10-22 | 仲恺农业工程学院 | 一种基于YOLOv5的鱼类摄食行为识别方法 |
CN113744262A (zh) * | 2021-09-17 | 2021-12-03 | 浙江工业大学 | 一种基于GAN和YOLO-v5的目标分割检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114821433A (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11488308B2 (en) | Three-dimensional object detection method and system based on weighted channel features of a point cloud | |
CN110059694B (zh) | 电力行业复杂场景下的文字数据的智能识别方法 | |
CN109460740B (zh) | 基于ais与视频数据融合的船舶身份识别方法 | |
CN109241985B (zh) | 一种图像识别方法及装置 | |
CN115439424B (zh) | 一种无人机航拍视频图像智能检测方法 | |
CN113139453B (zh) | 一种基于深度学习的正射影像高层建筑基底矢量提取方法 | |
CN110570454A (zh) | 一种检测异物入侵的方法及装置 | |
CN107886051A (zh) | 基于图像的船舶身份识别方法 | |
CN110310305B (zh) | 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置 | |
CN111291684A (zh) | 一种自然场景下的船牌检测方法 | |
CN115147418B (zh) | 缺陷检测模型的压缩训练方法和装置 | |
CN111582074A (zh) | 一种基于场景深度信息感知的监控视频树叶遮挡检测方法 | |
CN112101138A (zh) | 基于深度学习的桥梁拉索表面缺陷实时识别系统及方法 | |
CN111986156A (zh) | 一种斧状利器检测方法、系统、装置和存储介质 | |
CN111444923A (zh) | 自然场景下图像语义分割方法和装置 | |
CN114821154A (zh) | 一种基于深度学习的粮库通风窗状态检测算法 | |
CN114821433B (zh) | 一种基于目标检测信度动态融合的目标识别方法 | |
CN111461008B (zh) | 结合场景透视信息的无人机航拍目标检测方法 | |
CN111414997B (zh) | 一种基于人工智能的用于战场目标识别的方法 | |
CN117011381A (zh) | 基于深度学习和立体视觉的实时手术器械位姿估计方法与系统 | |
CN112634179A (zh) | 一种防摄像头抖动的变电设备图像变化检测方法和系统 | |
CN114821520A (zh) | 一种融合时空信息的车道线检测方法 | |
CN110136104B (zh) | 基于无人机地面站的图像处理方法、系统及介质 | |
CN112347904A (zh) | 基于双目深度和图片结构的活体检测方法、装置及介质 | |
Leipnitz et al. | The effect of image resolution in the human presence detection: A case study on real-world image data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |