CN116189160A - 一种基于局部对比度机制的红外弱小目标检测方法 - Google Patents
一种基于局部对比度机制的红外弱小目标检测方法 Download PDFInfo
- Publication number
- CN116189160A CN116189160A CN202310034919.1A CN202310034919A CN116189160A CN 116189160 A CN116189160 A CN 116189160A CN 202310034919 A CN202310034919 A CN 202310034919A CN 116189160 A CN116189160 A CN 116189160A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- detection
- pixel
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开了一种基于局部对比度机制的红外弱小目标检测方法,针对现有技术中红外图像小目标检测效果仍需改善的问题。该发明含有以下步骤,1:输入原始红外图像,将其转化为灰度图像;2:通过空间域滤波方法抑制原始红外灰度图像的背景噪声,得到滤波图像;3:利用多层局部对比度机制突出弱小目标像素,得到目标显著图;4:将滤波图像与目标显著图逐点相乘得到检测显著图;5:构建改进YOLOv5网络模型并进行训练和测试;6:将步骤4得到的检测显著图输入到改进后YOLOv5弱小目标检测模型中,实现弱小目标检测。该技术可以达到追求更高效的多尺度融合的效果,最终实现更高的识别准确度。
Description
技术领域
本发明涉及红外图像目标检测领域,特别是涉及一种基于局部对比度机制的红外弱小目标检测方法。
背景技术
红外探测系统以其隐蔽性好、穿透能力强等优点广泛应用于航空航天、军事侦察等领域。但该系统的观测距离较远,目标往往呈现弱小状态,即目标在红外图像中所占像素点较少,且缺乏固定的纹理结构特征。同时目标强度较弱,被淹没在强杂波背景中,导致检测率较低。所以针对单帧图像的红外弱小目标检测一直是红外探测领域的难点和研究热点。
红外弱小目标检测主要分为单帧图像的检测和多帧图像检测两大类思路。多帧检测利用多帧图像中运动目标的连续性和相关性实现红外小目标检测。在实际应用中,高速运动目标检测时,成像背景通常变化迅速,多帧图像检测算法性能快速下降。相比多帧检测,单帧检测具有复杂度低,执行效率高,便于硬件实现等优点。因此,单帧红外小目标检测研究具有十分重要的意义。
在单帧红外小目标检测领域,主要有四种主流思路:其一,基于滤波的方法,如空间域滤波与变换域滤波;其二,基于模拟人类视觉系统的方法,如基于局部对比度机制,多特征融合等方法;其三,基于图像数据结构的方法,如红外图像块模型,稳健主成分分析法等。其利用小目标的稀疏特性与背景的低秩性对目标进行检测;最后则是对小目标特征进行分析,如对经典深度学习框架算法的一些改进。
在红外小目标检测领域中,由于通常的检测目标比其直接邻域更亮,即目标附近存在一定的局部对比值。因此,基于局部对比度的检测算法通常可以获得比传统算法更好的性能。基于局部对比度的算法易于实现,并且具有较低的算法复杂度。其次,通过深度学习能训练提取数据中深层次的中层以及高层特征,用以目标表征,提升目标检测的鲁棒性。
发明内容
本发明针对现有技术中红外图像小目标检测效果仍需改善的问题,提供一种效率高,准确度高的基于局部对比度机制的红外弱小目标检测方法。
本发明的技术解决方案是,提供一种具有以下步骤的基于局部对比度机制的红外弱小目标检测方法:含有以下步骤,
步骤1:输入原始红外图像,将其转化为灰度图像;
步骤2:通过空间域滤波方法抑制原始红外灰度图像的背景噪声,得到滤波图像;
步骤3:利用多层局部对比度机制突出弱小目标像素,得到目标显著图;
步骤4:将滤波图像与目标显著图逐点相乘得到检测显著图;
步骤5:构建改进YOLOv5网络模型并进行训练和测试;
步骤6:将步骤4得到的检测显著图输入到改进后YOLOv5弱小目标检测模型中,实现弱小目标检测。
优选地,所述步骤1含有以下步骤:
步骤1.1:将原始红外RGB彩色图像转换为灰度图像进行后续检测,转化方法有最大值法、平均值法或加权平均值法,加权平均值法根据红、绿、蓝三色的重要性赋予不同的权重值,加权平均后得到相应的灰度值;
步骤1.2:加权平均法转换后的灰度值为:I(m,n)=0.3×R(m,n)+0.59×G(m,n)+0.11×B(m,n),其中R(m,n),G(m,n),B(m,n)分别表示图像(m,n)处红、绿、蓝三色的像素值。
优选地,所述步骤2中通过双边滤波算法去除原始红外图像的背景噪声得到滤波图像,双边滤波算法如下:滤波后的输出像素:其中滤波算法公式中权重因子计算公式为:/>权重公式中空间域核/>和像素域核/>为两个二维高斯函数,表达式分别为,
其中p=(i,j)表示待处理的像素点,q=(m,n)∈S表示p点邻域中的像素点,包括p,I(m,n)为输入像素值,I(i,j)为待处理点的像素值,σs和σr为设定值,Wp,q表示分配给q点的权重值,/>表示p点的滤波核权重总和。
优选地,所述步骤3中的局部对比度机制方法如下:确定多层滑动窗口,多层滑动窗口分为目标子块,中间层子块和背景子块,以像素点(p,q)为中心,建立n×n的目标子块用于覆盖弱小目标,目标子块周围有8个中间层子块,用于覆盖更大尺寸的目标,最外层8个子块为背景子块,离散地选取周围8个方向子块表达背景特征,对于目标位置像素利用比差联合局部对比度公式突出目标像素,具体步骤为:计算目标子块的平均灰度值I(p,q),计算中间层子块与背景子块的平均灰度值Mm(p,q)和Mo(p,q),将目标子块平均灰度值与中间层子块或背景子块平均灰度值之比的最大值定义为比例因子E(p,q);当(p,q)位于真实目标时,目标通常比周围亮,则E(p,q)>1,真实目标得到增强;当(p,q)位于背景像素时,通常较为平坦,像素值变化不大,则E(p,q)≈1,背景处比例因子小于目标处,背景像素变化较小,即目标得到突出;在边缘背景处,较亮一侧E(p,q)≈1,较暗一侧E(p,q)<1,即所有方向上比例因子都比目标处小。
优选地,所述所述步骤5中的改进YOLOv5模型构建具体方法如下:
步骤5.1、构建YOLOv5网络模型,分别建立输入端、骨干网络、颈部和预测四部分;
步骤5.2、在训练过程中,输入端使用Mosaic数据增强技术来优化小目标检测效果,骨干网络在使用Focus结构和CSP结构的基础上加入注意力机制模块,颈部使用加权的双向特征金字塔网络结构,赋予各特征层不同的权重进行特征融合,预测部分中的训练损失函数使用Lossconf、预测框使用的方法是边界框的损失函数LossCIoU;
步骤5.3、配置参数,调整类别数目、学习率和batch_size参数。
与现有技术相比,本发明基于局部对比度机制的红外弱小目标检测方法具有以下优点:在前期的图像处理阶段结合滤波算法、多层窗口局部对比度机制等方法,有效地抑制背景噪声,并突出目标像素,为之后的YOLOv5网络提取特征,识别图像中的弱小目标提供极大的便利。YOLOv5网络中的颈部(Neck)将传统的路径聚合网络结构(PAN)替换为加权的双向特征金字塔网络(Bi-FPN)允许简单和快速的多尺度特征融合。传统的PAN结构特征融合是平等地对待不同尺度特征,Bi-FPN引入了权重更好地平衡不同尺度的特征信息,可以达到追求更高效的多尺度融合的效果,最终实现更高的识别准确度。
附图说明
图1是本发明的工作流程示意图;
图2是本发明步骤3中的多层滑动窗口示意图;
图3是本发明改进YOLOv5的网络模型图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
下面结合附图和具体实施方式对本发明基于局部对比度机制的红外弱小目标检测方法作进一步说明:在红外图像小目标检测领域,图像中检测目标信噪比低,且与背景对比度差,目标像素少、缺乏纹理特征,传统的深度学习方法往往难以有效检测目标。其次,根据国际光学工程学会(SPIE)的建议,小目标的尺寸不能高于256×256像素的0.12%,大约为81个像素点。则一般小目标的尺寸范围为2×2到9×9个像素。由于实际中的小目标形状大小无法确定,滑动窗口过大或过小都会影响检测效果。
本实施例为克服现有技术中红外小目标检测信噪比低、目标像素大小难以确定、目标与背景对比度差等问题,结合传统深度学习方法,针对以上红外小目标检测领域的难点,结合传统的特征提取网络给出如下步骤,如图1所示,
步骤1:输入原始红外图像,并将其转化为灰度图像;
步骤1.1:若原始红外图像为RGB彩色图像,则需要将原始图像转换为灰度图像进行后续的检测。常用的彩色图像转化为灰度图像的方法有最大值法、平均值法、加权平均值法,本方案采用加权平均值法。加权平均值法根据红、绿、蓝三色的重要性赋予不同的权重值,加权平均后得到相应的灰度值,最终完成RGB彩色图像到灰度图像的转换。
步骤1.2:加权平均法转换后的灰度值为:I(m,n)=0.3×R(m,n)+0.59×G(m,n)+0.11×B(m,n),其中R(m,n),G(m,n),B(m,n)分别表示图像(m,n)处红、绿、蓝三色的像素值。
步骤2:通过双边滤波算法去除原始红外图像的背景噪声,得到滤波图像A;
双边滤波算法如下:
其中,p=(i,j)表示待处理的像素点,q=(m,n)∈S表示p点邻域(滤波核范围内)中的像素点,包括p。I(m,n)为输入像素值,I(i,j)为待处理点的像素值。σs和σr为设定值。Wp,q表示分配给q点的权重值。表示p点的滤波核权重总和。
步骤3:利用多层局部对比度机制,突出弱小目标像素,得到目标显著图B;
步骤3.1:构建多层滑动窗口,窗口结构如图2所示;
步骤3.2:设置目标子块T大小为3×3(包括中心像素点);
步骤3.3:根据图2窗口结构,中间层子块为MR1~MR8,背景子块为OB1~OB8;
步骤3.4:计算八个方向中间层子块和背景子块的平均像素,计算公式如下:
Mm(p,q)=mean(Ii,j MR),j=1,2,…,H,Mo(p,q)=mean(Ii,j OB),j=1,2,…,H
其中,Ii,j MR和Ii,j OB分别表示第j个方向上中间层子块与背景子块中i像素点的像素值。
步骤3.6:计算比例因子E(p,q)=max(I(p,q)/Ii,j MR,I(p,q)/Ii,j OB),当(p,q)位于真实弱小目标时,其目标通常比周围亮,目标窗口平均像素值大于中间层子块或背景子块,则E(p,q)>1,真实目标得到增强;当(p,q)位于背景像素时,通常较为平坦,像素值变化不大,则E(p,q)≈1,背景处比例因子小于目标处,背景像素变化较小,即目标得到突出;在边缘背景处,较亮一侧E(p,q)≈1,较暗一侧E(p,q)<1,即所有方向上比例因子都比目标处小,最终使得目标像素得到突出。
步骤3.7:从左至右,从上到下移动窗口,步长为1,对原始图像所有像素经过上述计算,最终得到由对比度机制突出目标像素的目标显著图B;
步骤4:将滤波图像A与目标显著图B逐点相乘得到检测显著图C;
步骤5:构建改进YOLO v5网络模型并进行训练和测试;
步骤5.1:构建YOLO v5网络模型,分别建立输入端、骨干网络、颈部(Neck)、预测四部分;
步骤5.2.1:将步骤4得到的检测显著图构成的数据集按照4比1的比例划分为训练集和测试集。
步骤5.2.2:输入端使用Mosaic数据增强的方式将输入数据集随机缩放、裁剪、排布后进行拼接,对小目标检测效果较好。
步骤5.3:骨干网络使用Focus结构和CSP结构的基础上加入scSE注意力机制模块,具体步骤如下:
步骤5.3.1:在特征提取网络每一个残差模块中引入通道自注意力机制,将输入图像在残差模块分别经过卷积核大小为1×1和3×3的卷积层,得到特征图F;
步骤5.3.2:在特征图F上引入通道自注意力机制,利用特征之间的通道相关性,生成通道自注意力特征图Ac(F);
步骤5.3.3:在特征提取网络每一个残差模块中引入空间自注意力机制,对步骤5.3.1生成的通道自注意力特征图Ac(F)与残差网络模块得到的特征图F进行加权操作得到特征图F1;
步骤5.3.4:对加权特征图F1使用平均池化操作AvgPool(F1)和最大池化操作MaxPool(F1),生成两个的特征图Favg和Fmax,再通过卷积核大小为7×7的卷积层生成空间注意力特征图Ac(F1);
步骤5.4:颈部(Neck)使用双向特征金字塔网络(Bi-FPN)结构替换传统的路径聚合网络(PAN)结构,具体网络结构如图3所示;
步骤5.5:预测部分需要确定损失函数Loss,具体步骤如下:
用边界框的重叠程度和两个边界框的中心距离,以及预测框的长宽比和真实框的长宽比即CIoU(Complete-IoU)作为边界框的损失函数LossCIoU,预测置信度损失Lossconf,则训练回归的损失函数Loss为:
其中,Loss表示训练回归的损失函数,表示两个边界框中心的距离损失,α表示权重函数,ν表示预测框的长宽比和真实框的长宽比的相似性,c表示两个边界框所组成的最小矩形的对角线距离,ρ2(b,bgt)表示两个边界框中心点的距离;/>表示第i个网格中第j个边界框中是否存在目标,若存在目标,则/>的值为1,计算两个边界框的中心坐标之间的差值;若不存在目标,则/>的值为0,不计算损失;γnoobj表示单元格中没有目标的置信度。s2表示输入图像被分割的网格数,B表示每个网格生成的包围框数,ci表示预测的置信度,cl′表示真实的置信度,pi(c)表示是在网格i内目标属于c的真实概率,/>表示在网格i内目标属于c的预测概率;
步骤5.6:配置参数,类别数目调整为1、学习率调整为0.001,然后在Docker容器中训练和测试,最后输出目标检测结果信息。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (5)
1.一种基于局部对比度机制的红外弱小目标检测方法,其特征在于:含有
步骤1:输入原始红外图像,将其转化为灰度图像;
步骤2:通过空间域滤波方法抑制原始红外灰度图像的背景噪声,得到滤波图像;
步骤3:利用多层局部对比度机制突出弱小目标像素,得到目标显著图;
步骤4:将滤波图像与目标显著图逐点相乘得到检测显著图;
步骤5:构建改进YOLOv5网络模型并进行训练和测试;
步骤6:将步骤4得到的检测显著图输入到改进后YOLOv5弱小目标检测模型中,实现弱小目标检测。
2.根据权利要求1所述的基于局部对比度机制的红外弱小目标检测方法,其特征在于:所述步骤1含有以下步骤:
步骤1.1:将原始红外RGB彩色图像转换为灰度图像进行后续检测,转化方法有最大值法、平均值法或加权平均值法,加权平均值法根据红、绿、蓝三色的重要性赋予不同的权重值,加权平均后得到相应的灰度值;
步骤1.2:加权平均法转换后的灰度值为:I(m,n)=0.3×R(m,n)+0.59×G(m,n)+0.11×B(m,n),其中R(m,n),G(m,n),B(m,n)分别表示图像(m,n)处红、绿、蓝三色的像素值。
4.根据权利要求1所述的基于局部对比度机制的红外弱小目标检测方法,其特征在于:所述步骤3中的局部对比度机制方法如下:确定多层滑动窗口,多层滑动窗口分为目标子块,中间层子块和背景子块,以像素点(p,q)为中心,建立n×n的目标子块用于覆盖弱小目标,目标子块周围有8个中间层子块,用于覆盖更大尺寸的目标,最外层8个子块为背景子块,离散地选取周围8个方向子块表达背景特征,对于目标位置像素利用比差联合局部对比度公式突出目标像素,具体步骤为:计算目标子块的平均灰度值I(p,q),计算中间层子块与背景子块的平均灰度值Mm(p,q)和Mo(p,q),将目标子块平均灰度值与中间层子块或背景子块平均灰度值之比的最大值定义为比例因子E(p,q);当(p,q)位于真实目标时,目标通常比周围亮,则E(p,q)>1,真实目标得到增强;当(p,q)位于背景像素时,通常较为平坦,像素值变化不大,则E(p,q)≈1,背景处比例因子小于目标处,背景像素变化较小,即目标得到突出;在边缘背景处,较亮一侧E(p,q)≈1,较暗一侧E(p,q)<1,即所有方向上比例因子都比目标处小。
5.根据权利要求1所述的基于局部对比度机制的红外弱小目标检测方法,其特征在于:所述所述步骤5中的改进YOLOv5模型构建具体方法如下:
步骤5.1、构建YOLOv5网络模型,分别建立输入端、骨干网络、颈部和预测四部分;
步骤5.2、在训练过程中,输入端使用Mosaic数据增强技术来优化小目标检测效果,骨干网络在使用Focus结构和CSP结构的基础上加入注意力机制模块,颈部使用加权的双向特征金字塔网络结构,赋予各特征层不同的权重进行特征融合,预测部分中的训练损失函数使用Lossconf、预测框使用的方法是边界框的损失函数LossCIoU;
步骤5.3、配置参数,调整类别数目、学习率和batch_size参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310034919.1A CN116189160A (zh) | 2023-01-10 | 2023-01-10 | 一种基于局部对比度机制的红外弱小目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310034919.1A CN116189160A (zh) | 2023-01-10 | 2023-01-10 | 一种基于局部对比度机制的红外弱小目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116189160A true CN116189160A (zh) | 2023-05-30 |
Family
ID=86437720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310034919.1A Pending CN116189160A (zh) | 2023-01-10 | 2023-01-10 | 一种基于局部对比度机制的红外弱小目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116189160A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117472303A (zh) * | 2023-12-28 | 2024-01-30 | 珠海芯烨电子科技有限公司 | 一种热敏打印机图像填充方法以及相关装置 |
-
2023
- 2023-01-10 CN CN202310034919.1A patent/CN116189160A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117472303A (zh) * | 2023-12-28 | 2024-01-30 | 珠海芯烨电子科技有限公司 | 一种热敏打印机图像填充方法以及相关装置 |
CN117472303B (zh) * | 2023-12-28 | 2024-04-26 | 珠海芯烨电子科技有限公司 | 一种热敏打印机图像填充方法以及相关装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113065558B (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN107680054B (zh) | 雾霾环境下多源图像融合方法 | |
CN107563433B (zh) | 一种基于卷积神经网络的红外小目标检测方法 | |
CN107133943A (zh) | 一种防震锤缺陷检测的视觉检测方法 | |
CN112434745B (zh) | 基于多源认知融合的遮挡目标检测识别方法 | |
CN109902715B (zh) | 一种基于上下文聚合网络的红外弱小目标检测方法 | |
CN109684922B (zh) | 一种基于卷积神经网络的多模型对成品菜的识别方法 | |
CN112733950A (zh) | 一种基于图像融合与目标检测结合的电力设备故障诊断方法 | |
CN109034184B (zh) | 一种基于深度学习的均压环检测识别方法 | |
Chen et al. | Remote sensing image quality evaluation based on deep support value learning networks | |
CN115497005A (zh) | 一种融合特征转移与注意力机制的yolov4遥感目标检测方法 | |
CN113591968A (zh) | 一种基于非对称注意力特征融合的红外弱小目标检测方法 | |
CN116681636B (zh) | 基于卷积神经网络的轻量化红外与可见光图像融合方法 | |
CN114972312A (zh) | 基于YOLOv4-Tiny改进的绝缘子缺陷检测方法 | |
CN113569981A (zh) | 一种基于单阶段目标检测网络的电力巡检鸟窝检测方法 | |
CN115526801A (zh) | 基于条件对抗神经网络的遥感影像自动匀色方法和装置 | |
CN115937552A (zh) | 一种基于融合手工特征与深度特征的图像匹配方法 | |
CN115830004A (zh) | 表面缺陷检测方法、装置、计算机设备和存储介质 | |
CN113505634A (zh) | 一种双流解码跨任务交互网络的光学遥感图像显著目标检测方法 | |
CN116189160A (zh) | 一种基于局部对比度机制的红外弱小目标检测方法 | |
CN113536896B (zh) | 基于改进Faster RCNN的绝缘子缺陷检测方法、装置及存储介质 | |
CN114170526A (zh) | 基于轻量化网络的遥感影像多尺度目标检测识别方法 | |
CN114049503A (zh) | 一种基于非端到端深度学习网络的显著性区域检测方法 | |
CN111539434B (zh) | 基于相似度的红外弱小目标检测方法 | |
CN113378672A (zh) | 基于改进YOLOv3的输电线缺陷多目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |