CN116524338A - 一种改进yolox的大尺寸小目标危险行为检测方法及系统 - Google Patents

一种改进yolox的大尺寸小目标危险行为检测方法及系统 Download PDF

Info

Publication number
CN116524338A
CN116524338A CN202310500780.5A CN202310500780A CN116524338A CN 116524338 A CN116524338 A CN 116524338A CN 202310500780 A CN202310500780 A CN 202310500780A CN 116524338 A CN116524338 A CN 116524338A
Authority
CN
China
Prior art keywords
feature
target
detection
yolox
pyramid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310500780.5A
Other languages
English (en)
Inventor
韩睿
赵琳
张帅
卢洪坤
金涌涛
何坚
林浩凡
李文博
马钰
季宇豪
宋国权
汪斌
杨万波
董雪松
黄军浩
邹晓峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou E Energy Electric Power Technology Co Ltd
Original Assignee
Hangzhou E Energy Electric Power Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou E Energy Electric Power Technology Co Ltd filed Critical Hangzhou E Energy Electric Power Technology Co Ltd
Priority to CN202310500780.5A priority Critical patent/CN116524338A/zh
Publication of CN116524338A publication Critical patent/CN116524338A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E30/00Energy generation of nuclear origin
    • Y02E30/30Nuclear fission reactors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种改进YOLOX的大尺寸小目标危险行为检测方法及系统,该方法对输入图像进行缩放和归一化操作;通过卷积和池化操作提取图像特征;使用ECANet提取关键特征,再结合金字塔式特征网络层生成更加准确和高效的特征图;使用金字塔式特征网络将来自不同层级的特征图进行融合;利用特征图进行目标检测,生成边界框和类别概率;根据Focal Loos置信度损失函数调整易分类样本和难分类样本的权重差异;根据置信度和类别概率筛选边界框,通过非极大值抑制算法消除冗余框,最终得到检测结果。本发明通过引入ECANet和Focal Loss函数,可以增强特征提取和优化损失函数,提高小目标的检测率,从而进一步提高了检测性能。

Description

一种改进YOLOX的大尺寸小目标危险行为检测方法及系统
技术领域
本发明涉及室内危险行为检测领域,具体地说是一种改进YOLOX的大尺寸小目标危险行为检测方法及系统。
背景技术
室内吸烟危险行为对公共场所和办公安全造成的影响更加严重。目前,大多数室内吸烟危险行为的检测仍然依靠烟雾探测,但是这种方法容易存在误判的问题。
近年来,深度学习技术的发展提升了图像检测的精度,摄像头可以捕捉到人员吸烟的危险行为,通常是对摄像头捕捉的图像需要进行预处理和匹配,以保证检测的准确性。
目前已有一些文献提出了相关方法。
Wang等人提出了一种基于深度卷积神经网络的室内抽烟检测方法,该方法使用深度卷积神经网络对摄像头采集的视频帧进行分类,达到了较高的准确率。Khan等人提出了一种基于图像序列的室内抽烟检测方法,该方法利用了视频帧之间的时序信息,有效地提高了检测准确率。
摄像头采集的图像可能存在背景复杂、光线变化等问题,这会影响图像的质量和准确性。为了解决这些问题,可以采用一些预处理方法,如图像增强和去噪等技术,来提高图像的质量和准确性。此外,对于摄像头捕捉的图像中存在的小目标检测问题,可以采用多尺度金字塔和上下文信息等技术来提高检测的精度和效率。
基于摄像头捕捉的危险行为任务中,采集的图像往往具有较大的尺寸,这也意味着其中可能包含了大量细小的待检测目标。传统的卷积神经网络在对这些大尺寸图像进行处理时,常常需要使用下采样来降低图像分辨率以减少计算量,这虽然能够提高计算效率,但也使得网络在对小目标的特征进行采集时,容易出现信息丢失和漏检问题。
发明内容
有鉴于此,本发明提供一种改进YOLOX的大尺寸小目标危险行为检测方法及系统,其通过引入ECANet和Focal Loss函数,用于增强特征提取和优化损失函数,提高小目标的检测率,从而进一步提高检测性能。
为解决以上技术问题,本发明采用的一种技术方案如下:一种改进YOLOX的大尺寸小目标危险行为检测方法,其包括:
步骤S11,对输入图像进行缩放和归一化操作;
步骤S12,通过卷积和池化操作提取图像特征;
步骤S13,使用ECANet提取关键特征,再结合金字塔式特征网络层生成更加准确和高效的特征图;
步骤S14,使用金字塔式特征网络(PAFPN)将来自不同层级的特征图进行融合;
步骤S15,利用特征图进行目标检测,生成边界框和类别概率;
步骤S16,根据Focal Loos置信度损失函数调整易分类样本和难分类样本的权重差异;
步骤S17,根据置信度和类别概率筛选边界框,通过非极大值抑制算法消除冗余框,最终得到检测结果。
本发明采用的另一种技术方案为:一种改进YOLOX的大尺寸小目标危险行为检测系统,包括:
骨干网络:用于从输入图像中提取特征,采用CSP结构,能够更好地平衡计算复杂度和模型准确性;
SPP模块:采用空间金字塔池化来捕捉不同尺度的特征,提高模型的鲁棒性和准确率;
ECANet模块:使用通道注意力机制,通过对输入特征图的通道维度进行自适应加权,来提高特征图的表征能力和区分度;
PAFPN模块:通过金字塔式的特征融合和级联式的特征传递,能够更好地处理不同尺度和语义层次的特征,提高目标检测的精度和召回率;
Head模块:用于生成检测框和预测目标类别,采用注意力机制和动态卷积,能够提高目标检测的准确性和效率;
Focal Loss模块:调整负样本的权重,减少模型对容易分类的负样本的关注,从而更加关注难以分类的样本。
与现有技术相比,本发明为一种改进YOLOX的大尺寸小目标危险行为检测方法及系统,通过引入ECANet和Focal Loss函数,用于增强特征提取和优化损失函数;ECANet能够捕捉不同尺度的特征信息,并使用注意力机制自适应地调整特征图的权重,能够进一步提高特征图的表达能力,增强检测器对于小目标的检测能力,这使得检测器能够更加准确地检测出室内抽烟行为中的小目标元素,例如香烟、打火机等;Focal Loss函数则能够有效地解决正负样本不平衡的问题,提高小目标的检测率,从而进一步提高检测性能。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1是本发明实施例1提供的一种改进YOLOX的大尺寸小目标危险行为检测方法的流程示意图;
图2是本发明实施例1中表示距离损失的示意图;
图3是本发明实施例1中表示角度损失的示意图。
具体实施方式
为了使本领域技术人员更好的理解本发明实施例,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
实施例1
参考图1,是本实施例提供的一种改进YOLOX的大尺寸小目标危险行为检测方法的流程示意图。
基于YOLOX改进,用于基于摄像头拍摄的大尺寸小目标抽烟危险行为检测,由于FPN结构已在许多目标检测网络中被证实是一种有效的架构,因此本实施例也采用了这种结构。
整体分为三个部分:Backbone、Neck、Head。图像被统一Resize 640*640的尺寸喂入网络,然后数据经过Mosaic和Mixup得到增强;在Backbone中利用Focus进行下采样后进入CSPDarknet层(Dark2、Dark3、Dark4、Dark5)进行特征提取;在三个输出特征层引入ECANet通道注意力机制,用于加强特征提取网络,从而图像中更好的提取小目标特征;进入网络特征加强Neck层使用PAFPN结构,将主干网络获得的三个特征层经过多次上采样和下采样进行特征融合,将不同尺度的特征信息进行结合。在Head部分使用解耦头,将分类和回归分为两个分支进行处理,最后预测的时候再进行整合,加快模型收敛速度、提高检测精度;使用Focal Loss作为置信损失函数解决one-stage目标检测中正负样本比例严重失衡的问题,降低了大量简单负样本在训练中所占的权重,提升了小目标检测的精度。
上述大尺寸小目标危险行为检测方法的步骤如下:
S11,对输入图像进行缩放和归一化操作,是对输入图像的增强部分。
采用随机大小的图像增强方法,即随机缩放和裁剪图像,以增加训练数据的多样性,并且在缩放时保留更多的目标信息;同时加入自适应卡方值滤波器进行图像增强,以减少图像噪声对检测结果的影响。
S12,通过卷积和池化操作提取图像特征。采用SPP网络,能够实现在特定区域内对图像进行密集采样,通过空间金字塔池化将特征图映射到一个固定大小的向量中,克服传统池化方式对于输入大小的限制。
S13、使用ECANet提取关键特征,再结合金字塔式特征网络层生成更加准确和高效的特征图。
ECA能有效提升了目标检测的性能,但复杂注意力模块会不可避免增加了计算成本。本实施例使用ECANet通道注意力来提升性能,因为ECANet可以做到避免增加计算成本并且提升性能。
它的方法是在全局平均池化层之后使用1x1卷积层,去除了全连接层。这样的方法避免了维度缩减,并有效捕获了跨通道交互。ECANet通过一维卷积来完成跨通道间的信息交互,卷积核的大小通过一个函数来自适应变化,使得通道数较大的层可以更多地进行跨通道交互。自适应函数为:
其中ψ=2,b=1,C表示输入通道维数,k为卷积核大小。
S14、使用金字塔式特征网络(PAFPN)将来自不同层级的特征图进行融合。
PAFPN结合通道注意力机制提取关键特征,将主干网络获得的三个特征层经过多次上采样和下采样进行特征融合,将不同尺度的特征信息进行结合。在Head部分使用解耦头,将分类和回归分为两个分支进行处理,最后预测的时候再进行整合,加快模型收敛速度、提高检测精度。
S15、利用特征图进行目标检测,首先从图像中提取物体的四个角点,然后使用这些角点来生成边界框,这个边界框称为预测框。通过计算预测框和真实框之间的重叠程度计算模型的类别损失值得出类别概率。
S16、为降低损失值,提高类别概率的准确度,通过Focal Loos置信度损失函数调整易分类样本和难分类样本的权重差异。
对于置信度高的样本,损失函数进行降权;对于置信度低的样本,损失函数进行加权,使得金字塔式特征网络在反向传播时,置信度低的样本能够提供更大的梯度占比,即从未学习好的样本中获取更多的信息。
Focal Loss的计算公式为:
FL(pt)=-αt(1-pt)γlog(pt)
其中,y的取值为1和-1,分别代表前景和背景,p的取值范围为0-1,为预测属于前景的概率,如下:
Focal Loss公式中的αt用于调节正负样本损失之间的比例,前景类别使用αt时,对应的背景类别使用1-αt
调制因子在式子中的定义,如下:
(1-pt)γ
调制因子用来减低易分样本的损失贡献,无论是前景类还是背景类,pt越大,就说明该样本越容易被区分,调制因子也就越小。
式子中的γ和αt都有相应的取值范围,αt可以抑制正负样本的数量失衡,通过γ可以控制简单或难区分样本数量失衡,当γ=0的时候,Focal Loss就是传统的交叉熵损失,可以通过调整γ实现调制因子的改变。
S17、根据置信度和类别概率筛选边界框,通过非极大值抑制算法消除冗余框,最终得到检测结果。
SIOU损失函数通过引入了所需回归之间的向量角度,重新定义了距离损失,有效降低了回归的自由度,加快网络收敛,进一步提升了回归精度。
SIOU损失函数整体计算,如下:
L=WboxLbox+WclsLcls
其中,Lcls用的是Focal Loss,Wbox以及Wcls根据遗传算法计算得到。Lbox表示的是SIOU损失,如下:
其中,IOU表示预测的边框和真实的边框的交集和并集的比值,如下:
公式为:
△表示距离损失(见图2),如下:
其中,为真实框中心坐标;(bcx,bcy)为预测框的中心坐标。
其中,∧为角度损失(见图3),如下:
通过角度损失∧,SI0U考虑了角度对回归的影响,使用距离损失与角度损失形成平衡关系,当α趋于0时,距离的贡献大大降低。相反,α越接近Π/4,距离损失的贡献越大。
Ω表示形状损失,如下:
W、h分别表示预测框的宽和高,wgt、hgt分别表示真实框的宽和高,θ表示对形状损失的关注程度,θ参数范围为[2,6],为了避免过于关注形状损失而降低对预测框的移动。
通过使用SIOU算法实现了衡量待检测物体边界框之间的重叠程度,再结合NMS算法来筛选边界框并去除重复信息,以达到提高目标检测的准确性和效率。
实施例2
一种改进YOLOX的大尺寸小目标危险行为检测系统,包括:
骨干网络:用于从输入图像中提取特征,采用CSP结构,能够更好地平衡计算复杂度和模型准确性;
SPP模块:采用空间金字塔池化来捕捉不同尺度的特征,提高模型的鲁棒性和准确率;
ECANet模块:使用通道注意力机制,通过对输入特征图的通道维度进行自适应加权,来提高特征图的表征能力和区分度;
PAFPN模块:通过金字塔式的特征融合和级联式的特征传递,能够更好地处理不同尺度和语义层次的特征,提高目标检测的精度和召回率;
Head模块:用于生成检测框和预测目标类别,采用注意力机制和动态卷积,能够提高目标检测的准确性和效率;
Focal Loss模块:调整负样本的权重,减少模型对容易分类的负样本的关注,从而更加关注难以分类的样本。
实施例2中未进行详细描述的部分参见实施例1。
基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

Claims (10)

1.一种改进YOLOX的大尺寸小目标危险行为检测方法,其特征在于,包括:
步骤S11,对输入图像进行缩放和归一化操作;
步骤S12,通过卷积和池化操作提取图像特征;
步骤S13,使用ECANet提取关键特征,再结合金字塔式特征网络层生成更加准确和高效的特征图;
步骤S14,使用金字塔式特征网络将来自不同层级的特征图进行融合;
步骤S15,利用特征图进行目标检测,生成边界框和类别概率;
步骤S16,根据Focal Loos置信度损失函数调整易分类样本和难分类样本的权重差异;
步骤S17,根据置信度和类别概率筛选边界框,通过非极大值抑制算法消除冗余框,最终得到检测结果。
2.根据权利要求1所述的一种改进YOLOX的大尺寸小目标危险行为检测方法,其特征在于,步骤S11中,
采用随机大小的图像增强方法,即随机缩放和裁剪图像,以增加训练数据的多样性,并且在缩放时保留更多的目标信息;
同时加入自适应卡方值滤波器进行图像增强,以减少图像噪声对检测结果的影响。
3.根据权利要求1所述的一种改进YOLOX的大尺寸小目标危险行为检测方法,其特征在于,步骤S12中,
采用SPP网络,实现在特定区域内对图像进行密集采样,通过空间金字塔池化将不同尺度的特征图转化成固定大小的特征向量中。
4.根据权利要求1所述的一种改进YOLOX的大尺寸小目标危险行为检测方法,其特征在于,步骤S13中,
ECANet通过一维卷积完成跨通道间的信息交互,卷积核的大小通过一个自适应函数来自适应变化,自适应函数为:
其中ψ=2,b=1,C表示输入通道维数,k为卷积核大小。
5.根据权利要求1所述的一种改进YOLOX的大尺寸小目标危险行为检测方法,其特征在于,步骤S14中,金字塔式特征网络结合ECANet提取的关键特征,将主干网络获得的三个特征层经过多次上采样和下采样进行特征融合,将不同尺度的特征信息进行结合。
6.根据权利要求1所述的一种改进YOLOX的大尺寸小目标危险行为检测方法,其特征在于,步骤S15中,利用不同尺度的特征金字塔提取目标的不同层次的语义信息;通过在不同的层次上提取特征,使得金字塔式特征网络能够在不同尺度上进行目标检测。
7.根据权利要求1所述的一种改进YOLOX的大尺寸小目标危险行为检测方法,其特征在于,步骤S15中,通过缩小易分类样本的权重来平衡正负样本之间的类别分布。
8.根据权利要求1所述的一种改进YOLOX的大尺寸小目标危险行为检测方法,其特征在于,步骤S16中,调整易分类样本和难分类样本的权重差异,从而更加关注难分类样本的学习。
9.据权利要求1所述的一种改进YOLOX的大尺寸小目标危险行为检测方法,其特征在于,步骤S17中,考虑每个框的置信度和重叠度,将重叠框的边界框合并为一个更准确的框。
10.一种改进YOLOX的大尺寸小目标危险行为检测系统,其特征在于,包括:
骨干网络:用于从输入图像中提取特征,采用CSP结构;
SPP模块:采用空间金字塔池化捕捉不同尺度的特征;
ECANet模块:使用通道注意力机制,通过对输入特征图的通道维度进行自适应加权,来提高特征图的表征能力和区分度;
PAFPN模块:通过金字塔式的特征融合和级联式的特征传递;
Head模块:用于生成检测框和预测目标类别,采用注意力机制和动态卷积;
Focal Loss模块:调整负样本的权重,减少对容易分类的负样本的关注,从而更加关注难以分类的样本。
CN202310500780.5A 2023-05-06 2023-05-06 一种改进yolox的大尺寸小目标危险行为检测方法及系统 Pending CN116524338A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310500780.5A CN116524338A (zh) 2023-05-06 2023-05-06 一种改进yolox的大尺寸小目标危险行为检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310500780.5A CN116524338A (zh) 2023-05-06 2023-05-06 一种改进yolox的大尺寸小目标危险行为检测方法及系统

Publications (1)

Publication Number Publication Date
CN116524338A true CN116524338A (zh) 2023-08-01

Family

ID=87406100

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310500780.5A Pending CN116524338A (zh) 2023-05-06 2023-05-06 一种改进yolox的大尺寸小目标危险行为检测方法及系统

Country Status (1)

Country Link
CN (1) CN116524338A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117237741A (zh) * 2023-11-08 2023-12-15 烟台持久钟表有限公司 一种校园危险行为检测方法、系统、装置和存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117237741A (zh) * 2023-11-08 2023-12-15 烟台持久钟表有限公司 一种校园危险行为检测方法、系统、装置和存储介质
CN117237741B (zh) * 2023-11-08 2024-02-13 烟台持久钟表有限公司 一种校园危险行为检测方法、系统、装置和存储介质

Similar Documents

Publication Publication Date Title
US11882357B2 (en) Image display method and device
CN113052210B (zh) 一种基于卷积神经网络的快速低光照目标检测方法
EP4109392A1 (en) Image processing method and image processing device
CN111539343B (zh) 一种基于卷积注意力网络的黑烟车检测方法
CN112150493B (zh) 一种基于语义指导的自然场景下屏幕区域检测方法
CN107133943A (zh) 一种防震锤缺陷检测的视觉检测方法
CN115497005A (zh) 一种融合特征转移与注意力机制的yolov4遥感目标检测方法
CN115205274A (zh) 一种基于轻量化级联网络的布匹瑕疵检测方法
CN110807384A (zh) 低能见度下的小目标检测方法和系统
CN113052006B (zh) 一种基于卷积神经网络的图像目标检测方法,系统及可读存储介质
CN112396035A (zh) 基于注意力检测模型的物体检测方法和装置
CN116863342B (zh) 一种基于大尺度遥感影像的松材线虫病死木提取方法
CN116524312A (zh) 一种基于注意力融合特征金字塔网络的红外小目标检测方法
CN116524338A (zh) 一种改进yolox的大尺寸小目标危险行为检测方法及系统
CN115115601A (zh) 一种基于形变注意金字塔的遥感舰船目标检测方法
CN116168240A (zh) 基于注意力增强的任意方向密集舰船目标检测方法
CN112926667B (zh) 深度融合边缘与高层特征的显著性目标检测方法及装置
CN117409244A (zh) 一种SCKConv多尺度特征融合增强的低照度小目标检测方法
CN117456376A (zh) 一种基于深度学习的遥感卫星影像目标检测方法
CN115797782A (zh) 一种基于加权扩展特征金字塔的遥感图像小目标检测方法
CN112365451A (zh) 图像质量等级的确定方法、装置、设备及计算机可读介质
CN117315223A (zh) 一种基于transformer架构的目标检测方法
CN114821356B (zh) 一种精确定位的光学遥感目标检测方法
CN111127355A (zh) 一种对缺损光流图进行精细补全的方法及其应用
CN115810123A (zh) 基于注意力机制和改进特征融合的小目标害虫检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination