CN112215100B - 一种不平衡训练样本下针对退化图像的目标检测方法 - Google Patents

一种不平衡训练样本下针对退化图像的目标检测方法 Download PDF

Info

Publication number
CN112215100B
CN112215100B CN202011030872.4A CN202011030872A CN112215100B CN 112215100 B CN112215100 B CN 112215100B CN 202011030872 A CN202011030872 A CN 202011030872A CN 112215100 B CN112215100 B CN 112215100B
Authority
CN
China
Prior art keywords
tensor
network
feature
features
extraction network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011030872.4A
Other languages
English (en)
Other versions
CN112215100A (zh
Inventor
刘盛
沈家瑜
叶焕然
郭东岩
陈胜勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202011030872.4A priority Critical patent/CN112215100B/zh
Publication of CN112215100A publication Critical patent/CN112215100A/zh
Application granted granted Critical
Publication of CN112215100B publication Critical patent/CN112215100B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种不平衡训练样本下针对退化图像的目标检测方法,首先拍摄真实场景图片,抠出目标区域将RGB调0后置于白色图层上,使用随机大小的黑色图层覆盖亮点,并添加随机白色光斑,生成掩膜;然后用生成的掩膜对待检测图像做掩膜增强,将掩膜增强后的待检测图像输入到特征提取网络,获取特征提取网络最后三个残差组合模块输出的张量特征;最后将所述张量特征输入到多特征注意力提取网络,输出三个新的张量特征,将所述三个新的张量特征输入到非极大值抑制网络得到检测结果。本发明在城市环卫机器人上得到应用,能够很好的检测阴影和夜间路面的垃圾。

Description

一种不平衡训练样本下针对退化图像的目标检测方法
技术领域
本申请属于图像目标检测技术领域,尤其涉及一种不平衡训练样本下针对退化图像的目标检测方法。
背景技术
目前的目标检测技术,一般是在滑动窗口使用SIFT算法提取特征向量,然后将这些特征向量通过SVM分类器区分目标和背景。近几年,深度学习方法开始流行,通常采用两阶段检测模型,如R-CNN何Fast R-CNN等。Faster R-CNN通过卷积神经网络生成候选区域以提高速度,尽管两阶段检测模型具有较高的检测精确度,但它们运行缓慢且不具有实时性能。YOLO是一种实时目标检测模型,具有多种变体。YOLO v1使用Darknet作为主干网络来提高检测速度,输出张量的每个通道表示框中目标的位置、大小、类别、置信度得分等信息,其中置信度得分表示每个框包含真实目标的概率。最后一步,模型通过非极大值抑制来筛选检测目标。YOLO v2增加了锚点机制,这使收敛更容易,并在一定程度上解决了重叠目标检测问题。YOLO v3增加了特征融合,将具体层和抽象层结合在一起,并输出三个比例的张量,从而有效地解决了小尺寸目标检测的问题。除YOLO以外,诸如RetinaNet的一些模型提出了新的损失函数,而诸如CenterNet的一些模型提出了新的关键点表示方法等。
然而,上述现有技术既没有解决针对退化图像目标检测的问题,也没有解决训练样本不平衡的问题。翻转、模糊和缩放等数据增强方法解决了过拟合问题,但是退化图像中的目标检测仍然是一个大问题。调整损失权重比和更改采样分布是缓解训练样本不平衡问题的有效方法,但是仍然有许多工作要做以提升整体精度。
发明内容
本申请的目的是提供一种不平衡训练样本下针对退化图像的目标检测方法,设计了掩模增强方法和多特征注意力模块等来解决不平衡训练样本下针对退化图像的目标检测问题。
一种不平衡训练样本下针对退化图像的目标检测方法,用于采用训练好的神经网络模型进行目标检测,所述神经网络包括特征提取网络、多特征注意力提取网络和非极大值抑制网络,所述不平衡训练样本下针对退化图像的目标检测方法,包括:
拍摄真实场景图片,抠出目标区域将RGB调0后置于白色图层上,使用随机大小的黑色图层覆盖亮点,并添加随机白色光斑,生成掩膜;
用生成的掩膜对待检测图像做掩膜增强;
将掩膜增强后的待检测图像输入到特征提取网络,获取特征提取网络最后三个残差组合模块输出的张量特征;
将所述张量特征输入到多特征注意力提取网络,输出三个新的张量特征;
将所述三个新的张量特征输入到非极大值抑制网络得到检测结果。
进一步的,所述白色光斑的大小、直径、曲率、拉伸度、平滑度均服从高斯分布,白色光斑起始形状与不平滑锯齿形状服从离散均匀分布。
进一步的,所述黑色图层的大小服从均匀分布。
进一步的,所述神经网络模型还包括分类损失分支网络,在训练所述神经网络模型时,所述分类损失分支网络接收所述特征提取网络最后一个残差组合模块的输出,将输出的分类结果和真实分类结果进行对比,用损失函数量化后反向传播,优化模型参数。
进一步的,所述分类损失分支网络包括全局平均池化层和全连接层。
进一步的,所述将所述张量特征输入到多特征注意力提取网络,输出三个新的张量特征,包括:
(1)将特征提取网络最后三个残差组合模块输出的张量特征作为第一张量特征输入;
(2)将后一个第一张量特征进行卷积后再进行升采样,融合前一个第一张量特征,然后对融合后的张量特征进行重复操作,输出所对应的三个第二张量特征;
(3)将第三个第二张量特征卷积并进行sigmoid变换后作为注意力值;
(4)将注意力值与第一个第二张量特征相乘,重复(2)的融合过程,再次产生三个第三张量特征;
(5)将(4)产生的第三张量特征卷积变换后输出三个不同尺度的新的张量特征。
本申请提出的一种不平衡训练样本下针对退化图像的目标检测方法,目前已经在自主研发的城市环卫机器人上得到应用,取得了明显的效果,能够很好的检测阴影和夜间路面的垃圾。掩膜增强方法中设计的掩膜能够模拟强光下树的阴影和夜间路灯形成的局部光亮,在现有的训练图像中实现人工退化效果,从而提升模型针对退化图像的目标检测能力。多特征注意力模块通过引入注意力机制更容易区分白天和夜间图像的不同特征,而且两次融合能兼顾抽象特征和具体特征,从而更准确地处理白天和夜间图像特征;分类损失分支通过对损失函数进行梯度下降,之前的网络层可以学习到白天和夜间图像的不同特征并加以区分。包含多特征注意力模块和分类损失分支的新型网络结构可用于解决不平衡训练样本问题。
附图说明
图1为本申请不平衡训练样本下针对退化图像的目标检测方法流程图;
图2为本申请实施例神经网络模型结构示意图;
图3为本申请实施例多特征注意力提取网络结构示意图;
图4为本申请实施例分类损失分支网络结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请一种不平衡训练样本下针对退化图像的目标检测方法,用于在不平衡训练样本下,针对退化图像进行目标检测。例如应用在城市环卫机器人上,在树和路灯的阴影下实现对路上垃圾的检测,在阴影以及夜间退化场景下具有可观的目标检测精度。
本申请的一个实施例,如图1所示,一种不平衡训练样本下针对退化图像的目标检测方法,用于采用训练好的神经网络模型进行目标检测,所述神经网络包括特征提取网络、多特征注意力提取网络和非极大值抑制网络。所述不平衡训练样本下针对退化图像的目标检测方法,包括:
拍摄真实场景图片,抠出目标区域将RGB调0后置于白色图层上,使用随机大小的黑色图层覆盖亮点,并添加随机白色光斑,生成掩膜;
用生成的掩膜对待检测图像做掩膜增强;
将掩膜增强后的待检测图像输入到特征提取网络,获取特征提取网络最后三个残差组合模块输出的张量特征;
将所述张量特征输入到多特征注意力提取网络,输出三个新的张量特征;
将所述三个新的张量特征输入到非极大值抑制网络得到检测结果。
在一个具体的实施例中,以城市环卫机器人在树和路灯的阴影下实现对路上垃圾的检测为例,在产生掩膜的过程中,首先拍摄真实树荫照片,用抠图工具抠出树荫部分并将RGB调0后置于白色图层上,然后使用随机大小的黑色图层覆盖亮点,并添加随机白色光斑,生成掩膜。所述黑色图层的大小服从均匀分布,从而使得目标区域中亮点被随机遮盖。
掩膜增强能够模拟阴影下以及夜间场景,能够把非退化的训练样本(图像)转换为退化样本,不仅增加了样本的数量,同时也提升了退化样本占全部样本的比例,能够使训练出来的模型对退化场景的应对能力更强。现有的数据增强技术通常对图像进行旋转、伸缩、遮挡、融合等操作,但是未提高图像的退化性,本申请提出的掩模增强很好的解决了这一点。
容易理解的是,本申请不仅对待检测图像做掩膜增强,在训练神经网络模型时,也随机生成许多这样的掩膜,每张训练图片用一个掩膜覆盖,可以将掩膜的透明度、所占面积、长宽比设置为随机值,但是该掩膜必须覆盖这张图片中所有检测目标。
在一个具体的实施例中,本申请神经网络模型如图2所示,包括特征提取网络、多特征注意力提取网络和非极大值抑制网络。
特征提取网络可以采用Darknet-53网络,或resnet50、resnet101等,以Darknet-53网络为例,Darknet-53网络中有许多基础模块,例如DBL和残差组合模块,DBL仅由卷积层、Batch Normalization(批量归一化)层和Leaky Relu(带泄露修正线性单元)激活函数组成,该组合可以快速提取特征。DBL之后是大量的residual(残差)层,事实证明,这些residual层使网络更深,更容易训练。每连接多个residual层时,张量需要进行一次降采样,这可以抽象化特征并使模型学习到更深层的信息。为了便于表述,将降采样与不同数量的residual层组合成一个残差组合模块(resn),其中n表示块中所包含残差层的数量。图2中,Classifier表示分类器,Classification Loss表示分类损失分支,Multi-FeatureAttention Module表示多特征注意力提取网络,Output Tensors表述输出张量,NMS表示非极大值抑制网络。
多特征注意力提取网络如图3所示,提取了Darknet-53主干上最后三个resn块,最后一块提取的特征更抽象,它能够描述更多语义信息。但是由于降采样,其感受野(计算每个特征点所关联到的不同变量个数)非常大,因此这些特征通常用于检测大型目标。浅层特征更具体,它不会因降采样丢失太多原始信息,并且具有更高的分辨率,从而更易检测小型目标。该模块中生成的注意力兼顾抽象信息和具体信息。主干网络的后三个resn块,从最后一个resn块开始对其输出特征进行卷积后再进行升采样,融合前一个resn块输出的特征,然后对融合后的特征进行重复操作,按照这样迭代组合输出的特征,既具有一定的语义信息,又不会丢失部分重要的原始信息,产生的注意力更加准确。之后对注意力特征进行降采样并使用sigmoid函数(一种S型函数)进行归一化,与最后一个resn块卷积后输出的特征相乘,接下来再进行一次特征融合。该模块仅加注意力一次,因为注意力会通过特征融合同时对三个输出结果产生作用,且避免影响检测实时性。
多特征注意力提取整体处理过程如下:
(1)将特征提取网络最后三个残差组合模块输出的张量特征作为第一张量特征输入;
(2)将后一个第一张量特征进行卷积后再进行升采样,融合前一个第一张量特征,然后对融合后的张量特征进行重复操作,输出所对应的三个第二张量特征;
(3)将第三个第二张量特征卷积并进行sigmoid变换后作为注意力值;
(4)将注意力值与第一个第二张量特征相乘,重复(2)的融合过程,再次产生三个第三张量特征;
(5)将(4)产生的第三张量特征卷积变换后输出三个不同尺度的新的张量特征。
图3中,concat表示张量连接操作,upsample表示上采样,mul表示张量逐点相乘操作,sigmoid表示一种激活函数。
结合图3,res4的输出进行卷积(DBL2)后再进行升采样(upsample),与res8(中间的res8)进行融合(concat),然后卷积(DBL2)再进行升采样(upsample),与res8(第一个res8)进行融合(concat),然后经过卷积(DBL2、DBL2)并进行sigmoid变换后作为注意力值;
将注意力值与res4下来的张量特征相乘,重复(2)的融合过程,再次产生三个张量特征;
最后再次产生的三个张量特征卷积变换(DBL5、DBL、conv)后输出三个不同尺度的新的张量特征(y1,y2,y3)。
多特征注意力网络能够一定程度上解决不平衡训练样本下目标检测的问题。传统的修改损失权重比方法虽然提升了模型对少样本场景的检测精确度,但是对更频繁出现的多样本场景的检测精度会有明显的降低,尤其是权重比特别大的时候。本申请提出的多特征注意力网络利用注意力机制和两次特征融合,在修改损失权重比基础上能够分离不同的特征,同时对这些特征产生不同的注意力,使得在明显提升少样本场景的检测精确度同时对多样本场景检测精度影响最小。
在一个具体的实施例中,本申请分类损失分支网络如图4所示,包含一个分类器,该分类器将图像分为两类:白天图像和夜间图像。该分类器具有简单的结构,包括全局平均池化层和全连接层,主干网络最后一个resn块的输出特征通过global average pooling(全局平均池化)层产生长条形特征,将其输入全连接层后输出的值表示该图像是夜间图像的概率,其中1表示完全认为该图像是在夜间拍摄的,而0则相反。由于只有两类,可以使用二值交叉熵作为损失函数。该分类损失分支与现有的图像分类器原理相同,但是作用不同,本申请将图像分类领域上的技术用在了目标检测领域上。现有的分类器用于直接输出分类结果;本申请分类损失分支完全用于反向传播,起到辅助目标检测的作用。
需要说明的是,本申请分类损失分支网络主要是在训练神经网络模型时使用,在训练所述神经网络模型时,所述分类损失分支网络接收所述特征提取网络最后一个残差组合模块的输出,将输出的分类结果和真实分类结果进行对比,用损失函数量化后反向传播,优化模型参数。
分类损失分支能够使模型在训练过程中不仅专注于细化的目标检测准确性,同时也注重整个图像分类准确性。因为不同类别的图像中相同类型的目标可能具有形态、颜色上的差异,因此如果能够在权重中学到图像的类别区分有助于提升目标检测精度。在传统目标检测网络中增加分类损失分支能够在训练过程中同时反向传播图像分类损失,从而在不平衡训练样本下提升目标检测精度。
需要说明的是,本申请非极大值抑制网络(Non-Maximum Suppression,NMS)属于比较成熟的技术,用于目标检测,这里不再赘述。
本申请神经网络模型训练过程如下:
对训练样本图像进行掩膜增强处理,关于掩膜增强处理前面已经阐述,这里不再赘述;
输入训练样本图像经过Darknet-53网络输出3个张量特征(分别是最后的res8、res8和res4三个模块所输出的特征);
将最后1个张量特征(res4块输出的特征)输入到分类损失分支,该分支将输出的分类结果和真实分类结果进行对比,用损失函数量化后反向传播,优化模型参数;
将res8、res8和res4三个模块生成的3个张量特征输入到多特征注意力提取网络,输出3个新的张量结果(y1,y2,y3);
将3个新的张量结果采用非极大值抑制输出检测结果;
将模型输出的检测结果和真实标注结果进行对比,用损失函数量化后反向传播,优化模型参数。
容易理解的是,在训练好神经网路模型后,就可以对待检测图像进行检测,在检测的过程,执行如图1所示的步骤,即:
用生成的掩膜对待检测图像做掩膜增强,关于掩膜增强处理前面已经阐述,这里不再赘述;
输入掩膜增强后的待检测图像经过Darknet-53网络输出3个张量特征(分别是最后的res8、res8和res4三个模块所输出的特征);
将res8、res8和res4三个模块生成的3个张量特征输入到多特征注意力提取网络,输出3个新的张量结果(y1,y2,y3);
将3个新的张量结果采用非极大值抑制输出检测结果。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (5)

1.一种不平衡训练样本下针对退化图像的目标检测方法,用于采用训练好的神经网络模型进行目标检测,其特征在于,所述神经网络包括特征提取网络、多特征注意力提取网络和非极大值抑制网络,所述不平衡训练样本下针对退化图像的目标检测方法,包括:
拍摄真实场景图片,抠出目标区域将RGB调0后置于白色图层上,使用随机大小的黑色图层覆盖亮点,并添加随机白色光斑,生成掩膜;
用生成的掩膜对待检测图像做掩膜增强;
将掩膜增强后的待检测图像输入到特征提取网络,获取特征提取网络最后三个残差组合模块输出的张量特征;
将所述张量特征输入到多特征注意力提取网络,输出三个新的张量特征;
将所述三个新的张量特征输入到非极大值抑制网络得到检测结果;
其中,所述特征提取网络采用Darknet-53网络或Resnet50网络或Resnet101网络;
所述将所述张量特征输入到多特征注意力提取网络,输出三个新的张量特征,包括:
(1)将特征提取网络最后三个残差组合模块输出的张量特征作为第一张量特征输入;
(2)将后一个第一张量特征进行卷积后再进行升采样,融合前一个第一张量特征,然后对融合后的张量特征进行重复操作,输出所对应的三个第二张量特征;
(3)将第三个第二张量特征卷积并进行sigmoid变换后作为注意力值;
(4)将注意力值与第一个第二张量特征相乘,重复(2)的融合过程,再次产生三个第三张量特征;
(5)将(4)产生的第三张量特征卷积变换后输出三个不同尺度的新的张量特征。
2.如权利要求1所述的不平衡训练样本下针对退化图像的目标检测方法,其特征在于,所述白色光斑的大小、直径、曲率、拉伸度、平滑度均服从高斯分布,白色光斑起始形状与不平滑锯齿形状服从离散均匀分布。
3.如权利要求1所述的不平衡训练样本下针对退化图像的目标检测方法,其特征在于,所述黑色图层的大小服从均匀分布。
4.如权利要求1所述的不平衡训练样本下针对退化图像的目标检测方法,其特征在于,所述神经网络模型还包括分类损失分支网络,在训练所述神经网络模型时,所述分类损失分支网络接收所述特征提取网络最后一个残差组合模块的输出,将输出的分类结果和真实分类结果进行对比,用损失函数量化后反向传播,优化模型参数。
5.如权利要求4所述的不平衡训练样本下针对退化图像的目标检测方法,其特征在于,所述分类损失分支网络包括全局平均池化层和全连接层。
CN202011030872.4A 2020-09-27 2020-09-27 一种不平衡训练样本下针对退化图像的目标检测方法 Active CN112215100B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011030872.4A CN112215100B (zh) 2020-09-27 2020-09-27 一种不平衡训练样本下针对退化图像的目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011030872.4A CN112215100B (zh) 2020-09-27 2020-09-27 一种不平衡训练样本下针对退化图像的目标检测方法

Publications (2)

Publication Number Publication Date
CN112215100A CN112215100A (zh) 2021-01-12
CN112215100B true CN112215100B (zh) 2024-02-09

Family

ID=74050822

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011030872.4A Active CN112215100B (zh) 2020-09-27 2020-09-27 一种不平衡训练样本下针对退化图像的目标检测方法

Country Status (1)

Country Link
CN (1) CN112215100B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966757A (zh) * 2021-03-11 2021-06-15 江苏禹空间科技有限公司 训练样本的扩展方法、装置、存储介质及设备
CN113870283B (zh) * 2021-09-29 2024-05-28 深圳万兴软件有限公司 人像抠图方法、装置、计算机设备及可读存储介质
CN114693950B (zh) * 2022-04-22 2023-08-25 北京百度网讯科技有限公司 一种图像特征提取网络的训练方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN111639692A (zh) * 2020-05-25 2020-09-08 南京邮电大学 一种基于注意力机制的阴影检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN111639692A (zh) * 2020-05-25 2020-09-08 南京邮电大学 一种基于注意力机制的阴影检测方法

Also Published As

Publication number Publication date
CN112215100A (zh) 2021-01-12

Similar Documents

Publication Publication Date Title
CN112215100B (zh) 一种不平衡训练样本下针对退化图像的目标检测方法
CN109299274B (zh) 一种基于全卷积神经网络的自然场景文本检测方法
JP6866495B2 (ja) 画像品質の評価方法及び画像品質の評価システム
Li et al. Single image dehazing via conditional generative adversarial network
CN108509978B (zh) 基于cnn的多级特征融合的多类目标检测方法及模型
CN111292264B (zh) 一种基于深度学习的图像高动态范围重建方法
CN112396607B (zh) 一种可变形卷积融合增强的街景图像语义分割方法
CN113052210B (zh) 一种基于卷积神经网络的快速低光照目标检测方法
CN111047551A (zh) 一种基于U-net改进算法的遥感影像变化检测方法及系统
CN113642390B (zh) 一种基于局部注意力网络的街景图像语义分割方法
CN114627360A (zh) 基于级联检测模型的变电站设备缺陷识别方法
CN112257766A (zh) 一种基于频域滤波处理的自然场景下阴影识别检测方法
CN110781882A (zh) 一种基于yolo模型的车牌定位和识别方法
CN114511576B (zh) 尺度自适应特征增强深度神经网络的图像分割方法与系统
CN114841972A (zh) 基于显著性图和语义嵌入特征金字塔的输电线路缺陷识别方法
CN114048822A (zh) 一种图像的注意力机制特征融合分割方法
CN112884758B (zh) 一种基于风格迁移方法的缺陷绝缘子样本生成方法及系统
CN112651917A (zh) 一种基于生成对抗网络的空间卫星低照度图像增强方法
CN116740516A (zh) 基于多尺度融合特征提取的目标检测方法及系统
CN113870286A (zh) 一种基于多级特征和掩码融合的前景分割方法
Guo et al. D3-Net: Integrated multi-task convolutional neural network for water surface deblurring, dehazing and object detection
Qu et al. Low illumination enhancement for object detection in self-driving
CN116452469B (zh) 一种基于深度学习的图像去雾处理方法及装置
CN113096133A (zh) 一种基于注意力机制的语义分割网络的构建方法
Cho et al. Modified perceptual cycle generative adversarial network-based image enhancement for improving accuracy of low light image segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant