CN113139594B - 一种机载图像无人机目标自适应检测方法 - Google Patents

一种机载图像无人机目标自适应检测方法 Download PDF

Info

Publication number
CN113139594B
CN113139594B CN202110418915.4A CN202110418915A CN113139594B CN 113139594 B CN113139594 B CN 113139594B CN 202110418915 A CN202110418915 A CN 202110418915A CN 113139594 B CN113139594 B CN 113139594B
Authority
CN
China
Prior art keywords
training
semi
target
supervised
unmanned aerial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110418915.4A
Other languages
English (en)
Other versions
CN113139594A (zh
Inventor
金忍
贾自凯
王辉
莫雳
何绍溟
王江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202110418915.4A priority Critical patent/CN113139594B/zh
Publication of CN113139594A publication Critical patent/CN113139594A/zh
Application granted granted Critical
Publication of CN113139594B publication Critical patent/CN113139594B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种机载图像无人机目标自适应检测方法,通过设置领域自适应模型对单阶段检测器进行半监督训练,获得目标检测模型,进而利用目标检测模型对无人机拍摄的图像进行检测。根据本发明提供的机载图像无人机目标自适应检测方法,显著提高检测速度,可以实现在机载低算力设备的实时运行,并且无需接触源域训练数据,实现在缺失目标域标注时的无人机目标检测,提高了迁移性和自适应能力。

Description

一种机载图像无人机目标自适应检测方法
技术领域
本发明涉及一种机载图像无人机目标自适应检测方法,属于图像检测领域。
背景技术
无人机目标检测大都基于深度神经学习网络实现,深度神经学习网络的目标检测可以分为两类,分别是基于两阶段检测器和单阶段检测器。
两阶段检测器通常可以获得更好的检测性能,并常在公共基准数据集上报告最优的结果,但其对计算机要求高,受限于机载计算机算力限制,大部分无人机的机载计算机无法满足两阶段检测器的性能要求。
单阶段检测器具有更高的计算效率,是目前无人机图像识别采用的主要方式,然而,典型的单阶段检测算法如YOLO系列、SSD等,其检测性能较低,直接应用在机载无人机目标检测,一方面对小目标和目标大尺度变化检测效果不佳,另一方面,当测试场景与训练场景差异较大时,检测效果大幅度降低。
并且,深度神经学习网络通常假设训练数据和测试数据都来自相同的分布。这样带来的好处是显而易见的:(1)只需对目标场景进行充分样本抽样即可获得合乎要求的训练数据集;(2)模型在训练集上所体现的认知能力,很容易泛化到测试集。但是,当应用场景发生变化时,即训练集和测试集之间存在分布漂移,基于分布一致性所得模型的性能会出现大幅度下降,缺乏对新环境的适应能力。然而在无人机图像检测实践应用中,收集带标注的数据是昂贵的,有时是不可能的,局限了无人机图像检测的应用范围。
此外,现有技术中还具有深度域自适应对图像进行检测的方法,典型的为基于对抗的当前域自适应,其利用域判别器进行对抗性训练,以鼓励源域和目标域之间的域混淆,利用域鉴别器对从源域或目标域绘制的数据点进行分类,然而该种方法大多基于两阶段检测器,算法复杂度较高,在无人机机载电脑难以实现实时检测;并且大多是基于对抗的方法,再训练需要接触源域数据,当源域数据较大时,训练成本较高,难以推广使用。
由于上述原因,发明人经过锐意研究,提出一种机载图像无人机目标检测方法,以解决上述问题。
发明内容
为了克服上述问题,本发明人进行了锐意研究,提出了一种机载图像无人机目标自适应检测方法,通过设置领域自适应模型对单阶段检测器进行半监督训练,获得目标检测模型,进而利用目标检测模型对无人机拍摄的图像进行检测。
进一步地,该方法包括以下步骤:
S1、预训练获得初始网络模型;
S2、再训练初始网络模型,获得目标检测模型;
S3、将目标检测模型加载至无人机机载计算机中,实现无人机对目标域的自适应检测。
根据本发明,在步骤S1中,所述预训练是指对单阶段检测器进行训练,预训练样本为源域数据,包括图像和标注信息。
在一个优选的实施方式中,初始网络损失函数表示为:
Ls=Lcls+Lbbox+Lobj
其中,Lcls表示初始网络分类损失,采用BCE loss函数;Lbbox是初始网络目标边界框回归损失,采用GIoU损失函数;Lobj表示初始网络置信度损失,采用BCE loss函数。
在一个优选的实施方式中,在步骤S2中,所述再训练是指对初始网络模型进行半监督训练。
进一步地,采用伪标签方法对初始网络模型进行半监督训练。
更进一步地,半监督训练的样本为目标域的图像信息,其中无标注信息,所述目标域是指待检测区域。
根据本发明,在步骤S2中,获得目标域图像信息后,将其作为样本输入至初始网络模型,初始网络模型输出的结果为伪标签,将伪标签及对应图像信息作为样本对初始网络模型再训练。
在一个优选的实施方式中,再训练的过程按照半监督训练的方式进行,在训练过程中采用半监督网络损失函数,表示为:
L=Ls+αLt
Lt=L′cls+L′bbox+L′obj
其中,L′cls表示半监督网络分类损失;L′bbox是半监督网络目标边界框回归损失;L′obj表示半监督网络置信度损失,α表示平衡系数。
在一个优选的实施方式中,半监督网络置信度损失包括BCE loss函数。
本发明所具有的有益效果包括:
(1)根据本发明提供的机载图像无人机目标自适应检测方法,相比传统检测算法和基于深度学习的两阶段检测算法,显著提高检测速度,可以实现在机载低算力设备的实时运行。
(2)根据本发明提供的机载图像无人机目标自适应检测方法,引入领域自适应到目标检测领域,提高检测算法在未知环境检测效果,实现自适应检测。
(3)根据本发明提供的机载图像无人机目标自适应检测方法,同时相比于其他基于对抗的自适应方法,无需接触源域训练数据,实现在缺失目标域标注时的无人机目标检测,提高了迁移性和自适应能力。
附图说明
图1示出根据本发明一种优选实施方式的机载图像无人机目标自适应检测方法示意图。
具体实施方式
下面通过附图和实施例对本发明进一步详细说明。通过这些说明,本发明的特点和优点将变得更为清楚明确。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
本发明提出了一种机载图像无人机目标自适应检测方法,通过设置领域自适应模型对单阶段检测器进行半监督训练,获得目标检测模型,进而利用目标检测模型对无人机拍摄的图像进行检测。
进一步地,所述机载图像无人机目标自适应检测方法,如图1所示,包括以下步骤:
S1、预训练获得初始网络模型;
S2、再训练初始网络模型,获得目标检测模型;
S3、将目标检测模型加载至无人机机载计算机中,实现无人机对目标域的自适应检测。
在步骤S1中,所述预训练是指对单阶段检测器进行训练,所述单阶段检测器为深度学习神经网络中常用的一种检测器,在本发明中,单阶段检测器优选为YOLO单阶段检测器,例如YOLO V5单阶段检测器。
进一步,在预训练单阶段检测器过程中,先将预训练样本输入至单阶段检测器,由单阶段检测器输出预测结果,利用初始网络损失函数计算出预测结果与预训练样本的源域损失,并使用随机梯度下降法将源域损失的梯度回传给单阶段检测器,以调整模型的参数。
在本发明中,所述预训练样本为源域数据,包括图像和标注信息。
根据本发明一个优选的实施方式,所述初始网络损失函数可以表示为:
Ls=Lcls+Lbbox+Lobj   (1)
其中,Lcls表示初始网络分类损失,优选采用BCE loss函数;Lbbox是初始网络目标边界框回归损失,优选采用GIoU损失函数;Lobj表示初始网络置信度损失,优选采用BCEloss函数。
单阶段检测器通过预训练后,得到的模型即为初始网络模型。
由单阶段检测器获得的初始网络模型,相对于通过双阶段检测器获得的神经网络模型,其对计算机性能要求低,运算速度更快,能够更好的适配无人机机载计算机。
但是,初始网络模型的检测精度相对较低,为提高检测精度,在本发明中,对初始网络模型进行再训练。
在步骤S2中,所述再训练是指对初始网络模型进行半监督训练。
优选地,采用伪标签方法对初始网络模型进行半监督训练。
进一步地,半监督训练的样本为目标域的图像信息,其中无标注信息,所述目标域是指待检测区域。
伪标签方法是一种简单高效的半监督学习策略,通过其可以使训练样本不必再手工标注无标签数据,只需要基于有标签数据的技术来给出一个近似的标签。
在本发明中,通过半监督训练的方式,实现了仅通过目标域图像信息,无需标注信息便可以完成数据训练和模型更新,实现在目标域的无人机检测。
进一步地,在本发明中,采用待检测区域作为目标域,无标注信息训练,克服了机载图像检测实时性较差、对训练数据依赖强、环境适应能力较差的缺点,实现了机载计算机对空中无人机目标的快速鲁棒检测。
具体地,在步骤S2中,获得目标域图像信息后,将其作为样本输入至初始网络模型,初始网络模型输出的结果即为伪标签。
进一步地,对获得的伪标签进行筛选,将筛选后的伪标签及对应图像信息作为样本对初始网络模型再训练。
在本发明中,对伪标签的筛选方式不做特别限定,本领域技术人员可根据经验及实际需要进行,优选采用正则约束的方式对获得的伪标签进行筛选,通过计算网络softmax层输出的概率值和输出值的不确定性作为置信度,当两项概率均高于阈值P时,认为伪标签可靠,并将其加入后续训练,其中阈值参数P是通过网络学习迭代更新,初始设置为0.3。
进一步地,再训练的过程按照半监督训练的方式进行,即将样本输入初始网络模型,获得预测结果,利用半监督网络损失函数计算出预测结果与样本的损失,并使用随机梯度下降法将损失的梯度回传给初始网络模型,以调整初始网络模型的参数。
更进一步地,所述半监督网络损失函数可以表示为:
L=Ls+αLt   (2)
Lt=L′cls+L′bbox+L′obj   (3)
其中,L′cls表示半监督网络分类损失,优选采用BCE loss函数,表示为L′cls=-ωi[yilogxi+(1-yi)log(1-xi)],
其中,yi表示目标,xi表示输出,ωi表示权重;
L′bbox是半监督网络目标边界框回归损失,优选采用GIoU损失函数,表示为
Figure BDA0003027050720000071
其中,A,B,C分别表示预测框,真实框,以及包含上述两个框的最小矩形框;
L′obj表示半监督网络置信度损失,优选采用BCE loss函数加正则项约束损失,表示为:
Figure BDA0003027050720000072
其中n表示迭代次数,λ表示正则化参数,可根据实际需要自由设定,θi为带求解参数,其随着迭代次数衰减;
α表示平衡系数。
不同于常规的半监督训练,在本发明中,半监督网络损失函数中增加有半监督网络目标边界框回归损失L′bbox,通过其将需要源域数据训练的初始网络模型与半监督训练相结合,从而实现对初始网络模型参数的更新调优,进而获得目标检测模型,实现在缺失目标域标注信息时的无人机目标检测,提高算法迁移性和自适应能力。
不同于常规的半监督训练,在本发明中,半监督网络损失函数中半监督网络置信度损失L′obj采用BCE loss函数加正则项约束,相比于其它函数,其更关注正确类别的预测概率,有利于梯度更新,同时添加正则项约束可以让权重衰减到更小的值,在一定程度上减少模型过拟合的问题。进一步地,α∈[0,1],通过再训练过程对平衡系数α的不断调优,平衡了有标注信息的图像信息和没有真实标注信息的伪标签图像信息对的影响。
在步骤S3中,将获得的目标检测模型加载至无人机机载计算机中,无人机在目标域飞行时,获取目标域图像,将图像输入目标检测模型,目标检测模型输出预测信息,完成无人机对目标域的自适应检测。
实施例
实施例1
设置多组不同的源域数据和目标域数据进行模拟实验,具体地,
第一组将开源数据集VOC2012作为源域数据,将开源数据集Clipart 1k作为目标域数据进行试验;
第二组将开源数据集VOC2012作为源域数据,将开源数据集Watercolor 2k作为目标域数据进行试验;
第三组将开源数据集VOC2012作为源域数据,将开源数据集Comic 2k作为目标域数据进行试验;
第四组根据MBZIRC挑战一的规则在国内城市郊区收集源域数据,其中包括标注信息,在竞赛现场收集得到的图像作为目标域数据,其中不含标注信息。
以YOLOv5s作为单阶段检测器进行预训练,获得初始网络模型,初始网络损失函数为:
Ls=Lcls+Lbbox+Lobj   (1)
其中,Lcls表示初始网络分类损失,采用BCE loss函数;Lbbox是初始网络目标边界框回归损失,采用GIoU损失函数;Lobj表示初始网络置信度损失,采用BCE loss函数。
采用伪标签方法对初始网络模型进行半监督训练,将目标域图像作为样本输入至初始网络模型获得伪标签,采用正则约束的方式对获得的伪标签进行筛选,将置信度高于P(初始设置为0.3)的伪标签筛选出来,将筛选后的伪标签及对应图像信息作为样本输入初始网络模型,获得预测结果,利用半监督网络损失函数计算出预测结果与样本的损失,并使用随机梯度下降法将损失的梯度回传给初始网络模型,以调整初始网络模型的参数。
所述半监督网络损失函数可以表示为:
L=Ls+αLt   (2)
Lt=L′cls+L′bbox+L′oj   (3)
其中,L′cls表示半监督网络分类损失,采用BCE loss函数;L′bbox是半监督网络目标边界框回归损失,采用GIoU损失函数;L′obj表示半监督网络置信度损失,采用BCE loss函数加正则项约束损失,α表示平衡系数。
实施例2
采用实施例1中第一组源域数据和目标域数据进行模拟实验,与实施例1中区别的是,置信度损失采用MSE均方误差损失函数。
实施例3
采用实施例1中第一组源域数据和目标域数据进行模拟实验,与实施例1中区别的是,置信度损失采用CE交叉熵损失函数。
对比例1
使用对实施例1相同的源域数据和目标域数据进行实验,采用YOLOv5s单阶段检测器进行训练获得检测模型。
实验例1
采用检测目标矩形框与真值之间的平均精度(即mAP)作为评价标准,对比实施例1和对比例1的结果,如表一所示。
表一
Figure BDA0003027050720000101
Figure BDA0003027050720000111
从表一中可以看出,实施例1中的检测方法比对比例1中检测方法在不同组、不同类下检测精度均有极大的提高。
实验例2
采用检测目标矩形框与真值之间的平均精度(即mAP)作为评价标准,对比实施例1和实施例2的结果,如表二所示。
表二
Figure BDA0003027050720000112
从表二可以看出,实施例1中的检测方法在不同组、不同类下的检测精度均高于实施例2,实施例3,说明半监督网络置信度损失采用BCE loss函数加正则项约束损失时效果最优。
在本发明的描述中,需要说明的是,术语“上”、“下”、“内”、“外”、“前”、“后”等指示的方位或位置关系为基于本发明工作状态下的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”、“第四”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”“相连”“连接”应作广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体的连接普通;可以是机械连接,也可以是电连接;可以是直接连接,也可以通过中间媒介间接连接,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
以上结合了优选的实施方式对本发明进行了说明,不过这些实施方式仅是范例性的,仅起到说明性的作用。在此基础上,可以对本发明进行多种替换和改进,这些均落入本发明的保护范围内。

Claims (3)

1.一种机载图像无人机目标自适应检测方法,通过设置领域自适应模型对单阶段检测器进行半监督训练,获得目标检测模型,进而利用目标检测模型对无人机拍摄的图像进行检测;
该方法包括以下步骤:
S1、预训练获得初始网络模型;
S2、再训练初始网络模型,获得目标检测模型;
S3、将目标检测模型加载至无人机机载计算机中,实现无人机对目标域的自适应检测;
在步骤S2中,所述再训练是指对初始网络模型进行半监督训练;
半监督训练的样本为目标域的图像信息,其中无标注信息,所述目标域是指待检测区域;
再训练的过程按照半监督训练的方式进行,在训练过程中采用半监督网络损失函数,表示为:
其中,表示初始网络损失函数,表示半监督网络损失函数,表示半监督网络分类损失;是半监督网络目标边界框回归损失;表示半监督网络置信度损失,表示平衡系数;
半监督网络置信度损失包括BCE loss函数;
采用伪标签方法对初始网络模型进行半监督训练,获得目标域图像信息后,将其作为样本输入至初始网络模型,初始网络模型输出的结果为伪标签,
对获得的伪标签进行筛选,将筛选后的伪标签及对应图像信息作为样本对初始网络模型再训练;
对获得的伪标签采用正则约束的方式进行筛选,通过计算网络softmax层输出的概率值和输出值的不确定性作为置信度,当两项概率均高于阈值P时,认为伪标签可靠,并将其加入后续训练。
2.根据权利要求1所述的机载图像无人机目标自适应检测方法,其特征在于,在步骤S1中,所述预训练是指对单阶段检测器进行训练,预训练样本为源域数据,包括图像和标注信息。
3.根据权利要求1所述的机载图像无人机目标自适应检测方法,其特征在于,
初始网络损失函数表示为:
其中,表示初始网络分类损失,采用BCE loss函数;是初始网络目标边界框回归损失,采用GIoU损失函数;表示初始网络置信度损失,采用BCE loss函数。
CN202110418915.4A 2021-04-19 2021-04-19 一种机载图像无人机目标自适应检测方法 Active CN113139594B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110418915.4A CN113139594B (zh) 2021-04-19 2021-04-19 一种机载图像无人机目标自适应检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110418915.4A CN113139594B (zh) 2021-04-19 2021-04-19 一种机载图像无人机目标自适应检测方法

Publications (2)

Publication Number Publication Date
CN113139594A CN113139594A (zh) 2021-07-20
CN113139594B true CN113139594B (zh) 2023-05-02

Family

ID=76812701

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110418915.4A Active CN113139594B (zh) 2021-04-19 2021-04-19 一种机载图像无人机目标自适应检测方法

Country Status (1)

Country Link
CN (1) CN113139594B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822372A (zh) * 2021-10-20 2021-12-21 中国民航大学 基于YOLOv5神经网络的无人机检测方法
CN114022705B (zh) * 2021-10-29 2023-08-04 电子科技大学 一种基于场景复杂度预分类的自适应目标检测方法
CN114220016B (zh) * 2022-02-22 2022-06-03 山东融瓴科技集团有限公司 面向开放场景下的无人机航拍图像的域自适应识别方法
CN116229080B (zh) * 2023-05-08 2023-08-29 中国科学技术大学 半监督域适应图像语义分割方法、系统、设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220172456A1 (en) * 2019-03-08 2022-06-02 Google Llc Noise Tolerant Ensemble RCNN for Semi-Supervised Object Detection
CN111368660A (zh) * 2020-02-25 2020-07-03 华南理工大学 一种单阶段半监督图像人体目标检测方法
CN112232416B (zh) * 2020-10-16 2021-09-14 浙江大学 一种基于伪标签加权的半监督学习方法
CN112580684B (zh) * 2020-11-17 2024-04-09 平安科技(深圳)有限公司 基于半监督学习的目标检测方法、装置及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A Domain Adaptation Method for Object Detection in UAV Based on Semi-Supervised Learning;SIQI LI等;《2020 17th International Computer Conference on Wavelet Active Media Technology and Information Processing (ICCWAMTIP)》;20210115;第138-141页 *
YOLO V4 — 损失函数解析(特详细!);周威;《https://zhuanlan.zhihu.com/p/159209199》;20210121;第1-8页 *
小样本域自适应的小样本域自适应的小样本域自适应的小样本域自适应的皮肤病临床影像识别方;景海婷等;《西安交通大学学报》;20200930;第54卷(第9期);第y1-y8页 *

Also Published As

Publication number Publication date
CN113139594A (zh) 2021-07-20

Similar Documents

Publication Publication Date Title
CN113139594B (zh) 一种机载图像无人机目标自适应检测方法
CN114241282B (zh) 一种基于知识蒸馏的边缘设备场景识别方法及装置
CN109166094B (zh) 一种基于深度学习的绝缘子故障定位识别方法
CN111414942B (zh) 一种基于主动学习和卷积神经网络的遥感图像分类方法
CN108460382B (zh) 基于深度学习单步检测器的光学遥感图像舰船检测方法
CN110390251B (zh) 一种基于多神经网络模型融合处理的图像文字语义分割方法
CN112633149B (zh) 一种域自适应雾天图像目标检测方法和装置
CN110569738A (zh) 基于密集连接网络的自然场景文本检测方法、设备和介质
CN111860106B (zh) 一种无监督的桥梁裂缝识别方法
CN111985325A (zh) 特高压环境评价中的航拍小目标快速识别方法
CN114694178A (zh) 基于Faster-RCNN算法的电力作业中安全帽监测方法及系统
CN112712052A (zh) 一种机场全景视频中微弱目标的检测识别方法
CN116977710A (zh) 一种遥感图像长尾分布目标半监督检测方法
CN107545281B (zh) 一种基于深度学习的单一有害气体红外图像分类识别方法
CN111259733A (zh) 一种基于点云图像的船舶识别方法及装置
CN111476307A (zh) 一种基于深度领域适应的锂电池表面缺陷检测方法
CN117152503A (zh) 一种基于伪标签不确定性感知的遥感图像跨域小样本分类方法
CN117237733A (zh) 一种结合自监督和弱监督学习的乳腺癌全切片图像分类方法
CN117152606A (zh) 一种基于置信度动态学习的遥感图像跨域小样本分类方法
CN116469020A (zh) 一种基于多尺度和高斯Wasserstein距离的无人机图像目标检测方法
CN113762144A (zh) 一种基于深度学习的黑烟车检测方法
CN114219763A (zh) 基于Faster RCNN算法的配电设备异常发热点红外图片检测方法
CN115761667A (zh) 一种基于改进fcos算法的无人车辆搭载摄像头目标检测方法
CN115147432A (zh) 一种基于深度残差语义分割网络的初至拾取方法
CN114998731A (zh) 智能终端导航场景感知识别的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant