CN112836820A - 用于图像分类任务的深度卷积网络训方法、装置及系统 - Google Patents
用于图像分类任务的深度卷积网络训方法、装置及系统 Download PDFInfo
- Publication number
- CN112836820A CN112836820A CN202110132078.9A CN202110132078A CN112836820A CN 112836820 A CN112836820 A CN 112836820A CN 202110132078 A CN202110132078 A CN 202110132078A CN 112836820 A CN112836820 A CN 112836820A
- Authority
- CN
- China
- Prior art keywords
- deep convolutional
- training
- neural network
- image
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 80
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 31
- 238000007781 pre-processing Methods 0.000 claims abstract description 18
- 230000005540 biological transmission Effects 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 17
- 238000012795 verification Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000001902 propagating effect Effects 0.000 claims description 2
- 238000010200 validation analysis Methods 0.000 claims description 2
- 238000005457 optimization Methods 0.000 abstract description 30
- 238000013145 classification model Methods 0.000 abstract description 6
- 238000013461 design Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
Abstract
本发明提供了用于图像分类任务的深度卷积网络训练方法、装置及系统,方法包括:步骤10,对训练样本进行预处理,获得数据增强的训练样本;步骤20,针对数据增强的训练样本,基于深度卷积神经网络提取图像嵌入/特征向量,得到当前的输出;步骤30,基于当前的输出和修正后的损失函数,进行梯度反传;步骤40,对所述深度卷积神经网络层的参数进行调整更新;步骤50,重复步骤10‑步骤40,将所述深度卷积神经网络层迭代训练至收敛。本发明继承了Mixup和Focal Loss两种优化方法的思想,通过重新设计损失函数,修正了这两种方法简单叠加使用造成的优化目标偏误,缓解了难易样本不均衡的问题,可以获得精度更高的深度卷积网络分类模型。
Description
技术领域
本发明书一个或多个实施例涉及计算机技术领域,涉及一种用于图像分类任务的深度卷积网络训练方法、装置及系统,具体涉及一种图像识别的数据增强方法和损失函数设计。
背景技术
本部分旨在为权利要求书中陈述的本发明的实施方式提供背景或上下文。此处的描述可包括可以探究的概念,但不一定是之前已经想到或者已经探究的概念。因此,除非在此指出,否则在本部分中描述的内容对于本申请的说明书和权利要求书而言不是现有技术,并且并不因为包括在本部分中就承认是现有技术。
近年来,基于深度神经网络模型的人工智能技术,在计算机视觉领域得到广泛应用,,尤其是在目标检测任务当中,一些深度学习算法模型与框架,已经表现出惊人的准确率。对于目标分类或者检测任务而言,通常在确定网络框架以后,模型的准确性在很程度上由数据集和训练模型所用的损失函数所决定。
其中,Mixup是一种非常规的数据增强方法,其以线性插值的方式来构建新的训练样本和标签,最终对标签的处理如下公式所示:
其中,(xi,yi),(xj,yj)两个数据对是原始数据集中的训练样本和其对应的标签。其中λ∈[0,1]是一个服从B分布的参数λ~Beta(α,α),α∈[0,+∞]。当进行二分类任务时其损失函数形式为:
其中,C表示任意一种用于分类任务的损失函数,例如交叉熵等。
损失抑制权值向量优化Focal Loss主要是为了解决正负样本比例严重失衡的问题。该损失函数降低了大量简单负样本在训练中所占的权重,当进行二分类任务时其函数形式为:
其中,γ为常数,yp为网络输出值,y为样本标签。
该方法也可拓展到多分类的情形。
但存在如下问题:
深度学习网络训练过程中,如果同时使用上述两种优化方法,并且直接将Lf代入C中,则优化目标出现异常改变,导致最终训练效果较差。
简要起见,以二分类任务进行说明,融合后的优化目标为:
yp表示卷积神经网络的预测输出值;log是以e为底的对数运算。λ是mixup参数,γ是focal loss参数,一般取2。
当yi=yj时,也即(1)(2)式,Lmf=Lf,此时没有问题;
但当yi≠yj时,根据Mixup设计原理,(3)式中yp=λ,(4)式中yp=1-λ时,函数应该取得极小值(关于yp的导数应该等于0),显然公式(3)和公式(4)两式不满足要求,即当同时使用Mixup和Focal Loss两种优化方法并进行简单叠加后,所得到的损失函数实际极值点相对于目标值会发生偏移改变本,即优化目标存在偏误。
有鉴于此,亟需一种新的处理技术,通过修改两者的结合方式,修正极值偏差,获得更高精度的深度卷积网络分类模型。
发明内容
本说明书一个或多个实施例描述了用于图像分类任务的深度卷积网络训练方法、装置及系统,继承了Mixup和Focal Loss两种优化方法的思想,通过重新设计损失函数,解决了目前现有技术中存在的这两种方法简单叠加使用造成的优化目标偏误。
本说明书一个或多个实施例提供的技术方案如下:
第一方面,本发明提供了用于图像分类任务的深度卷积网络训练方法,包括以下步骤:
步骤10,对训练样本进行预处理,获得数据增强的训练样本;
步骤20,针对数据增强的训练样本,基于深度卷积神经网络提取图像嵌入/特征向量,得到当前的输出;
步骤30,基于当前的输出和修正后的损失函数,进行梯度反传;
步骤40,对所述深度卷积神经网络层的参数进行调整更新;
步骤50,重复步骤10-步骤40,将所述深度卷积神经网络层迭代训练至收敛。
在一个可能的实现方式中,所述训练样本预处理,具体为:
步骤101,采集含N个类别的三通道图像数据,其中,N≥2;
步骤102,将采集到的所述图像数据划分为训练集和验证集;
步骤103,对训练集中的图像进行图像增强处理;
步骤104,从处理后的训练集中抽取数个图像,组成小批次数据,然后将原索引打乱,获得随机索引序列;
步骤105,将原索引图像和随机索引图像按比例λ混合;其中,λ为随机产生的mixup参数;
步骤106,将混合后的图像按批次输入卷积神经网络中。
在一个可能的实现方式中,图像数据以3:1的比例划分为训练集和验证集。
在一个可能的实现方式中,所述图像增强处理包括:随机裁剪、色彩增强和随机噪声中的一种或多种。
在一个可能的实现方式中,,修正后的函数为:
第二方面,本发明提供了用于图像分类任务的深度卷积网络训练装置,该装置包括:
预处理模块,用于对训练样本进行预处理,获得数据增强的训练样本;
处理模块,用于针对数据增强的训练样本,基于深度卷积神经网络提取图像嵌入/特征向量,得到当前的输出;
梯度反传模块,用于基于当前的输出和修正后的损失函数,进行梯度反传;
参数更新模块,用于对所述深度卷积神经网络层的参数进行调整更新,将所述深度卷积神经网络层迭代训练至收敛。
在一个可能的实现方式中,所述梯度反传模块包括:
计算单元,用于基于当前的输出和修正后的损失函数,计算所述深度卷积神经网络的当前误差损失;
梯度反传单元,用于并将所述当前误差损失反向传播。
在一个可能的实现方式中,预处理模块对训练样本中的图像进行图像增强处理,包括随机裁剪、色彩增强和随机噪声中的一种或多种。
在一个可能的实现方式中,修正后的函数为:
第三方面,本发明提供了用于图像分类任务的深度卷积网络训练系统,该系统包括至少一个处理器和存储器;
所述存储器,用于存储一个或多个程序指令;
所述处理器,用于运行一个或多个程序指令,用以执行如第一方面中一个或多个所述的方法。
第四方面,本发明提供了一种芯片,所述芯片与系统中的存储器耦合,使得所述芯片在运行时调用所述存储器中存储的程序指令,实现如第一方面中一个或多个所述的方法。
第五方面,本发明提供了一种计算机可读存储介质,所述计算机可读存储介质包括一个或多个程序指令,所述一个或多个程序指令可被如第三方面所述的系统执行,以实现如第一方面中一个或多个所述的方法。
本发明实施例提供的方法继承了Mixup和Focal Loss两种优化方法的思想,通过重新设计损失函数,修正了这两种方法简单叠加使用造成的优化目标偏误,缓解了难易样本不均衡的问题,可以获得精度更高的深度卷积网络分类模型。
附图说明
图1为本发明实施例提供的用于图像分类任务的深度卷积网络训练方法流程示意图之一;
图2为本发明实施例提供的用于图像分类任务的深度卷积网络训练方法流程示意图之二;
图3为训练样本预处理的流程示意图;
图4为本发明实施例提供的用于图像分类任务的深度卷积网络训练装置结构示意图;
图5为为本发明实施例提供的梯度反传模块的结构示意图;
图6为本发明实施例提供的用于图像分类任务的深度卷积网络训练的系统结构示意图。
其中,41为处理模块,42为处理模块,43为梯度反传模块,44为参数更新模块,431为计算单元和432为梯度反传单元,61为寄存器,62为处理器。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。图1、图2示出一个实施例的用于图像分类任务的深度卷积网络训练方法流程图,所述方法的执行主体可以为任何具有计算、处理能力的装置、设备、平台、设备集群等。如图1和图2所示,所述方法包括步骤10-步骤50:
步骤10,对训练样本进行预处理,获得数据增强的训练样本。
图3为训练样本预处理流程示意图,如图3所示,在一个示例中,所述训练样本预处理,具体为:
步骤101,采集含N个类别的三通道图像数据,其中,N≥2。
具体的,采集一批包含N(N>=2)个类别的RGB三通道图像数据,Resize到统一大小,一般为224x224的分辨率。
步骤102,将采集到的所述图像数据划分为训练集和验证集。
具体的,将采集到的图像数据以3:1的比例划分为训练集和验证集。
步骤103,对训练集中的图像进行图像增强处理。
对训练集中的图片添加图像增强处理手段,具体的,包括随机添加随机裁剪、色彩增强和随机噪声中的一种或多种。通过图像增强手段可以提高深度卷积网络的泛化性,降低过拟合风险。
步骤104,从处理后的训练集中抽取数个图像,组成小批次数据,然后将原索引打乱,获得随机索引序列。
具体的,每次从训练集中抽取Batch size(参数,根据实际情况设置)个图像,即抽取批量的图像,组成一个小批次数据:data[1],data[2],data[3]...,然后将原索引Index=[1,2,3,...,Batchsize]随机打乱,产生一个随机索引序列Random_index。
步骤105,将原索引图像和随机索引图像按比例λ混合;其中,λ为随机产生的mixup参数。
具体的,根据Beta(α,α)分布,随机产生mixup参数λ,将步骤104中的原索引图像和随机索引图像以比例λ逐像素-逐通道两两混合,例如随机索引为[3,9,21,...],则混合后的图像批次为:
λ*data[1]+(1-λ)*data[3],
λ*data[2]+(1-λ)*data[9],
λ*data[3]+(1-λ)*data[21],
......
步骤106,将混合后的图像按批次输入卷积神经网络中。
具体的,将混合后的的图像按批次输入搭建好的卷积神经网络中;该方法通用于绝大多数的卷积神经网络结构,例如ResNet,vgg,MobileNet等。
步骤20,针对数据增强的训练样本,基于深度卷积神经网络提取图像嵌入/特征向量,得到当前的输出。
该步骤主要基于深度卷积神经网络提取特征,并输出预测值Yp。
提取方法:一般来说,要经过卷积运算,激活函数,池化等操作,不同的主干网络结构对应的操作会有所变化,这个是通用方法,在此不再赘述。
提取的特征指:将数据输入神经网络主干部分所得到的图像嵌入/特征向量。
步骤30,基于当前的输出和修正后的损失函数,进行梯度反传;
具体的,基于当前的输出和修正后的损失函数,计算所述深度卷积神经网络的当前误差损失,并将所述当前误差损失反向传播。
修改后的损失函数为:
新设计的数据增强和损失函数在yi≠yj情形时,具有性质:
(2)保持了Loss的设计思想,即缓解难易样本不均衡的问题;
(3)相对于分别单独使用上述两种优化方法,修正后的方法可以获得精度更高的深度卷积网络分类模型。
步骤40,对所述深度卷积神经网络层的参数进行调整更新;
一般的,根据随机梯度(SGD)下降法,进行梯度的反传和参数更新过程;参数更新过程中,可设置学习率lr、权重衰减项w等参数,达到加速或优化模型收敛的效果。
步骤50,重复步骤10-步骤40,将所述深度卷积神经网络层迭代训练至收敛。
迭代训练是指在一个批次的训练数据完成提取特征-->梯度反传-->参数更新后,接着对下一个批次的数据重复上述步骤10-40。
收敛的标准:可以在训练过程中,同时测试模型在验证集上的效果,比如测试分类准确acc这个指标,当acc高于预先设定的阈值(比如99%)且经过m个批次后无明显变化,即可认为模型已收敛,则完成训练过程。
本发明提供的方法继承了Mixup和Focal Loss两种优化方法的思想,通过重新设计损失函数,修正了这两种方法简单叠加使用造成的优化目标偏误,缓解了难易样本不均衡的问题,可以获得精度更高的深度卷积网络分类模型。
与上述实施例方法对应的,本发明还提供了一种用于图像分类任务的深度卷积网络训练装置,图4为装置结构示意图,如图4所示,该装置包括预处理模块41、处理模块42、梯度反传模块43和参数更新模块44,具体的:.
预处理模块41,用于对训练样本进行预处理,获得数据增强的训练样本。
具体的,预处理模块对训练样本中的图像进行图像增强处理,包括随机裁剪、色彩增强和随机噪声中的一种或多种。
处理模块42,用于针对数据增强的训练样本,基于深度卷积神经网络提取图像嵌入/特征向量,得到当前的输出。
梯度反传模块43,用于基于当前的输出和修正后的损失函数,进行梯度反传。
具体的,如图5所示,梯度反传模块43包括计算单元431和梯度反传单元432:
计算单元431,用于基于当前的输出和修正后的损失函数,计算所述深度卷积神经网络的当前误差损失;
具体的,修正后的函数为:
梯度反传单元432,用于并将所述当前误差损失反向传播
参数更新模块44,用于对所述深度卷积神经网络层的参数进行调整更新,将所述深度卷积神经网络层迭代训练至收敛。
本发明实施例提供的装置中各部件所执行的功能均已在上述方法中做了详细介绍,因此这里不做过多赘述。
与上述实施例相对应的,本发明实施例、还提供了用于图像分类任务的深度卷积网络训练系统,具体如图6所示,该系统包括至少一个处理器61和存储器62;
存储器61,用于存储一个或多个程序指令;
处理器62,用于运行一个或多个程序指令,执行如上述实施例所介绍的用于图像分类任务的深度卷积网络训练方法中的任一方法步骤。
与上述实施例相对应的,本发明实施例还提供了一种芯片,该芯片与上述系统中的存储器耦合,使得所述芯片在运行时调用所述存储器中存储的程序指令,实现如上述实施例所介绍的用于图像分类任务的深度卷积网络训练方法。
与上述实施例相对应的,本发明实施例还提供了一种计算机存储介质,该计算机存储介质中包括一个或多个程序,其中,一个或多个程序指令用于被用于图像分类任务的深度卷积网络训练系统执行如上介绍的用于图像分类任务的深度卷积网络训练方法。
本申请提供的方案,解决了现有技术存在的问题:
本发明继承了Mixup和Focal Loss两种优化方法的思想,通过重新设计损失函数,修正了这两种方法简单叠加使用造成的优化目标偏误。新设计的数据增强和损失函数在yi≠yj情形时,具有性质:
(2)保持了Loss的设计思想,即缓解难易样本不均衡的问题;
(3)相对于分别单独使用上述两种优化方法,修正后的方法可以获得精度更高的深度卷积网络分类模型。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (12)
1.用于图像分类任务的深度卷积网络训练方法,其特征在于,
步骤10,对训练样本进行预处理,获得数据增强的训练样本;
步骤20,针对数据增强的训练样本,基于深度卷积神经网络提取图像嵌入/特征向量,得到当前的输出;
步骤30,基于当前的输出和修正后的损失函数,进行梯度反传;
步骤40,对所述深度卷积神经网络层的参数进行调整更新;
步骤50,重复步骤10-步骤40,将所述深度卷积神经网络层迭代训练至收敛。
2.根据权利要求1所述的方法,其特征在于,所述训练样本预处理,具体为:
步骤101,采集含N个类别的三通道图像数据,其中,N≥2;
步骤102,将采集到的所述图像数据划分为训练集和验证集;
步骤103,对训练集中的图像进行图像增强处理;
步骤104,从处理后的训练集中抽取数个图像,组成小批次数据,然后将原索引打乱,获得随机索引序列;
步骤105,将原索引图像和随机索引图像按比例λ混合;其中,λ为随机产生的mixup参数;
步骤106,将混合后的图像按批次输入卷积神经网络中。
3.根据权利要求2所述的方法,其特征在于,图像数据以3:1的比例划分为训练集和验证集。
4.根据权利要求2所述的方法,其特征在于,所述图像增强处理包括:随机裁剪、色彩增强和随机噪声中的一种或多种。
6.用于图像分类任务的深度卷积网络训练装置,其特征在于,包括:
预处理模块,用于对训练样本进行预处理,获得数据增强的训练样本;
处理模块,用于针对数据增强的训练样本,基于深度卷积神经网络提取图像嵌入/特征向量,得到当前的输出;
梯度反传模块,用于基于当前的输出和修正后的损失函数,进行梯度反传;
参数更新模块,用于对所述深度卷积神经网络层的参数进行调整更新,将所述深度卷积神经网络层迭代训练至收敛。
7.根据权利要求6所述的装置,其特征在于,所述梯度反传模块包括:
计算单元,用于基于当前的输出和修正后的损失函数,计算所述深度卷积神经网络的当前误差损失;
梯度反传单元,用于并将所述当前误差损失反向传播。
8.根据权利要求6所述的装置,其特征在于,预处理模块对训练样本中的图像进行图像增强处理,包括随机裁剪、色彩增强和随机噪声中的一种或多种。
10.用于图像分类任务的深度卷积网络训练系统,其特征在于,所述系统包括至少一个处理器和存储器;
所述存储器,用于存储一个或多个程序指令;
所述处理器,用于运行一个或多个程序指令,用以执行如权利要求1至5中一个或多个所述的方法。
11.一种芯片,其特征在于,所述芯片与系统中的存储器耦合,使得所述芯片在运行时调用所述存储器中存储的程序指令,实现如权利要求1至5中一个或多个所述的方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括一个或多个程序指令,所述一个或多个程序指令可被如权利要求10所述的系统执行,以实现如权利要求1至5中一个或多个所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110132078.9A CN112836820B (zh) | 2021-01-31 | 2021-01-31 | 用于图像分类任务的深度卷积网络训练方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110132078.9A CN112836820B (zh) | 2021-01-31 | 2021-01-31 | 用于图像分类任务的深度卷积网络训练方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112836820A true CN112836820A (zh) | 2021-05-25 |
CN112836820B CN112836820B (zh) | 2023-12-19 |
Family
ID=75932536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110132078.9A Active CN112836820B (zh) | 2021-01-31 | 2021-01-31 | 用于图像分类任务的深度卷积网络训练方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112836820B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113435519A (zh) * | 2021-06-29 | 2021-09-24 | 平安科技(深圳)有限公司 | 基于对抗插值的样本数据增强方法、装置、设备及介质 |
CN115049851A (zh) * | 2022-08-15 | 2022-09-13 | 深圳市爱深盈通信息技术有限公司 | 基于YOLOv5网络的目标检测方法、装置和设备终端 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170300811A1 (en) * | 2016-04-14 | 2017-10-19 | Linkedin Corporation | Dynamic loss function based on statistics in loss layer of deep convolutional neural network |
CN109376763A (zh) * | 2018-09-13 | 2019-02-22 | 山东师范大学 | 基于多样本推理神经网络的样本分类方法、系统及介质 |
CN110135371A (zh) * | 2019-05-20 | 2019-08-16 | 华南农业大学 | 一种基于Mixup算法的柑橘黄龙病识别方法及装置 |
CN111080592A (zh) * | 2019-12-06 | 2020-04-28 | 广州柏视医疗科技有限公司 | 一种基于深度学习的肋骨提取方法及装置 |
CN111476266A (zh) * | 2020-02-27 | 2020-07-31 | 武汉大学 | 一种基于迁移学习的非平衡类别白细胞分类方法 |
CN111523596A (zh) * | 2020-04-23 | 2020-08-11 | 北京百度网讯科技有限公司 | 目标识别模型训练方法、装置、设备以及存储介质 |
-
2021
- 2021-01-31 CN CN202110132078.9A patent/CN112836820B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170300811A1 (en) * | 2016-04-14 | 2017-10-19 | Linkedin Corporation | Dynamic loss function based on statistics in loss layer of deep convolutional neural network |
CN109376763A (zh) * | 2018-09-13 | 2019-02-22 | 山东师范大学 | 基于多样本推理神经网络的样本分类方法、系统及介质 |
CN110135371A (zh) * | 2019-05-20 | 2019-08-16 | 华南农业大学 | 一种基于Mixup算法的柑橘黄龙病识别方法及装置 |
CN111080592A (zh) * | 2019-12-06 | 2020-04-28 | 广州柏视医疗科技有限公司 | 一种基于深度学习的肋骨提取方法及装置 |
CN111476266A (zh) * | 2020-02-27 | 2020-07-31 | 武汉大学 | 一种基于迁移学习的非平衡类别白细胞分类方法 |
CN111523596A (zh) * | 2020-04-23 | 2020-08-11 | 北京百度网讯科技有限公司 | 目标识别模型训练方法、装置、设备以及存储介质 |
Non-Patent Citations (2)
Title |
---|
张易;项志宇;乔程昱;陈舒雅;: "基于3维点云鸟瞰图的高精度实时目标检测", 机器人, no. 02 * |
李红运;张建林;周丽君;杨亚锋;: "MT-混合数据的深度网络快速训练方法", 计算机工程与设计, no. 01 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113435519A (zh) * | 2021-06-29 | 2021-09-24 | 平安科技(深圳)有限公司 | 基于对抗插值的样本数据增强方法、装置、设备及介质 |
CN113435519B (zh) * | 2021-06-29 | 2024-03-01 | 平安科技(深圳)有限公司 | 基于对抗插值的样本数据增强方法、装置、设备及介质 |
CN115049851A (zh) * | 2022-08-15 | 2022-09-13 | 深圳市爱深盈通信息技术有限公司 | 基于YOLOv5网络的目标检测方法、装置和设备终端 |
Also Published As
Publication number | Publication date |
---|---|
CN112836820B (zh) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107945204B (zh) | 一种基于生成对抗网络的像素级人像抠图方法 | |
CN111950453B (zh) | 一种基于选择性注意力机制的任意形状文本识别方法 | |
CN109784149B (zh) | 一种人体骨骼关键点的检测方法及系统 | |
CN111814902A (zh) | 目标检测模型训练方法、目标识别方法、装置和介质 | |
CN111126134B (zh) | 基于非指纹信号消除器的雷达辐射源深度学习识别方法 | |
CN109492674B (zh) | 用于目标检测的ssd框架的生成方法及装置 | |
CN113570508A (zh) | 图像修复方法及装置、存储介质、终端 | |
CN112836820A (zh) | 用于图像分类任务的深度卷积网络训方法、装置及系统 | |
CN113128478A (zh) | 模型训练方法、行人分析方法、装置、设备及存储介质 | |
CN112800955A (zh) | 基于加权双向特征金字塔的遥感影像旋转目标检测方法及系统 | |
CN110503149B (zh) | 一种图像中局部特征分类方法及系统 | |
CN111340025A (zh) | 字符识别方法、装置、计算机设备和计算机可读存储介质 | |
CN111814820A (zh) | 图像处理方法及装置 | |
CN111507396B (zh) | 缓解神经网络对未知类样本产生错误分类的方法及装置 | |
WO2024078112A1 (zh) | 一种舾装件智能识别方法、计算机设备 | |
CN115934484B (zh) | 基于扩散模型数据增强的异常检测方法、存储介质及设备 | |
CN110889316B (zh) | 一种目标对象识别方法、装置及存储介质 | |
CN115409159A (zh) | 对象操作方法、装置、计算机设备以及计算机存储介质 | |
JP6994572B2 (ja) | データ処理システムおよびデータ処理方法 | |
CN116958954B (zh) | 基于关键点与旁路矫正的车牌识别方法、装置及存储介质 | |
CN111783936B (zh) | 卷积神经网络构建方法、装置、设备及介质 | |
CN113762304B (zh) | 图像处理方法、图像处理装置和电子设备 | |
US20220019898A1 (en) | Information processing apparatus, information processing method, and storage medium | |
US20230401670A1 (en) | Multi-scale autoencoder generation method, electronic device and readable storage medium | |
JP7055211B2 (ja) | データ処理システムおよびデータ処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |