CN111325318B - 神经网络的训练方法、神经网络的训练装置和电子设备 - Google Patents
神经网络的训练方法、神经网络的训练装置和电子设备 Download PDFInfo
- Publication number
- CN111325318B CN111325318B CN202010070788.9A CN202010070788A CN111325318B CN 111325318 B CN111325318 B CN 111325318B CN 202010070788 A CN202010070788 A CN 202010070788A CN 111325318 B CN111325318 B CN 111325318B
- Authority
- CN
- China
- Prior art keywords
- feature map
- neural network
- loss function
- function value
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 178
- 238000012549 training Methods 0.000 title claims abstract description 96
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000004088 simulation Methods 0.000 claims abstract description 27
- 230000006870 function Effects 0.000 claims description 159
- 238000010586 diagram Methods 0.000 claims description 35
- 238000013527 convolutional neural network Methods 0.000 claims description 21
- 230000003044 adaptive effect Effects 0.000 claims description 15
- 125000004122 cyclic group Chemical group 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 25
- 238000009826 distribution Methods 0.000 description 11
- 230000006978 adaptation Effects 0.000 description 7
- 238000004821 distillation Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000003278 mimic effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008485 antagonism Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241000705035 Eurema ada Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
公开了一种神经网络的训练方法、神经网络的训练装置和电子设备。该神经网络的训练方法包括:使用第一神经网络从输入图像获得第一特征图;使用第二神经网络从所述输入图像获得第二特征图;基于所述第一特征图和所述第二特征图进行注意力特征模仿以获得第一损失函数值;基于所述第一特征图和所述第二特征图进行对抗特征模仿以获得第二损失函数值;以及,基于所述第一损失函数值和所述第二损失函数值更新所述第二神经网络。这样,可以使得第二神经网络所获得的特征类似于第一神经网络的特征。
Description
技术领域
本公开涉及深度学习技术领域,且更具体地,涉及一种神经网络的训练方法、神经网络的训练装置和电子设备。
背景技术
随着卷积神经网络CNN的巨大成功,对象检测实现了飞跃发展。目前的对象检测的最重要的性能改进来自于更深和更大的CNN。但是,网络大小的增加导致了推断阶段更多的计算成本,且这是不太有效率的。在实际应用中,需要检测器尽可能精确且同时足够快。
进行了很多努力来加速对象检测的过程,比如使用单次对象监测器,轻权重架构和网络修剪。但是,这些方法不能够实现令人满意的用于实际应用的速度-准确性均衡。
近年来,很多工作聚焦于对象检测网络蒸馏(ODND),即,通过模仿更深和更大的网络(即,老师网络)的行为来训练更有效的对象检测网络(即,学生网络),并且显示出老师网络的精确性可以由学生网络恢复到某种程序而不需要推断期间额外的参数和计算成本。另外,网络蒸馏看起来比其它技术(例如,轻权重架构)更有希望。
因此,期望提供改进的用于网络蒸馏的神经网络的训练方案。
发明内容
为了解决上述技术问题,提出了本公开。本公开的实施例提供了一种神经网络的训练方法、神经网络的训练装置和电子设备,其通过第一神经网络和第二神经网络的特征之间的注意力特征模仿和对抗特征模仿获得损失函数值,并以此来更新第二神经网络,从而使得第二神经网络所获得的特征类似于第一神经网络的特征。
根据本公开的一个方面,提供了一种神经网络的训练方法,包括:使用第一神经网络从输入图像获得第一特征图;使用第二神经网络从所述输入图像获得第二特征图;基于所述第一特征图和所述第二特征图进行注意力特征模仿以获得第一损失函数值;基于所述第一特征图和所述第二特征图进行对抗特征模仿以获得第二损失函数值;以及,基于所述第一损失函数值和所述第二损失函数值更新所述第二神经网络。
根据本公开的另一方面,提供了一种神经网络的训练装置,包括:第一特征图获得单元,用于使用第一神经网络从输入图像获得第一特征图;第二特征图获得单元,用于使用第二神经网络从所述输入图像获得第二特征图;注意力特征模仿单元,用于基于所述第一特征图获得单元所获得的所述第一特征图和所述第二特征图获得单元所获得的所述第二特征图进行注意力特征模仿以获得第一损失函数值;对抗特征模仿单元,用于基于所述第一特征图获得单元所获得的所述第一特征图和所述第二特征图获得单元所获得的所述第二特征图进行对抗特征模仿以获得第二损失函数值;以及,神经网络更新单元,用于基于所述注意力特征模仿单元所获得的所述第一损失函数值和所述对抗特征模仿单元所获得的所述第二损失函数值更新所述第二神经网络。
根据本公开的再一方面,提供了一种电子设备,包括:处理器;以及,存储器,在所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器运行时使得所述处理器执行如上所述的神经网络的训练方法。
根据本公开的又一方面,提供了一种计算机可读介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行如上所述的神经网络的训练方法。
本公开的实施例提供了的神经网络的训练方法、神经网络的训练装置和电子设备能够通过第一神经网络和第二神经网络的特征之间的注意力特征模仿和对抗特征模仿来获得损失函数值,并以该损失函数值更新第二神经网络。
这样,由于注意力特征模仿可以选择性地注意特征图的不同区域,而对抗性特征模仿可以在全局分布上传递特征,可以使得第二神经网络所获得的特征类似于第一神经网络的特征。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1图示了根据本公开实施例的神经网络的训练方法的流程图。
图2图示了根据本公开实施例的神经网络的训练方法所应用的系统架构的示意图。
图3图示了根据本公开实施例的神经网络的训练方法所应用的对象检测器的示意图。
图4图示了根据本公开实施例的神经网络的训练装置的框图。
图5图示了根据本公开实施例的电子设备的框图。
具体实施方式
下面,将参考附图详细地描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
申请概述
如上所述,近年来使用特征模仿的对象检测网络蒸馏(ODND)技术得到了很大发展,也就是,模仿特征使得从学生网络提取的特征尽可能近似从老师网络提取的特征。
例如,可以使用L2损失来最小化由老师网络和学生网络生成的特征图之间的按位置差异,从而实现学生网络与老师网络之间的特征模仿。
但是,按位置的L2损失存在两个潜在问题。首先,在图像仅包含很少对象或者小对象的情况下,老师网络的特征图上的大部分区域将很弱地响应,可能导致学生网络的有关对象的语义信息的恶化。第二,该按位置的L2损失独立地处理特征图的每个位置和每个图像,因此不能全局地描述由老师网络和学生网络生成的特征之间的内在结构关联性。虽然可以使得两个特征具有类似的值,由于其不同的网络结构,这两个特征可能内在地具有非常不同的分布。
基于上述技术问题,本公开的基本构思是对从老师网络获得的第一特征图和从学生网络获得的第二特征图分别进行注意力特征模仿和对抗特征模仿,以更新学生网络。这里,注意力特征模仿可以选择性地注意不同区域,且对抗特征模仿可以在全局分布上传递特征。
具体地,本公开提供的神经网络的训练方法、神经网络的训练装置和电子设备首先使用第一神经网络从输入图像获得第一特征图,再使用第二神经网络从所述输入图像获得第二特征图,然后基于所述第一特征图和所述第二特征图进行注意力特征模仿以获得第一损失函数值,再基于所述第一特征图和所述第二特征图进行对抗特征模仿以获得第二损失函数值,最后基于所述第一损失函数值和所述第二损失函数值更新所述第二神经网络。
这样,由于注意力特征模仿可以选择性地注意不同区域,使得在更新所述第二神经网络时更加聚焦于需要关注的区域,例如需要识别的对象区域,从而能够从第一神经网络所获得的第一特征图中捕获用于第二神经网络的相对更加与对象相关的信息。
另外,由于对抗特征模仿可以以更全局的程度推动由第一神经网络和第二神经网络生成的特征类似,从而可以尝试使得由第一神经网络和第二神经网络生成的特征具有类似的分布,即,在某种程度上描述两个特征之间的内在结构关联性。
并且,由于注意力特征模仿和对抗特征模仿分别聚焦于特征模仿的不同方面,其在某种程度上是互补的,可以将注意力特征模仿和对抗特征模仿结合,从而使得第二神经网络所获得的特征类似于第一神经网络的特征。
在介绍了本公开的基本原理之后,下面将参考附图来具体介绍本公开的各种非限制性实施例。
示例性方法
图1图示了根据本公开实施例的神经网络的训练方法的流程图。
如图1所示,根据本公开实施例的神经网络的训练方法包括如下步骤。
步骤S110,使用第一神经网络从输入图像获得第一特征图。这里,所述第一神经网络可以是用于从输入图像获得特征图的卷积神经网络,其是本公开实施例中的老师网络,例如可以为Resnet-50。例如,所述输入图像可以是自动驾驶场景下的街景图像,其包括行人、车辆等各种对象。相应地,所述第一特征图包括输入图像中的各种对象的特征,例如行人特征、车辆特征等,以进一步基于所述第一特征图执行对象检测、对象识别、对象分类等计算机视觉任务。
步骤S120,使用第二神经网络获得第二特征图。这里,所述第二神经网络也可以是用于从输入图像获得特征图的卷积神经网络,但是其相对于所述第一神经网络是更浅和更小的神经网络,也就是本公开实施例中的学生网络,例如可以为Resnet-18。这里,所述第二神经网络相对于第一神经网络更浅指的是所述第二神经网络的层数小于所述第一神经网络的层数,例如第一神经网络为50层的卷积神经网络,而第二神经网络为18层的卷积神经网络。另外,所述第二神经网络相对于第一神经网络更小指的是所述第二神经网络的每一层的大小小于所述第一神经网络的每一层的大小。所述第二特征图与所述第一特征图类似,包括输入图像中的各种对象的特征,例如行人特征、车辆特征等,以进一步基于所述第一特征图执行对象检测、对象识别、对象分类等计算机视觉任务。
步骤S130,基于所述第一特征图和所述第二特征图进行注意力特征模仿以获得第一损失函数值。如上所述,在现有的网络蒸馏方法中,是使用第一特征图和第二特征图之间的按位置L2损失来最小化由老师网络和学生网络生成的特征图之间的按位置差异,其独立地处理每个位置,从而局部地模仿特征。相对地,在本公开实施例中,使用注意力特征模仿来更加聚焦于特征图中的包含有效信息的区域,例如在对象检测情况下中特征图的对象区域,从而通过最小化所述第一特征图和所述第二特征图中的包含有效信息的区域之间的每个位置的差异,来使得第二特征图尽可能接近第一特征图。因此,由于第一损失函数强调所述第一特征图和所述第二特征图中的包含有效信息的区域之间的差异,通过基于所述第一损失函数值更新学生网络,可以解决按位置L2损失导致的学生网络的有关对象的语义信息恶化的问题。
步骤S140,基于所述第一特征图和所述第二特征图进行对抗特征模仿以获得第二损失函数值。如上所述,由于按位置L2损失独立地处理特征图的每个位置和每个图像,因此不能全局地描述由老师网络和学生网络生成的特征之间的内在结构关联性。也就是,虽然老师网络和学生网络生成的特征可能具有类似的值,但是由于其不同的网络结构,这两个特征可能内在地具有非常不同的分布。因此,通过使用对抗特征模仿,使得所述第一特征图和所述第二特征图不但在每个位置上具有类似的值,且所述第一特征图和所述第二特征图在整体上具有相似的分布。
因此,对抗特征模仿类似于生成对抗网络,通过使用对抗性损失来通过欺骗训练好以区分由不同网络生成的特征的鉴别器网络,而以更全局的程度推动由老师网络和学生网络生成的特征类似。因此,通过第二损失函数值可以使得由老师网络和学生网络生成的特征具有类似的分布,且因此可以某种程度上描述两个特征之间的内在结构关联性。
步骤S150,基于所述第一损失函数值和所述第二损失函数值更新所述第二神经网络。也就是,由于注意力特征模仿和对抗特征模仿分别聚焦于特征模仿的不同方面,其在某种程度上是互补的,通过基于注意力特征模仿的第一损失函数值和基于对抗特征模仿的第二损失函数值更新第二神经网络,可以使得第二神经网络所获得的特征类似于第一神经网络的特征。
也就是,如上所述,由于第一损失函数强调所述第一特征图和所述第二特征图中的包含有效信息的区域之间的差异,通过基于所述第一损失函数值更新所述第二神经网络,可以使得所述第二特征图中包含有效信息的区域中每个位置的值类似于所述第一特征图。并且,由于所述第二损失函数强调所述第一特征图和所述第二特征图整体上的特征分布,通过基于所述第二损失函数值更新所述第二神经网络,可以使得所述第二特征图在特征的全局分布上类似于所述第一特征图。
如上所述,根据本公开实施例的神经网络的训练方法可以用于训练在计算能力有限的终端上使用的神经网络。例如,在自动驾驶场景下,可以在服务器上通过街景图像集训练第一神经网络,从而实现精确的对象检测、对象分类等。针对部署在车辆上的自动驾驶模块的第二神经网络,可以使用根据本公开实施例的神经网络的训练方法来基于第一神经网络进行训练,使得部署在车辆上的第二神经网络也能够生成与服务器上的第一神经网络类似的特征图,从而使得部署在车辆上的自动驾驶模块也具有与服务器上实现的相同的对象检测、对象分类等的精度。
下面,将参考如图2所示的系统架构进一步说明根据本公开实施例的神经网络的训练方法。
图2图示了根据本公开实施例的神经网络的训练方法所应用的系统架构的示意图。如图2所示,给定输入图像I和训练好的第一神经网络D1,首先将图像I输入到第一神经网络D1和第二神经网络D2,产生两个特征图Ft和Fs。
在本公开实施例中,为使得由两个网络产生的特征图具有相同形状,采用具有参数Θada的自适应调整层,即图2中的ada(例如,简单的1×1卷积层)来将第二特征图(即图2的Fs)调整为第三特征图(即如图2的Fada)。因此,第三特征图可以表示为Fada(Fs;Θada)。例如,在自适应层是卷积层的情况下,参数Θada包括卷积核的输出通道数、卷积核的大小、卷积核的步长等。在图3中,将Fada(Fs;Θada)简单地示称为Fada。然后,将第一特征图,即图2中的Ft和第三特征图,即图2中的Fada进行注意力特征模仿。
因此,在根据本公开实施例的神经网络的训练方法中,基于所述第一特征图和所述第二特征图进行注意力特征模仿以获得第一损失函数值包括:使用自适应调整层将所述第二特征图调整为具有与所述第一特征图相同形状的第三特征图;以及,对所述第一特征图和所述第三特征图进行注意力特征模仿以获得第一损失函数值。
这样,通过将所述第二特征图调整为与所述第一特征图相同的形状,可以简化所述注意力特征模仿的计算,从而节省计算资源。
继续参考图2,在进行注意力特征模仿时,将第一特征图(即图2中的Ft)和第三特征图(即图2中的Fada)堆叠,以获得堆叠后的第四特征图,即图2中的Fo。然后,将堆叠后的第四特征图,即图2中的Fo通过注意力特征模块,即图2中的att。例如,所述注意力特征模块att可以包括第一预设数量的具有第一预设尺寸的第一卷积层,例如,三个3×3卷积层。并且,所述第一预设数量的所述第一卷积层中的每个卷积层具有第一预设常量的步长,例如步长为一。并且,在三个3×3卷积层的情况下,三个卷积层的输出通道的数目可以分别为1024,1024和1,且每个卷积层之后是ReLU层。
也就是,在根据本公开实施例的神经网络的训练方法中,对所述第一特征图和所述第三特征图进行注意力特征模仿以获得第一损失函数值包括:将所述第一特征图与所述第三特征图堆叠以获得第四特征图;以及,将所述第四特征图通过第一预设数量的具有第一预设尺寸的第一卷积层以获得第一损失函数值,所述第一卷积层的步长为第一预设常量。
这样,通过如上所述的注意力特征模仿机制,可以获得空间注意力图,从而强调特征图上预定的空间位置,增强了该预定的空间位置处的语义特征的模仿能力。
继续参考图2,根据本公开实施例的注意力特征模仿获得的第一损失函数值为相对于按位置L2损失函数值改进的L2损失函数值。具体地,注意力特征模仿可以局部地模仿由第一神经网络产生的特征。更精确地,注意力特征模仿想要第一特征图,即图2中的Ft和第三特征图,即图2中的Fada的每个位置的特征相同。最直接的方式是使用如以下等式(1)中的现有的按位置L2损失函数值:
其中是特征图Ft的空间位置h,w的特征向量,且/>是第三特征图,即图2中的Fada的空间位置h,w的特征向量,H和W分别是第一特征图,即图2中的Ft和第三特征图,即图2中的Fada的高度和宽度。
但是,对于所述第二神经网络用于的任务,例如对象检测,对象区域的特征比背景区域的特征对于分类和回归更加重要。当所述第二神经网络非常小,容量有限时,聚焦于过多地模仿背景特征将导致差的性能。特别是,在图像仅包含很少对象或者小对象的情况下,图像的大部分区域是背景,且第二特征图,即图2中的Ft将关于这些区域具有弱的响应。也就是,上述等式中的按位置L2损失函数值将学到弱的背景响应,导致所述第二神经网络的有关对象的语义信息的恶化。
因此,在本公开实施例中,采用如下等式(2)的注意力L2损失函数值作为所述第一损失函数值:
其中,Matt(Ft,Fada;Θatt)是本公开实施例中的第五特征图,即如上所述将第一特征图,即图2中的Ft和第三特征图,即图2中的Fada堆叠并通过所述第一预设数量的所述第一卷积层所获得的特征图,是Matt(Ft,Fada;Θatt)的空间位置h,w的元素,且λnorm是平衡以下等式中的两项的超参数。
所述第一损失函数值的解释如下:不同区域应该具有不同重要性,例如,对于对象检测,对象区域和它们周围的上下文区域应该比其它区域更重要。因此,使用学习注意不同区域的注意力层,更具体地,注意力层生成空间注意力图,且因此将不同权重分配给按位置L2损失函数值的不同空间位置,参见上述等式(2)的第一项。但是,没有限制地直接优化上述等式的第一项将导致所有第五特征图的空间位置h,w的元素,即快速变为零。为解决该问题,添加了额外的惩罚项来保证不是所有第五特征图的空间位置h,w的元素,即为零,参见上述等式(2)的第二项。
因此,在根据本公开实施例的神经网络的训练方法中,将所述第四特征图通过第一预设数量的具有第一预设尺寸的第一卷积层以获得第一损失函数值包括步骤:将所述第四特征图,例如如图2所示的Fo通过所述第一预设数量的所述第一卷积层,例如如图2所示的att以获得第五特征图,例如如图2所示的Fatt,也就是如上所述的Matt(Ft,Fada;Θatt)。
然后,按照上述等式,计算以所述第五特征图的每个位置的值加权的所述第一特征图与所述第三特征图的L2损失函数值;在所述第五特征图的所有位置处对所述第五特征图的每个位置的值的平方求和以获得第一数值;以第一系数除以所述第一数值以获得第一惩罚数值;以及,将所述以M矩阵加权的L2损失函数值与所述第一惩罚数值相加以获得所述第一损失函数值,例如如图2所示的Latt。
因此,所述第一损失函数值具有分配给按位置L2损失函数值的不同空间位置的不同权重,这样,训练的所述第二神经网络仍然独立地处理特征图的每个位置和每个图像,并且可以学习用于所述第二神经网络的某些有关对象的语义信息,从而在局部上提高所述第二神经网络获得的特征与所述第一神经网络获得的特征的相似性。
在本公开实施例中,与注意力特征模仿类似,在进行对抗特征模仿之前,首先使用自适应调整层,比如如上所述的参数Θada的自适应调整层,即如图2所示的ada(例如,简单的1×1卷积层)来将所述第二特征图,例如如图2所示的Fs调整为具有与所述第一特征图相同形状的第三特征图,例如如图2所示的Fada。然后,基于所述第一特征图和所述第三特征图,例如如图2所示的Ft和Fada进行对抗特征模仿以获得第二损失函数值。
这样,通过将所述第二特征图调整为与所述第一特征图相同的形状,可以简化所述对抗特征模仿的计算,从而节省计算资源。
继续参考图2,在进行对抗特征模仿时,使用鉴别器dis来进行对抗特征模仿。该鉴别器dis以第三特征图,例如如图2所示的Fada作为输入,并输出第六特征图,例如表示为P(Fada;Θdis),在图2中为了简单示为Fdis。这里,使用第二预设数量的具有第二预设尺寸的第二卷积层作为鉴别器,例如三个3×3卷积层。其中,所述第二卷积层的步长为2,且三层的输出通道的数目分别是1024,512和1。并且,前两层之后是由0.2参数化的leakyReLU层,且最后层之后是sigmoid层以保证输出在范围0-1之内。
也就是,在根据本公开实施例的神经网络的训练方法中,基于所述第一特征图和所述第三特征图进行对抗特征模仿以获得第二损失函数值包括:将所述第三特征图通过训练好的第二预设数量的具有第二预设尺寸的第二卷积层以获得所述第二损失函数值,所述第二卷积层的步长为第二预设常量。
这样,通过如上所述的对抗特征模仿机制,可以使得两个特征具有类似的分布,从而描述两个特征之间的内在结构关联性。
另外,如果想要如上所述的概率图的每个位置对应于特征图的大区域,从而可以捕获特征图的足够的结构信息,将层的核大小和步长设置为大于1。也就是,所述第二预设数量的所述第二卷积层中的每一卷积层的核大小大于一。
如上所述,将第三特征图,比如如图2所示的Fada通过所述第二预设数量的所述第二卷积层,以得到第六特征图,比如如图2所示的Fdis。所述第二损失函数值可以如以下公式(3)表示:
其中,是第六特征图,即图2中的Fdis的空间位置h,w的元素,且H’和W’是特征图Fdis的高和宽。
也就是,在根据本公开实施例的神经网络的训练方法中,将所述第三特征图通过训练好的第二预设数量的具有第二预设尺寸的第二卷积层以获得所述第二损失函数值包括:将所述第三特征图通过训练好的所述第二预设数量的第二卷积层以获得第六特征图,例如如图2所示的Fdis;对所述第六特征图的所有位置处的所述第六特征图的每个位置的值的对数求和以获得第一数值;以及,将所述第一数值除以所述第六特征图的宽与高之积并取负数以获得所述第二损失函数值,例如如图2所示的Ladv。
这样,通过基于所述第二损失函数值Ladv(Ft,Fada;Θdis)更新所述第二神经网络,可以欺骗鉴别器以使得第三特征图,即图2所示的Fada类似于第一特征图,即图2所示的Ft。也就是,所述第二损失函数值使得两个特征具有类似的分布,这描述了两个特征之间的内在结构关联性。
值得注意的是,对抗特征模仿所使用的鉴别器需要进行训练。为了训练鉴别器,将所述第一特征图,例如如图2所示的Ft和所述第三特征图,例如如图2所示的Fada分别输入未训练的所述第二预设数量的所述第二卷积层以获得第七特征图和第八特征图。
在训练鉴别器的过程中,所述第一特征图和所述第三特征图是交替输入所述鉴别器的。同时,基于输入所述第一特征图和所述第三特征图时的不同的损失函数值来训练鉴别器,如以下公式(4)所示:
其中,P(F;Θdis)是如上所述的第七特征图或者第八特征图,且Phw是如上所述的第七特征图或者第八特征图,即P(F;Θdis)的空间位置h,w的元素,H’和W’分别是所述第七特征图或者所述第八特征图的高度和宽度。
也就是,在根据本公开实施例的神经网络的训练方法中,将所述第三特征图通过训练好的第二预设数量的具有第二预设尺寸的第二卷积层以获得所述第二损失函数值包括:将所述第一特征图和所述第三特征图分别通过未训练的所述第二预设数量的所述第二卷积层以获得第七特征图和第八特征图;响应于输入所述第一特征图,计算在所述第七特征图的每一位置的值的对数与所述第七特征图的宽与高之积的第一商值;对所述第七特征图的所有位置处的所述第一商值求和以获得第一和值;计算所述第一和值的负数以获得所述鉴别器损失函数值;以及,基于所述鉴别器损失函数值训练所述第二预设数量的所述第二卷积层。
以及,在上述神经网络的训练方法中,将所述第三特征图通过训练好的第二预设数量的具有第二预设尺寸的第二卷积层以获得所述第二损失函数值进一步包括:响应于输入所述第三特征图,计算在所述第八特征图的每一位置的值的对数与所述第八特征图的宽与高之积的第二商值;对所述第八特征图的所有位置处的所述第二商值求和以获得所述鉴别器损失函数值;以及,基于所述鉴别器损失函数值训练所述第二预设数量的所述第二卷积层。
在获得如上所述的用于局部地测量第一特征图,即图2中的Ft和第三特征图,即图2中的Fada之间的距离的第一损失函数值Latt(Ft,Fada,Matt(Ft,Fada,Θatt))和用于全局地测量第一特征图,即图2中的Ft和第三特征图,即图2中的Fada之间的距离的第二损失函数值Ladv(Ft,Fada;Θdis)之后,基于所述第一损失函数值和所述第二损失函数值构造最终的特征模仿损失函数值,例如记为Lmimic(Ft,Fs;Θada,Θatt,Θdis),如以下公式(5)所示:
Lmimic(Ft,Fs;Θada,Θatt,Θdis)
=λattLatt(Ft,Fada,Matt(Ft,Fada;Θatt))
+λadvLadv(Ft,Fada;Θdis). (5)
其中λatt,λadv是平衡两个损失的超参数。
在更新所述第二神经网络时,可以使用交替训练策略,即,交替以下两个训练步骤:(1)关于第二特征图Fs,自适应调整层的参数Θada,和注意力特征模块的参数Θatt优化损失最终的特征模仿损失函数值Lmimic(Ft,Fs;Θada,Θatt,Θdis)并固定第一特征图Ft,和鉴别器的参数Θdis;(2)关于鉴别器的参数Θdis优化损失鉴别器损失函数值Ldis(Ft,Fada;Θdis)并固定第一特征图Ft,第二特征图Fs,自适应调整层的参数Θada,和注意力特征模块的参数Θatt。当然,本领域技术人员可以理解,也可以首先训练好鉴别器,然后再使用所述第一损失函数值和所述第二损失函数值更新所述第二神经网络。
示例性对象检测器
图3图示了根据本公开实施例的神经网络的训练方法所应用的对象检测器的示意图。
根据本公开实施例的神经网络的训练方法可以应用于典型的两阶段检测器快速R-CNN。如图3所示,快速R-CNN监测器包括三个部分:产生卷积特征图的主干网络,生成区域候选的区域候选网络(RPN);执行候选框分类和回归的基于区域的CNN(R-CNN),其中RPN和R-CNN建立于主干网络上。
给定输入图像I,检测器首先将其输入到主干网络,即老师主干网络,即图3所示的D1和学生主干网络,即图3所示的D2以产生主干特征图,即图3所示的Fb_t和Fb_s。RPN将主干特征图,即图3所示的Fb_t和Fb_s作为输入以生成区域候选R(Fb;Θrpn),其中Θrpn表示区域候选网络RPN1和RPN2的参数,比如卷积层的卷积核的输出通道数、卷积核的大小、卷积核的步长等,下面为了简化使用R。学生网络的基于区域的CNNR-CNN2将主干特征图,即图3所示的Fb_s和区域候选,即图3所示的RPN2的输出作为输入以生成最终检测结果D(Fb,R;Θr-cnn),其中Θr-cnn表示R-CNN的参数,比如卷积层的卷积核的输出通道数、卷积核的大小、卷积核的步长等。然后,训练快速R-CNN的损失写为以下等式(6):
其中,G表示正确标注数据(grond truth)。关于主干特征图,即图3所示的Fb_t和Fb _s,区域候选网络的参数Θrpn,和基于区域的CNN的参数Θr-cnn优化损失以训练检测器。
首先训练大的老师检测网络,即图3所示的D1。对于学生检测网络,即图3所示的D2,如果想要获得更好的检测性能,重要的是使得所有三个部分(即,学生主干网络,即图3所示的D2、学生区域候选网络,即图3所示的RPN2和学生R-CNN,即图3所示的R-CNN2)更强。因为几乎所有基于快速R-CNN的检测器共享RPN头部的相同和简单架构,仅模仿主干网络和R-CNN的特征。
在该对象监测器中,对于主干网络和R-CNN两者模仿特征。“AAFM”表示应用注意力特征模仿和对抗特征模仿于主干网络,这与如上所述的根据本公开实施例的神经网络的训练方法相同。“AFM”表示应用对抗特征模仿于R-CNN。选择由正确标注数据训练的标准快速R-CNN损失函数值并在图中省略。
如图3所示,假定由老师网络主干和学生网络主干生成的特征图分别为主干特征图,即图3所示的Fb_t和Fb_s。直接使用上述根据本公开实施例的神经网络的训练方法,因为主干生成整个输入图像的特征图。则对于主干网络特征模仿的损失函数值为:
Lb_mimic(Fb_t,Fb_s:Θb_ada,Θb_att,Θb_dis)
其中,Θb_ada,Θb_att和Θb_dis是主干特征自适应层,主干注意力模块(对于注意力特征模仿)和主干鉴别器(对于对抗特征模仿)的参数。本领域技术人员可以理解,这里的Lb _mimic相当于如上所述的基于所述第一损失函数值和所述第二损失函数值获得的损失函数值Lmimic。对于对抗特征模仿模块,也存在如下的损失函数值来训练鉴别器:
Lb_dis(Fb_t,Fb_ada;Θb_dis)
其中,Fb_ada是由主干特征自适应层产生的特征。
假定由老师R-CNN,即如图3所示的R-CNN1和学生R-CNN,即如图3所示的R-CNN2生成的候选特征分别是Fr_t(Fb_t,Rs;Θr-cnn_t)和Fr_s(Fb_s,Rs;Θr-cnn_s),其中Rs,Θr-cnn_t和Θr-cnn_s是由学生RPN生成的候选,老师和学生R-CNN的参数,之后为了简化使用如图3所示的Fr_t,Fr_s。这里,使用以下等式的对抗损失函数值,因为R-CNN已经生成捕获某些关于对象的信息的候选特征。则用于R-CNN特征模仿的损失函数值由以下等式(7)表示:
Lr_mimic(Fr_t,Fr_s;Θr_ada,Θr_dis)
=Lr_adv(Fr_t,Fr_ada;Θr_dis), (7)
其中,Θr_ada和Θr_dis是R-CNN特征自适应层和R-CNN鉴别器(用于对抗特征模仿)的参数,且Fr_ada是由R-CNN特征自适应层产生的特征。类似地,也存在如下的损失函数值训练鉴别器:
Lr_dis(Fr_t,Fr_ada;Θr_dis)
然后,组合损失函数值以训练具有AAFM的快速R-CNN,写为以下等式(8):
其中λdet,λb_mimic,λr_mimic是平衡三个损失的超参数,且Θrpn_s表示学生RPN的参数。
鉴别器损失函数值如下:。
λb_disLb_dis(Fb_t,Fb_ada;Θb_dis)
+λr_disLr_dis(Fr-t,Fr_ada;Θr_dis).
其中,λb_dis和λr_dis是平衡两个损失的超参数。
在训练期间,类似于生成对抗网络,交替训练具有AAFM的快速R-CNN(关于主干学生网络的特征图Fb_s,学生RPN的参数Θrpn_s,学生R-CNN的参数Θr-cnn_s,主干特征自适应层的参数Θb_ada,主干注意力模块的参数Θb_att和R-CNN特征自适应层的参数Θr_ada)和鉴别器(关于主干鉴别器的参数Θb_dis和R-CNN鉴别器的参数Θr_dis)。并且,在推断期间,可以简单地去除关于AAFM的所有部分并保持快速R-CNN的部分。因此,AAFM并不会带来任意额外的推断计算。
也就是,在根据本公开实施例的神经网络的训练方法中,基于所述第一损失函数值和所述第二损失函数值更新所述第二神经网络包括如下步骤。
将所述第一特征图,即如图3所示的Fb_t通过第一区域提取网络,即如图3所示的RPN1和第一循环卷积神经网络,即如图3所示的R-CNN1以获得第九特征图,即如图3所示的Fr_t。
将所述第二特征图,即如图3所示的Fb_s通过第二区域提取网络,即如图3所示的RPN2和第二循环卷积神经网络,即如图3所示的R-CNN2以获得第十特征图,即如图3所示的Fr_s。
基于所述第九特征图和所述第十特征图进行对抗特征模仿以获得第三损失函数值,即如图3所示的Lr_mimic。
获得用于训练所述第二区域提取网络和所述第二循环卷积神经网络的第四损失函数值,即如图3所示的Ldet。
基于所述第一损失函数值,所述第二损失函数值、所述第三损失函数值和第四损失函数值更新所述第二神经网络、所述第二区域提取网络和所述第二循环卷积神经网络。
示例性装置
图4图示了根据本公开实施例的神经网络的训练装置的框图。
如图4所示,根据本公开实施例的神经网络的训练装置200包括:第一特征图获得单元210,用于使用第一神经网络从输入图像获得第一特征图;第二特征图获得单元220,用于使用第二神经网络从输入图像获得第二特征图;注意力特征模仿单元230,用于基于所述第一特征图获得单元210所获得的所述第一特征图和所述第二特征图获得单元220所获得的所述第二特征图进行注意力特征模仿以获得第一损失函数值;对抗特征模仿单元240,用于基于所述第一特征图获得单元210所获得的所述第一特征图和所述第二特征图获得单元220所获得的所述第二特征图进行对抗特征模仿以获得第二损失函数值;以及,神经网络更新单元250,用于基于所述注意力特征模仿单元230所获得的所述第一损失函数值和所述对抗特征模仿单元240所获得的所述第二损失函数值更新所述第二神经网络。
在一个示例中,在根据本公开实施例的神经网络的训练装置200中,所述注意力特征模仿单元230包括:第一自适应子单元,用于使用自适应调整层将所述第二特征图获得单元220所获得的所述第二特征图调整为具有与所述第一特征图相同形状的第三特征图;以及,注意力特征模仿子单元,用于对所述第一特征图获得单元210所获得的所述第一特征图和所述第一自适应子单元所获得的所述第三特征图进行注意力特征模仿以获得第一损失函数值。
在一个示例中,在根据本公开实施例的神经网络的训练装置200中,所述注意力特征模仿子单元包括:堆叠模块,用于将所述第一特征图获得单元210所获得的所述第一特征图与所述第一自适应子单元所获得的所述第三特征图堆叠以获得第四特征图;以及,卷积模块,用于将所述堆叠模块所获得的所述第四特征图通过第一预设数量的具有第一预设尺寸的第一卷积层以获得第一损失函数值,所述第一卷积层的步长为第一预设常量。
在一个示例中,在根据本公开实施例的神经网络的训练装置200中,所述卷积模块用于:将所述第四特征图通过所述第一预设数量的所述第一卷积层以获得第五特征图;计算以所述第五特征图的每个位置的值加权的所述第一特征图与所述第三特征图的L2损失函数值;在所述第五特征图的所有位置处对所述第五特征图的每个位置的值的平方求和以获得第一数值;以第一系数除以所述第一数值以获得第一惩罚数值;以及,将所述以M矩阵加权的L2损失函数值与所述第一惩罚数值相加以获得所述第一损失函数值。
在一个示例中,在根据本公开实施例的神经网络的训练装置200中,所述对抗特征模仿单元240包括:第二自适应子单元,用于使用自适应调整层将所述第二特征图获得单元220所获得的所述第二特征图调整为具有与所述第一特征图相同形状的第三特征图;以及,对抗特征模仿子单元,用于基于所述第一特征图获得单元210所获得的所述第一特征图和所述第二自适应子单元所获得的所述第三特征图进行对抗特征模仿以获得第二损失函数值。
在一个示例中,在根据本公开实施例的神经网络的训练装置200中,所述对抗特征模仿子单元用于:将所述第三特征图通过训练好的第二预设数量的具有第二预设尺寸的第二卷积层以获得所述第二损失函数值,所述第二卷积层的步长为第二预设常量。
在一个示例中,在根据本公开实施例的神经网络的训练装置200中,所述第二预设数量的所述第二卷积层中的每一卷积层的核大小大于一。
在一个示例中,在根据本公开实施例的神经网络的训练装置200中,所述对抗特征模仿子单元用于:将所述第三特征图通过训练好的所述第二预设数量的第二卷积层以获得第六特征图;对所述第六特征图的所有位置处的所述第六特征图的每个位置的值的对数求和以获得第一数值;以及,将所述第一数值除以所述第六特征图的宽与高之积并取负数以获得所述第二损失函数值。
在一个示例中,在根据本公开实施例的神经网络的训练装置200中,所述对抗特征模仿子单元用于:将所述第一特征图和所述第三特征图分别通过未训练的所述第二预设数量的所述第二卷积层以获得第七特征图和第八特征图;响应于输入所述第一特征图,计算在所述第七特征图的每一位置的值的对数与所述第七特征图的宽与高之积的第一商值;对所述第七特征图的所有位置处的所述第一商值求和以获得第一和值;计算所述第一和值的负数以获得所述鉴别器损失函数值;以及,基于所述鉴别器损失函数值训练所述第二预设数目的第二卷积层。
在一个示例中,在根据本公开实施例的神经网络的训练装置200中,所述对抗特征模仿子单元进一步用于:响应于输入所述第三特征图,计算在所述第八特征图的每一位置的值的对数与所述第八特征图的宽与高之积的第二商值;对所述第八特征图的所有位置处的所述第二商值求和以获得所述鉴别器损失函数值;以及,基于所述鉴别器损失函数值训练所述第二预设数量的所述第二卷积层。
在一个示例中,在根据本公开实施例的神经网络的训练装置200中,所述神经网络更新单元250包括:第一检测子单元,用于将所述第一特征图获得单元210所获得的所述第一特征图通过第一区域提取网络和第一循环卷积神经网络以获得第九特征图;第二检测子单元,用于将所述第二特征图获得单元220所获得的所述第二特征图通过第二区域提取网络和第二循环卷积神经网络以获得第十特征图;检测特征对抗子单元,用于基于所述第一检测子单元所获得的所述第九特征图和所述第二检测子单元所获得的所述第十特征图进行对抗特征模仿以获得第三损失函数值;检测损失函数值获得子单元,用于获得用于训练所述第二区域提取网络和所述第二循环卷积神经网络的第四损失函数值;以及,网络更新子单元,用于基于所述注意力特征模仿单元230所获得的所述第一损失函数值,所述对抗特征模仿单元240所获得的所述第二损失函数值、所述检测特征对抗子单元所获得的所述第三损失函数值和所述检测损失函数值获得子单元所获得的所述第四损失函数值更新所述第二神经网络、所述第二区域提取网络和所述第二循环卷积神经网络。
这里,本领域技术人员可以理解,上述神经网络的训练装置200中的各个单元和模块的具体功能和操作已经在上面参考图1到图3的神经网络的训练方法的描述中得到了详细介绍,并因此,将省略其重复描述。
如上所述,根据本公开实施例的神经网络的训练装置200可以实现在各种终端设备中,例如用于网络蒸馏的服务器等。在一个示例中,根据本公开实施例的神经网络的训练装置200可以作为一个软件模块和/或硬件模块而集成到终端设备中。例如,该神经网络的训练装置200可以是该终端设备的操作系统中的一个软件模块,或者可以是针对于该终端设备所开发的一个应用程序;当然,该神经网络的训练装置200同样可以是该终端设备的众多硬件模块之一。
替换地,在另一示例中,该神经网络的训练装置200与该终端设备也可以是分立的设备,并且该神经网络的训练装置200可以通过有线和/或无线网络连接到该终端设备,并且按照约定的数据格式来传输交互信息。
示例性电子设备
下面,参考图5来描述根据本公开实施例的电子设备。
图5图示了根据本公开实施例的电子设备的框图。
如图5所示,电子设备10包括一个或多个处理器11和存储器12。
处理器13可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备10中的其他组件以执行期望的功能。
存储器12可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器11可以运行所述程序指令,以实现上文所述的本公开的各个实施例的神经网络的训练方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如第一特征图、第二特征图、第一损失函数值、第二损失函数值等各种内容。
在一个示例中,电子设备10还可以包括:输入装置13和输出装置14,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
该输入装置13可以包括例如键盘、鼠标等等。
该输出装置14可以向外部输出各种信息,包括向训练好的第二神经网络等。该输出装置14可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图5中仅示出了该电子设备10中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备10还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的神经网络的训练方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的神经网络的训练方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (13)
1.一种用于驾驶场景中神经网络的训练方法,包括:
使用第一神经网络从输入图像获得第一特征图,所述第一特征图包括输入图像中的各种对象的特征;
使用第二神经网络从所述输入图像获得第二特征图,所述第二特征图包括输入图像中的各种对象的特征;
基于所述第一特征图和所述第二特征图进行注意力特征模仿以获得第一损失函数值,所述注意力特征模仿聚焦于特征图中包含有效信息的区域;所述第一损失函数值具有分配给按位置L2损失函数值的不同空间位置的不同权重;
基于所述第一特征图和所述第二特征图进行对抗特征模仿以获得第二损失函数值;以及
基于所述第一损失函数值和所述第二损失函数值更新所述第二神经网络,所述第二神经网络层数小于所述第一神经网络层数;所述第二神经网络应用于驾驶终端上;
其中所述输入图像为驾驶场景下的街景图像;所述对象特征包括行人特征和车辆特征。
2.如权利要求1所述的神经网络的训练方法,其中,基于所述第一特征图和所述第二特征图进行注意力特征模仿以获得第一损失函数值包括:
使用自适应调整层将所述第二特征图调整为具有与所述第一特征图相同形状的第三特征图;以及
对所述第一特征图和所述第三特征图进行注意力特征模仿以获得第一损失函数值。
3.如权利要求2所述的神经网络的训练方法,其中,对所述第一特征图和所述第三特征图进行注意力特征模仿以获得第一损失函数值包括:
将所述第一特征图与所述第三特征图堆叠以获得第四特征图;以及
将所述第四特征图通过第一预设数量的具有第一预设尺寸的第一卷积层以获得第一损失函数值,所述第一卷积层的步长为第一预设常量。
4.如权利要求3所述的神经网络的训练方法,其中,将所述第四特征图通过第一预设数量的具有第一预设尺寸的第一卷积层以获得第一损失函数值包括:
将所述第四特征图通过所述第一预设数量的所述第一卷积层以获得第五特征图;
计算以所述第五特征图的每个位置的值加权的所述第一特征图与所述第三特征图的L2损失函数值;
在所述第五特征图的所有位置处对所述第五特征图的每个位置的值的平方求和以获得第一数值;
以第一系数除以所述第一数值以获得第一惩罚数值;以及
将以M矩阵加权的L2损失函数值与所述第一惩罚数值相加以获得所述第一损失函数值。
5.如权利要求1所述的神经网络的训练方法,其中,基于所述第一特征图和所述第二特征图进行对抗特征模仿以获得第二损失函数值,包括:
使用自适应调整层将所述第二特征图调整为具有与所述第一特征图相同形状的第三特征图;以及
基于所述第一特征图和所述第三特征图进行对抗特征模仿以获得第二损失函数值。
6.如权利要求5所述的神经网络的训练方法,其中,基于所述第一特征图和所述第三特征图进行对抗特征模仿以获得第二损失函数值包括:
将所述第三特征图通过训练好的第二预设数量的具有第二预设尺寸的第二卷积层以获得所述第二损失函数值,所述第二卷积层的步长为第二预设常量。
7.如权利要求6所述的神经网络的训练方法,其中,所述第二预设数量的所述第二卷积层中的每一卷积层的核大小大于一。
8.如权利要求6所述的神经网络的训练方法,其中,将所述第三特征图通过训练好的第二预设数量的具有第二预设尺寸的第二卷积层以获得所述第二损失函数值包括:
将所述第三特征图通过训练好的所述第二预设数量的第二卷积层以获得第六特征图;
对所述第六特征图的所有位置处的所述第六特征图的每个位置的值的对数求和以获得第一数值;以及
将所述第一数值除以所述第六特征图的宽与高之积并取负数以获得所述第二损失函数值。
9.如权利要求6所述的神经网络的训练方法,其中,将所述第三特征图通过训练好的第二预设数量的具有第二预设尺寸的第二卷积层以获得所述第二损失函数值包括:
将所述第一特征图和所述第三特征图分别通过未训练的所述第二预设数量的所述第二卷积层以获得第七特征图和第八特征图;
响应于输入所述第一特征图,计算在所述第七特征图的每一位置的值的对数与所述第七特征图的宽与高之积的第一商值;
对所述第七特征图的所有位置处的所述第一商值求和以获得第一和值;
计算所述第一和值的负数以获得鉴别器损失函数值;以及
基于所述鉴别器损失函数值训练所述第二预设数目的所述第二卷积层。
10.如权利要求9所述的神经网络的训练方法,其中,将所述第三特征图通过训练好的第二预设数量的具有第二预设尺寸的第二卷积层以获得所述第二损失函数值进一步包括:
响应于输入所述第三特征图,计算在所述第八特征图的每一位置的值的对数与所述第八特征图的宽与高之积的第二商值;
对所述第八特征图的所有位置处的所述第二商值求和以获得所述鉴别器损失函数值;以及
基于所述鉴别器损失函数值训练所述第二预设数量的所述第二卷积层。
11.如权利要求1所述的神经网络的训练方法,其中,基于所述第一损失函数值和所述第二损失函数值更新所述第二神经网络包括:
将所述第一特征图通过第一区域提取网络和第一循环卷积神经网络以获得第九特征图;
将所述第二特征图通过第二区域提取网络和第二循环卷积神经网络以获得第十特征图;
基于所述第九特征图和所述第十特征图进行对抗特征模仿以获得第三损失函数值;
获得用于训练所述第二区域提取网络和所述第二循环卷积神经网络的第四损失函数值;以及
基于所述第一损失函数值,所述第二损失函数值、所述第三损失函数值和第四损失函数值更新所述第二神经网络、所述第二区域提取网络和所述第二循环卷积神经网络。
12.一种用于驾驶场景中神经网络的训练装置,包括:
第一特征图获得单元,用于使用第一神经网络从输入图像获得第一特征图,所述第一特征图包括输入图像中的各种对象的特征;
第二特征图获得单元,用于使用第二神经网络从所述输入图像获得第二特征图,所述第二特征图包括输入图像中的各种对象的特征;
注意力特征模仿单元,用于基于所述第一特征图获得单元所获得的所述第一特征图和所述第二特征图获得单元所获得的所述第二特征图进行注意力特征模仿以获得第一损失函数值,所述注意力特征模仿聚焦于特征图中包含有效信息的区域;所述第一损失函数值具有分配给按位置L2损失函数值的不同空间位置的不同权重;
对抗特征模仿单元,用于基于所述第一特征图获得单元所获得的所述第一特征图和所述第二特征图获得单元所获得的所述第二特征图进行对抗特征模仿以获得第二损失函数值;以及
神经网络更新单元,用于基于所述注意力特征模仿单元所获得的所述第一损失函数值和所述对抗特征模仿单元所获得的所述第二损失函数值更新所述第二神经网络,所述第二神经网络层数小于所述第一神经网络层数;所述第二神经网络应用于驾驶终端上;
其中所述输入图像为驾驶场景下的街景图像;所述对象特征包括行人特征和车辆特征。
13.一种电子设备,包括:
处理器;以及
存储器,在所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器运行时使得所述处理器执行如权利要求1-11中任一项所述的神经网络的训练方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019101056045 | 2019-02-01 | ||
CN201910105604 | 2019-02-01 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111325318A CN111325318A (zh) | 2020-06-23 |
CN111325318B true CN111325318B (zh) | 2023-11-24 |
Family
ID=71172961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010070788.9A Active CN111325318B (zh) | 2019-02-01 | 2020-01-21 | 神经网络的训练方法、神经网络的训练装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111325318B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783606B (zh) * | 2020-06-24 | 2024-02-20 | 北京百度网讯科技有限公司 | 一种人脸识别网络的训练方法、装置、设备及存储介质 |
CN111738355B (zh) * | 2020-07-22 | 2020-12-01 | 中国人民解放军国防科技大学 | 注意力融合互信息的图像分类方法、装置及存储介质 |
CN114091665A (zh) * | 2020-07-30 | 2022-02-25 | 北京四维图新科技股份有限公司 | 一种训练深度神经网络的方法及这种网络 |
CN111950411B (zh) * | 2020-07-31 | 2021-12-28 | 上海商汤智能科技有限公司 | 模型确定方法及相关装置 |
CN113780556A (zh) * | 2021-09-18 | 2021-12-10 | 深圳市商汤科技有限公司 | 神经网络训练及文字识别的方法、装置、设备及存储介质 |
CN113888538B (zh) * | 2021-12-06 | 2022-02-18 | 成都考拉悠然科技有限公司 | 一种基于内存分块模型的工业异常检测方法 |
CN115019060A (zh) * | 2022-07-12 | 2022-09-06 | 北京百度网讯科技有限公司 | 目标识别方法、目标识别模型的训练方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001054507A (ja) * | 1999-08-17 | 2001-02-27 | Sony Corp | 筋電位情報を利用したモーションキャプチャー装置とその制御方法、並びにこれを用いた電気刺激装置、力触覚呈示装置とこれらの制御方法 |
CN102343148A (zh) * | 2010-08-03 | 2012-02-08 | 刘勇 | 一种乒乓球、网球或壁球击球力量训练器 |
GB201715568D0 (en) * | 2016-11-28 | 2017-11-08 | Adobe Systems Inc | Facilitating sketch to painting transformations |
CN108171701A (zh) * | 2018-01-15 | 2018-06-15 | 复旦大学 | 基于u网络和对抗学习的显著性检测方法 |
WO2018132614A2 (en) * | 2017-01-12 | 2018-07-19 | Mobileye Vision Technologies Ltd. | Rules-based navigation |
CN108491858A (zh) * | 2018-02-11 | 2018-09-04 | 南京邮电大学 | 基于卷积神经网络的疲劳驾驶检测方法及系统 |
CN109033095A (zh) * | 2018-08-01 | 2018-12-18 | 苏州科技大学 | 基于注意力机制的目标变换方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10140709B2 (en) * | 2017-02-27 | 2018-11-27 | International Business Machines Corporation | Automatic detection and semantic description of lesions using a convolutional neural network |
US10453444B2 (en) * | 2017-07-27 | 2019-10-22 | Microsoft Technology Licensing, Llc | Intent and slot detection for digital assistants |
-
2020
- 2020-01-21 CN CN202010070788.9A patent/CN111325318B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001054507A (ja) * | 1999-08-17 | 2001-02-27 | Sony Corp | 筋電位情報を利用したモーションキャプチャー装置とその制御方法、並びにこれを用いた電気刺激装置、力触覚呈示装置とこれらの制御方法 |
CN102343148A (zh) * | 2010-08-03 | 2012-02-08 | 刘勇 | 一种乒乓球、网球或壁球击球力量训练器 |
GB201715568D0 (en) * | 2016-11-28 | 2017-11-08 | Adobe Systems Inc | Facilitating sketch to painting transformations |
WO2018132614A2 (en) * | 2017-01-12 | 2018-07-19 | Mobileye Vision Technologies Ltd. | Rules-based navigation |
CN108171701A (zh) * | 2018-01-15 | 2018-06-15 | 复旦大学 | 基于u网络和对抗学习的显著性检测方法 |
CN108491858A (zh) * | 2018-02-11 | 2018-09-04 | 南京邮电大学 | 基于卷积神经网络的疲劳驾驶检测方法及系统 |
CN109033095A (zh) * | 2018-08-01 | 2018-12-18 | 苏州科技大学 | 基于注意力机制的目标变换方法 |
Non-Patent Citations (4)
Title |
---|
基于层级循环神经网络的术中X 线图像腰椎自动识别;李杨等;计算机辅助设计与图形学学报;第31卷(第1期);132-140 * |
基于生成对抗网络的地面新增建筑检测;王玉龙;蒲军;赵江华;黎建辉;;计算机应用(05);278-282 * |
小学生模仿学习研究;艾诗根;中国博士学位论文全文数据库社会科学Ⅱ辑(第1期);H129-2 * |
技术联盟的共生演化分析;李松龄;生延超;;经济数学(02);86-92 * |
Also Published As
Publication number | Publication date |
---|---|
CN111325318A (zh) | 2020-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111325318B (zh) | 神经网络的训练方法、神经网络的训练装置和电子设备 | |
CN111797893B (zh) | 一种神经网络的训练方法、图像分类系统及相关设备 | |
US10755120B2 (en) | End-to-end lightweight method and apparatus for license plate recognition | |
CN111414987B (zh) | 神经网络的训练方法、训练装置和电子设备 | |
US20190279089A1 (en) | Method and apparatus for neural network pruning | |
KR102659892B1 (ko) | 객체 인식 장치, 이를 포함하는 전자 장치 및 객체 인식 방법 | |
EP3029606A2 (en) | Method and apparatus for image classification with joint feature adaptation and classifier learning | |
CN113705769A (zh) | 一种神经网络训练方法以及装置 | |
CN111782840A (zh) | 图像问答方法、装置、计算机设备和介质 | |
CN112288086A (zh) | 一种神经网络的训练方法、装置以及计算机设备 | |
CN112418351B (zh) | 基于全局与局部上下文感知的零样本学习图像分类方法 | |
CN114332578A (zh) | 图像异常检测模型训练方法、图像异常检测方法和装置 | |
CN113254927B (zh) | 一种基于网络防御的模型处理方法、装置及存储介质 | |
CN113822264A (zh) | 一种文本识别方法、装置、计算机设备和存储介质 | |
CN114049515A (zh) | 图像分类方法、系统、电子设备和存储介质 | |
CN110533184B (zh) | 一种网络模型的训练方法及装置 | |
CN116385937A (zh) | 一种基于多粒度的跨模态交互框架解决视频问答的方法及系统 | |
Duman et al. | Distance estimation from a monocular camera using face and body features | |
CN113449840A (zh) | 神经网络训练方法及装置、图像分类的方法及装置 | |
CN116863260A (zh) | 数据处理方法及装置 | |
CN111523351A (zh) | 神经网络的训练方法、装置和电子设备 | |
CN114693993A (zh) | 一种图像处理和图像分类方法、装置、设备及存储介质 | |
CN113762331A (zh) | 关系型自蒸馏方法、装置和系统及存储介质 | |
CN118038238A (zh) | 一种视觉问答方法、装置及电子设备和存储介质 | |
CN113361656A (zh) | 一种特征模型的生成方法、系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |