CN114494815B - 神经网络训练方法、目标检测方法、装置、设备和介质 - Google Patents
神经网络训练方法、目标检测方法、装置、设备和介质 Download PDFInfo
- Publication number
- CN114494815B CN114494815B CN202210102813.6A CN202210102813A CN114494815B CN 114494815 B CN114494815 B CN 114494815B CN 202210102813 A CN202210102813 A CN 202210102813A CN 114494815 B CN114494815 B CN 114494815B
- Authority
- CN
- China
- Prior art keywords
- result
- attention
- detection
- feature map
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 220
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000012549 training Methods 0.000 title claims abstract description 63
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 36
- 238000004364 calculation method Methods 0.000 claims abstract description 38
- 238000004590 computer program Methods 0.000 claims description 19
- 238000002372 labelling Methods 0.000 claims description 13
- 238000005516 engineering process Methods 0.000 abstract description 11
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 18
- 238000004821 distillation Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000013140 knowledge distillation Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本公开提供了一种神经网络训练方法、目标检测方法、装置、设备和介质,涉及人工智能技术领域,尤其涉及计算机视觉、图像识别和深度学习技术。实现方案为:将第一图像样本输入第一子网络,以得到第一特征图和第一检测结果,将第一图像样本输入第二子网络,以得到第二特征图;对第一检测结果中的每个第一检测框结果进行编码操作,以生成第一编码结果中对应于该第一检测框结果的第一框编码结果;对第一编码结果和第一特征图、第二特征图分别进行自注意计算,以得到第一注意力结果和第二注意力结果;基于第一注意力结果和第二注意力结果,计算第一损失值;以及至少部分地基于第一损失值,训练第一子网络和第二子网络中的学生网络。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及计算机视觉、图像识别和深度学习技术,具体涉及一种神经网络训练方法、目标检测方法、装置、电子设备、计算机可读存储介质和计算机程序产品,具体可用于智慧城市和智能交通场景下。
背景技术
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
通常,深度神经网络的结构较复杂、参数众多,导致深度神经网络的运算量较大、运行耗时较长。因此,希望压缩神经网络以实现加速。
目前,知识蒸馏是一种较为常见的网络压缩方法。在知识蒸馏中,利用老师网络(即,结构较为复杂的网络)监督学生网络(即,结构较为简单的网络)的输出,以提升学生网络的精度。由于学生网络结构简单,所以知识蒸馏能够有效地实现网络的压缩。因此,期望提升知识蒸馏的效果,以使得学生网络尽可能地从老师网络学习。
在此部分中描述的方法不一定是之前已经设想到或采用的方法。除非另有指明,否则不应假定此部分中描述的任何方法仅因其包括在此部分中就被认为是现有技术。类似地,除非另有指明,否则此部分中提及的问题不应认为在任何现有技术中已被公认。
发明内容
本公开提供了一种神经网络训练方法、目标检测方法、装置、电子设备、计算机可读存储介质和计算机程序产品。
根据本公开的一方面,提供了一种神经网络训练方法,包括:将第一图像样本输入第一子网络,以得到第一特征图和第一检测结果,并且,将第一图像样本输入第二子网络,以得到第二特征图,其中,第一子网络和第二子网络中的一个为老师网络,第一子网络和第二子网络中的另一个为学生网络,第一特征图和第二特征图的维数相同,第一检测结果包括一个或多个第一检测框结果;对第一检测结果中的每个第一检测框结果进行编码操作,以生成第一编码结果中对应于该第一检测框结果的第一框编码结果,其中,每个第一框编码结果的维数与第一特征图和第二特征图的通道数相同;对第一编码结果和第一特征图进行自注意计算,以得到第一注意力结果,并且,对第一编码结果和第二特征图进行自注意计算,以得到第二注意力结果;基于第一注意力结果和第二注意力结果,计算第一损失值;以及至少部分地基于第一损失值,训练学生网络。
根据本公开的另一方面,提供了一种目标检测方法,包括:获取待检测的图片数据;以及使用如本公开所述的神经网络训练方法训练所获得的学生网络对图片数据进行目标检测。
根据本公开的另一方面,提供了一种神经网络训练装置,包括:第一检测模块,被配置为:将第一图像样本输入第一子网络,以得到第一特征图和第一检测结果,其中,第一检测结果包括一个或多个第一检测框结果;第二检测模块,被配置为:将第一图像样本输入第二子网络,以得到第二特征图,其中,第一子网络和第二子网络中的一个为老师网络,第一子网络和第二子网络中的另一个为学生网络,第一特征图和第二特征图的维数相同;第一编码模块,被配置为:对第一检测结果中的每个第一检测框结果进行编码操作,以生成第一编码结果中对应于该第一检测框结果的第一框编码结果,其中,每个第一框编码结果的维数与第一特征图和第二特征图的通道数相同;第一自注意计算模块,被配置为:对第一编码结果和第一特征图进行自注意计算,以得到第一注意力结果;第二自注意计算模块,被配置为:对第一编码结果和第二特征图进行自注意计算,以得到第二注意力结果;第一损失值计算模块,被配置为:基于第一注意力结果和第二注意力结果,计算第一损失值;以及学生训练模块,被配置为:至少部分地基于第一损失值,训练学生网络。
根据本公开的另一方面,提供了一种目标检测装置,包括:图片获取模块,被配置为:获取待检测的图片数据;以及检测模块,被配置为:使用如本公开所述的神经网络训练装置训练所获得的学生网络对图片数据进行目标检测。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如本公开所述的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行如本公开所述的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,其中,计算机程序在被处理器执行时实现如本公开所述的方法。
根据本公开的一个或多个实施例,可以有效提取特征图信息以训练学生网络,从而改善蒸馏效果。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图示例性地示出了实施例并且构成说明书的一部分,与说明书的文字描述一起用于讲解实施例的示例性实施方式。所示出的实施例仅出于例示的目的,并不限制权利要求的范围。在所有附图中,相同的附图标记指代类似但不一定相同的要素。
图1是示出根据本公开的实施例的神经网络训练方法的流程图;
图2是示出根据本公开的实施例的神经网络训练方法的流程图;
图3是示出根据本公开的实施例的神经网络训练方法的流程图;
图4是示出根据本公开的实施例的目标检测方法的流程图;
图5是示出了根据本公开的实施例的神经网络训练装置的结构框图;
图6是示出了根据本公开的实施例的目标检测装置的结构框图;
图7示出了能够用于实现本公开的实施例的示例性电子设备的结构框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在本公开中,除非另有说明,否则使用术语“第一”、“第二”等来描述各种要素不意图限定这些要素的位置关系、时序关系或重要性关系,这种术语只是用于将一个要素与另一要素区分开。在一些示例中,第一要素和第二要素可以指向该要素的同一实例,而在某些情况下,基于上下文的描述,它们也可以指代不同实例。
在本公开中对各种所述示例的描述中所使用的术语只是为了描述特定示例的目的,而并非旨在进行限制。除非上下文另外明确地表明,如果不特意限定要素的数量,则该要素可以是一个也可以是多个。此外,本公开中所使用的术语“和/或”涵盖所列出的项目中的任何一个以及全部可能的组合方式。
知识蒸馏是学生网络(即,结构较为简单的网络)从老师网络(即,结构较为复杂的网络)迁移学习的过程,即,将老师网络中的有用信息提取出来迁移到学生网络上,以使得学生网络可以具备和老师网络相接近的性能效果,并极大地节省计算资源。但是,在现有技术中,仅基于检测结果进行蒸馏,蒸馏效果不够理想。
为解决上述问题,本公开提供了一种神经网络训练方法,可以有效提取特征图信息,从而改善蒸馏效果。
下面将结合附图详细描述本公开的实施例。
图1是示出根据本公开一个示例性实施例的神经网络训练方法100的流程图。如图1所示,神经网络训练方法100可以包括:
步骤S101,将第一图像样本输入第一子网络,以得到第一特征图和第一检测结果,并且,将第一图像样本输入第二子网络,以得到第二特征图,其中,第一子网络和第二子网络中的一个为老师网络,第一子网络和第二子网络中的另一个为学生网络,第一特征图和第二特征图的维数相同,第一检测结果包括一个或多个第一检测框结果。
根据一些实施例,可以在将图像样本输入第一子网络、第二子网络之前,预先设置老师网络、学生网络的结构,其中,老师网络的结构比学生网络的结构更复杂,以达到网络压缩的目的。
根据一些实施例,可以在图像样本输入第一子网络、第二子网络之前,预先训练老师网络,例如,预先使用有标注图像样本训练老师网络,而在开始蒸馏时,老师网络是已固化的经训练网络。根据另一些实施例,可以不预先进行对老师网络的训练,而在进行蒸馏的过程中进行对老师网络的训练。
根据一些实施例,可以在图像样本输入第一子网络、第二子网络之前,预先训练老师网络、学生网络两者,例如,利用现有的知识蒸馏方法预先训练老师网络、学生网络两者。
根据一些实施例,第一子网络为老师网络,第二子网络为学生网络。根据另一些实施例,第一子网络为学生网络,第二子网络为老师网络。
根据一些实施例,老师网络和学生网络中的每一个均包括特征提取模块和目标检测模块,其中,特征提取模块对输入的图像数据提取特征图,而目标检测模块基于所提取的特征图进行目标检测。根据一些实施例,在预先设置老师网络、学生网络的结构时,设置老师网络、学生网络中的特征提取模块,使得老师网络、学生网络所提取的特征图的维数相同(例如,两者所提取的维度均为10x 10x 256)。
根据一些实施例,第一检测结果包括对应于一个或多个检测框的第一检测框结果,其中,每个第一检测框结果包括所检测到的目标的位置信息和类别信息,其中,位置信息包括检测框的坐标信息(例如,检测框的左上角和右下角的坐标信息),类别信息包括检测框所对应的目标的类别信息(例如,该检测框所对应的目标为汽车还是行人)。
根据一些实施例,第一图片样本可以是有标注样本或无标注样本。
步骤S102,对第一检测结果中的每个第一检测框结果进行编码操作,以生成第一编码结果中对应于该第一检测框结果的第一框编码结果,其中,每个第一框编码结果的维数与第一特征图和第二特征图的通道数相同。
根据一些实施例,可以对第一检测框结果中的位置信息和类别信息分别进行编码。
根据一些实施例,可以根据类别信息的类别值,将第一框编码结果中对应于类别信息的部分的相应位置位为“1”,例如,目标检测可能存在五个类别的目标,而类别信息的类别值为“4”(即,指示为第四类目标),将第一框编码结果中对应于类别信息的部分的第四位置为“1”,即,第一框编码结果中对应于类别信息的部分为“00010”。
根据一些实施例,可以使用预先训练的编码模块对第一框检测结果中的位置信息进行编码操作。根据一些实施例,训练编码模块的操作包括:1)设置编码模块和解码模块,其中解码模块执行编码模块的逆操作;2)将样本数据输入编码模块,得到编码数据;3)将编码数据输入解码模块,得到解码数据;4)基于样本数据和解码数据的差异,计算损失值(例如,根据L1或L2损失函数计算损失值);5)根据损失值,调整编码模块的参数,并相应调整解码模块的参数。
如上所述,通过编码操作,将每个第一检测框结果映射到与第一特征图和第二特征图的通道数相同的维数上,以便于进行随后的自注意计算。
步骤S103,对第一编码结果和第一特征图进行自注意计算,以得到第一注意力结果,并且,对第一编码结果和第二特征图进行自注意计算,以得到第二注意力结果。
根据一些实施例,在进行自注意计算时,将第一特征图或第二特征图中对应于每个像素点的全部通道的数据作为一个向量,相应地,可以将第一特征图或第二特征图作为一组维数为其通道数的向量。例如,如果特征图的维数为100x 100x 256,特征图对应于10000个256维的向量。
在该步骤中,通过将第一编码结果与第一特征图、第二特征图分别进行自注意计算,分别提取第一特征图、第二特征图中与第一检测结果相关的信息。
根据一些实施例,当第一子网络为教师网络、第二子网络为学生网络时,分别提取老师网络的特征图或学生网络的特征图中与老师网络的检测结果相关的信息。根据另一些实施例,当第一子网络为学生网络、第二子网络为老师网络时,分别提取老师网络的特征图或学生网络的特征图中与学生网络的检测结果相关的信息。
步骤S104,基于第一注意力结果和第二注意力结果,计算第一损失值。
根据一些实施例,可以根据L1或L2损失函数计算第一损失值。
步骤S105,至少部分地基于第一损失值,训练学生网络。
根据一些实施例,可以重复上述步骤S101~S105,直至重复次数达到预定训练次数或第一损失值收敛,完成蒸馏过程。
在如本公开所述的实施例中,通过自注意计算,有效地提取老师网络的特征图、学生网络的特征图中与检测结果相关的信息,从而提升了老师网络、学生网络之间的性能一致性,以改善了从老师网络到学生网络的蒸馏效果。
根据一些实施例,对第一编码结果和第一特征图进行自注意计算,以得到第一注意力结果包括:对于第一检测结果中的每个第一检测框结果,对该第一检测框结果所对应的第一框编码结果和第一特征图进行自注意计算,以得到第一注意力结果中对应于该第一检测框结果的第一框注意结果,其中,对应于该第一检测框结果的第一框注意结果为该第一检测框结果所对应的第一框编码结果和第一特征图的自注意计算的输出中对应于第一框编码结果的分量。
根据一些实施例,第一框编码结果和第一特征图的自注意计算的输出包括对应于第一框编码结果的分量和第一特征图的分量,其中,对应于第一框编码结果的分量包括第一特征图中与第一框编码结果相关的信息。
由此可见,通过对每个第一检测框结果所对应的第一框编码结果和第一特征图分别进行自注意计算,并保留自注意计算的输出中对应于第一框编码结果的分量,分别提取第一特征图中与每个第一检测框结果相关的信息。
根据一些实施例,对第一编码结果和第二特征图进行自注意计算,以得到第二注意力结果包括:对于第一检测结果中的每个第一检测框结果,对该第一检测框结果所对应的第一框编码结果和第二特征图进行自注意计算,以得到第二注意力结果中对应于第一检测框结果的第二框注意结果,其中,对应于该第一检测框结果的第二框注意结果为该第一检测框结果所对应的第一框编码结果和第二特征图的自注意计算的输出中对应于第一框编码结果的分量。
与上面参考第一框编码结果和第一特征图的自注意计算的描述类似,通过对每个第二检测框结果所对应的第二框编码结果和第二特征图分别进行自注意计算,并保留自注意计算的输出中对应于第二框编码结果的分量,分别提取第二特征图中与每个第二检测框结果相关的信息。
根据一些实施例,基于第一注意力结果、第二注意力结果,计算第一损失值包括:对于第一检测结果中的每个第一检测框结果,计算对应于该第一检测框结果的第一框注意结果和第二框注意结果之间的损失值,作为该第一检测框结果的损失值;以及计算第一检测结果中的第一检测框结果的损失值之和,作为第一损失值。
根据一些实施例,将第一图像样本输入第二子网络,以得到第二特征图包括:将第一图像样本输入第二子网络,以得到第二特征图和第二检测结果,其中,第二检测结果包括一个或多个第二检测框结果。
根据一些实施例,如本公开所述的神经网络训练方法还包括:对第二检测结果中的每个第二检测框结果进行编码操作,以生成第二编码结果中对应于该第二检测框结果的第二框编码结果,其中,每个第二框编码结果的维数与第一特征图和第二特征图的通道数相同;对第二编码结果和第一特征图进行自注意计算,以得到第三注意力结果,并且,对第二编码结果和第三特征图进行自注意计算,以得到第四注意力结果;基于第三注意力结果和第四注意力结果,计算第二损失值;并且至少部分地基于第一损失值,训练学生网络包括:基于第一损失值和第二损失值,训练学生网络。
图2是示出根据本公开一个示例性实施例的神经网络训练方法200的流程图。如图2所示,神经网络训练方法200可以包括:
步骤S201,将第一图像样本输入第一子网络,以得到第一特征图和第一检测结果,并且,将第一图像样本输入第二子网络,以得到第二特征图和第二检测结果。
根据一些实施例,步骤S201与图1的步骤S101的区别在于:将第一图像样本输入第二子网络后,除了第二特征图还得到第二检测结果。根据一些实施例,上文参考图1的步骤S101所描述的各方面均适用于步骤S201。
根据一些实施例,与第一检测结果类似,第二检测结果包括一个或多个第二检测框结果,其中,每个第二检测框结果包括所检测到的目标的位置信息和类别信息。
步骤S202,对第一检测结果中的每个第一检测框结果进行编码操作,以生成第一编码结果中对应于该第一检测框结果的第一框编码结果。
根据一些实施例,步骤S202可以与图1中的步骤S102相同或类似。
步骤S203,对第二检测结果中的每个第二检测框结果进行编码操作,以生成第二编码结果中对应于该第二检测框结果的第二框编码结果。
根据一些实施例,步骤S203中的编码操作可以与上文参考图1中的步骤S102描述的编码操作相同或类似。
步骤S204,对第一编码结果和第一特征图进行自注意计算,以得到第一注意力结果,并且,对第一编码结果和第二特征图进行自注意计算,以得到第二注意力结果。
根据一些实施例,步骤S204可以与图1中的步骤S103相同或类似。
步骤S205,对第二编码结果和第一特征图进行自注意计算,以得到第三注意力结果,并且,对第二编码结果和第二特征图进行自注意计算,以得到第四注意力结果。
根据一些实施例,步骤S205中的自注意计算可以与上文参考图1中的步骤S103描述的自注意计算相同或类似。
步骤S206,基于第一注意力结果和第二注意力结果,计算第一损失值。
根据一些实施例,步骤S206可以与图1中的步骤S104相同或类似。
步骤S207,基于第三注意力结果和第四注意力结果,计算第二损失值。
根据一些实施例,步骤S207中计算第二损失值的过程可以与上文参考图1中的步骤S104描述的计算第一损失值的过程相同或类似。
步骤S208,基于第一损失值和第二损失值,训练学生网络。
根据一些实施例,可以重复上述步骤S201~S208,直至重复次数达到预定训练次数或第一损失值和第二损失值收敛,完成蒸馏过程。
根据本公开的实施例,通过自注意计算,提取老师网络的特征图、学生网络的特征图中与老师网络的检测结果相关的信息,并约束两者的一致性,并且,提取老师网络的特征图、学生网络的特征图中与学生网络的检测结果相关的信息,并约束两者的一致性,从而进一步提升蒸馏效果。
根据一些实施例,如本公开所述的神经网络训练方法还包括:将第二图像样本输入老师网络,以得到第三特征图,并且,将第二图像样本输入学生网络,以得到第四特征图,其中,第三特征图和第四特征图的维数相同,第二图像样本为有标注样本;对第二图像样本的一个或多个标注结果中的每个标注结果进行编码操作,以生成第三编码结果中对应于该标注结果的第三框编码结果,其中,每个第三编码结果的维数与第三特征图和第四特征图的通道数相同;对第三编码结果和第三特征图进行自注意计算,以得到第五注意力结果,并且,对第三编码结果和第四特征图进行自注意计算,以得到第六注意力结果;基于第五注意力结果和第六注意力结果,计算第三损失值;以及至少部分地基于第三损失值,训练学生网络。
图3是示出根据本公开一个示例性实施例的神经网络训练方法300的流程图。如图3所示,神经网络训练方法300可以包括:
步骤S301,将第二图像样本输入老师网络,以得到第三特征图,并且,将第二图像样本输入学生网络,以得到第四特征图,其中,第三特征图和第四特征图的维数相同,第二图像样本为有标注样本。
步骤S302,对第二图像样本的一个或多个标注结果中的每个标注结果进行编码操作,以生成第三编码结果中对应于该标注结果的第三框编码结果,其中,每个第三编码结果的维数与第三特征图和第四特征图的通道数相同。
根据一些实施例,步骤S302中的编码操作可以与上文参考图1中的步骤S102描述的编码操作相同或类似。
步骤S303,对第三编码结果和第三特征图进行自注意计算,以得到第五注意力结果,并且,对第三编码结果和第四特征图进行自注意计算,以得到第六注意力结果。
根据一些实施例,步骤S303中的自注意计算可以与上文参考图1中的步骤S103描述的自注意计算相同或类似。
步骤S304,基于第五注意力结果和第六注意力结果,计算第三损失值。
根据一些实施例,步骤S304中计算第三损失值的过程可以与上文参考图1中的步骤S104描述的计算第一损失值的过程相同或类似。
步骤S305,至少部分地基于第三损失值,训练学生网络。
步骤S306,将第一图像样本输入第一子网络,以得到第一特征图和第一检测结果,并且,将第一图像样本输入第二子网络,以得到第二特征图,其中,第一子网络和第二子网络中的一个为老师网络,第一子网络和第二子网络中的另一个为学生网络,第一特征图和第二特征图的维数相同,第一检测结果包括一个或多个第一检测框结果。
步骤S307,对第一检测结果中的每个第一检测框结果进行编码操作,以生成第一编码结果中对应于该第一检测框结果的第一框编码结果,其中,每个第一框编码结果的维数与第一特征图和第二特征图的通道数相同。
步骤S308,对第一编码结果和第一特征图进行自注意计算,以得到第一注意力结果,并且,对第一编码结果和第二特征图进行自注意计算,以得到第二注意力结果。
步骤S309,基于第一注意力结果和第二注意力结果,计算第一损失值。
步骤S310,至少部分地基于第一损失值,训练学生网络。
根据一些实施例,步骤S306~S310可以与图1中的步骤S101~S105相同或类似。
应当理解,虽然图3中描述了步骤S301~S310的执行顺序,但是该执行顺序仅是示例性的,且可以以与图3中不同的顺序执行步骤S301~S310,例如,先执行步骤S306~S310,再执行步骤S301~S305。
在如参考方法300所述的实施例中,使用有标注样本的标注结果替代老师网络的检测结果,适用于全监督训练。
根据一些实施例,将第二图像样本输入学生网络,以得到第四特征图包括:将第二图像样本输入学生网络,以得到第四特征图和第四检测结果,第四检测结果包括一个或多个第四检测框结果。
根据一些实施例,如本公开所述的神经网络训练方法还包括:对第四检测结果中的每个第四检测框结果进行编码操作,以生成第四编码结果中对应于该第四检测框结果的第四框编码结果,其中,每个第四框编码结果的维度与第三特征图和第四特征图的通道数相同;对第四编码结果和第三特征图进行自注意计算,以得到第七注意力结果,并且,对第四编码结果和第四特征图进行自注意计算,以得到第八注意力结果;基于第七注意力结果和第八注意力结果,计算第四损失值;并且至少部分地基于第三损失值,训练学生网络包括:基于第三损失值和第四损失值,训练学生网络。
根据一些实施例,将第二图像样本输入老师网络,以得到第三特征图包括:将第二图像样本输入老师网络,以得到第三特征图和第三检测结果,并且如本公开所述的神经网络训练方法还包括:基于第二图像样本的标注结果和第三检测结果,计算第五损失值;以及基于第五损失值,训练老师网络。
在如本公开所述的实施例中,通过在蒸馏过程中使用有标注样本训练老师网络,可以简化在蒸馏过程前对老师网络的预训练过程。
本公开还提供了一种目标检测方法,包括:获取待检测的图片数据;以及使用如本公开所述的神经网络训练方法(例如,方法100、200或300)训练所获得的学生网络对图片数据进行目标检测。
图4是示出根据本公开的实施例的目标检测方法的流程图。如图4所示,目标检测方法400可以包括:
步骤S401,获取待检测的图片数据。
步骤S402,使用如本公开所述的神经网络训练方法训练所获得的学生网络对图片数据进行目标检测。
图5是示出了根据本公开的实施例的神经网络训练装置500的结构框图。
如图5所示,神经网络训练装置500包括:第一检测模块501,被配置为:将第一图像样本输入第一子网络,以得到第一特征图和第一检测结果,其中,第一检测结果包括一个或多个第一检测框结果;第二检测模块502,被配置为:将第一图像样本输入第二子网络,以得到第二特征图,其中,第一子网络和第二子网络中的一个为老师网络,第一子网络和第二子网络中的另一个为学生网络,第一特征图和第二特征图的维数相同;第一编码模块503,被配置为:对第一检测结果中的每个第一检测框结果进行编码操作,以生成第一编码结果中对应于该第一检测框结果的第一框编码结果,其中,每个第一框编码结果的维数与第一特征图和第二特征图的通道数相同;第一自注意计算模块504,被配置为:对第一编码结果和第一特征图进行自注意计算,以得到第一注意力结果;第二自注意计算模块505,被配置为:对第一编码结果和第二特征图进行自注意计算,以得到第二注意力结果;第一损失值计算模块506,被配置为:基于第一注意力结果和第二注意力结果,计算第一损失值;以及学生训练模块507,被配置为:至少部分地基于第一损失值,训练学生网络。
根据一些实施例,第一自注意计算模块包括:对于第一检测结果中的每个第一检测框结果,对该第一检测框结果所对应的第一框编码结果和第一特征图进行自注意计算,以得到第一注意力结果中对应于该第一检测框结果的第一框注意结果,其中,对应于该第一检测框结果的第一框注意结果为该第一检测框结果所对应的第一框编码结果和第一特征图的自注意计算的输出中对应于第一框编码结果的分量,并且,第二自注意计算模块包括:对于第一检测结果中的每个第一检测框结果,对该第一检测框结果所对应的第一框编码结果和第二特征图进行自注意计算,以得到第二注意力结果中对应于第一检测框结果的第二框注意结果,其中,对应于该第一检测框结果的第二框注意结果为该第一检测框结果所对应的第一框编码结果和第二特征图的自注意计算的输出中对应于第一框编码结果的分量。
根据一些实施例,第一损失值计算模块包括:检测框计算模块,被配置为:对于第一检测结果中的每个第一检测框结果,计算对应于该第一检测框结果的第一框注意结果和第二框注意结果之间的损失值,作为该第一检测框结果的损失值;以及求和模块,被配置为:计算第一检测结果中的第一检测框结果的损失值之和,作为第一损失值。
图6是示出了根据本公开的实施例的目标检测装置600的结构框图。
如图6所示,目标检测装置600包括:图片获取模块601,被配置为:获取待检测的图片数据;以及检测模块602,被配置为:使用如本公开所述的神经网络训练装置训练所获得的所述学生网络对所述图片数据进行目标检测。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
根据一些实施例,本公开提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如本公开所述的方法。
根据一些实施例,本公开提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行如本公开所述的方法。
根据一些实施例,本公开提供了一种计算机程序产品,包括计算机程序,其中,计算机程序在被处理器执行时实现如本公开所述的方法。
参考图7,现将描述可以作为本公开的服务器或客户端的电子设备700的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,电子设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM 703中,还可存储电子设备700操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
电子设备700中的多个部件连接至I/O接口705,包括:输入单元706、输出单元707、存储单元708以及通信单元709。输入单元706可以是能向电子设备700输入信息的任何类型的设备,输入单元706可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入,并且可以包括但不限于鼠标、键盘、触摸屏、轨迹板、轨迹球、操作杆、麦克风和/或遥控器。输出单元707可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元708可以包括但不限于磁盘、光盘。通信单元709允许电子设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙TM设备、802.11设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似物。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如方法200、300和/或400。例如,在一些实施例中,方法200、300和/或400可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到电子设备700上。当计算机程序加载到RAM 703并由计算单元701执行时,可以执行上文描述的方法200、300和/或400的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法200、300和/或400。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行、也可以顺序地或以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
虽然已经参照附图描述了本公开的实施例或示例,但应理解,上述的方法、系统和设备仅仅是示例性的实施例或示例,本发明的范围并不由这些实施例或示例限制,而是仅由授权后的权利要求书及其等同范围来限定。实施例或示例中的各种要素可以被省略或者可由其等同要素替代。此外,可以通过不同于本公开中描述的次序来执行各步骤。进一步地,可以以各种方式组合实施例或示例中的各种要素。重要的是随着技术的演进,在此描述的很多要素可以由本公开之后出现的等同要素进行替换。
Claims (15)
1.一种神经网络训练方法,包括:
将第一图像样本输入第一子网络,以得到第一特征图和第一检测结果,并且,将所述第一图像样本输入第二子网络,以得到第二特征图,其中,所述第一子网络和所述第二子网络中的一个为老师网络,所述第一子网络和所述第二子网络中的另一个为学生网络,所述第一特征图和所述第二特征图的维数相同,所述第一检测结果包括一个或多个第一检测框结果;
对所述第一检测结果中的每个第一检测框结果进行编码操作,以生成第一编码结果中对应于该第一检测框结果的第一框编码结果,其中,每个第一框编码结果的维数与所述第一特征图和所述第二特征图的通道数相同;
对所述第一编码结果和所述第一特征图进行自注意计算,以得到第一注意力结果,并且,对所述第一编码结果和所述第二特征图进行所述自注意计算,以得到第二注意力结果;
基于所述第一注意力结果和所述第二注意力结果,计算第一损失值;以及
至少部分地基于所述第一损失值,训练所述学生网络。
2.根据权利要求1所述的方法,其中,所述对所述第一编码结果和所述第一特征图进行自注意计算,以得到第一注意力结果包括:
对于所述第一检测结果中的每个第一检测框结果,对该第一检测框结果所对应的第一框编码结果和所述第一特征图进行所述自注意计算,以得到所述第一注意力结果中对应于该第一检测框结果的第一框注意结果,其中,对应于该第一检测框结果的第一框注意结果为该第一检测框结果所对应的第一框编码结果和所述第一特征图的所述自注意计算的输出中对应于所述第一框编码结果的分量,并且,
所述对所述第一编码结果和所述第二特征图进行所述自注意计算,以得到第二注意力结果包括:
对于所述第一检测结果中的每个第一检测框结果,对该第一检测框结果所对应的第一框编码结果和所述第二特征图进行所述自注意计算,以得到所述第二注意力结果中对应于所述第一检测框结果的第二框注意结果,其中,对应于该第一检测框结果的第二框注意结果为该第一检测框结果所对应的第一框编码结果和所述第二特征图的所述自注意计算的输出中对应于所述第一框编码结果的分量。
3.根据权利要求2所述的方法,其中,所述基于所述第一注意力结果和所述第二注意力结果,计算第一损失值包括:
对于所述第一检测结果中的每个第一检测框结果,计算对应于该第一检测框结果的第一框注意结果和第二框注意结果之间的损失值,作为该第一检测框结果的损失值;以及
计算所述第一检测结果中的第一检测框结果的损失值之和,作为所述第一损失值。
4.根据权利要求1-3中任一项所述的方法,其中,所述将所述第一图像样本输入第二子网络,以得到第二特征图包括:将所述第一图像样本输入所述第二子网络,以得到所述第二特征图和第二检测结果,其中,所述第二检测结果包括一个或多个第二检测框结果;
所述方法还包括:
对所述第二检测结果中的每个第二检测框结果进行编码操作,以生成第二编码结果中对应于该第二检测框结果的第二框编码结果,其中,每个第二框编码结果的维数与所述第一特征图和所述第二特征图的通道数相同;
对所述第二编码结果和所述第一特征图进行所述自注意计算,以得到第三注意力结果,并且,对所述第二编码结果和所述第三特征图进行所述自注意计算,以得到第四注意力结果;
基于所述第三注意力结果和所述第四注意力结果,计算第二损失值;并且
所述至少部分地基于所述第一损失值,训练所述学生网络包括:
基于所述第一损失值和所述第二损失值,训练所述学生网络。
5.根据权利要求1-3中任一项所述的方法,还包括:
将第二图像样本输入所述老师网络,以得到第三特征图,并且,将所述第二图像样本输入所述学生网络,以得到第四特征图,其中,所述第三特征图和所述第四特征图的维数相同,所述第二图像样本为有标注样本;
对所述第二图像样本的一个或多个标注结果中的每个标注结果进行编码操作,以生成第三编码结果中对应于该标注结果的第三框编码结果,其中,每个第三编码结果的维数与所述第三特征图和所述第四特征图的通道数相同;
对所述第三编码结果和所述第三特征图进行所述自注意计算,以得到第五注意力结果,并且,对所述第三编码结果和所述第四特征图进行所述自注意计算,以得到第六注意力结果;
基于所述第五注意力结果和所述第六注意力结果,计算第三损失值;以及
至少部分地基于所述第三损失值,训练所述学生网络。
6.根据权利要求5所述的方法,其中,所述将所述第二图像样本输入所述学生网络,以得到第四特征图包括:将所述第二图像样本输入所述学生网络,以得到所述第四特征图和第四检测结果,所述第四检测结果包括一个或多个第四检测框结果;
所述方法还包括:
对所述第四检测结果中的每个第四检测框结果进行编码操作,以生成第四编码结果中对应于该第四检测框结果的第四框编码结果,其中,每个第四框编码结果的维度与所述第三特征图和所述第四特征图的通道数相同;
对所述第四编码结果和所述第三特征图进行自注意计算,以得到第七注意力结果,并且,对所述第四编码结果和所述第四特征图进行自注意计算,以得到第八注意力结果;
基于所述第七注意力结果和所述第八注意力结果,计算第四损失值;并且
所述至少部分地基于所述第三损失值,训练所述学生网络包括:
基于所述第三损失值和所述第四损失值,训练所述学生网络。
7.根据权利要求中5所述的方法,其中,所述将第二图像样本输入所述老师网络,以得到第三特征图包括:将第二图像样本输入所述老师网络,以得到所述第三特征图和第三检测结果,并且
所述方法还包括:
基于所述第二图像样本的标注结果和所述第三检测结果,计算第五损失值;以及
基于所述第五损失值,训练所述老师网络。
8.一种目标检测方法,包括:
获取待检测的图片数据;以及
使用根据权利要求1-7中任一项所述的神经网络训练方法训练所获得的所述学生网络对所述图片数据进行目标检测。
9.一种神经网络训练装置,包括:
第一检测模块,被配置为:将第一图像样本输入第一子网络,以得到第一特征图和第一检测结果,其中,所述第一检测结果包括一个或多个第一检测框结果;
第二检测模块,被配置为:将所述第一图像样本输入第二子网络,以得到第二特征图,其中,所述第一子网络和所述第二子网络中的一个为老师网络,所述第一子网络和所述第二子网络中的另一个为学生网络,所述第一特征图和所述第二特征图的维数相同;
第一编码模块,被配置为:对所述第一检测结果中的每个第一检测框结果进行编码操作,以生成第一编码结果中对应于该第一检测框结果的第一框编码结果,其中,每个第一框编码结果的维数与所述第一特征图和所述第二特征图的通道数相同;
第一自注意计算模块,被配置为:对所述第一编码结果和所述第一特征图进行自注意计算,以得到第一注意力结果;
第二自注意计算模块,被配置为:对所述第一编码结果和所述第二特征图进行所述自注意计算,以得到第二注意力结果;
第一损失值计算模块,被配置为:基于所述第一注意力结果和所述第二注意力结果,计算第一损失值;以及
学生训练模块,被配置为:至少部分地基于所述第一损失值,训练所述学生网络。
10.根据权利要求9所述的装置,其中,所述第一自注意计算模块包括:
对于所述第一检测结果中的每个第一检测框结果,对该第一检测框结果所对应的第一框编码结果和所述第一特征图进行所述自注意计算,以得到所述第一注意力结果中对应于该第一检测框结果的第一框注意结果,其中,对应于该第一检测框结果的第一框注意结果为该第一检测框结果所对应的第一框编码结果和所述第一特征图的所述自注意计算的输出中对应于所述第一框编码结果的分量,并且,
所述第二自注意计算模块包括:
对于所述第一检测结果中的每个第一检测框结果,对该第一检测框结果所对应的第一框编码结果和所述第二特征图进行所述自注意计算,以得到所述第二注意力结果中对应于所述第一检测框结果的第二框注意结果,其中,对应于该第一检测框结果的第二框注意结果为该第一检测框结果所对应的第一框编码结果和所述第二特征图的所述自注意计算的输出中对应于所述第一框编码结果的分量。
11.根据权利要求10所述的装置,其中,所述第一损失值计算模块包括:
检测框计算模块,被配置为:对于所述第一检测结果中的每个第一检测框结果,计算对应于该第一检测框结果的第一框注意结果和第二框注意结果之间的损失值,作为该第一检测框结果的损失值;以及
求和模块,被配置为:计算所述第一检测结果中的第一检测框结果的损失值之和,作为所述第一损失值。
12.一种目标检测装置,包括:
图片获取模块,被配置为:获取待检测的图片数据;以及
检测模块,被配置为:使用根据权利要求9-11中任一项所述的神经网络训练装置训练所获得的所述学生网络对所述图片数据进行目标检测。
13.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-8中任一项所述的方法。
15.一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被处理器执行时实现权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210102813.6A CN114494815B (zh) | 2022-01-27 | 2022-01-27 | 神经网络训练方法、目标检测方法、装置、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210102813.6A CN114494815B (zh) | 2022-01-27 | 2022-01-27 | 神经网络训练方法、目标检测方法、装置、设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114494815A CN114494815A (zh) | 2022-05-13 |
CN114494815B true CN114494815B (zh) | 2024-04-09 |
Family
ID=81477258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210102813.6A Active CN114494815B (zh) | 2022-01-27 | 2022-01-27 | 神经网络训练方法、目标检测方法、装置、设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114494815B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115527083B (zh) * | 2022-09-27 | 2023-04-11 | 中电金信软件有限公司 | 图像标注方法、装置和电子设备 |
CN115578353B (zh) * | 2022-10-18 | 2024-04-05 | 中科(黑龙江)数字经济研究院有限公司 | 一种基于图流蒸馏的多模态医学影像分割方法及装置 |
CN116091773B (zh) * | 2023-02-02 | 2024-04-05 | 北京百度网讯科技有限公司 | 图像分割模型的训练方法、图像分割方法和装置 |
CN117692341A (zh) * | 2023-07-28 | 2024-03-12 | 荣耀终端有限公司 | 一种网络的获取方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021151336A1 (zh) * | 2020-09-08 | 2021-08-05 | 平安科技(深圳)有限公司 | 基于注意力机制的道路图像目标检测方法及相关设备 |
CN113591566A (zh) * | 2021-06-28 | 2021-11-02 | 北京百度网讯科技有限公司 | 图像识别模型的训练方法、装置、电子设备和存储介质 |
WO2021218517A1 (zh) * | 2020-04-29 | 2021-11-04 | 华为技术有限公司 | 获取神经网络模型的方法、图像处理方法及装置 |
-
2022
- 2022-01-27 CN CN202210102813.6A patent/CN114494815B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021218517A1 (zh) * | 2020-04-29 | 2021-11-04 | 华为技术有限公司 | 获取神经网络模型的方法、图像处理方法及装置 |
WO2021151336A1 (zh) * | 2020-09-08 | 2021-08-05 | 平安科技(深圳)有限公司 | 基于注意力机制的道路图像目标检测方法及相关设备 |
CN113591566A (zh) * | 2021-06-28 | 2021-11-02 | 北京百度网讯科技有限公司 | 图像识别模型的训练方法、装置、电子设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
姚义 ; 王诗珂 ; 陈希豪 ; 林宇翩 ; .基于深度学习的结构化图像标注研究.电脑知识与技术.2019,(33),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN114494815A (zh) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114494815B (zh) | 神经网络训练方法、目标检测方法、装置、设备和介质 | |
CN114399769B (zh) | 文本识别模型的训练方法、文本识别方法及装置 | |
CN112966742A (zh) | 模型训练方法、目标检测方法、装置和电子设备 | |
CN115063875B (zh) | 模型训练方法、图像处理方法、装置和电子设备 | |
CN114492831B (zh) | 联邦学习模型的生成方法及其装置 | |
CN112561060A (zh) | 神经网络训练方法及装置、图像识别方法及装置和设备 | |
CN112650885A (zh) | 视频分类方法、装置、设备和介质 | |
CN113420681A (zh) | 行为识别及模型训练的方法、设备、存储介质和程序产品 | |
CN113963186A (zh) | 目标检测模型的训练方法、目标检测方法及相关装置 | |
CN113627536A (zh) | 模型训练、视频分类方法,装置,设备以及存储介质 | |
CN113641804A (zh) | 预训练模型获取方法、装置、电子设备及存储介质 | |
CN113688887A (zh) | 图像识别模型的训练与图像识别方法、装置 | |
US20230245429A1 (en) | Method and apparatus for training lane line detection model, electronic device and storage medium | |
CN114715145A (zh) | 一种轨迹预测方法、装置、设备及自动驾驶车辆 | |
CN114078274A (zh) | 人脸图像检测方法、装置、电子设备以及存储介质 | |
CN117746125A (zh) | 图像处理模型的训练方法、装置及电子设备 | |
CN113344214A (zh) | 数据处理模型的训练方法、装置、电子设备及存储介质 | |
CN117351330A (zh) | 图像处理方法、图像处理模型的训练方法、装置和设备 | |
CN114783597B (zh) | 多类疾病诊断的诊断方法及装置、电子设备和存储介质 | |
CN116363429A (zh) | 图像识别模型的训练方法、图像识别方法、装置及设备 | |
US20220188163A1 (en) | Method for processing data, electronic device and storage medium | |
CN115565186A (zh) | 文字识别模型的训练方法、装置、电子设备和存储介质 | |
CN114842541A (zh) | 模型的训练及人脸识别方法、装置、设备以及存储介质 | |
CN114119972A (zh) | 模型获取及对象处理方法、装置、电子设备及存储介质 | |
CN113903071A (zh) | 人脸识别方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |