CN113095475A - 一种神经网络的训练方法、图像处理方法以及相关设备 - Google Patents

一种神经网络的训练方法、图像处理方法以及相关设备 Download PDF

Info

Publication number
CN113095475A
CN113095475A CN202110230360.0A CN202110230360A CN113095475A CN 113095475 A CN113095475 A CN 113095475A CN 202110230360 A CN202110230360 A CN 202110230360A CN 113095475 A CN113095475 A CN 113095475A
Authority
CN
China
Prior art keywords
training
image
network
data set
training image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110230360.0A
Other languages
English (en)
Inventor
陈帅军
何建忠
贾旭
刘健庄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN202110230360.0A priority Critical patent/CN113095475A/zh
Publication of CN113095475A publication Critical patent/CN113095475A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例公开一种神经网络的训练方法、图像处理方法以及相关设备,该方法可用于人工智能领域的图像处理领域中,方法包括:获取第一训练数据集和第二训练数据集,第一训练数据集中的第一训练图像为将源域的带标签的训练图像与目标域的带标签的训练图像在像素层级进行混合后得到,第二训练数据集包括来自于目标域的无标签的训练图像;根据第一训练数据集对第一神经网络进行训练,以得到第一教师网络;根据第一教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练。增加了教师网络在训练过程的难度,从而提高了训练后的教师网络对目标域的图像的处理能力,有利于提高训练后的学生网络在处理目标域的图像时的性能。

Description

一种神经网络的训练方法、图像处理方法以及相关设备
技术领域
本申请涉及人工智能领域,尤其涉及一种神经网络的训练方法、图像处理方法以及相关设备。
背景技术
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。利用人工智能进行图像处理是人工智能常见的一个应用方式。
目前,广泛存在的数据域鸿沟问题,导致图像特征提取的泛化能力非常低,训练好的神经网络只能在与来自于源域的训练数据相同场景的应用数据上部署,若将训练好的神经网络应用于处理来自于目标域的图像,得到的预测结果性能比较差。
因此,一种提升神经网络在处理目标域的图像时的性能的方案亟待推出。
发明内容
本申请实施例提供了一种神经网络的训练方法、图像处理方法以及相关设备,用于提高了训练后的教师网络对目标域的图像的处理能力,也即提高了训练后的教师网络的泛化能力,从而教师网络可以为来自于目标域的无标签的训练图像生成性能更好的预测结果,也即学生网络的训练数据的质量更高,有利于提高训练后的学生网络在处理目标域的图像时的性能。
为解决上述技术问题,本申请实施例提供以下技术方案:
第一方面,本申请实施例提供一种神经网络的训练方法,可用于人工智能领域的图像处理领域中,训练设备获取第一训练数据集和第二训练数据集,其中,第一训练数据集包括至少一个带标签的第一训练图像,第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,第一训练图像的标签为根据第一标签和第二标签得到,第一标签与来自于源域的带标签的训练图像对应,第二标签与来自于目标域的带标签的训练图像对应,第二训练数据集包括来自于目标域的无标签的训练图像。训练设备采用第一损失函数,根据第一训练数据集中的第一训练图像对第一神经网络进行训练,直至满足预设条件,以得到第一教师网络,第一损失函数指示与第一训练图像对应的预测结果和第一训练图像的标签(也可以称为第一训练图像的期望结果)之间的相似度,与第一训练图像对应的预测结果为第一神经网络输出的,第一教师网络为执行过训练操作的第一神经网络。训练设备根据第一教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练直至满足预设条件,以得到第二学生网络,第二学生网络为执行过训练操作的第一学生网络。知识蒸馏指的是在对学生网络进行训练的过程中的训练目标为拉近学生网络输出的预测结果与教师网络输出的预测结果之间的相似度,以使学生网络学习到教师网络的图像处理能力。
本实现方式中,利用第一训练数据集训练得到教师网络,再采用知识蒸馏的方式,利用教师网络和第二训练数据集对学生网络进行训练,由于第一训练数据集中的训练图像是将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,也即增加了教师网络在训练过程的难度,从而提高了训练后的教师网络对目标域的图像的处理能力,也即提高了训练后的教师网络的泛化能力,从而教师网络可以为来自于目标域的无标签的训练图像生成性能更好的预测结果,也即学生网络的训练数据的质量更高,有利于提高训练后的学生网络在处理目标域的图像时的性能。
在第一方面的一种可能实现方式中,训练设备可以采用裁剪-混合(CutMix)技术,对待混合的源域图像和待混合的目标域图像进行混合,以生成第一训练图像,第一训练图像中既有来自于目标域的部分,也有来自于源域的部分。训练设备还会将与待混合的源域图像对应的第一标签(也可以称为期望结果)和与待混合的目标域图像对应的第二标签进行混合,以得到前述第一训练图像的标签。
在第一方面的一种可能实现方式中,训练设备可以采用混合(Mixup)技术,对带标签的待混合的源域图像和带标签的待混合的目标域图像进行混合,以生成第一训练图像,训练设备为与待混合的源域图像对应的第一标签分配第一权重,为与待混合的目标域图像对应的第二标签分配第二权重,并将第一标签和第二标签进行加权求和以得到第一训练图像的标签(也可以称为第一训练图像的期望结果)。
在第一方面的一种可能实现方式中,方法还包括:训练设备采用第二损失函数,根据第三训练数据集中的第三训练图像对第一神经网络进行训练,直至满足预设条件,以得到第二教师网络。其中,第三训练数据集包括来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像;第二损失函数指示第三训练图像的预测结果与第三训练图像的标签(也可以称为第三训练图像的期望结果)之间的相似度,第三训练图像的预测结果为第一神经网络输出的;第二教师网络为执行过训练操作的第一神经网络。训练设备根据第一教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练直至满足预设条件,以得到第二学生网络,包括:训练设备根据第一教师网络、第二教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练直至满足预设条件,以得到第二学生网络。
本实现方式中,还会直接将来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像进行图像层级混合得到第三训练数据集,并根据第三训练数据集训练得到第二教师网络,由于第一训练图像从像素层级打破了目标域图像和源域图像之间的数据鸿沟(gap),增加了第一教师网络在训练过程的难度,导致第一教师网络对目标域中没有规则外形的物体(例如天空、墙、大海等)的分类更为准确;第二教师网络对目标域图像的整体信息更清楚,对需要目标域中借助形状进行预测的物体(例如路灯、红绿灯等)分类更为准确,第一教师网络和第二教师网络输出的预测结果互补,综合第一教师网络和第二教师网络的预测结果作为学生网络的学习目标,有利于进一步提高第二学生网络在处理目标域的图像时的精度。
在第一方面的一种可能实现方式中,训练设备根据第一教师网络、第二教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练,包括:训练设备获取第二训练图像,第二训练图像为第二训练数据集中任一个训练图像;训练设备利用第一教师网络对第二训练图像进行处理,以生成与第二训练图像对应的第一预测结果;训练设备利用第二教师网络对第二训练图像进行处理,以生成与第二训练图像对应的第二预测结果。训练设备对第一预测结果和第二预测结果进行加权求和,以得到与第二训练图像对应的目标预测结果;可选地,第一预测结果和第二预测结果的权重可以分别为0.5和0.5,也即训练设备可以对第一预测结果和第二预测结果进行平均,以得到该目标预测结果。训练设备利用第一学生网络对第二训练图像进行处理,以生成与第二训练图像对应的第三预测结果;训练设备根据目标损失函数,对第一学生网络进行训练,目标损失函数指示第三预测结果与目标预测结果之间的相似度。
本实现方式中,在根据第一教师网络、第二教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练时,将第一预测结果和第二预测结果进行加权求和,以得到与第二训练图像对应的目标预测结果,也即第一学生网络的学习目标,操作简单,易于实现;且由于第一教师网络和第二教师网络的输出具有互补性,采用加权求和的方式有利于发挥出互补所带来的优势,有利于进一步提高第一学生网络的学习目标的精度。
在第一方面的一种可能实现方式中,训练设备得到第二学生网络之后,方法还包括:训练设备通过第二学生网络,对第二训练数据集中的第二训练图像进行处理,以生成与第二训练图像对应的预测结果,根据与第二训练图像对应的预测结果确定第二训练图像的标签。训练设备根据来自于源域的带标签的训练图像、来自于目标域的带标签的训练图像和带标签的第二训练图像,执行像素层级的混合操作,以得到更新后的第一训练数据集;训练设备根据更新后的第一训练数据集对第一神经网络进行训练,直至满足预设条件,以得到更新后的第一教师网络;训练设备根据更新后的第一教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练直至满足预设条件,以得到更新后的第二学生网络,更新后的第二学生网络为执行过训练操作的第一学生网络。
本实现方式中,在初次训练得到第二学生网络后,还会利用第二学生网络为第二训练图像生成伪标签,也即为大量来自于目标域的无标签的训练图像生成伪标签,并根据大量来自于目标域的带标签的第二训练图像,再次对对来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像,执行图像层级的混合操作,得到更新后的第一训练数据集。由于更新后的第一训练数据集中引入了更多的来自于目标域的训练数据,则更新后的第一教师网络在处理目标域的图像时的表现会更好,进而更新后的第二学生网络在处理目标域的图像时的表现也会更好,从而有利于得到精度更高的第二学生网络。
在第一方面的一种可能实现方式中,方法还包括:训练设备根据来自于源域的带标签的训练图像、来自于目标域的带标签的训练图像、带标签的第二训练图像,执行图像层级的混合操作,以得到更新后的第三训练数据集。训练设备根据更新后的第三训练数据集对第一神经网络进行训练,直至满足预设条件,以得到更新后的第二教师网络。训练设备根据更新后的第一教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练,包括:训练设备根据更新后的第一教师网络、更新后的第二教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练。
在第一方面的一种可能实现方式中,训练设备根据第一教师网络、第二教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练,包括:训练设备根据第一教师网络、第二教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练。训练设备还会根据第四训练数据集,采用第四损失函数对第一学生网络进行训练;其中,第四训练数据集包括来自于目标域的带标签的第四训练图像,也即第四训练数据集包括来自于目标域的第四训练图像以及与每个第四训练图像对应的标签,第四损失函数指示第四训练图像所对应的标签和第四预测结果之间的相似度,第四预测结果为第一学生网络对第四训练图像进行处理后输出的。
本实现方式中,还会利用来自于目标域的带标签的训练图像对第一学生网络进行训练,以进一步提高得到的第二学生网络对目标域的图像的处理能力,以提高第二学生网络在处理目标域的图像时的性能。
在第一方面的一种可能实现方式中,源域的训练图像和目标域的训练图像来源于不同的图像生成装置,或者,源域的训练图像和目标域的训练图像来源于不同的图像采集地点,或者,源域的训练图像的图像采集时刻和目标域的训练图像的图像采集时刻不同,或者,源域的训练图像中的拍摄对象和目标域的训练图像中的拍摄对象为不同的对象类型。本实现方式中,对源域图像和目标域图像进行了各种举例,扩展了本方案的应用场景,提高了本方案的实现灵活性。
在第一方面的一种可能实现方式中,第一神经网络和第一学生网络均用于执行如下任意一种任务:图像语义分割、图像分类和对图像进行物体检测。
第二方面,本申请实施例提供了一种图像的处理方法,可用于人工智能领域的图像处理领域中,执行设备获取来自于目标域的待处理图像;执行设备将来自于目标域的待处理图像输入第二学生网络,以通过第二学生网络对待处理图像进行处理,得到第二学生网络输出的预测结果;其中,第二学生网络为根据第一教师网络和第二训练数据集,采用知识蒸馏的方式训练得到的,第一教师网络为根据第一训练数据集训练得到的,第一训练数据集包括至少一个带标签的第一训练图像,第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,第一训练图像的标签为根据第一标签和第二标签得到,第一标签与来自于源域的带标签的训练图像对应,第二标签与来自于目标域的带标签的训练图像对应,第二训练数据集包括来自于目标域的无标签的训练图像。
在第二方面的一种可能实现方式中,第二学生网络为根据第一教师网络、第二教师网络和第二训练数据集,采用知识蒸馏的方式训练得到的,第二教师网络为根据第三训练数据集训练得到的,第三训练数据集包括来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像,第三训练数据集是将自于源域的带标签的训练图像和来自于目标域的带标签的训练图像进行图像层级的混合后得到的。
对于本申请实施例第二方面以及第二方面的各种可能实现方式的具体实现步骤,以及每种可能实现方式所带来的有益效果,均可以参考第二方面中各种可能的实现方式中的描述,此处不再一一赘述。
第三方面,本申请实施例提供了一种神经网络的训练装置,可用于人工智能领域的图像处理领域中,装置包括:获取模块,用于获取第一训练数据集和第二训练数据集,其中,第一训练数据集包括至少一个带标签的第一训练图像,第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,第一训练图像的标签为根据第一标签和第二标签得到,第一标签与来自于源域的带标签的训练图像对应,第二标签与来自于目标域的带标签的训练图像对应,第二训练数据集包括来自于目标域的无标签的训练图像;训练模块,用于根据第一训练数据集对第一神经网络进行训练,直至满足预设条件,以得到第一教师网络,第一教师网络为执行过训练操作的第一神经网络;训练模块,还用于根据第一教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练直至满足预设条件,以得到第二学生网络,第二学生网络为执行过训练操作的第一学生网络。
本申请实施例的第三方面提供的神经网络的训练装置还可以执行第一方面的各个可能实现方式中执行设备执行的步骤,对于本申请实施例第三方面以及第三方面的各种可能实现方式的具体实现步骤,以及每种可能实现方式所带来的有益效果,均可以参考第一方面中各种可能的实现方式中的描述,此处不再一一赘述。
第四方面,本申请实施例提供了一种图像处理装置,可用于人工智能领域的图像处理领域中,装置包括:获取模块,用于获取来自于目标域的待处理图像;处理模块,用于将来自于目标域的待处理图像输入第二学生网络,以通过第二学生网络对待处理图像进行处理,得到第二学生网络输出的预测结果;其中,第二学生网络为根据第一教师网络和第二训练数据集,采用知识蒸馏的方式训练得到的,第一教师网络为根据第一训练数据集训练得到的,第一训练数据集包括至少一个带标签的第一训练图像,第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,第一训练图像的标签为根据第一标签和第二标签得到,第一标签与来自于源域的带标签的训练图像对应,第二标签与来自于目标域的带标签的训练图像对应,第二训练数据集包括来自于目标域的无标签的训练图像。
本申请实施例的第四方面提供的图像处理装置还可以执行第二方面的各个可能实现方式中训练设备执行的步骤,对于本申请实施例第四方面以及第四方面的各种可能实现方式的具体实现步骤,以及每种可能实现方式所带来的有益效果,均可以参考第二方面中各种可能的实现方式中的描述,此处不再一一赘述。
第五方面,本申请实施例提供了一种执行设备,可以包括处理器,处理器和存储器耦合,存储器存储有程序指令,当存储器存储的程序指令被处理器执行时实现上述第二方面所述的图像处理方法。
第六方面,本申请实施例提供了一种训练设备,可以包括处理器,处理器和存储器耦合,存储器存储有程序指令,当存储器存储的程序指令被处理器执行时实现上述第一方面所述的神经网络的训练方法。
第七方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,当所述计算机程序在计算机上运行时,使得计算机执行上述第二方面所述的图像处理方法,或者,使得计算机执行上述第一方面所述的神经网络的训练方法。
第八方面,本申请实施例提供了一种电路系统,所述电路系统包括处理电路,所述处理电路配置为执行所述的图像处理方法,或者,所述处理电路配置为执行上述第一方面所述的神经网络的训练方法。
第九方面,本申请实施例提供了一种计算机程序产品,该计算机程序产品包括计算机程序,当该计算机程序在计算机上运行时,使得计算机执行上述第二方面所述的图像处理方法,或者,使得计算机执行上述第一方面所述的神经网络的训练方法。
第十方面,本申请实施例提供了一种芯片系统,该芯片系统包括处理器,用于实现上述各个方面中所涉及的功能,例如,发送或处理上述方法中所涉及的数据和/或信息。在一种可能的设计中,所述芯片系统还包括存储器,所述存储器,用于保存服务器或通信设备必要的程序指令和数据。该芯片系统,可以由芯片构成,也可以包括芯片和其他分立器件。
附图说明
图1为本申请实施例提供的人工智能主体框架的一种结构示意图;
图2a为本申请实施例提供的图像处理系统的一种系统架构图;
图2b为本申请实施例提供的神经网络的训练方法的一种流程示意图;
图3为本申请实施例提供的神经网络的训练方法的另一种流程示意图;
图4为本申请实施例提供的神经网络的训练方法中得到一个第一训练图像的一个示意图;
图5为本申请实施例提供的神经网络的训练方法中对第一神经网络进行训练的一种流程示意图;
图6为本申请实施例提供的神经网络的训练方法中对第一神经网络和第二神经网络进行训练的一种流程示意图;
图7为本申请实施例提供的神经网络的训练方法中对第一学生网络进行训练的一种流程示意图;
图8为本申请实施例提供的神经网络的训练方法的又一种流程示意图;
图9为本申请实施例提供的图像处理方法的一种流程示意图;
图10为本申请实施例提供的神经网络的训练装置的一种结构示意图;
图11为本申请实施例提供的神经网络的训练装置的另一种结构示意图;
图12为本申请实施例提供的图像处理装置的一种结构示意图;
图13为本申请实施例提供的执行设备的一种结构示意图;
图14为本申请实施例提供的训练设备的一种结构示意图;
图15为本申请实施例提供的芯片的一种结构示意图。
具体实施方式
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的术语在适当情况下可以互换,这仅仅是描述本申请的实施例中对相同属性的对象在描述时所采用的区分方式。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,以便包含一系列单元的过程、方法、系统、产品或设备不必限于那些单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它单元。
下面结合附图,对本申请的实施例进行描述。本领域普通技术人员可知,随着技术的发展和新场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
首先对人工智能系统总体工作流程进行描述,请参见图1,图1示出的为人工智能主体框架的一种结构示意图,下面从“智能信息链”(水平轴)和“IT价值链”(垂直轴)两个维度对上述人工智能主题框架进行阐述。其中,“智能信息链”反映从数据的获取到处理的一列过程。举例来说,可以是智能信息感知、智能信息表示与形成、智能推理、智能决策、智能执行与输出的一般过程。在这个过程中,数据经历了“数据—信息—知识—智慧”的凝练过程。“IT价值链”从人智能的底层基础设施、信息(提供和处理技术实现)到系统的产业生态过程,反映人工智能为信息技术产业带来的价值。
(1)基础设施
基础设施为人工智能系统提供计算能力支持,实现与外部世界的沟通,并通过基础平台实现支撑。通过传感器与外部沟通;计算能力由智能芯片提供,该智能芯片具体可以采用中央处理器(central processing unit,CPU)、嵌入式神经网络处理器(neural-network processing unit,NPU)、图形处理器(graphics processing unit,GPU)、专用集成电路(application specific integrated circuit,ASIC)或现场可编程门阵列(fieldprogrammable gate array,FPGA)等硬件加速芯片;基础平台包括分布式计算框架及网络等相关的平台保障和支持,可以包括云存储和计算、互联互通网络等。举例来说,传感器和外部沟通获取数据,这些数据提供给基础平台提供的分布式计算系统中的智能芯片进行计算。
(2)数据
基础设施的上一层的数据用于表示人工智能领域的数据来源。数据涉及到图形、图像、语音、文本,还涉及到传统设备的物联网数据,包括已有系统的业务数据以及力、位移、液位、温度、湿度等感知数据。
(3)数据处理
数据处理通常包括数据训练,机器学习,深度学习,搜索,推理,决策等方式。
其中,机器学习和深度学习可以对数据进行符号化和形式化的智能信息建模、抽取、预处理、训练等。
推理是指在计算机或智能系统中,模拟人类的智能推理方式,依据推理控制策略,利用形式化的信息进行机器思维和求解问题的过程,典型的功能是搜索与匹配。
决策是指智能信息经过推理后进行决策的过程,通常提供分类、排序、预测等功能。
(4)通用能力
对数据经过上面提到的数据处理后,进一步根据数据处理的结果可以形成一些通用的能力,比如可以是算法或者一个通用系统,例如,翻译,文本的分析,计算机视觉的处理,语音识别,图像的识别等等。
(5)智能产品及行业应用
智能产品及行业应用指人工智能系统在各领域的产品和应用,是对人工智能整体解决方案的封装,将智能信息决策产品化、实现落地应用,其应用领域主要包括:智能终端、智能制造、智能交通、智能家居、智能医疗、智能安防、自动驾驶、平安城市等。
本申请实施例可以应用于上述种种领域中进行图像处理的应用场景中,具体的,训练设备中可以存储有大量来自于源域的带标签的训练图像、大量来自于目标域的无标签的训练图像和少量来自于目标域的带标签的训练图像对神经网络进行训练的应用场景中,训练后的神经网络用于处理来源于目标域的图像。
其中,与训练图像对应的标签也可以称为与训练图像对应的期望结果。该神经网络可以用于进行图像语义分割(image semantic segmentation),或者,该神经网络可以用于进行图像分类,或者,该神经网络可以用于对图像进行物体检测等,此处不做穷举;作为示例,例如在智能家居、智能医疗、自动驾驶等领域中,均存在通过神经网络执行图像语义分割操作的应用场景;作为再一示例,例如在智能终端、智能安防等领域中,均存在通过神经网络进行图像分割的应用场景等,此处不进行穷举。
在一些场景中,源域的图像和目标域的图像来源于不同的图像生成装置,作为示例,例如源域的图像是由仿真软件生成的,目标域的图像是通过相机拍摄得到的;作为另一示例,例如源域的图像和目标域的图像是通过不同的相机拍摄得到的等。
在另一些场景中,源域的图像和目标域的图像来源于不同的图像采集地点,作为示例,例如源域的图像的图像采集地点是北京,目标域的图像的图像采集地点是深圳。在另一些场景中,源域的图像的图像采集时刻和目标域的图像的图像采集时刻不同,作为示例,例如源域的图像的图像采集时刻为白天,目标域的图像的图像采集时刻为夜晚。
在另一些场景中,源域的图像中的拍摄对象和目标域的图像中的拍摄对象为不同的对象类型,作为示例,例如源域的图像中的拍摄对象为雪纳瑞,目标域的图像中的拍摄对象为柴犬等等,应理解,此处对于源域的图像和目标域的图像的举例仅为方便理解源域的图像和目标域的图像之间的区别,不用于限定本方案。本申请实施例中,对源域图像和目标域图像进行了各种举例,扩展了本方案的应用场景,提高了本方案的实现灵活性。
在上述种种应用场景中,由于训练设备中仅存在少量的来源于目标域的带标签的训练图像,而训练后的神经网络需要处理目标域的图像,但由于对来源于目标域的无标签的训练图像进行人工标注比较困难,因此,需要充分利用已有的源域数据和目标域数据,以使训练后的神经网络在处理目标域的图像时有良好表现。
为了实现上述目的,本申请实施例提供了一种神经网络的训练方法,在对本申请实施例提供的神经网络的训练方法进行详细介绍之前,先结合图2a对本申请实施例提供的图像处理系统进行介绍。请先参阅图2a,图2a为本申请实施例提供的图像处理系统的一种系统架构图,在图2a中,图像处理系统200包括执行设备210、训练设备220、数据库230和数据存储系统240,执行设备210中包括计算模块211。
其中,数据库230中存储有第一训练数据集和第二训练数据集,训练设备220生成第一目标模型/规则201和第二目标模型/规则202,第一目标模型/规则201和第二目标模型/规则202的功能相同,第一目标模型/规则201和第二目标模型/规则202可以采用神经网络来实现,也可以采用非神经网络的模型来实现,本申请的后续实施例中均以第一目标模型/规则201和第二目标模型/规则202采用神经网络来实现为例,也即以第一目标模型/规则201采用的为第一神经网络,第二目标模型/规则202采用的为第一学生网络为例。
具体的,如图2b所示,图2b为本申请实施例提供的神经网络的训练方法的一种流程示意图。S1、训练设备220从数据库230中获取第一训练数据集和第二训练数据集,其中,第一训练数据集包括至少一个带标签的第一训练图像,第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,第一训练图像的标签为根据第一标签和第二标签得到,第一标签与来自于源域的带标签的训练图像对应,第二标签与来自于目标域的带标签的训练图像对应,第二训练数据集包括来自于目标域的无标签的训练图像。S2、训练设备220根据数据库230中的第一训练数据集对第一神经网络(也即第一目标模型/规则201)进行训练,直至满足预设条件,以得到第一教师网络,第一教师网络为执行过训练操作的第一神经网络(也即执行过训练操作的第一目标模型/规则201)。S3、训练设备220根据第一教师网络(也即执行过训练操作的第一目标模型/规则201)和第二训练数据集,采用知识蒸馏的方式,对第一学生网络(也即第二目标模型/规则202)进行训练直至满足预设条件,以得到第二学生网络,第二学生网络为执行过训练操作的第一学生网络。
训练设备220得到的执行过训练操作的第二目标模型/规则202可以应用不同的系统或设备中,例如自动驾驶车辆、台式电脑、手机、平板、笔记本电脑、监控系统、雷达的数据处理系统等等。其中,执行设备210可以调用数据存储系统240中的数据、代码等,也可以将数据、指令等存入数据存储系统240中。数据存储系统240可以置于执行设备210中,也可以为数据存储系统240相对执行设备210是外部存储器。
计算模块211可以通过执行过训练操作的第二目标模型/规则202对来源于目标域的图像进行处理。由于第一训练数据集中的训练图像是将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,也即增加了第一目标模型/规则201在训练过程的难度,从而提高了训练后的第一目标模型/规则201对目标域的图像的处理能力,从而教师网络可以为来自于目标域的无标签的训练图像生成性能更好的预测结果,也即第二目标模型/规则202的训练数据的质量更高,有利于提高训练后的第二目标模型/规则202在处理目标域的图像时的性能。
本申请的一些实施例中,请参阅图2a,“用户”可以直接与执行设备210交互,也即执行设备210可以直接将第二目标模型/规则202输出的预测图像展示给“用户”,值得注意的,图2a仅是本发明实施例提供的图像处理系统的一种架构示意图,图中所示设备、器件、模块等之间的位置关系不构成任何限制。例如,在本申请的另一些实施例中,执行设备210和客户设备也可以为分别独立的设备,执行设备210配置有输入/输出(in/out,I/O)接口,执行设备210通过I/O接口与客户设备进行数据交互。
结合上述描述可知,下面开始对本申请实施例提供的神经网络的训练阶段和推理阶段的具体实现流程进行描述。
一、训练阶段
本申请实施例中,训练阶段描述的是训练设备220如何利用数据库230中的图像数据集合生成成熟的第二目标模型/规则202的过程,具体的,请参阅图3,图3为本申请实施例提供的神经网络的训练方法的一种流程示意图,本申请实施例提供的神经网络的训练方法可以包括:
301、训练设备获取第一训练数据集和第二训练数据集,第一训练数据集包括至少一个带标签的第一训练图像,第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,第一训练图像的标签为根据第一标签和第二标签得到,第一标签与来自于源域的带标签的训练图像对应,第二标签与来自于目标域的带标签的训练图像对应,第二训练数据集包括来自于目标域的无标签的训练图像。
本申请实施例中,训练设备在执行训练操作之前,会获取第一训练数据集和第二训练数据集,第一训练数据集包括至少一个带标签的第一训练图像,第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,第二训练数据集包括来自于目标域的无标签的训练图像。
在一种情况下,训练设备中存储有大量来自于源域的带标签的训练图像和少量来自于目标域的带标签的训练图像,也即训练设备中存储有大量来自于源域的训练图像以及与来自于源域的训练图像对应的预期结果,还存储有少量来自于目标域的训练图像以及与来自于目标域的训练图像对应的预期结果。
训练设备将任意一个来自于源域的带标签的训练图像(后续简称为“待混合的源域图像”),与任意一个来自于目标域的带标签的训练图像(后续简称为“待混合的目标域图像”)在像素层级进行混合后生成第一训练数据集中的一个第一训练图像。在每次混合过程中,训练设备可以采取任意的选取规则,从多个来自于源域的带标签的训练图像获取一个待混合的源域图像,从多个来自于目标域的带标签的训练图像中获取一个带混合的目标域图像。
针对一个待混合的源域图像和一个待混合的目标域图像的混合过程。具体的,在一种实现方式中,训练设备可以采用裁剪-混合(CutMix)技术,对待混合的源域图像和待混合的目标域图像进行混合,以生成一个新的训练图像(也即第一训练图像),第一训练图像中既有来自于目标域的部分,也有来自于源域的部分。训练设备还会将待混合的源域图像的第一标签(也可以称为待混合的源域图像的期望结果)和待混合的目标域图像的第二标签进行混合,以得到前述第一训练图像的标签。
具体的,训练设备可以从待混合的源域图像中截取一个第一矩形区域,将待混合的目标域图像与第一矩形区域混合,以生成一个第一训练图像;根据第一矩形区域的面积,对第一标签和第二标签执行混合操作,以得到与该第一训练图像对应的标签。
或者,训练设备从待混合的目标域图像截取一个第二矩形区域,将待混合的源域图像与第二矩形区域混合,以生成一个新的第一训练图像;根据第二矩形区域的面积,对第一标签和第二标签执行混合操作,以得到与该第一训练图像对应的标签。
为进一步理解本方案,如下公开了采用CutMix技术对待混合的源域图像和待混合的目标域图像进行混合时的公式的一个示例:
Figure BDA0002958909230000101
Figure BDA0002958909230000102
其中,式(1)和式(2)中是以神经网络应用于图像语义分割的应用场景中为例,
Figure BDA0002958909230000103
代表将执行过截取操作的待混合的源域图像与第二矩形区域进行混合后得到的第一训练图像,M代表一个二值化的掩膜,用于从待混合的目标域图像中截取第二矩形区域,
Figure BDA0002958909230000111
代表待混合的目标域图像,
Figure BDA0002958909230000112
代表待混合的源域图像,
Figure BDA0002958909230000113
代表第一训练图像的标签,
Figure BDA0002958909230000114
代表与待混合的目标域图像对应的标签,
Figure BDA0002958909230000115
代表与待混合的源域图像对应的标签,应理解,式(1)和式(2)中的举例仅为方便理解本方案,不用于限定本方案。
为更直观地理解本方案,请参阅图4,图4为本申请实施例提供的神经网络的训练方法中得到一个第一训练图像的一个示意图,图4中以将待混合的目标域图像与第一矩形区域进行混合为例,如图4所示,利用掩码从待混合的源域图像中截取一个矩形区域(也即第一矩形区域),并将待混合的目标域图像与第一矩形区域混合,以得到一个新的训练图像(也即第一训练图像),需要说明的是,从待混合的源域图像中截取出的第一矩形区域可以放置于待混合的目标域图像中的任意位置,第一矩形区域的放置位置不需要与第一矩形区域的截取位置对应,图4仅为方便理解本方案的一种示例,不用于限定本方案。
在另一种实现方式中,训练设备可以采用混合(Mixup)技术,对带标签的待混合的源域图像和带标签的待混合的目标域图像进行混合。更具体的,训练设备为待混合的源域图像分配第一权重,为待混合的目标域图像分配第二权重,将待混合的源域图像和待混合的目标域图像进行加权求和,也即将待混合的源域图像中的每个像素点和待混合的目标域图像中的每个像素点进行加权求和。
对应的,训练设备为与待混合的源域图像对应的第一标签分配第一权重,为与待混合的目标域图像对应的第二标签分配第二权重,并将第一标签和第二标签进行加权求和以得到第一训练图像的标签(也可以称为与第一训练图像对应的标签,或者称为第一训练图像的期望结果)。需要说明的是,训练设备还可以采用其他方式来实现待混合的源域图像和待混合的目标域图像在像素层级的混合操作,此处不做穷举。
在另一种情况中,训练设备可以不执行上述混合操作,而是直接从其他电子设备处接收第一训练数据集合。
302、训练设备根据第一训练数据集对第一神经网络进行训练,直至满足预设条件,以得到第一教师网络。
本申请实施例中,训练设备采用第一损失函数,根据第一训练数据集中的训练图像对第一神经网络进行训练。具体的,训练设备从第一训练数据集中获取第一训练图像,将第一训练图像输入第一神经网络,得到第一神经网络输出的与第一训练图像对应的预测结果,训练设备根据与第一训练图像对应的预测结果和第一训练图像的标签(也可以称为与第一训练图像对应的期望结果),生成第一损失函数的函数值,对第一损失函数的函数值进行梯度求导,通过反向传播的方式对第一神经网络的权重参数进行梯度更新,以完成对第一神经网络的一次训练。训练设备可以根据第一训练数据集中的其他训练图像,重复执行上述训练操作以实现对第一神经网络的迭代训练,直至满足第一预设条件,得到第一教师网络。
其中,第一神经网络可以为用于进行图像语义分割的神经网络,或者用于进行图像分类的神经网络,或者用于对图像进行物体检测的神经网络,或者其他类型的神经网络等等,此处不做限定。
第一损失函数指示与第一训练图像对应的预测结果和第一训练图像的标签之间的相似度。进一步地,第一损失函数可以采用交叉熵损失函数、L1损失函数、L2损失函数、0-1损失函数或其他类型的损失函数等,具体采用哪种类型的损失函数也可以结合第一神经网络的功能来确定。
上述预测结果和上述标签所指示的信息的类型与第一神经网络的功能有关,作为示例,例如若第一神经网络为用于进行图像语义分割的神经网络,则上述预测结果和上述标签用于指示图像中每个像素的类别;作为另一示例,例如第一神经网络用于进行图像分类,则上述预测结果和上述标签用于指示整个图像的类别等,此处不做穷举。
第一预设条件可以为第一损失函数的函数值满足预设取值条件,或者,第一预设条件还可以为对第一神经网络进行迭代的次数大于或等于预设次数阈值。第一教师网络为执行过训练操作的第一神经网络,或者,第一教师网络为成熟的第一神经网络。
为进一步理解本方案,如下公开了第一损失函数的一个示例:
Figure BDA0002958909230000121
其中,
Figure BDA0002958909230000122
代表第一损失函数,
Figure BDA0002958909230000123
代表第一训练数据集中的一个第一训练图像,
Figure BDA0002958909230000124
代表通过第一神经网络生成的与第一训练图像对应的预测结果,
Figure BDA0002958909230000125
代表第一训练图像的标签,
Figure BDA0002958909230000126
代表计算
Figure BDA0002958909230000127
Figure BDA0002958909230000128
之间的交叉熵损失,应理解,式(3)中的举例仅为方便理解本方案,不用于限定本方案。
为更直观地理解本方案,请参阅图5,图5为本申请实施例提供的神经网络的训练方法中对第一神经网络进行训练的一种流程示意图,如图5所示,训练设备将第一训练图像输入第一神经网络,以通过第一神经网络输出与第一训练图像对应的预测结果,根据与第一训练图像对应的预测结果和第一训练图像的标签(也可以称为与第一训练图像对应的标签,或者称为第一训练图像的期望结果)生成第一损失函数的函数值,根据第一损失函数的函数值对第一神经网络的权重参数进行反向更新,以完成对第一神经网络的一次训练,应理解,图5仅为方便理解本方案的一种示例,不用于限定本方案。
303、训练设备根据第三训练数据集对第一神经网络进行训练,直至满足预设条件,以得到第二教师网络,第三训练数据集包括来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像。
本申请的一些实施例中,训练设备还可以从第三训练数据集中获取第三训练图像,采用第二损失函数,根据第三训练图像对第一神经网络进行训练,直至满足预设条件,以得到第二教师网络,第二教师网络是执行过训练操作的第一神经网络。步骤303的具体实现方式可参阅上述步骤302中的描述,此处不再赘述。
其中,第三训练数据集包括来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像,也即一个第三训练图像可以为来自于源域的训练图像,或者,也可以为来自于目标域的训练图像。第二损失函数指示第三训练图像的预测结果与第三训练图像的标签(也可以称为期望结果)之间的相似度,来自于源域的训练图像、来自于目标域的训练图像和预测结果等名词的含义、标签具体指示的信息类型以及第二损失函数的类型均可参阅上述描述,此处不做赘述。
为进一步理解本方案,如下公开了第二损失函数的一个示例:
Figure BDA0002958909230000131
其中,
Figure BDA0002958909230000132
代表第二损失函数,
Figure BDA0002958909230000133
代表将来自于源域的一个第三训练图像输入第一神经网络得到的预测结果,
Figure BDA0002958909230000134
代表与自于源域的一个第三训练图像对应的标签,
Figure BDA0002958909230000135
代表计算
Figure BDA0002958909230000136
Figure BDA0002958909230000137
之间的交叉熵损失,
Figure BDA0002958909230000138
代表将来自于目标域的一个第三训练图像输入第一神经网络得到的预测结果,
Figure BDA0002958909230000139
代表与自于目标域的一个第三训练图像对应的标签,
Figure BDA00029589092300001310
代表计算
Figure BDA00029589092300001311
Figure BDA00029589092300001312
之间的交叉熵损失,应理解,式(4)中的举例仅为方便理解本方案,不用于限定本方案。
针对第三训练数据集的获取方式,在一种情况中,训练设备中可以预先存储有大量来自于源域的带标签的训练图像和少量来自于目标域的带标签的训练图像,训练设备直接将多个来自于源域的带标签的训练图像,与多个来自于目标域的带标签的训练图像在图像层级进行混合,以得到第三训练数据集。在另一种情况中,训练设备可以接收其他设备发送的第三训练数据集。
为更直观地理解本方案,请参阅图6,图6为本申请实施例提供的神经网络的训练方法中对第一神经网络和第二神经网络进行训练的一种流程示意图,图6可结合图4以及图5进行理解,训练设备将待混合的目标域图像与待混合的源域图像进行像素层级的混合,得到第一训练图像,前述步骤的具体实现方式可参阅上述对图4的描述,训练设备利用第一训练图像对第一神经网络进行训练,前述步骤的具体实现方式可参阅上述对图5的描述。训练设备将待混合的目标域图像与待混合的源域图像进行图像层级的混合,以得到第三训练数据集,训练设备从第三训练数据集中获取一个来自于目标域的训练图像和一个来自于源域的训练图像,将前述两个训练图像输入至第一神经网络中,以通过第一训练图像分别对前述两个训练图像进行处理,以得到图6中的A2,A2代表与来自于目标域的训练图像对应的预测结果,和与来自于源域的训练图像对应的预测结果。训练设备根据A1和A2,生成第二损失函数的函数值,并利用第二损失函数的函数值,反向更新第一神经网络的权重参数,A1代表与来自于目标域的训练图像对应的标签,和与来自于源域的训练图像对应的标签,应理解,图6仅为方便理解本方案的一种示例,不用于限定本方案。
304、训练设备根据第一教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练。
本申请实施例中,训练设备会根据第二训练数据集,采用知识蒸馏(knowledgedistillation)的方式,对第一学生网络进行训练。其中,第二训练数据集中包括来自于目标域的多个无标签的第二训练图像,也即第二训练数据集中只存在来自于目标域的多个第二训练图像,而不存在与每个第二训练图像对应的期望结果。知识蒸馏指的是在对学生网络进行训练的过程中的训练目标为拉近学生网络输出的预测结果与教师网络输出的预测结果之间的相似度,以使学生网络学习到教师网络的图像处理能力。
第一学生网络与第一神经网络的功能相同,作为示例,例如若第一神经网络为用于进行图像语义分割的神经网络,则第一学生网络也是用于进行图像语义分割的神经网络;作为另一示例,例如若第一神经网络为用于图像分类的神经网络,则第一学生网络也是用于图像分类的神经网络等,此处不做穷举。进一步地,在一种实现方式中,第一学生网络和第一神经网络为相同的神经网络,在另一种实现方式中,第一学生网络和第一神经网络也可以为不同的神经网络,例如第一神经网络可以为结构更负责的神经网络,或者第一神经网络为更大的神经网络等。
步骤303为可选步骤,若执行步骤303,则步骤304可以包括:训练设备根据第一教师网络、第二教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行迭代训练。本申请实施例中,还会直接将来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像进行图像层级混合得到第三训练数据集,并根据第三训练数据集训练得到第二教师网络,由于第一训练图像从像素层级打破了目标域图像和源域图像之间的数据鸿沟(gap),增加了第一教师网络在训练过程的难度,导致第一教师网络对目标域中没有规则外形的物体(例如天空、墙、大海等)的分类更为准确;第二教师网络对目标域图像的整体信息更清楚,对需要目标域中借助形状进行预测的物体(例如路灯、红绿灯等)分类更为准确,第一教师网络和第二教师网络输出的预测结果互补,综合第一教师网络和第二教师网络的预测结果作为学生网络的学习目标,有利于进一步提高第二学生网络在处理目标域的图像时的精度。
第二训练数据集中包括多个第二训练图像,训练设备可以利用多个第二训练图像对第一学生网络执行多次训练,针对前述多次训练中的任一次训练。具体的,训练设备从第二训练数据集中获取第二训练图像,第二训练图像为第二训练数据集中任一个训练图像。训练设备利用第一教师网络对第二训练图像进行处理,以生成与第二训练图像对应的第一预测结果;利用第二教师网络对第二训练图像进行处理,以生成与第二训练图像对应的第二预测结果。训练设备利用第一学生网络对第二训练图像进行处理,以生成与第二训练图像对应的第三预测结果,训练设备根据第一预测结果、第二预测结果和第三预测结果,采用知识蒸馏的方式,对第一学生网络进行训练。
更具体的,在一种实现方式中,训练设备在得到第一预测结果和第二预测结果后,可以对第一预测结果和第二预测结果进行加权求和,以得到与第二训练图像对应的目标预测结果。可选地,第一预测结果和第二预测结果的权重可以分别为0.5和0.5,也即训练设备可以对第一预测结果和第二预测结果进行平均,以得到该目标预测结果。
训练设备根据第三预测结果和目标预测结果,计算目标损失函数的函数值,并通过反向传播的方式对第一学生网络的权重参数进行梯度更新,以完成对第一学生网络的一次训练。其中,目标损失函数指示第三预测结果与目标预测结果之间的相似度,训练设备对第一学生网络进行迭代训练的目标为拉近第三预测结果与目标预测结果之间的相似度;对于目标损失函数所采用的函数类型的描述可参阅上述对第一损失函数的函数类型的描述,此处不做赘述。第三预测结果和目标预测结果所指示的信息的类型与第一学生网络的功能有关,具体举例可参阅上述步骤302中的描述,此处不做赘述。
本申请实施例中,在根据第一教师网络、第二教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练时,将第一预测结果和第二预测结果进行加权求和,以得到与第二训练图像对应的目标预测结果,也即第一学生网络的学习目标,操作简单,易于实现;且由于第一教师网络和第二教师网络的输出具有互补性,采用加权求和的方式有利于发挥出互补所带来的优势,有利于进一步提高第一学生网络的学习目标的精度。
在另一种实现方式中,训练设备在得到第一预测结果和第二预测结果后,若第一神经网络是用于进行图像语义分割,则第一预测结果和第二预测结果均用于指示一个第二训练图像中每个像素点的预测类别,训练设备可以计算第一预测结果的熵值和第二预测结果的熵值,从第一预测结果和第二预测结果中选取熵值较小的一个预测结果作为目标预测结果,进而根据第三预测结果和目标预测结果,计算目标损失函数的函数值,并通过反向传播的方式对第一学生网络的权重参数进行梯度更新,以完成对第一学生网络的一次训练。训练设备还可以采用其他方式来生成目标预测结果,此处不限定目标预测结果的生成方式。
若不执行步骤303,则步骤304可以包括:训练设备根据第一教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行迭代训练,直至满足预设条件,得到第二学生网络。
具体的,训练设备从第二训练数据集中获取第二训练图像。训练设备利用第一教师网络对第二训练图像进行处理,以生成与第二训练图像对应的第一预测结果;利用第一学生网络对第二训练图像进行处理,以生成与第二训练图像对应的第三预测结果,训练设备根据第一预测结果和第三预测结果生成第三损失函数的函数值,根据第三损失函数的函数值对第一学生网络的权重参数进行反向更新,以完成对第一学生网络的一次训练,第三损失函数指示第三预测结果与第一预测结果之间的相似度。训练设备重复执行前述操作,以实现对第一学生网络的迭代训练。
305、训练设备根据第四训练数据集对第一学生网络进行训练,第四训练数据集包括来自于目标域的带标签的训练图像。
本申请的一些实施例中,训练设备还会根据第四训练数据集,采用第四损失函数对第一学生网络进行迭代训练,第四训练数据集包括来自于目标域的第四训练图像以及与每个第四训练图像对应的标签(也称为期望结果)。
具体的,在一次迭代中,训练设备将第四训练图像输入第一学生网络,得到第一学生网络输出的与第四训练图像对应的第四预测结果,根据与第四训练图像对应的预测结果和第四训练图像对应的标签,生成第四损失函数的函数值,根据第四损失函数的函数值对第一学生网络的权重参数进行反向更新,以完成对第一学生网络的一次训练,第四损失函数指示第四训练图像所对应的标签和第四预测结果之间的相似度。
需要说明的是,步骤305为可选步骤,若执行步骤305,则本申请实施例不限定步骤305和步骤304之间的执行顺序,可以交叉执行步骤304和步骤305,也可以同时执行步骤304和步骤305。训练设备停止迭代训练的条件可以为目标损失函数(或第三损失函数)和第四损失函数的和满足预设取值条件,或者,总的迭代训练次数大于预设阈值,以得到第二学生网络(也即成熟的第一学生网络)。
为进一步理解本方案,如下公开了目标损失函数和第四损失函数的一个示例:
Figure BDA0002958909230000151
其中,
Figure BDA0002958909230000152
代表目标损失函数,此处以目标损失函数采用KL散度损失函数为例,
Figure BDA0002958909230000153
代表第四损失函数,此处以第四损失函数采用交叉熵损失函数为例,λkl代表目标损失函数的权重,λce代表第四损失函数的权重,λkl和λce为两个超参数,
Figure BDA0002958909230000161
代表来自于目标域的无标签的训练图像,
Figure BDA0002958909230000162
Figure BDA0002958909230000163
分别代表第一预测结果和第二预测结果,
Figure BDA0002958909230000164
代表将第一预测结果和第二预测结果进行平均后的目标预测结果,
Figure BDA0002958909230000165
代表第三预测结果,式(5)中的其他字母的含义可参阅上述描述,应理解,式(5)中的举例仅为方便理解本方案,不用于限定本方案。
为更直观地理解本方案,请参阅图7,图7为本申请实施例提供的神经网络的训练方法中对第一学生网络进行训练的一种流程示意图,
Figure BDA0002958909230000166
代表来自于目标域的有标签的训练图像(也即第四训练图像),
Figure BDA0002958909230000167
代表来自于目标域的无标签的训练图像(也即第二训练图像),
Figure BDA0002958909230000168
代表与第四训练图像对应的标签,
Figure BDA0002958909230000169
代表目标损失函数的函数值,
Figure BDA00029589092300001610
代表第四损失函数的函数值。如图7所示,训练设备获取到的一个第二训练图像和一个第四训练图像,训练设备会将第二训练图像分别输入第一教师网络、第二教师网络和第一学生网络,通过第一教师网络对第二训练图像进行处理以输出第一预测结果,通过第二教师网络对第二训练图像进行处理以输出第二预测结果,通过第一学生网络输出与第二训练图像对应的第三预测结果(也即B1的一种示例),训练设备将第一预测结果和第二预测结果进行平均以得到目标预测结果,训练设备根据第三预测结果和目标预测结果,生成
Figure BDA00029589092300001611
的值。
训练设备还会将第四训练图像输入第一学生网络中,得到与第一学生网络输出的第四预测结果,训练设备根据第四预测结果和与第四训练图像对应的标签生成
Figure BDA00029589092300001612
的值,根据
Figure BDA00029589092300001613
的值和
Figure BDA00029589092300001614
的值生成总的损失函数的函数值,并根据总的损失函数的函数值对第一学生网络的权重参数进行反向更新,应理解,图7仅为方便理解本方案的一种示例,不用于限定本方案。
本申请实施例中,还会利用来自于目标域的带标签的训练图像对第一学生网络进行训练,以进一步提高得到的第二学生网络对目标域的图像的处理能力,以提高第二学生网络在处理目标域的图像时的性能。
306、训练设备通过第二学生网络,对第二训练数据集中的第二训练图像进行处理,以生成与第二训练图像对应的预测结果,根据与第二训练图像对应的预测结果确定第二训练图像的标签。
本申请的一些实施例中,训练设备在得到第二学生网络后,还可以对第二训练数据集中的每个第二训练图像进行处理,以生成与每个第二训练图像对应的预测结果,并根据与第二训练图像对应的预测结果确定第二训练图像的标签(也可以称为与第二训练图像对应的标签,或者称为第二训练图像的期望结果),也即通过第二学生网络为每个第二训练图像生成了对应的伪标签。其中,与第二训练图像对应的预测结果和第二训练图像的标签具体的信息表现形式不同。作为示例,例如第二学生网络应用于图像语义分割的应用场景中,则与第二训练图像对应的预测结果和标签均指示图像中每个像素点的预测类别,与一个像素点对应的预测结果包括N个概率值,前述N个概率值指示该像素值属于N个类别中每个类别的概率;与一个像素点对应的标签包括与N个类别对应的N个值,前述N个值包括一个1和N-1个0,该像素点的类别为取值为1的值所对应的类别;应理解,当第二学生网络应用于其他应用场景时,预测结果与标签可表现为其它形式,此处不做穷举。
307、训练设备根据来自于源域的带标签的训练图像、来自于目标域的带标签的训练图像、带标签的第二训练图像,执行像素层级的混合操作,以得到更新后的第一训练数据集。
本申请的一些实施例中,训练设备中配置有自于源域的带标签的训练图像和来自于目标域的带标签的训练图像,在得到与每个第二训练图像对应的标签后(也即得到了大量的来自于目标域的带标签的训练图像),训练设备可以对来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像,执行像素层级的混合操作,以得到更新后的第一训练数据集,更新后的第一训练数据集中包括多个第一训练图像。其中,第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,第一训练图像的标签为根据第一标签和第二标签得到,第一标签与所述来自于源域的带标签的训练图像对应,第二标签与来自于目标域的带标签的训练图像对应。
对于将来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像进行像素层级的混合的具体实现方式,可参阅上述步骤301中的描述,此处不做赘述。
308、训练设备根据更新后的第一训练数据集对第一神经网络进行训练,直至满足预设条件,以得到更新后的第一教师网络。
本申请实施例中,步骤308的具体实现方式可参阅步骤302中的描述,此处不做赘述,区别仅在于步骤308所采用的更新后的第一训练数据集中的训练数据更多。
309、训练设备根据来自于源域的带标签的训练图像、来自于目标域的带标签的训练图像、带标签的第二训练图像,执行图像层级的混合操作,以得到更新后的第三训练数据集。
本申请的一些实施例中,训练设备中配置有自于源域的带标签的训练图像和来自于目标域的带标签的训练图像,在得到与每个第二训练图像对应的标签后(也即得到了大量的来自于目标域的带标签的训练图像),训练设备可以对来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像,执行图像层级的混合操作,以得到更新后的第三训练数据集,对于将来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像进行图像层级的混合的具体实现方式,可参阅上述步骤303中的描述,此处不做赘述。
310、训练设备根据更新后的第三训练数据集对第一神经网络进行训练,直至满足预设条件,以得到更新后的第二教师网络。
本申请实施例中,步骤310的具体实现方式可参阅步骤303中的描述,此处不做赘述,区别仅在于步骤310所采用的更新后的第三训练数据集中的训练数据更多。
311、训练设备根据更新后的第一教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练直至满足预设条件,以得到更新后的第二学生网络。
本申请实施例中,步骤311的具体实现方式可参阅步骤304中的描述,此处不做赘述。区别在于步骤311中采用的为更新后的第一教师网络,或者,采用的为更新后的第一教师网络和更新后的第二教师网络。
312、训练设备判断是否满足循环终止条件,若不满足循环终止条件,则重新进入步骤306;若满足循环终止条件,则得到最终的第二学生网络。
本申请实施例中,训练设备在执行完步骤311后,可以判断是否满足循环终止条件,该循环终止条件可以为步骤306至312的执行次数是否达到预设次数,该预设次数的取值可以为1次、2次、3次、4次、5次或其他数值等等,若不满足循环终止条件,则重新进入步骤306,也即利用更新后的第二学生网络再次为每个第二训练图像生成标签后,再次执行步骤307至311,并再次执行步骤312。若满足循环终止条件,则将通过步骤311得到的更新后的第二学生网络作为最终的第二学生网络。
为更直观地理解本方案,请参阅图8,图8为本申请实施例提供的神经网络的训练方法的一种流程示意图,如图8所示,训练设备上存储有大量来自于源域的带标签数据、少量来自于目标域的带标签数据和大量来自于目标域的无标签数据,来自于源域的带标签数据包括来自于源域的带标签的训练图像,来自于目标域的带标签数据包括来自于目标域的带标签的训练图像,来自于目标域的无标签数据包括来自于目标域的无标签的训练图像。双重域混合模块101用于对来自于源域的带标签的训练图像,和来自于目标域的带标签的训练图像在像素层级执行混合操作,以得到第一训练数据集;双重域混合模块101还用于对来自于源域的带标签的训练图像,和来自于目标域的带标签的训练图像在图像层级执行混合操作,以得到第三训练数据集。双重域混合模块101还用于利用第一训练数据集对第一神经网络进行训练,得到第一教师网络,双重域混合模块101还用于利用第三训练数据集对第一神经网络进行训练,得到第二教师网络。
多教师蒸馏模块102用于根据第一教师网络、第二教师网络和大量来自于目标域的无标签的训练图像(也即第二训练数据集),采用知识蒸馏的方式对第一学生网络进行训练;多教师蒸馏模块102还用于利用少量来自于目标域的带标签的训练图像对第一学生网络进行训练,以得到第二学生网络。
自训练模块103利用第二学生网络为来自于目标域的无标签的训练图像(对应图8中的目标域大量无标签数据)生成伪标签,并将来自于目标域的带有伪标签的训练图像加入来自于目标域的带标签的训练图像(对应图8中目标域少量带标签数据),以更新来自于目标域的带标签数据。双重域混合模块101利用更新后的目标域的带标签数据和来自于目标域的带标签数据,重复执行上述操作,也即分别在像素层级执行混合操作和在图像层级执行混合操作,并得到更新后的第一教师网络和更新后的第二教师网络。进而多教师蒸馏模块102根据更新后的第一教师网络和更新后的第二教师网络重复执行上述操作,以得到更新后的第二教师网络,应理解,图8仅为方便理解本方案的一种示例,不用于限定本方案。
本申请实施例中,训练设备在初次训练得到第二学生网络后,还会利用第二学生网络为第二训练图像生成伪标签,也即为大量来自于目标域的无标签的训练图像生成伪标签,并根据大量来自于目标域的带标签的第二训练图像,再次对对来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像,执行图像层级的混合操作,得到更新后的第一训练数据集。由于更新后的第一训练数据集中引入了更多的来自于目标域的训练数据,则更新后的第一教师网络在处理目标域的图像时的表现会更好,进而更新后的第二学生网络在处理目标域的图像时的表现也会更好,从而有利于得到精度更高的第二学生网络。
需要说明的是,步骤306至312为可选步骤,若不执行步骤306至312,则在执行完步骤305后,就可以得到最终的第二学生网络。
本申请实施例中,利用第一训练数据集训练得到教师网络,再采用知识蒸馏的方式,利用教师网络和第二训练数据集对学生网络进行训练,由于第一训练数据集中的训练图像是将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,也即增加了教师网络在训练过程的难度,从而提高了训练后的教师网络对目标域的图像的处理能力,也即提高了训练后的教师网络的泛化能力,从而教师网络可以为来自于目标域的无标签的训练图像生成性能更好的预测结果,也即学生网络的训练数据的质量更高,有利于提高训练后的学生网络在处理目标域的图像时的性能。
二、推理阶段
本申请实施例中,推理阶段描述的是执行设备210如何利用成熟的第二目标模型/规则202进行图像处理的过程,具体的,请参阅图9,图9为本申请实施例提供的图像处理方法的一种流程示意图,本申请实施例提供的图像处理方法可以包括:
901、执行设备获取来自于目标域的待处理图像。
902、执行设备将来自于目标域的待处理图像输入第二学生网络,以通过第二学生网络对待处理图像进行处理,得到第二学生网络输出的预测结果。
本申请实施例中,目标域的待处理图像、第二学生网络、第二学生网络输出的预测结果等名词的概念均可以参阅图3对应实施例中的描述,第二学生网络是通过图3对应的实施例训练得到的。
其中,第二学生网络为根据第一教师网络和第二训练数据集,采用知识蒸馏的方式训练得到的,第一教师网络为根据第一训练数据集训练得到的,第一训练数据集包括至少一个带标签的第一训练图像,第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,第一训练图像的标签为根据第一标签和第二标签得到,第一标签与来自于源域的带标签的训练图像对应,第二标签与来自于目标域的带标签的训练图像对应,第二训练数据集包括来自于目标域的无标签的训练图像。
可选地,第二学生网络为根据第一教师网络、第二教师网络和第二训练数据集,采用知识蒸馏的方式训练得到的,第二教师网络为根据第三训练数据集训练得到的,第三训练数据集包括来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像,第三训练数据集是将自于源域的带标签的训练图像和来自于目标域的带标签的训练图像进行图像层级的混合后得到的。
本申请实施例中,提供了第二学生网络在推理阶段的实现方式,扩展了本方案的应用场景;由于第一训练数据集中的训练图像是将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,也即增加了教师网络在训练过程的难度,从而提高了训练后的教师网络对目标域的图像的处理能力,也即提高了训练后的教师网络的泛化能力,从而教师网络可以为来自于目标域的无标签的训练图像生成性能更好的预测结果,也即学生网络的训练数据的质量更高,有利于提高训练后的学生网络在处理目标域的图像时的性能。
为对本申请实施例所带来的有益效果有更直观地理解,以下结合实际试验数据进行说明,此处以源域的图像来自于数据集GTA5,目标域的图像来自于数据集Cityscapes为例,请参阅如下表1,表1中以衡量指标采用mIoU为例,mIoU代表训练后的神经网络在处理目标域的图像时的精度,该指标的取值越大,代表训练后的神经网络的性能越好。
表1
100个 200个 500个 1000个 2975个
Baseline 52.6% 53.6% 58.4% 61.6% 66.6%
ASS 54.2% 56.0% 60.2% 64.5% 69.1%
本申请实施例 61.2% 60.5% 64.3% 66.6% 69.8%
其中,Baseline和ASS是两种已有的对第一学生网络进行训练的方法,表1中100个、200个、500个、1000个和2975个分别代表训练数据中采用的来自于目标域的带标签的训练图像的个数,从上述表1来看,无论采用的来自于目标域的带标签的训练图像的个数为多少,均为采用本申请实施例提供的训练方法得到的训练后的神经网络的性能更好。
在图1至图9所对应的实施例的基础上,为了更好的实施本申请实施例的上述方案,下面还提供用于实施上述方案的相关设备。具体参阅图10,图10为本申请实施例提供的神经网络的训练装置的一种结构示意图,神经网络的训练装置1000包括:获取模块1001,用于获取第一训练数据集和第二训练数据集,其中,第一训练数据集包括至少一个带标签的第一训练图像,第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,第一训练图像的标签为根据第一标签和第二标签得到,第一标签与来自于源域的带标签的训练图像对应,第二标签与来自于目标域的带标签的训练图像对应,第二训练数据集包括来自于目标域的无标签的训练图像;训练模块1002,用于根据第一训练数据集对第一神经网络进行训练,直至满足预设条件,以得到第一教师网络,第一教师网络为执行过训练操作的第一神经网络;训练模块1002,还用于根据第一教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练直至满足预设条件,以得到第二学生网络,第二学生网络为执行过训练操作的第一学生网络。
在一种可能的设计中,训练模块1002,还用于根据第三训练数据集对第一神经网络进行训练,直至满足预设条件,以得到第二教师网络,其中,第三训练数据集包括来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像,第二教师网络为执行过训练操作的第一神经网络;训练模块1002,具体用于根据第一教师网络、第二教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练直至满足预设条件,以得到第二学生网络。
在一种可能的设计中,请参阅图11,图11为本申请实施例提供的神经网络的训练装置的一种结构示意图,训练模块1002,包括:获取子模块10021,用于获取第二训练图像,第二训练图像为第二训练数据集中任一个训练图像;处理子模块10022,用于利用第一教师网络对第二训练图像进行处理,以生成与第二训练图像对应的第一预测结果;处理子模块10022,还用于利用第二教师网络对第二训练图像进行处理,以生成与第二训练图像对应的第二预测结果;求和子模块10023,用于对第一预测结果和第二预测结果进行加权求和,以得到与第二训练图像对应的目标预测结果;处理子模块10022,还用于利用第一学生网络对第二训练图像进行处理,以生成与第二训练图像对应的第三预测结果;训练子模块10024,用于根据目标损失函数,对第一学生网络进行训练,目标损失函数指示第三预测结果与目标预测结果之间的相似度。
在一种可能的设计中,请参阅图11,神经网络的训练装置1000还包括:处理模块1003,用于通过第二学生网络,对第二训练数据集中的第二训练图像进行处理,以生成与第二训练图像对应的预测结果,根据与第二训练图像对应的预测结果确定第二训练图像的标签;混合模块1004,用于根据来自于源域的带标签的训练图像、来自于目标域的带标签的训练图像和带标签的第二训练图像,执行像素层级的混合操作,以得到更新后的第一训练数据集;训练模块1002,还用于根据更新后的第一训练数据集对第一神经网络进行训练,直至满足预设条件,以得到更新后的第一教师网络;训练模块1002,还用于根据更新后的第一教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练直至满足预设条件,以得到更新后的第二学生网络,更新后的第二学生网络为执行过训练操作的第一学生网络。
在一种可能的设计中,训练模块1002,具体用于根据第一教师网络、第二教师网络和第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练,并根据第四训练数据集对第一学生网络进行训练,第四训练数据集包括来自于目标域的带标签的训练图像。
在一种可能的设计中,源域的训练图像和目标域的训练图像来源于不同的图像生成装置,或者,源域的训练图像和目标域的训练图像来源于不同的图像采集地点,或者,源域的训练图像的图像采集时刻和目标域的训练图像的图像采集时刻不同,或者,源域的训练图像中的拍摄对象和目标域的训练图像中的拍摄对象为不同的对象类型。
在一种可能的设计中,第一神经网络和第一学生网络均用于执行图像语义分割任务。
需要说明的是,神经网络的训练装置1000中各模块/单元之间的信息交互、执行过程等内容,与本申请中图3至图8对应的各个方法实施例根据同一构思,具体内容可参见本申请前述所示的方法实施例中的叙述,此处不再赘述。
本申请实施例还提供一种图像处理装置,请参阅图12,图12为本申请实施例提供的图像处理装置的一种结构示意图,图像处理装置1200包括:获取模块1201,用于获取来自于目标域的待处理图像;处理模块1202,用于将来自于目标域的待处理图像输入第二学生网络,以通过第二学生网络对待处理图像进行处理,得到第二学生网络输出的预测结果;其中,第二学生网络为根据第一教师网络和第二训练数据集,采用知识蒸馏的方式训练得到的,第一教师网络为根据第一训练数据集训练得到的,第一训练数据集包括至少一个带标签的第一训练图像,第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,第一训练图像的标签为根据第一标签和第二标签得到,第一标签与来自于源域的带标签的训练图像对应,第二标签与来自于目标域的带标签的训练图像对应,第二训练数据集包括来自于目标域的无标签的训练图像。
在一种可能的设计中,第二学生网络为根据第一教师网络、第二教师网络和第二训练数据集,采用知识蒸馏的方式训练得到的,第二教师网络为根据第三训练数据集训练得到的,第三训练数据集包括来自于源域的带标签的训练图像和来自于目标域的带标签的训练图像,第三训练数据集是将自于源域的带标签的训练图像和来自于目标域的带标签的训练图像进行图像层级的混合后得到的。
需要说明的是,图像处理装置1200中各模块/单元之间的信息交互、执行过程等内容,与本申请中图9对应的各个方法实施例根据同一构思,具体内容可参见本申请前述所示的方法实施例中的叙述,此处不再赘述。
接下来介绍本申请实施例提供的一种执行设备,请参阅图13,图13为本申请实施例提供的执行设备的一种结构示意图,执行设备1300具体可以表现为虚拟现实VR设备、手机、平板、笔记本电脑、智能穿戴设备、监控数据处理设备或者雷达数据处理设备等,此处不做限定。其中,执行设备1300上可以部署有图12对应实施例中所描述的图像处理装置1200,用于实现图9对应实施例中执行设备的功能。具体的,执行设备1300包括:接收器1301、发射器1302、处理器1303和存储器1304(其中执行设备1300中的处理器1303的数量可以一个或多个,图13中以一个处理器为例),其中,处理器1303可以包括应用处理器13031和通信处理器13032。在本申请的一些实施例中,接收器1301、发射器1302、处理器1303和存储器1304可通过总线或其它方式连接。
存储器1304可以包括只读存储器和随机存取存储器,并向处理器1303提供指令和数据。存储器1304的一部分还可以包括非易失性随机存取存储器(non-volatile randomaccess memory,NVRAM)。存储器1304存储有处理器和操作指令、可执行模块或者数据结构,或者它们的子集,或者它们的扩展集,其中,操作指令可包括各种操作指令,用于实现各种操作。
处理器1303控制执行设备的操作。具体的应用中,执行设备的各个组件通过总线系统耦合在一起,其中总线系统除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清楚说明起见,在图中将各种总线都称为总线系统。
上述本申请实施例揭示的方法可以应用于处理器1303中,或者由处理器1303实现。处理器1303可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器1303中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器1303可以是通用处理器、数字信号处理器(digital signal processing,DSP)、微处理器或微控制器,还可进一步包括专用集成电路(application specific integratedcircuit,ASIC)、现场可编程门阵列(field-programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。该处理器1303可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器1304,处理器1303读取存储器1304中的信息,结合其硬件完成上述方法的步骤。
接收器1301可用于接收输入的数字或字符信息,以及产生与执行设备的相关设置以及功能控制有关的信号输入。发射器1302可用于通过第一接口输出数字或字符信息;发射器1302还可用于通过第一接口向磁盘组发送指令,以修改磁盘组中的数据;发射器1302还可以包括显示屏等显示设备。
本申请实施例中,处理器1303,用于执行图9对应实施例中的执行设备执行的图像处理方法。处理器1303中的应用处理器13031执行上述各个步骤的具体方式,与本申请中图9对应的各个方法实施例根据同一构思,其带来的技术效果与本申请中图9对应的各个方法实施例相同,具体内容可参见本申请前述所示的方法实施例中的叙述,此处不再赘述。
本申请实施例还提供了一种训练设备,请参阅图14,图14是本申请实施例提供的训练设备一种结构示意图,训练设备1400上可以部署有图10或图11对应实施例中所描述的神经网络的训练装置1000,用于实现图3至图8对应实施例中训练设备的功能,具体的,训练设备1400由一个或多个服务器实现,训练设备1400可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)1422(例如,一个或一个以上处理器)和存储器1432,一个或一个以上存储应用程序1442或数据1444的存储介质1430(例如一个或一个以上海量存储设备)。其中,存储器1432和存储介质1430可以是短暂存储或持久存储。存储在存储介质1430的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对训练设备中的一系列指令操作。更进一步地,中央处理器1422可以设置为与存储介质1430通信,在训练设备1400上执行存储介质1430中的一系列指令操作。
训练设备1400还可以包括一个或一个以上电源1426,一个或一个以上有线或无线网络接口1450,一个或一个以上输入输出接口1458,和/或,一个或一个以上操作系统1441,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
本申请实施例中,中央处理器1422,用于执行图3至图8对应实施例中的训练设备执行的图像处理方法。中央处理器1422执行上述各个步骤的具体方式,与本申请中图3至图8对应的各个方法实施例根据同一构思,其带来的技术效果与本申请中图3至图8对应的各个方法实施例相同,具体内容可参见本申请前述所示的方法实施例中的叙述,此处不再赘述。
本申请实施例中还提供一种包括计算机程序产品,计算机程序产品包括计算机程序,当该计算机程序在计算机上运行时,使得计算机执行如前述图9所示实施例描述的方法中执行设备所执行的步骤,或者,使得计算机执行如前述图3至图8所示实施例描述的方法中训练设备所执行的步骤。
本申请实施例中还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,当该计算机程序在计算机上运行时,使得计算机执行如前述图9所示实施例描述的方法中执行设备所执行的步骤,或者,使得计算机执行如前述图3至图8所示实施例描述的方法中训练设备所执行的步骤。
本申请实施例提供的图像处理装置、神经网络的训练装置、执行设备以及训练设备具体可以为芯片,芯片包括:处理单元和通信单元,所述处理单元例如可以是处理器,所述通信单元例如可以是输入/输出接口、管脚或电路等。该处理单元可执行存储单元存储的计算机执行指令,以使芯片执行上述图9所示实施例描述的图像处理方法,或者,以使芯片执行上述图3至图8所示实施例描述的神经网络的训练方法。可选地,所述存储单元为所述芯片内的存储单元,如寄存器、缓存等,所述存储单元还可以是所述无线接入设备端内的位于所述芯片外部的存储单元,如只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)等。
具体的,请参阅图15,图15为本申请实施例提供的芯片的一种结构示意图,所述芯片可以表现为神经网络处理器NPU 150,NPU 150作为协处理器挂载到主CPU(Host CPU)上,由Host CPU分配任务。NPU的核心部分为运算电路1503,通过控制器1504控制运算电路1503提取存储器中的矩阵数据并进行乘法运算。
在一些实现中,运算电路1503内部包括多个处理单元(Process Engine,PE)。在一些实现中,运算电路1503是二维脉动阵列。运算电路1503还可以是一维脉动阵列或者能够执行例如乘法和加法这样的数学运算的其它电子线路。在一些实现中,运算电路1503是通用的矩阵处理器。
举例来说,假设有输入矩阵A,权重矩阵B,输出矩阵C。运算电路从权重存储器1502中取矩阵B相应的数据,并缓存在运算电路中每一个PE上。运算电路从输入存储器1501中取矩阵A数据与矩阵B进行矩阵运算,得到的矩阵的部分结果或最终结果,保存在累加器(accumulator)1508中。
统一存储器1506用于存放输入数据以及输出数据。权重数据直接通过存储单元访问控制器(Direct Memory Access Controller,DMAC)1505,DMAC被搬运到权重存储器1502中。输入数据也通过DMAC被搬运到统一存储器1506中。
BIU为Bus Interface Unit即,总线接口单元1510,用于AXI总线与DMAC和取指存储器(Instruction Fetch Buffer,IFB)1509的交互。
总线接口单元1510(Bus Interface Unit,简称BIU),用于取指存储器1509从外部存储器获取指令,还用于存储单元访问控制器1505从外部存储器获取输入矩阵A或者权重矩阵B的原数据。
DMAC主要用于将外部存储器DDR中的输入数据搬运到统一存储器1506或将权重数据搬运到权重存储器1502中或将输入数据数据搬运到输入存储器1501中。
向量计算单元1507包括多个运算处理单元,在需要的情况下,对运算电路的输出做进一步处理,如向量乘,向量加,指数运算,对数运算,大小比较等等。主要用于神经网络中非卷积/全连接层网络计算,如Batch Normalization(批归一化),像素级求和,对特征平面进行上采样等。
在一些实现中,向量计算单元1507能将经处理的输出的向量存储到统一存储器1506。例如,向量计算单元1507可以将线性函数和/或非线性函数应用到运算电路1503的输出,例如对卷积层提取的特征平面进行线性插值,再例如累加值的向量,用以生成激活值。在一些实现中,向量计算单元1507生成归一化的值、像素级求和的值,或二者均有。在一些实现中,处理过的输出的向量能够用作到运算电路1503的激活输入,例如用于在神经网络中的后续层中的使用。
控制器1504连接的取指存储器(instruction fetch buffer)1509,用于存储控制器1504使用的指令;
统一存储器1506,输入存储器1501,权重存储器1502以及取指存储器1509均为On-Chip存储器。外部存储器私有于该NPU硬件架构。
其中,若所述芯片被配置于训练设备中,则图3至图8示出的各个神经网络中各层的运算可以由运算电路1503或向量计算单元1507执行,或者,若所述芯片被配置于执行设备中,则图9示出的第二学生网络中各层的运算可以由运算电路1503或向量计算单元1507执行。
其中,上述任一处提到的处理器,可以是一个通用中央处理器,微处理器,ASIC,或一个或多个用于控制上述第一方面方法的程序执行的集成电路。
另外需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本申请提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件的方式来实现,当然也可以通过专用硬件包括专用集成电路、专用CPU、专用存储器、专用元器件等来实现。一般情况下,凡由计算机程序完成的功能都可以很容易地用相应的硬件来实现,而且,用来实现同一功能的具体硬件结构也可以是多种多样的,例如模拟电路、数字电路或专用电路等。但是,对本申请而言更多情况下软件程序实现是更佳的实施方式。根据这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘、U盘、移动硬盘、ROM、RAM、磁碟或者光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,训练设备,或者网络设备等)执行本申请各个实施例所述的方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、训练设备或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、训练设备或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的训练设备、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘(Solid State Disk,SSD))等。

Claims (22)

1.一种神经网络的训练方法,其特征在于,所述方法包括:
获取第一训练数据集和第二训练数据集,其中,所述第一训练数据集包括至少一个带标签的第一训练图像,所述第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,所述第一训练图像的标签为根据第一标签和第二标签得到,所述第一标签与所述来自于源域的带标签的训练图像对应,所述第二标签与所述来自于目标域的带标签的训练图像对应,所述第二训练数据集包括来自于目标域的无标签的训练图像;
根据所述第一训练数据集对第一神经网络进行训练,直至满足预设条件,以得到第一教师网络,所述第一教师网络为执行过训练操作的所述第一神经网络;
根据所述第一教师网络和所述第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练直至满足预设条件,以得到第二学生网络,所述第二学生网络为执行过训练操作的所述第一学生网络。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据第三训练数据集对所述第一神经网络进行训练,直至满足预设条件,以得到第二教师网络,其中,所述第三训练数据集包括所述来自于源域的带标签的训练图像和所述来自于目标域的带标签的训练图像,所述第二教师网络为执行过训练操作的所述第一神经网络;
所述根据所述第一教师网络和所述第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练直至满足预设条件,以得到第二学生网络,包括:
根据所述第一教师网络、所述第二教师网络和所述第二训练数据集,采用知识蒸馏的方式,对所述第一学生网络进行训练直至满足预设条件,以得到所述第二学生网络。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一教师网络、所述第二教师网络和所述第二训练数据集,采用知识蒸馏的方式,对所述第一学生网络进行训练,包括:
获取第二训练图像,所述第二训练图像为所述第二训练数据集中任一个训练图像;
利用所述第一教师网络对所述第二训练图像进行处理,以生成与所述第二训练图像对应的第一预测结果;
利用所述第二教师网络对所述第二训练图像进行处理,以生成与所述第二训练图像对应的第二预测结果,并对所述第一预测结果和所述第二预测结果进行加权求和,以得到与所述第二训练图像对应的目标预测结果;
利用所述第一学生网络对所述第二训练图像进行处理,以生成与所述第二训练图像对应的第三预测结果;
根据目标损失函数,对所述第一学生网络进行训练,所述目标损失函数指示所述第三预测结果与所述目标预测结果之间的相似度。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述得到第二学生网络之后,所述方法还包括:
通过所述第二学生网络,对所述第二训练数据集中的第二训练图像进行处理,以生成与所述第二训练图像对应的预测结果,根据与所述第二训练图像对应的预测结果确定所述第二训练图像的标签;
根据所述来自于源域的带标签的训练图像、所述来自于目标域的带标签的训练图像和带标签的所述第二训练图像,执行像素层级的混合操作,以得到更新后的第一训练数据集;
根据所述更新后的第一训练数据集对所述第一神经网络进行训练,直至满足预设条件,以得到更新后的第一教师网络;
根据所述更新后的第一教师网络和所述第二训练数据集,采用知识蒸馏的方式,对所述第一学生网络进行训练直至满足预设条件,以得到更新后的第二学生网络,所述更新后的第二学生网络为执行过训练操作的所述第一学生网络。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述根据所述第一教师网络、所述第二教师网络和所述第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练,包括:
根据所述第一教师网络、所述第二教师网络和所述第二训练数据集,采用知识蒸馏的方式,对所述第一学生网络进行训练,并根据第四训练数据集对所述第一学生网络进行训练,所述第四训练数据集包括所述来自于目标域的带标签的训练图像。
6.根据权利要求1至5任一项所述的方法,其特征在于,
源域的训练图像和目标域的训练图像来源于不同的图像生成装置,或者,源域的训练图像和目标域的训练图像来源于不同的图像采集地点,或者,源域的训练图像的图像采集时刻和目标域的训练图像的图像采集时刻不同,或者,源域的训练图像中的拍摄对象和目标域的训练图像中的拍摄对象为不同的对象类型。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述第一神经网络和所述第一学生网络均用于执行以下中的任一项任务:图像语义分割、图像分类或对图像进行物体检测。
8.一种图像处理方法,其特征在于,所述方法包括:
获取来自于目标域的待处理图像;
将所述来自于目标域的待处理图像输入第二学生网络,以通过所述第二学生网络对所述待处理图像进行处理,得到所述第二学生网络输出的预测结果;
其中,所述第二学生网络为根据第一教师网络和第二训练数据集,采用知识蒸馏的方式训练得到的,所述第一教师网络为根据第一训练数据集训练得到的,所述第一训练数据集包括至少一个带标签的第一训练图像,所述第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,所述第一训练图像的标签为根据第一标签和第二标签得到,所述第一标签与所述来自于源域的带标签的训练图像对应,所述第二标签与所述来自于目标域的带标签的训练图像对应,所述第二训练数据集包括来自于目标域的无标签的训练图像。
9.根据权利要求8所述的方法,其特征在于,所述第二学生网络为根据所述第一教师网络、第二教师网络和所述第二训练数据集,采用知识蒸馏的方式训练得到的,所述第二教师网络为根据第三训练数据集训练得到的,所述第三训练数据集包括所述来自于源域的带标签的训练图像和所述来自于目标域的带标签的训练图像。
10.一种神经网络的训练装置,其特征在于,所述装置包括:
获取模块,用于获取第一训练数据集和第二训练数据集,其中,所述第一训练数据集包括至少一个带标签的第一训练图像,所述第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,所述第一训练图像的标签为根据第一标签和第二标签得到,所述第一标签与所述来自于源域的带标签的训练图像对应,所述第二标签与所述来自于目标域的带标签的训练图像对应,所述第二训练数据集包括来自于目标域的无标签的训练图像;
训练模块,用于根据所述第一训练数据集对第一神经网络进行训练,直至满足预设条件,以得到第一教师网络,所述第一教师网络为执行过训练操作的所述第一神经网络;
所述训练模块,还用于根据所述第一教师网络和所述第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练直至满足预设条件,以得到第二学生网络,所述第二学生网络为执行过训练操作的所述第一学生网络。
11.根据权利要求10所述的装置,其特征在于,
所述训练模块,还用于根据第三训练数据集对所述第一神经网络进行训练,直至满足预设条件,以得到第二教师网络,其中,所述第三训练数据集包括所述来自于源域的带标签的训练图像和所述来自于目标域的带标签的训练图像,所述第二教师网络为执行过训练操作的所述第一神经网络;
所述训练模块,具体用于根据所述第一教师网络、所述第二教师网络和所述第二训练数据集,采用知识蒸馏的方式,对所述第一学生网络进行训练直至满足预设条件,以得到所述第二学生网络。
12.根据权利要求11所述的装置,其特征在于,所述训练模块,包括:
获取子模块,用于获取第二训练图像,所述第二训练图像为所述第二训练数据集中任一个训练图像;
处理子模块,用于利用所述第一教师网络对所述第二训练图像进行处理,以生成与所述第二训练图像对应的第一预测结果;
所述处理子模块,还用于利用所述第二教师网络对所述第二训练图像进行处理,以生成与所述第二训练图像对应的第二预测结果;
求和子模块,用于对所述第一预测结果和所述第二预测结果进行加权求和,以得到与所述第二训练图像对应的目标预测结果;
所述处理子模块,还用于利用所述第一学生网络对所述第二训练图像进行处理,以生成与所述第二训练图像对应的第三预测结果;
训练子模块,用于根据目标损失函数,对所述第一学生网络进行训练,所述目标损失函数指示所述第三预测结果与所述目标预测结果之间的相似度。
13.根据权利要求10至12任一项所述的装置,其特征在于,所述装置还包括:
处理模块,用于通过所述第二学生网络,对所述第二训练数据集中的第二训练图像进行处理,以生成与所述第二训练图像对应的预测结果,根据与所述第二训练图像对应的预测结果确定所述第二训练图像的标签;
混合模块,用于根据所述来自于源域的带标签的训练图像、所述来自于目标域的带标签的训练图像和带标签的所述第二训练图像,执行像素层级的混合操作,以得到更新后的第一训练数据集;
所述训练模块,还用于根据所述更新后的第一训练数据集对所述第一神经网络进行训练,直至满足预设条件,以得到更新后的第一教师网络;
所述训练模块,还用于根据所述更新后的第一教师网络和所述第二训练数据集,采用知识蒸馏的方式,对所述第一学生网络进行训练直至满足预设条件,以得到更新后的第二学生网络,所述更新后的第二学生网络为执行过训练操作的所述第一学生网络。
14.根据权利要求10至13任一项所述的装置,其特征在于,
所述训练模块,具体用于根据所述第一教师网络、所述第二教师网络和所述第二训练数据集,采用知识蒸馏的方式,对第一学生网络进行训练,并根据第四训练数据集对所述第一学生网络进行训练,所述第四训练数据集包括来自于所述目标域的带标签的训练图像。
15.根据权利要求10至14任一项所述的装置,其特征在于,
源域的训练图像和目标域的训练图像来源于不同的图像生成装置,或者,源域的训练图像和目标域的训练图像来源于不同的图像采集地点,或者,源域的训练图像的图像采集时刻和目标域的训练图像的图像采集时刻不同,或者,源域的训练图像中的拍摄对象和目标域的训练图像中的拍摄对象为不同的对象类型。
16.根据权利要求10至15任一项所述的装置,其特征在于,所述第一神经网络和所述第一学生网络均用于执行以下中的任一项任务:图像语义分割、图像分类或对图像进行物体检测。
17.一种图像处理装置,其特征在于,所述装置包括:
获取模块,用于获取来自于目标域的待处理图像;
处理模块,用于将所述来自于目标域的待处理图像输入第二学生网络,以通过所述第二学生网络对所述待处理图像进行处理,得到所述第二学生网络输出的预测结果;
其中,所述第二学生网络为根据第一教师网络和第二训练数据集,采用知识蒸馏的方式训练得到的,所述第一教师网络为根据第一训练数据集训练得到的,所述第一训练数据集包括至少一个带标签的第一训练图像,所述第一训练图像为将来自于源域的带标签的训练图像与来自于目标域的带标签的训练图像在像素层级进行混合后得到,所述第一训练图像的标签为根据第一标签和第二标签得到,所述第一标签与所述来自于源域的带标签的训练图像对应,所述第二标签与所述来自于目标域的带标签的训练图像对应,所述第二训练数据集包括来自于目标域的无标签的训练图像。
18.根据权利要求17所述的装置,其特征在于,所述第二学生网络为根据所述第一教师网络、第二教师网络和所述第二训练数据集,采用知识蒸馏的方式训练得到的,所述第二教师网络为根据第三训练数据集训练得到的,所述第三训练数据集包括所述来自于源域的带标签的训练图像和所述来自于目标域的带标签的训练图像。
19.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序,当所述计算机程序在计算机上运行时,使得计算机执行如权利要求1至7中任意一项所述的方法,或者,使得计算机执行如权利要求8或9所述的方法。
20.一种计算机可读存储介质,其特征在于,包括程序,当所述程序在计算机上运行时,使得计算机执行如权利要求1至7中任一项所述的方法,或者,使得计算机执行如权利要求8或9所述的方法。
21.一种执行设备,其特征在于,包括处理器和存储器,所述处理器与所述存储器耦合,
所述存储器,用于存储程序;
所述处理器,用于执行所述存储器中的程序,使得所述执行设备执行如权利要求8或9所述的方法。
22.一种训练设备,其特征在于,包括处理器和存储器,所述处理器与所述存储器耦合,
所述存储器,用于存储程序;
所述处理器,用于执行所述存储器中的程序,使得所述训练设备执行如权利要求1至7中任一项所述的方法。
CN202110230360.0A 2021-03-02 2021-03-02 一种神经网络的训练方法、图像处理方法以及相关设备 Pending CN113095475A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110230360.0A CN113095475A (zh) 2021-03-02 2021-03-02 一种神经网络的训练方法、图像处理方法以及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110230360.0A CN113095475A (zh) 2021-03-02 2021-03-02 一种神经网络的训练方法、图像处理方法以及相关设备

Publications (1)

Publication Number Publication Date
CN113095475A true CN113095475A (zh) 2021-07-09

Family

ID=76666195

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110230360.0A Pending CN113095475A (zh) 2021-03-02 2021-03-02 一种神经网络的训练方法、图像处理方法以及相关设备

Country Status (1)

Country Link
CN (1) CN113095475A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113609965A (zh) * 2021-08-03 2021-11-05 同盾科技有限公司 文字识别模型的训练方法及装置、存储介质、电子设备
CN113807399A (zh) * 2021-08-16 2021-12-17 华为技术有限公司 一种神经网络训练方法、检测方法以及装置
CN114295967A (zh) * 2021-07-26 2022-04-08 桂林电子科技大学 一种基于迁移神经网络的模拟电路故障诊断方法
WO2023284416A1 (zh) * 2021-07-15 2023-01-19 北京字跳网络技术有限公司 数据处理方法及设备
CN115841475A (zh) * 2022-12-14 2023-03-24 北京医准智能科技有限公司 一种心脏图像分割方法、装置、设备及存储介质
CN116908808A (zh) * 2023-09-13 2023-10-20 南京国睿防务系统有限公司 一种基于rtn的高分辨一维像目标识别方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023284416A1 (zh) * 2021-07-15 2023-01-19 北京字跳网络技术有限公司 数据处理方法及设备
CN114295967A (zh) * 2021-07-26 2022-04-08 桂林电子科技大学 一种基于迁移神经网络的模拟电路故障诊断方法
CN113609965A (zh) * 2021-08-03 2021-11-05 同盾科技有限公司 文字识别模型的训练方法及装置、存储介质、电子设备
CN113609965B (zh) * 2021-08-03 2024-02-13 同盾科技有限公司 文字识别模型的训练方法及装置、存储介质、电子设备
CN113807399A (zh) * 2021-08-16 2021-12-17 华为技术有限公司 一种神经网络训练方法、检测方法以及装置
CN113807399B (zh) * 2021-08-16 2024-01-09 华为技术有限公司 一种神经网络训练方法、检测方法以及装置
CN115841475A (zh) * 2022-12-14 2023-03-24 北京医准智能科技有限公司 一种心脏图像分割方法、装置、设备及存储介质
CN116908808A (zh) * 2023-09-13 2023-10-20 南京国睿防务系统有限公司 一种基于rtn的高分辨一维像目标识别方法
CN116908808B (zh) * 2023-09-13 2023-12-01 南京国睿防务系统有限公司 一种基于rtn的高分辨一维像目标识别方法

Similar Documents

Publication Publication Date Title
CN111797893B (zh) 一种神经网络的训练方法、图像分类系统及相关设备
CN111401516B (zh) 一种神经网络通道参数的搜索方法及相关设备
CN113095475A (zh) 一种神经网络的训练方法、图像处理方法以及相关设备
CN111401406B (zh) 一种神经网络训练方法、视频帧处理方法以及相关设备
CN112183577A (zh) 一种半监督学习模型的训练方法、图像处理方法及设备
WO2022012407A1 (zh) 一种用于神经网络的训练方法以及相关设备
WO2021218471A1 (zh) 一种用于图像处理的神经网络以及相关设备
CN111414915B (zh) 一种文字识别方法以及相关设备
WO2022068623A1 (zh) 一种模型训练方法及相关设备
WO2023179482A1 (zh) 一种图像处理方法、神经网络的训练方法以及相关设备
CN113065997B (zh) 一种图像处理方法、神经网络的训练方法以及相关设备
WO2022111387A1 (zh) 一种数据处理方法及相关装置
CN115512005A (zh) 一种数据处理方法及其装置
WO2023231753A1 (zh) 一种神经网络的训练方法、数据的处理方法以及设备
CN113869496A (zh) 一种神经网络的获取方法、数据处理方法以及相关设备
CN115081616A (zh) 一种数据的去噪方法以及相关设备
CN115757692A (zh) 一种数据处理方法及其装置
CN115238909A (zh) 一种基于联邦学习的数据价值评估方法及其相关设备
CN115063585A (zh) 一种无监督语义分割模型的训练方法及相关装置
CN113627421A (zh) 一种图像处理方法、模型的训练方法以及相关设备
CN114169393A (zh) 一种图像分类方法及其相关设备
CN113065634A (zh) 一种图像处理方法、神经网络的训练方法以及相关设备
WO2022052647A1 (zh) 一种数据处理方法、神经网络的训练方法以及相关设备
CN113159081A (zh) 一种图像处理方法以及相关设备
CN115546528A (zh) 一种神经网络的训练方法、样本的处理方法以及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination