CN110135582B - 神经网络训练、图像处理方法及装置、存储介质 - Google Patents

神经网络训练、图像处理方法及装置、存储介质 Download PDF

Info

Publication number
CN110135582B
CN110135582B CN201910385218.6A CN201910385218A CN110135582B CN 110135582 B CN110135582 B CN 110135582B CN 201910385218 A CN201910385218 A CN 201910385218A CN 110135582 B CN110135582 B CN 110135582B
Authority
CN
China
Prior art keywords
neural network
training
initial
initial neural
functions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910385218.6A
Other languages
English (en)
Other versions
CN110135582A (zh
Inventor
李楚鸣
林宸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN201910385218.6A priority Critical patent/CN110135582B/zh
Publication of CN110135582A publication Critical patent/CN110135582A/zh
Application granted granted Critical
Publication of CN110135582B publication Critical patent/CN110135582B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本公开提供了一种神经网络训练、图像处理方法及装置、存储介质,能够提升训练得到的神经网络的性能。其中,所述神经网络训练方法包括:根据多个第一损失函数分别对第一初始神经网络进行当前迭代训练,得到多个备选神经网络;从所述多个备选神经网络中选择第二初始神经网络;基于多个第二损失函数对所述第二初始神经网络进行下一迭代训练,得到目标神经网络。

Description

神经网络训练、图像处理方法及装置、存储介质
技术领域
本公开涉及机器学习领域,尤其涉及一种神经网络训练、图像处理方法及装置、存储介质。
背景技术
为了确保基于深度学习的机器视觉任务的性能,需要为机器视觉任务建立有效的任务模型。其中,损失函数对该任务模型性能的影响较大。
目前主要是采用人工设计的启发式函数作为损失函数。在人工设计好损失函数后,任务模型的训练过程中损失函数会保持不变,最终得到的任务模型的性能还有待进一步优化。
发明内容
有鉴于此,本公开提供了一种神经网络训练、图像处理方法及装置、存储介质。
根据本公开实施例的第一方面,提供一种神经网络训练方法,所述方法包括:根据多个第一损失函数分别对第一初始神经网络进行当前迭代训练,得到多个备选神经网络;从所述多个备选神经网络中选择第二初始神经网络;基于多个第二损失函数对所述第二初始神经网络进行下一迭代训练,得到目标神经网络。
在一些实施例中,所述基于多个第二损失函数对所述第二初始神经网络进行下一迭代训练,得到目标神经网络,包括:响应于未达到停止迭代条件,基于多个第二损失函数对所述第二初始神经网络进行下一迭代训练,得到目标神经网络。
在一些实施例中,所述方法还包括:响应于达到停止迭代条件,将所述第二初始神经网络作为所述目标神经网络。
在一些实施例中,所述多个第一损失函数是通过在初始损失函数中插入至少两个线性函数得到的,其中,所述多个第一损失函数中不同的第一损失函数对应的所述至少两个线性函数具有不同的参数值。
在一些实施例中,所述第一损失函数是基于至少两个分段线性函数得到的;所述方法还包括:在M个预设分段区间进行多次采样,得到所述至少两个分段线性函数的多组参数值,其中,每组参数值包括从所述M个预设分段区间中每个预设分段区间采样得到的参数值;基于所述多组参数值,得到所述多个第一损失函数。
在一些实施例中,所述根据多个第一损失函数分别对第一初始神经网络进行当前迭代训练,得到多个备选神经网络,包括:利用所述第一初始神经网络对样本图像进行处理,得到样本图像处理结果;基于所述样本图像处理结果和所述多个第一损失函数中的每个第一损失函数,对所述第一初始神经网络的网络参数进行调整,得到与所述每个第一损失函数对应的备选神经网络。
在一些实施例中,所述从所述多个备选神经网络中选择第二初始神经网络,包括:基于所述多个备选神经网络的性能,从所述多个备选神经网络中选取第二初始神经网络。
在一些实施例中,所述基于所述多个备选神经网络的性能,从所述多个备选神经网络中选择第二初始神经网络,包括:利用测试图像集对所述多个备选神经网络进行性能测试,得到所述多个备选神经网络的性能参数;从所述多个备选神经网络中选择性能参数指示的性能最好的备选神经网络作为所述第二初始神经网络。
在一些实施例中,所述停止迭代条件包括以下至少一项:
对神经网络已进行的迭代训练的次数等于预设迭代次数;
所述第二初始神经网络的性能达到目标性能。
在一些实施例中,所述多个第一损失函数不同于所述多个第二损失函数。
根据本公开实施例的第二方面,提供一种图像处理方法,包括:获取图像;利用目标神经网络处理所述图像,得到图像处理结果,其中,所述目标神经网络是根据第一方面任一项所述的方法训练得到的。
根据本公开实施例的第三方面,提供一种神经网络训练装置,所述装置包括:迭代训练模块,被配置为根据多个第一损失函数分别对第一初始神经网络进行当前迭代训练,得到多个备选神经网络;选择模块,被配置为从所述多个备选神经网络中选择第二初始神经网络;第一确定模块,被配置为基于多个第二损失函数对所述第二初始神经网络进行下一迭代训练,得到目标神经网络。
在一些实施例中,所述第一确定模块包括:确定子模块,被配置为响应于未达到停止迭代条件,基于多个第二损失函数对所述第二初始神经网络进行下一迭代训练,得到目标神经网络。
在一些实施例中,所述装置还包括:第二确定模块,被配置为响应于达到停止迭代条件,将所述第二初始神经网络作为所述目标神经网络。
在一些实施例中,所述多个第一损失函数是通过在初始损失函数中插入至少两个线性函数得到的,其中,所述多个第一损失函数中不同的第一损失函数对应的所述至少两个线性函数具有不同的参数值。
在一些实施例中,所述第一损失函数是基于至少两个分段线性函数得到的;所述装置还包括:采样模块,被配置为在M个预设分段区间进行多次采样,得到所述至少两个分段线性函数的多组参数值,其中,每组参数值包括从所述M个预设分段区间中每个预设分段区间采样得到的参数值;第三确定模块,被配置为基于所述多组参数值,得到所述多个第一损失函数。
在一些实施例中,所述迭代训练模块包括:执行子模块,被配置为利用所述第一初始神经网络对样本图像进行处理,得到样本图像处理结果;训练子模块,被配置为基于所述样本图像处理结果和所述多个第一损失函数中的每个第一损失函数,对所述第一初始神经网络的网络参数进行调整,得到与所述每个第一损失函数对应的备选神经网络。
在一些实施例中,所述选择模块包括:
选择子模块,被配置为基于所述多个备选神经网络的性能,从所述多个备选神经网络中选取第二初始神经网络。
在一些实施例中,所述选择子模块包括:性能测试单元,被配置为利用测试图像集对所述多个备选神经网络进行性能测试,得到所述多个备选神经网络的性能参数;选择单元,被配置为从所述多个备选神经网络中选择性能参数指示的性能最好的备选神经网络作为所述第二初始神经网络。
在一些实施例中,所述停止迭代条件包括以下至少一项:对神经网络已进行的迭代训练的次数等于预设迭代次数;所述第二初始神经网络的性能达到目标性能。
在一些实施例中,所述多个第一损失函数不同于所述多个第二损失函数。
根据本公开实施例的第四方面,提供一种图像处理装置,包括:图像获取模块,被配置为获取图像;图像处理模块,被配置为利用目标神经网络处理所述图像,得到图像处理结果,其中,所述目标神经网络是根据第一方面任一项所述的方法训练得到的。
根据本公开实施例的第五方面,提供一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述第一方面任一所述的神经网络训练方法。
根据本公开实施例的第六方面,提供一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述第二方面所述的图像处理方法。
根据本公开实施例的第七方面,提供一种神经网络训练装置,所述装置包括:处理器;用于存储所述处理器可执行指令的存储器;其中,所述处理器被配置为调用所述存储器中存储的可执行指令,实现第一方面任一项所述的神经网络训练方法。
根据本公开实施例的第八方面,提供一种图像处理装置,所述装置包括:处理器;用于存储所述处理器可执行指令的存储器;其中,所述处理器被配置为调用所述存储器中存储的可执行指令,实现第二方面所述的图像处理方法。
本公开的实施例提供的技术方案可以实现以下有益效果:
本公开实施例中,可以根据多个第一损失函数分别对第一初始神经网络进行当前迭代训练,从训练后得到的多个备选CNN中选择第二初始神经网络,进一步地,再基于多个第二损失函数对第二初始神经网络进行下一迭代训练,最终得到所需要的目标神经网络,提升了训练得到的神经网络的性能。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据本公开实施例的神经网络训练方法的一个示例的流程图;
图2是根据本公开实施例的神经网络训练方法的另一个示例的流程图;
图3是根据本公开实施例的神经网络训练方法的另一个示例的流程图;
图4是根据本公开实施例的神经网络训练方法的一个应用场景示例的示意图;
图5是根据本公开实施例的一种确定模型超参数的方法的一个示例的框架图;
图6是根据本公开实施例的图像处理方法的一个示例的流程图;
图7是根据本公开实施例的神经网络训练装置的一个示例的框图;
图8是根据本公开实施例的神经网络训练装置的另一个示例的框图;
图9是根据本公开实施例的神经网络训练装置的另一个示例的框图;
图10是根据本公开实施例的神经网络训练装置的另一个示例的框图;
图11是根据本公开实施例的神经网络训练装置的另一个示例的框图;
图12是根据本公开实施例的神经网络训练装置的另一个示例的框图;
图13是根据本公开实施例的神经网络训练装置的另一个示例的框图;
图14是根据本公开实施例的图像处理装置的一个示例的框图;
图15是根据本公开实施例的神经网络训练装置的另一个示例的结构示意图;
图16是根据本公开实施例的图像处理装置的另一个示例的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在本公开运行的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所运行的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中运行的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所运行的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
本公开实施例提供了一种神经网络训练方法,可以应用于神经网络的训练平台,例如云训练平台或端训练平台,其中,该训练平台可以包括一个或多个设备,相应地,神经网络训练方法可以由云端设备、网络设备或终端设备等执行,本公开实施例对此不做限定。为了便于理解,下面以训练方法由训练设备为例进行描述。
本公开实施例中,基于设计合理的搜索空间以及采用高效的搜索方式,自动化搜索合理的损失函数,能够提高训练得到的神经网络的性能。
具体地,在一些实施例中,通过一个迭代训练流程完成对神经网络的训练,其中,在该迭代训练流程中通过多个路径并行地进行神经网络的迭代训练,不同路径采用不同的损失函数。
在一些实施例中,迭代训练流程包括多次迭代,其中,在每次迭代中,训练设备获取多个路径中每个路径采用的损失函数,并基于该损失函数进行该迭代的初始神经网络的网络参数调整,得到更新后的神经网络,称为备选神经网络。
训练设备从多个路径得到的备选神经网络中选取一个神经网络作为下一迭代的初始神经网络,例如,将选取的神经网络的网络参数分发到其他路径然后类似地进行下一迭代,直到达到停止迭代条件。例如,直到迭代次数达到预设次数为止,或者直到得到的神经网络的性能满足期望性能为止,等等。
如图1所示,图1示出了根据本公开实施例的神经网络训练方法的一个例子。
在101中,根据多个第一损失函数分别对第一初始神经网络进行当前迭代训练,得到多个备选神经网络。
训练设备获取当前迭代的多个第一损失函数,并基于该多个第一损失函数并行地对第一初始神经网络进行网络参数的调整。
训练设备将第一初始神经网络复制多个,并基于不同的第一损失函数分别对多个第一初始神经网络进行当前迭代训练,得到于当前迭代训练对应的多个备选神经网络。
在一些实施例中,在每个路径中,利用第一初始神经网络对样本图像集中的至少一个样本图像或一批样本图像进行处理,得到样本图像的处理结果,并基于样本图像的处理结果和批注信息以及该路径采用的第一损失函数,得到该路径的网络损失值,并基于该网络损失值进行网络参数的调整,得到该路径的备选神经网络。其中,将样本图像的处理结果和批注信息作为第一损失函数的输入参数,得到网络损失值,可选地,也可以采用其他参数作为第一损失函数的输入参数,例如,可以将样本图像的特征信息作为第一损失函数的输入参数,等等,本公开实施例对此不做限定。
在102中,从所述多个备选神经网络中选择第二初始神经网络。
训练设备可以在当前迭代训练得到的多个备选神经网络中,选择一个作为下一迭代的初始神经网络,即第二初始神经网络。这样,每次迭代中,多个路径具有相同的初始神经网络。
在一些实施例中,将其他路径中的备选神经网络的网络参数更新为选取的备选神经网络的网络参数,以使得多个路径中的备选神经网络具有相同的网络参数,即多个路径的备选神经网络更新为选取的备选神经网络。
在一些实施例中,训练设备包括多个线程来执行该训练方法,其中,每个路径可以由一个或多个线程执行,其中被选取的神经网络所在路径的执行线程可以将该备选神经网络的网络参数分发到其他路径的线程,其他路径的线程随后基于接收到的网络参数进行网络参数的更新,但本公开实施例对此不做限定。
在103中,基于多个第二损失函数对所述第二初始神经网络进行下一迭代训练,得到目标神经网络。
训练设备可以将选取的第二初始神经网络的网络参数分发到所有路径,然后采用与以上流程类似的方式进行下一迭代,直到达到停止迭代条件,从而可以训练得到目标神经网络。
在一些可选实施例中,得到的目标神经网络可以用于执行不同的机器视觉任务,例如图像分类、行人重识别、人脸识别等,本公开对此不作限定。
在上述实施例中,可以根据多个第一损失函数分别对第一初始神经网络进行当前迭代训练,从训练后得到的多个备选CNN中选择第二初始神经网络,进一步地,再基于多个第二损失函数对第二初始神经网络进行下一的迭代训练,最终得到所需要的目标神经网络。通过上述方式得到的目标神经网络在平衡类内距离和/或类间距离,以及平衡难易样本等性能方面,都有显著提升。
在一些可选实施例中,可以先确定初始损失函数,并在初始损失函数中插入至少两个基于超参数的函数,从而得到机器学习模型的目标损失函数。这样,在每次迭代训练时,可以通过超参数进行多次采样,得到多个路径的损失函数。
其中,初始损失函数可以具有多种形式,例如L1损失、L2损失、Softmax损失等等。下面以初始损失函数L是如公式1所示的Softmax损失函数为例进行描述:
Figure BDA0002054621470000091
其中,N是样本图像集合中包含的图像数量,xi和yi代表第i个输入图像的特征信息和所属类别的编号,fj为向量集合f中的第j个元素,j∈[1,C],C是类别的总数。
在一些实施例中,f为全连接层W的激活,则本公开实施例中,可以进一步通过
Figure BDA0002054621470000092
来表示fj,如公式2所示:
fj=||Wj||||xi||cos(θj) 公式2
其中,Wj是W的第j行,θj是矢量Wj和矢量xi之间的夹角,且0≤θj≤π。
进一步地,如果Wj或xi被归一化,则||Wj||=1或||xi||=1,公式1中的Li可以表示为以下公式3所示:
Figure BDA0002054621470000093
本公开实施例中,可以在公式3中插入一个或多个函数以对上述Softmax损失函数进行变形,其中,可以通过一个或多个变量。在一些例子中,在上述softmax损失函数中的至少两个位置插入函数,得到用于训练机器学习模型的目标损失函数,其中,插入的函数可以具有各种可能的形式,本公开实施例对此不做限定。
在一些实施例中,在初始损失函数中插入的函数为线性分段函数。下面仅以在两个目标位置插入两个线性分段函数τ和t为例进行说明。损失函数
Figure BDA00020546214700001013
如公式4所示:
Figure BDA0002054621470000101
其中,
Figure BDA0002054621470000102
可以如公式5所示:
Figure BDA0002054621470000103
可选地,公式4还可以表示为公式6:
Figure BDA0002054621470000104
其中,
Figure BDA0002054621470000105
本公开实施例中可以采用公式6作为第一损失函数。
两个线性分段函数τ和t可以分别表示为公式7和公式8:
Figure BDA0002054621470000106
Figure BDA0002054621470000107
其中,
Figure BDA0002054621470000108
分别为两个分段函数德尔斜率值和截距值。在迭代训练过程中,可以对这些超参数进行采样,得到每个路径的损失函数。xt的取值范围为[-1,1],
Figure BDA0002054621470000109
其中,
Figure BDA00020546214700001010
是xt取值范围区间的起点,M是预设分段区间的数目,
Figure BDA00020546214700001011
同样地,xτ的取值范围为[0,1],
Figure BDA00020546214700001012
可选地,在本公开实施例中,M的取值可以是[3,12]中的任意一个整数值。其中,使用基于SphereReID基线的AM-LFS的reID数据集模型,在测试集Market-1501和DukeMTMC-reID上的测试结果如表1所示。
表1
测试集 M=3 M=6 M=10
Market-1501 83.8 84.4 84.2
DukeMTMC-reID 68.6 69.8 69.5
通过表1可以得出,M=6时的效果好于M=3和M=10的效果,但本公开实施例对此不做限定。
在一些实施例中,训练设备可以在M个预设分段区间中的每个预设分段区域采样,得到所述至少两个分段线性函数的一组参数值,并基于该组参数值得到一个路径在一次迭代中的损失函数。以上采样过程可以进行多次,以得到多个路径的损失函数。
可选地,可以基于高斯分布或其他类型的分布进行采样,本公开实施例对此不做限定。
本公开实施例中,可以基于多次采样得到的多组参数值,得到多个第一损失函数。
例如,在两个线性分段函数τ和t所对应的M个预设分段区间中的每个预设分段区间内,分别对τ和t的斜率值和截距值
Figure BDA0002054621470000111
进行一次采样,得到一组对应每个预设分段区间的τ和t的斜率值和截距值。在采样过程中,可以对每个参数值进行独立采样,或者对多个参数值进行联合采样,本公开对此不作限定。
再次在每个预设分段区间内,分别对τ和t的斜率值和截距值进行一次采样,得到下一组对应每个预设分段区间的τ和t的斜率值和截距值,重复多次,得到多组参数值。
在本公开实施例中,对
Figure BDA0002054621470000112
进行采样的采样次数B可以为[8,64]中的任意一个整数值。例如,B可以为32,但本公开实施例对此不做限定。
每次采样得到的一组参数值可以对应一个第一损失函数,最终得到多个第一损失函数。
在一些可选实施例中,在确定了多个第一损失函数之后,例如图2所示,101可以包括:
在101-1中,利用所述第一初始神经网络对样本图像进行处理,得到样本图像处理结果;
训练设备可以先利用第一初始神经网络对样本图像进行处理,得到样本图像处理结果。
在101-2中,基于所述样本图像处理结果和所述多个第一损失函数中的每个第一损失函数,对所述第一初始神经网络的网络参数进行调整,得到与所述每个第一损失函数对应的备选神经网络。
训练设备可以将基于样本图像的处理结果和批注信息以及该路径采用的相应的第一损失函数,得到该路径的网络损失值,并基于该网络损失值进行网络参数的调整,得到该路径的备选神经网络。其中,第一损失函数采用上述实施例提供的方式得到,且每个第一损失函数对应一个路径。
将样本图像的处理结果和批注信息作为第一损失函数的输入参数,得到网络损失值,可选地,也可以采用其他参数作为第一损失函数的输入参数,例如,可以将样本图像的特征信息作为第一损失函数的输入参数,等等,本公开实施例对此不做限定。
在一些可选实施例中,针对上述102,训练设备可以基于101得到的多个备选神经网络各自对应的性能,从所述多个备选神经网络中选取第二初始神经网络。
例如图3所示,102可以包括:
在102-1中,利用测试图像集对所述多个备选神经网络进行性能测试,得到所述多个备选神经网络的性能参数;
训练设备可以采用训练图像集对之前确定的多个备选神经网络进行性能测试,得到每个备选神经网络的性能参数,可选地,训练图像集包括至少一个图像,性能参数可以是类内距离和/或类间距离、训练图像集中难易样本平衡程度等。
在102-2中,从所述多个备选神经网络中选择性能参数指示的性能最好的备选神经网络作为所述第二初始神经网络。
训练设备可以基于上述流程确定的每个备选神经网络的性能参数,选择性能参数指示的性能最好的备选神经网络作为所述第二初始神经网络。
在一些可选实施例中,针对上述103,训练设备可以在检测到当前未达到停止迭代条件时,基于多个第二损失函数再次对多个第二初始神经网络进行下一迭代训练,以便得到目标神经网络。
其中,确定多个第二损失函数的方式与上述101中确定多个第一损失函数的方式相同,在此不再赘述。在一些可选实施例中,多个第二损失函数不同于多个第一损失函数。在基于多个第二损失函数对多个第二初始神经网络进行训练时,采用不同的样本图像进行迭代训练,训练方式与101的训练方式相同,在此不再赘述。
如果基于多个第二损失函数再次对多个第二初始神经网络进行下一迭代训练之后,仍未达到停止迭代条件,则再次进行下一迭代训练,直到达到停止迭代条件。
在一些可选实施例中,停止迭代条件包括:对神经网络已进行的迭代训练的次数等于预设迭代次数,和所述第二初始神经网络的性能达到目标性能中的至少一项。
在本公开实施例中,如果在某次迭代训练之后,达到停止迭代条件,则可以将此次迭代训练得到的第二初始神经网络作为训练得到的目标神经网络。
图4示出了本公开实施例的模型训练方法的一个示例,其中,仅示出了多次迭代中的一次迭代,下面称为当前迭代。在如图4所示的例子中,机器设备可以采用公式6所示的第一损失函数,在M个预设分段区间对两个分段线性函数各自对应的斜率和截距进行多次采样,每组参数值包括从所述M个预设分段区间中每个预设分段区间采样得到的斜率值和截距值,基于多次采样得到的多组斜率值和截距值,得到多个第一损失函数L0、L1……LB,每个损失函数用于一个路径的当前迭代。
基于多个第一损失函数L0、L1……LB并行地对第一初始神经网络进行迭代训练,得到多个备选神经网络
Figure BDA0002054621470000141
利用测试图像集对多个备选神经网络
Figure BDA0002054621470000142
进行性能测试,得到每个备选神经网络对应的性能参数R0、R1……RB。选择性能参数指示的性能最好的备选神经网络作为第二初始神经网络。
如果当前未达到停止迭代条件,则可以将第二初始神经网络作为下一迭代的初始神经网络,并类似地进行下一迭代训练。
具体地,训练设备可以再次基于公式6进行多次采样得到多个第二损失函数。基于多个第二损失函数,通过多个路径并行地对多个第二初始神经网络进行模型参数的调整。
重复上述迭代训练过程,直到达到停止迭代条件,并将最后一次迭代得到的第二神经网络作为训练得到的目标神经网络。
例如采用AM-LFS算法,初始化模型
Figure BDA0002054621470000143
初始化分布μ0,总训练时长T,分布学习率为η。输出目标模型
Figure BDA0002054621470000144
对于t=1到T,按照分布N(μtI)做采样次数B的超参数θ1,…θB
Figure BDA0002054621470000145
分别得到一个训练周期内的
Figure BDA0002054621470000146
模型
Figure BDA0002054621470000147
分别确定对应的性能参数R(θ1),…R(θB)。确定性能参数指示的性能最好的模型的索引为i=argmaxjR(θj)。
采用以下公式9更新μt+1
Figure BDA0002054621470000148
其中,g(θ;μ,σ)满足高斯分布。
进一步,更新
Figure BDA0002054621470000149
重复执行上述过程,直到确定目标
Figure BDA00020546214700001410
在一些可选实施例中,图5示出了本公开提供的一种确定模型超参数的方法的应用示例的框架图,该系统采用的是一种在线优化的双层架构,通过该双层架构可以使得分段线性函数τ和t能够与网络参数同时进行优化。其中,所述的双层架构中包括参数管理服务器11和控制器12。参数管理服务器11负责存储和更新分段线性函数τ和t,并基于分段线性函数τ和t得到分段线性函数τ和t各自对应的斜率和截距
Figure BDA0002054621470000151
的概率分布P(θ)。控制器12中可以包括一组待训练的网络(Network),假设共有N个网络,例如,该N可以是4至16中的任一数值。所述网络的网络结构本公开不限制,例如可以是CNN(Convolutional Neural Networks,卷积神经网络)。
可以将参数管理服务器11和控制器12的整体作为一个外环(Outer Loop),该外环以强化学习的方式运行。外环可以迭代T个时间步(time step)来更新参数管理服务器11维护的分段线性函数τ和t,两个分段线性函数τ和t作为一个超参数,更新两个分段线性函数τ和t可以作为参数管理服务器11在强化学习训练过程中的行为(action)。而将控制器12基于两个分段线性函数τ和t训练得到的网络在验证集上的准确率作为强化学习训练过程中的返回奖赏值(Reward),根据该Reward进行两个分段线性函数τ和t的更新,迭代T个时间步后以实现Reward的最优化,即准确率最高是强化学习的目标方向。所述的T=1,2,……Tmax。
而控制器12中的N个待训练的网络,可以作为内环(Inner Loop),该N个网络可以并行运行。每一个网络的训练可以是基于参数管理服务器11在外环更新两个分段线性函数τ和t采样使用的斜率和截距
Figure BDA0002054621470000152
并基于更新后的分段线性函数τ和t所确定的多个第一损失函数进行网络训练。网络参数的训练可以使用随机梯度下降法(SGD,Stochastic gradient descent)。每个网络可以迭代i次(i=1,2,…I),并将迭代i次的网络在验证集上的准确率作为上述的返回奖赏值Reward,用于更新两个分段线性函数τ和t。
该系统采用的是一种在线优化的双层架构,通过该双层架构可以使得两个分段线性函数τ和t能够与网络参数同时进行优化。其中,所述的双层架构中包括参数管理服务器11和控制器12。参数管理服务器11负责存储和更新两个分段线性函数τ和t,并基于两个分段线性函数τ和t得到分段线性函数τ和t各自对应的斜率和截距
Figure BDA0002054621470000161
的概率分布。控制器12中可以包括一组待训练的网络(Network),假设共有N个网络,例如,该N可以是4至16中的任一数值。所述网络的网络结构本公开不限制,例如可以是CNN(Convolutional Neural Networks,卷积神经网络)。
可以将参数管理服务器11和控制器12的整体作为一个外环(Outer Loop),该外环以强化学习的方式运行。外环可以迭代T个时间步(time step)来更新参数管理服务器11维护的两个分段线性函数τ和t,两个分段线性函数τ和t作为一个超参数,更新两个分段线性函数τ和t可以作为参数管理服务器11在强化学习训练过程中的行为(action)。而将控制器12基于两个分段线性函数τ和t训练得到的网络在验证集上的准确率作为强化学习训练过程中的返回奖赏值(Reward),根据该Reward进行两个分段线性函数τ和t的更新,迭代T个时间步后以实现Reward的最优化,即准确率最高是强化学习的目标方向。所述的T=1,2,……Tmax。
而控制器12中的N个待训练的网络,可以作为内环(Inner Loop),该N个网络可以并行运行。每一个网络的训练可以是基于参数管理服务器11在外环更新的两个分段线性函数τ和t采样使用的斜率和截距
Figure BDA0002054621470000162
并基于更新后的分段线性函数τ和t所确定的多个第二损失函数进行网络训练。网络参数的训练可以使用随机梯度下降法(SGD,Stochastic gradient descent)。每个网络可以迭代i次(i=1,2,…I),并将迭代i次的网络在验证集上的准确率作为上述的返回奖赏值Reward,用于更新两个分段线性函数τ和t。
在一些可选实施例中,与使用ResNet50的Market-1501测试集上的最新方法进行比较,显示得到的mAP,rank1和rank5如表2所示。其中,RK指的是执行重排序操作。ours指本公开实施例提供的方法。
表2
Figure BDA0002054621470000171
这样,可以确定多个损失函数,使得训练过程中损失函数可变,且损失函数无需人工设计,对应的搜索空间更大,更合理。进一步地,最终确定的目标神经网络性能更好。
应理解,图4所示的例子仅用于帮助本领域技术人员更好地理解本公开实施例,而非限定,本领域普通技术人员可以基于图4的例子进行各种变形和替换。
如图6所示,本公开实施例还提供了一种图像处理方法。该方法可以由图像处理设备执行,其中,该图像处理设备可以为云端设备、终端设备或网络设备等,本公开实施例对此不做限定。
在201中,获取图像;
图像处理设备可以获取机器视觉任务中拍摄得到的图像。
在202中,利用目标神经网络处理所述图像,得到图像处理结果,其中,所述目标神经网络是根据上述任意实施例方法训练得到的。
图像处理设备可以采用上述实施例提供的目标神经网络对获取到的图像进行处理,得到所需要的图像处理结果。
上述实施例中,通过目标神经网络处理后的图像,在平衡类内距离和/或类间距离,以及平衡难易样本等性能方面,都有显著提升。
与前述方法实施例相对应,本公开还提供了装置的实施例。
如图7所示,图7是本公开一些实施例提供的一种神经网络训练装置框图,装置包括:
迭代训练模块310,被配置为根据多个第一损失函数分别对第一初始神经网络进行当前迭代训练,得到多个备选神经网络;
选择模块320,被配置为从所述多个备选神经网络中选择第二初始神经网络;
第一确定模块330,被配置为基于多个第二损失函数对所述第二初始神经网络进行下一迭代训练,得到目标神经网络。
在一些可选实施例中,例如图8所示,所述第一确定模块330包括:
确定子模块331,被配置为响应于未达到停止迭代条件,基于多个第二损失函数对所述第二初始神经网络进行下一迭代训练,得到目标神经网络。
在一些可选实施例中,例如图9所示,所述装置还包括:
第二确定模块340,被配置为响应于达到停止迭代条件,将所述第二初始神经网络作为所述目标神经网络。
在一些可选实施例中,所述多个第一损失函数是通过在初始损失函数中插入至少两个线性函数得到的,其中,所述多个第一损失函数中不同的第一损失函数对应的所述至少两个线性函数具有不同的参数值。
在一些可选实施例中,所述第一损失函数是基于至少两个分段线性函数得到的;
例如图10所示,所述装置还包括:
采样模块350,被配置为在M个预设分段区间进行多次采样,得到所述至少两个分段线性函数的多组参数值,其中,每组参数值包括从所述M个预设分段区间中每个预设分段区间采样得到的参数值;
第三确定模块360,被配置为基于所述多组参数值,得到所述多个第一损失函数。
在一些可选实施例中,例如图11所示,所述迭代训练模块310包括:
执行子模块311,被配置为利用所述第一初始神经网络对样本图像进行处理,得到样本图像处理结果;
训练子模块312,被配置为基于所述样本图像处理结果和所述多个第一损失函数中的每个第一损失函数,对所述第一初始神经网络的网络参数进行调整,得到与所述每个第一损失函数对应的备选神经网络。
在一些可选实施例中,例如图12所示,所述选择模块320包括:
选择子模块321,被配置为基于所述多个备选神经网络的性能,从所述多个备选神经网络中选取第二初始神经网络。
在一些可选实施例中,例如图13所示,所述选择子模块321包括:
性能测试单元3211,被配置为利用测试图像集对所述多个备选神经网络进行性能测试,得到所述多个备选神经网络的性能参数;
选择单元3212,被配置为从所述多个备选神经网络中选择性能参数指示的性能最好的备选神经网络作为所述第二初始神经网络。
在一些可选实施例中,所述停止迭代条件包括以下至少一项:
对神经网络已进行的迭代训练的次数等于预设迭代次数;
所述第二初始神经网络的性能达到目标性能。
在一些可选实施例中,所述多个第一损失函数不同于所述多个第二损失函数。
如图14所示,图14是本公开一些实施例提供的一种图像处理装置,装置包括:
图像获取模块410,被配置为获取图像;
图像处理模块420,被配置为利用目标神经网络处理所述图像,得到图像处理结果,其中,所述目标神经网络是根据上述实施例中任一项所述的神经网络训练方法训练得到的。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本公开实施例还提供了一种计算机可读存储介质,存储介质存储有计算机程序,计算机程序用于执行上述任一的神经网络训练方法。
本公开实施例还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述所述的图像处理方法。
本公开实施例还提供了一种神经网络训练装置,所述装置包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器中存储的可执行指令,实现上述任一项所述的神经网络训练方法。
如图15所示,图15是一些实施例提供的一种神经网络训练装置1500的一结构示意图。例如,装置1500可以被提供为一神经网络训练装置。参照图15,装置1500包括处理组件1522,其进一步包括一个或多个处理器,以及由存储器1532所代表的存储器资源,用于存储可由处理部件1522的执行的指令,例如应用程序。存储器1532中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1522被配置为执行指令,以执行上述任一的神经网络训练方法。
装置1500还可以包括一个电源组件1526被配置为执行装置1500的电源管理,一个有线或无线网络接口1550被配置为将装置1500连接到网络,和一个输入输出(I/O)接口1558。装置1500可以操作基于存储在存储器1532的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeB SDTM或类似。
本公开实施例还提供了一种图像处理装置,所述装置包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器中存储的可执行指令,实现上述所述的图像处理方法。
如图16所示,图16是一些实施例提供的一种图像处理装置1600的一结构示意图。例如,装置1600可以被提供为一图像处理装置。参照图16,装置1600包括处理组件1622,其进一步包括一个或多个处理器,以及由存储器1632所代表的存储器资源,用于存储可由处理部件1622的执行的指令,例如应用程序。存储器1632中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1622被配置为执行指令,以执行上述任一的图像处理方法。
装置1600还可以包括一个电源组件1626被配置为执行装置1600的电源管理,一个有线或无线网络接口1650被配置为将装置1600连接到网络,和一个输入输出(I/O)接口1658。装置1600可以操作基于存储在存储器1632的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeB SDTM或类似。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或者惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
以上所述仅为本公开的较佳实施例而已,并不用以限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开保护的范围之内。

Claims (13)

1.一种对象识别方法,其特征在于,所述方法包括:
获取图像和目标神经网络;其中,所述目标神经网络采用以下方式得到:训练设备基于样本图像集,根据多个第一损失函数分别利用多个计算机线程对第一初始神经网络进行当前迭代训练,得到多个备选神经网络;所述训练设备从所述多个备选神经网络中选择第二初始神经网络,并通过第二初始神经网络的计算机线程将所述第二初始神经网络的网络参数分发至其它计算机线程;所述训练设备利用所述样本图像集,基于多个第二损失函数对所述第二初始神经网络进行下一迭代训练,得到目标神经网络;所述图像包括至少一个待识别对象,所述样本图像集为包括待识别对象图像的数据集;
利用目标神经网络处理所述图像,得到所述待识别对象的对象识别结果。
2.根据权利要求1所述的方法,其特征在于,所述基于多个第二损失函数对所述第二初始神经网络进行下一迭代训练,得到目标神经网络,包括:
响应于未达到停止迭代条件,基于多个第二损失函数对所述第二初始神经网络进行下一迭代训练,得到目标神经网络。
3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
响应于达到停止迭代条件,将所述第二初始神经网络作为所述目标神经网络。
4.根据权利要求1所述的方法,其特征在于,所述多个第一损失函数是通过在初始损失函数中插入至少两个线性函数得到的,其中,所述多个第一损失函数中不同的第一损失函数对应的所述至少两个线性函数具有不同的参数值。
5.根据权利要求1所述的方法,其特征在于,所述第一损失函数是基于至少两个分段线性函数得到的;
所述方法还包括:
在M个预设分段区间进行多次采样,得到所述至少两个分段线性函数的多组参数值,其中,每组参数值包括从所述M个预设分段区间中每个预设分段区间采样得到的参数值;
基于所述多组参数值,得到所述多个第一损失函数。
6.根据权利要求1所述的方法,其特征在于,所述根据多个第一损失函数分别利用多个计算机线程对第一初始神经网络进行当前迭代训练,得到多个备选神经网络,包括:
利用所述第一初始神经网络对样本图像进行处理,得到样本图像处理结果;
基于所述样本图像处理结果和所述多个第一损失函数中的每个第一损失函数,对所述第一初始神经网络的网络参数进行调整,得到与所述每个第一损失函数对应的备选神经网络。
7.根据权利要求1所述的方法,其特征在于,所述从所述多个备选神经网络中选择第二初始神经网络,包括:
基于所述多个备选神经网络的性能,从所述多个备选神经网络中选取第二初始神经网络。
8.根据权利要求7所述的方法,其特征在于,所述基于所述多个备选神经网络的性能,从所述多个备选神经网络中选择第二初始神经网络,包括:
利用测试图像集对所述多个备选神经网络进行性能测试,得到所述多个备选神经网络的性能参数;
从所述多个备选神经网络中选择性能参数指示的性能最好的备选神经网络作为所述第二初始神经网络。
9.根据权利要求2所述的方法,其特征在于,所述停止迭代条件包括以下至少一项:
对神经网络已进行的迭代训练的次数等于预设迭代次数;
所述第二初始神经网络的性能达到目标性能。
10.根据权利要求1所述的方法,其特征在于,所述多个第一损失函数不同于所述多个第二损失函数。
11.一种对象识别装置,其特征在于,所述装置包括:
图像获取模块,被配置为获取图像;所述图像包括至少一个待识别对象;
图像处理模块,被配置为利用目标神经网络处理所述图像,得到所述待识别对象的对象识别结果;其中,所述目标神经网络采用以下方式得到:训练设备基于样本图像集,根据多个第一损失函数分别利用多个计算机线程对第一初始神经网络进行当前迭代训练,得到多个备选神经网络;所述训练设备从所述多个备选神经网络中选择第二初始神经网络,并通过第二初始神经网络的计算机线程将所述第二初始神经网络的网络参数分发至其它计算机线程;所述训练设备利用所述样本图像集,基于多个第二损失函数对所述第二初始神经网络进行下一迭代训练,得到目标神经网络;其中,所述样本图像集为包括待识别对象图像的数据集。
12.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-10任一所述的方法。
13.一种图像处理装置,其特征在于,所述装置包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器中存储的可执行指令,实现权利要求1至10任一项所述的方法。
CN201910385218.6A 2019-05-09 2019-05-09 神经网络训练、图像处理方法及装置、存储介质 Active CN110135582B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910385218.6A CN110135582B (zh) 2019-05-09 2019-05-09 神经网络训练、图像处理方法及装置、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910385218.6A CN110135582B (zh) 2019-05-09 2019-05-09 神经网络训练、图像处理方法及装置、存储介质

Publications (2)

Publication Number Publication Date
CN110135582A CN110135582A (zh) 2019-08-16
CN110135582B true CN110135582B (zh) 2022-09-27

Family

ID=67577024

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910385218.6A Active CN110135582B (zh) 2019-05-09 2019-05-09 神经网络训练、图像处理方法及装置、存储介质

Country Status (1)

Country Link
CN (1) CN110135582B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110610140B (zh) * 2019-08-23 2024-01-19 平安科技(深圳)有限公司 人脸识别模型的训练方法、装置、设备及可读存储介质
CN110807515B (zh) * 2019-10-30 2023-04-28 北京百度网讯科技有限公司 模型生成方法和装置
CN113111996A (zh) * 2020-01-10 2021-07-13 北京百度网讯科技有限公司 模型生成方法和装置
CN111613287B (zh) * 2020-03-31 2023-08-04 武汉金域医学检验所有限公司 基于Glow网络的报告单编码模型生成方法、系统和设备
CN111598237A (zh) * 2020-05-21 2020-08-28 上海商汤智能科技有限公司 量化训练、图像处理方法及装置、存储介质
CN111598182B (zh) * 2020-05-22 2023-12-01 北京市商汤科技开发有限公司 训练神经网络及图像识别的方法、装置、设备及介质
CN112001491A (zh) * 2020-07-27 2020-11-27 三星(中国)半导体有限公司 针对处理器确定神经网络架构的搜索方法和装置
CN112562069B (zh) * 2020-12-24 2023-10-27 北京百度网讯科技有限公司 三维模型的构造方法、装置、设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574585A (zh) * 2015-12-14 2016-05-11 四川长虹电器股份有限公司 基于多线程互斥的神经网络模型的样本训练方法
CN108256555A (zh) * 2017-12-21 2018-07-06 北京达佳互联信息技术有限公司 图像内容识别方法、装置及终端
CN108647665A (zh) * 2018-05-18 2018-10-12 西安电子科技大学 基于深度学习的航拍车辆实时检测方法
CN109376615A (zh) * 2018-09-29 2019-02-22 苏州科达科技股份有限公司 用于提升深度学习网络预测性能的方法、装置及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103745273B (zh) * 2014-01-06 2017-01-18 北京化工大学 一种半导体制造过程的多性能预测方法
CN105335790A (zh) * 2014-06-27 2016-02-17 上海电机学院 风电功率超短期预测方法
CN109033921A (zh) * 2017-06-08 2018-12-18 北京君正集成电路股份有限公司 一种识别模型的训练方法和装置
CN107330074B (zh) * 2017-06-30 2020-05-26 中国科学院计算技术研究所 基于深度学习和哈希编码的图像检索方法
CN107403415B (zh) * 2017-07-21 2021-04-09 深圳大学 基于全卷积神经网络的压缩深度图质量增强方法及装置
CN107563280A (zh) * 2017-07-24 2018-01-09 南京道熵信息技术有限公司 基于多模型的人脸识别方法和装置
CN108229291A (zh) * 2017-07-28 2018-06-29 北京市商汤科技开发有限公司 特征点检测、网络训练方法、装置、电子设备和存储介质
CN108875559B (zh) * 2018-04-27 2021-04-13 中国科学院自动化研究所 基于证件照与现场照的人脸识别方法及系统
CN108960167B (zh) * 2018-07-11 2023-08-18 腾讯科技(深圳)有限公司 发型识别方法、装置、计算机可读存储介质和计算机设备
CN109241139B (zh) * 2018-08-31 2023-05-26 联想(北京)有限公司 数据处理方法、逻辑模型系统以及数据处理系统
CN109635920B (zh) * 2018-11-12 2021-09-03 北京市商汤科技开发有限公司 神经网络优化方法及装置、电子设备和存储介质
CN109670501B (zh) * 2018-12-10 2020-08-25 中国科学院自动化研究所 基于深度卷积神经网络的物体识别与抓取位置检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574585A (zh) * 2015-12-14 2016-05-11 四川长虹电器股份有限公司 基于多线程互斥的神经网络模型的样本训练方法
CN108256555A (zh) * 2017-12-21 2018-07-06 北京达佳互联信息技术有限公司 图像内容识别方法、装置及终端
CN108647665A (zh) * 2018-05-18 2018-10-12 西安电子科技大学 基于深度学习的航拍车辆实时检测方法
CN109376615A (zh) * 2018-09-29 2019-02-22 苏州科达科技股份有限公司 用于提升深度学习网络预测性能的方法、装置及存储介质

Also Published As

Publication number Publication date
CN110135582A (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
CN110135582B (zh) 神经网络训练、图像处理方法及装置、存储介质
CN111126564B (zh) 一种神经网络结构搜索方法、装置及设备
US11276002B2 (en) Hybrid training of deep networks
JP6483667B2 (ja) ベイズの最適化を実施するためのシステムおよび方法
Alain et al. Variance reduction in sgd by distributed importance sampling
CN108563710B (zh) 一种知识图谱构建方法、装置及存储介质
CN111507419B (zh) 图像分类模型的训练方法及装置
CN110046706B (zh) 模型生成方法、装置及服务器
CN106796533B (zh) 自适应地选择执行模式的系统和方法
KR20160037022A (ko) 부스트 풀링 뉴럴 네트워크 기반의 데이터 분류 장치 및 그 데이터 분류 장치를 위한 뉴럴 네트워크 학습 방법
CN109583594B (zh) 深度学习训练方法、装置、设备及可读存储介质
CN110135505B (zh) 图像分类方法、装置、计算机设备及计算机可读存储介质
CN111695624B (zh) 数据增强策略的更新方法、装置、设备及存储介质
CN111724370B (zh) 基于不确定性和概率的多任务图像质量评估方法及系统
CN113128478A (zh) 模型训练方法、行人分析方法、装置、设备及存储介质
CN109978058B (zh) 确定图像分类的方法、装置、终端及存储介质
CN109190757B (zh) 任务处理方法、装置、设备及计算机可读存储介质
CN113592008A (zh) 一种基于自编码器的图神经网络机制解决小样本图像分类的系统、方法、设备及存储介质
CN113541985B (zh) 物联网故障诊断方法、模型的训练方法及相关装置
CN113011532A (zh) 分类模型训练方法、装置、计算设备及存储介质
CN108549899A (zh) 一种图像识别方法及装置
CN111428125A (zh) 排序方法、装置、电子设备及可读存储介质
CN111414990B (zh) 卷积神经网络处理方法、装置、电子设备及存储介质
CN115345303A (zh) 卷积神经网络权重调优方法、装置、存储介质和电子设备
CN112446428B (zh) 一种图像数据处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Room 1101-1117, floor 11, No. 58, Beisihuan West Road, Haidian District, Beijing 100080

Applicant after: BEIJING SENSETIME TECHNOLOGY DEVELOPMENT Co.,Ltd.

Address before: 100084, room 7, floor 3, building 1, No. 710-712, Zhongguancun East Road, Beijing, Haidian District

Applicant before: BEIJING SENSETIME TECHNOLOGY DEVELOPMENT Co.,Ltd.

GR01 Patent grant
GR01 Patent grant