CN113537403A - 图像处理模型的训练方法和装置及预测方法和装置 - Google Patents

图像处理模型的训练方法和装置及预测方法和装置 Download PDF

Info

Publication number
CN113537403A
CN113537403A CN202110933604.1A CN202110933604A CN113537403A CN 113537403 A CN113537403 A CN 113537403A CN 202110933604 A CN202110933604 A CN 202110933604A CN 113537403 A CN113537403 A CN 113537403A
Authority
CN
China
Prior art keywords
training
loss function
training period
image processing
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110933604.1A
Other languages
English (en)
Other versions
CN113537403B (zh
Inventor
磯部駿
陶鑫
章佳杰
戴宇荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Priority to CN202110933604.1A priority Critical patent/CN113537403B/zh
Publication of CN113537403A publication Critical patent/CN113537403A/zh
Application granted granted Critical
Publication of CN113537403B publication Critical patent/CN113537403B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本公开关于一种图像处理模型的训练方法和装置及预测方法和装置,训练方法包括:使用训练数据集对图像处理模型执行多次训练周期的训练,针对每次训练周期,执行以下操作:获取当前训练周期的训练数据集;将当前训练周期的训练数据集输入图像处理模型,得到当前训练周期的预测结果;基于当前训练周期的预测结果,确定当前训练周期的第一损失函数和当前训练周期的第二损失函数,并基于对应的权重分别对当前训练周期的第一损失函数和第二损失函数加权,并基于加权后的当前训练周期的第一损失函数和第二损失函数确定当前训练周期的图像处理模型的损失函数;通过根据当前训练周期的图像处理模型的损失函数调整当前训练周期的图像处理模型的参数。

Description

图像处理模型的训练方法和装置及预测方法和装置
技术领域
本公开涉及计算机技术领域,更具体地说,涉及一种图像处理模型的训练方法和装置及预测方法和装置。
背景技术
随着计算机技术的高速发展,在进行业务采集数据处理的时候,常常涉及到不同的数据域。不同的数据域之间是存在差异的,数据域的差异体现在其中的采集到的数据的差异。例如两个相机分别采集到的两批图像上的数据,就属于两个不同的数据域,这两批数据之间就存在差异。如果将在第一数据域上训练的神经网络模型应用到第二数据域上,就会带来神经网络模型的性能下降。
发明内容
本公开提供一种图像处理模型的训练方法和装置及预测方法和装置,以至少解决上述相关技术中的问题,也可不解决任何上述问题。
根据本公开实施例的第一方面,提供一种图像处理模型的训练方法,包括:使用训练数据集对所述图像处理模型执行多次训练周期的训练,其中,针对每次训练周期,执行以下操作:获取当前训练周期的训练数据集,其中,所述当前训练周期的训练数据集包括源数据域图像数据和目标数据域图像数据中的至少一个,其中,源数据域图像数据和目标数据域图像数据的图像数据特征信息不完全相同;将所述当前训练周期的训练数据集输入所述图像处理模型,得到当前训练周期的预测结果;基于所述当前训练周期的预测结果,确定当前训练周期的第一损失函数和当前训练周期的第二损失函数,并基于当前训练周期的第一动态权重和当前训练周期的第二动态权重分别对所述当前训练周期的第一损失函数和所述当前训练周期的第二损失函数加权,并基于加权后的当前训练周期的第一损失函数和当前训练周期的第二损失函数确定所述当前训练周期的图像处理模型的损失函数,其中,所述第一损失函数为基于所述源数据域图像数据得到的损失函数,所述第二损失函数为基于所述目标数据域图像数据得到的损失函数;通过根据所述当前训练周期的图像处理模型的损失函数调整所述当前训练周期的图像处理模型的参数。
可选地,在所述多次训练周期中,第一动态权重按训练周期的增序从1递减至0,第二动态权重按训练周期的增序从0递增至1,且在每次训练周期中第一动态权重和第二动态权重的总和为1。
可选地,第一动态权重根据阶梯函数按训练周期的增序从1递减至0,第二动态权重根据阶梯函数按训练周期的增序从0递增至1。
可选地,所述多次训练周期按时序划分为多个区间,每个区间包括至少一次训练周期,为每个区间分配一个第一动态权重和一个第二动态权重,作为执行该区间中的至少一次训练周期的训练所使用的第一动态权重和第二动态权重。
可选地,所述训练数据集包括源数据域图像数据的标签信息和目标数据域图像数据的伪标签信息,所述标签信息的准确程度高于伪标签信息的准确程度;当前训练周期的第一损失函数是根据源数据域图像数据的标签信息和当前训练周期的预测结果获得的;当前训练周期的第二损失函数是根据目标数据域图像数据的伪标签信息和当前训练周期的预测结果获得的。
可选地,所述目标数据域图像数据的伪标签信息是通过对所述目标数据域图像数据进行聚类获得的。
可选地,在所述训练方法执行前,所述图像处理模型是预训练的应用于分类的神经网络模型。
可选地,所述当前训练周期的图像处理模型的损失函数,被表示为:
Figure BDA0003212108130000021
其中,
Figure BDA0003212108130000022
为当前训练周期的图像处理模型的损失函数,θ为当前训练周期的图像处理模型的损失函数的参数,λs(e)为当前训练周期的第一动态权重,s代表源数据域,e代表当前训练周期,
Figure BDA0003212108130000023
为当前训练周期的第一损失函数,λt(e)为当前训练周期的第二动态权重,t代表目标数据域,
Figure BDA0003212108130000024
为当前训练周期的第二损失函数。
可选地,所述当前训练周期的第一损失函数和所述当前训练周期的第二损失函数均为交叉熵损失函数。
根据本公开实施例的第二方面,提供一种预测方法,包括:获取待处理图像数据;将所述待处理图像数据输入经由本公开的训练方法训练好的图像处理模型中,得到预测结果。
根据本公开实施例的第三方面,提供一种图像处理模型的训练装置,包括:数据获取单元、模型估计单元、函数计算单元和参数调节单元,其中,数据获取单元、模型估计单元、函数计算单元和参数调节单元使用训练数据集对所述图像处理模型执行多次训练周期的训练,其中,针对每次训练周期:数据获取单元被配置为:获取当前训练周期的训练数据集,其中,所述当前训练周期的训练数据集包括源数据域图像数据和目标数据域图像数据中的至少一个,其中,源数据域图像数据和目标数据域图像数据的图像数据特征信息不完全相同;模型估计单元被配置为:将所述当前训练周期的训练数据集输入所述图像处理模型,得到当前训练周期的预测结果;函数计算单元被配置为:基于所述当前训练周期的预测结果,确定当前训练周期的第一损失函数和当前训练周期的第二损失函数,并基于当前训练周期的第一动态权重和当前训练周期的第二动态权重分别对所述当前训练周期的第一损失函数和所述当前训练周期的第二损失函数加权,并基于加权后的当前训练周期的第一损失函数和当前训练周期的第二损失函数确定所述当前训练周期的图像处理模型的损失函数,其中,所述第一损失函数为基于所述源数据域图像数据得到的损失函数,所述第二损失函数为基于所述目标数据域图像数据得到的损失函数;参数调节单元被配置为:通过根据所述当前训练周期的图像处理模型的损失函数调整所述当前训练周期的图像处理模型的参数。
可选地,在所述多次训练周期中,第一动态权重按训练周期的增序从1递减至0,第二动态权重按训练周期的增序从0递增至1,且在每次训练周期中第一动态权重和第二动态权重的总和为1。
可选地,第一动态权重根据阶梯函数按训练周期的增序从1递减至0,第二动态权重根据阶梯函数按训练周期的增序从0递增至1。
可选地,所述多次训练周期按时序划分为多个区间,每个区间包括至少一次训练周期,为每个区间分配一个第一动态权重和一个第二动态权重,作为执行该区间中的至少一次训练周期的训练所使用的第一动态权重和第二动态权重。
可选地,所述训练数据集包括源数据域图像数据的标签信息和目标数据域图像数据的伪标签信息,所述标签信息的准确程度高于伪标签信息的准确程度;当前训练周期的第一损失函数是根据源数据域图像数据的标签信息和当前训练周期的预测结果获得的;当前训练周期的第二损失函数是根据目标数据域图像数据的伪标签信息和当前训练周期的预测结果获得的。
可选地,所述目标数据域图像数据的伪标签信息是通过对所述目标数据域图像数据进行聚类获得的。
可选地,所述图像处理模型是应用于分类的神经网络模型。
可选地,所述当前训练周期的图像处理模型的损失函数,被表示为:
Figure BDA0003212108130000041
其中,
Figure BDA0003212108130000042
为当前训练周期的图像处理模型的损失函数,θ为当前训练周期的图像处理模型的损失函数的参数,λs(e)为当前训练周期的第一动态权重,s代表源数据域,e代表当前训练周期,
Figure BDA0003212108130000043
为当前训练周期的第一损失函数,λt(e)为当前训练周期的第二动态权重,t代表目标数据域,
Figure BDA0003212108130000044
为当前训练周期的第二损失函数。
可选地,所述当前训练周期的第一损失函数和所述当前训练周期的第二损失函数均为交叉熵损失函数。
根据本公开实施例的第四方面,提供一种预测装置,包括:数据获取单元,被配置为:获取待处理图像数据;模型预测单元,被配置为:将所述待处理图像数据输入经由本公开的训练方法训练好的图像处理模型中,得到预测结果。
根据本公开实施例的第五方面,提供一种电子设备,包括:至少一个处理器;至少一个存储计算机可执行指令的存储器,其中,所述计算机可执行指令在被所述至少一个处理器运行时,促使所述至少一个处理器执行根据本公开的图像处理模型的训练方法或预测方法。
根据本公开实施例的第六方面,提供一种计算机可读存储介质,当所述计算机可读存储介质中的指令被至少一个处理器运行时,促使所述至少一个处理器执行根据本公开的图像处理模型的训练方法或预测方法。
根据本公开实施例的第七方面,提供一种计算机程序产品,包括计算机指令,所述计算机指令被至少一个处理器执行时实现根据本公开的图像处理模型的训练方法或预测方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
根据本公开的图像处理模型的训练方法和装置及预测方法和装置,通过在多次训练周期Epoch中设置按Epoch增序逐渐减小的第一动态权重和按Epoch增序逐渐增大的第二动态权重分别对源数据域相关的损失函数和目标数据域相关的损失函数进行加权调整,使得源数据域的知识能渐进式地迁移至目标数据域,充分地利用了带有标签的源数据域的图像数据,动态调整的过程也缓解了目标数据域的伪标签噪声,对于处理目标数据域的图像数据具有更好的性能。并且,目标数据域可不携带标签,降低了标注的成本。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是示出根据相关技术中的阶段式跨域学习神经网络模型的框架图。
图2是示出根据本公开的示例性实施例的图像处理模型的训练方法的流程图。
图3是示出根据本公开的示例性实施例的第一动态权重随Epoch的增序而变化的示意图。
图4是示出根据本公开的示例性实施例的第二动态权重随Epoch的增序而变化的示意图。
图5是示出根据本公开的示例性实施例的预测方法的流程图。
图6是示出根据本公开的示例性实施例的应用于分类的预测方法的性能的对比示意图。
图7是示出根据本公开的示例性实施例的应用于聚类的预测方法的性能的对比示意图。
图8是示出根据本公开的示例性实施例的图像处理模型的训练装置的框图。
图9是示出根据本公开的示例性实施例的预测装置的框图。
图10是根据本公开的示例性实施例的电子设备1000的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在此需要说明的是,在本公开中出现的“若干项之中的至少一项”均表示包含“该若干项中的任意一项”、“该若干项中的任意多项的组合”、“该若干项的全体”这三类并列的情况。例如“包括A和B之中的至少一个”即包括如下三种并列的情况:(1)包括A;(2)包括B;(3)包括A和B。又例如“执行步骤一和步骤二之中的至少一个”,即表示如下三种并列的情况:(1)执行步骤一;(2)执行步骤二;(3)执行步骤一和步骤二。
大数据处理的时代,常常要面临不同数据域的数据处理,而对于处理一数据域学习另一数据域的知识,例如目标数据域学习源数据域的知识,已提出了一些解决办法。在本公开实施例中,第一数据域学习第二数据域的知识,即为第一数据域学习第二数据域对数据进行的能力。
图1是示出根据相关技术中的阶段式跨域学习神经网络模型的框架图。在相关技术中,提出了一种阶段式的跨域学习神经网络模型的训练方法,来实现目标数据域学习源数据域的知识。该方法采用源数据域和目标数据域分开训练的方式。首先,基于带有标签的源数据域的数据构建第一跨域学习神经网络模型对源数据域的数据进行训练,获取基于训练好的第一跨域学习神经网络模型获得的源数据域的知识。然后,对目标数据域的图像数据提取特征并进行聚类,获取目标数据域的图像数据的伪标签,基于带有伪标签的目标数据域的图像数据构建第二跨域学习神经网络模型对目标数据域的数据进行训练。最后将源数据域的知识作为第二跨域学习神经网络模型的初始化获得训练好的第二跨域学习神经网络模型。
请参照图1,先用聚类算法(K-Means算法,DBSCAN算法等)对无标签的目标数据域的图像数据特征进行聚类,从而生成伪标签,再用该伪标签监督网络在目标数据域上的学习。以上两步循环直至收敛。
这种阶段式的跨域学习神经网络模型的训练方法,可被建模为公式(1):
Figure BDA0003212108130000071
其中,λs(e)为当前训练周期Epoch的源数据域图像数据权重,s代表源数据域,e代表当前Epoch,e1和e2均为Epoch的次数且e2>e1,λt(e)为当前Epoch的目标数据域图像数据权重,t代表目标数据域。需要说明的是,在本公开的上述示例中,(0,e1]区间内的Epoch做的是构建第一跨域学习神经网络模型对源数据域的图像数据进行训练,(e1,e2]区间内的Epoch做的是构建第二跨域学习神经网络模型对目标数据域的图像数据进行训练。
但是这种阶段式的跨域学习神经网络模型的训练方法会带来问题,该方法将源数据域的知识一次性地利用了,在对目标数据域的图像数据进行训练的时候会遗忘源数据域的知识,使得最终的学习结果不准确。同时,因为源数据域和目标数据域存在差异,所以在源数据域的知识一次性地利用到对于目标数据域的图像数据的训练中,会在目标数据域的图像数据聚类的时候,由于标注的结果不准确在伪标签中引入噪声。
在另一相关技术中,为实现目标数据域学习源数据域的知识,将源数据域的图像数据和目标数据域的图像数据同时训练。该方法构建知识学习神经网络模型,在训练带有标签的源数据域的图像数据的同时添加目标数据域的图像数据,最终获得训练好的知识学习神经网络模型。该方法可以较为充分地利用带有标签的源数据域的图像数据,也可降低目标数据域的图像数据中的伪标签的噪声。
但是由于源数据域和目标数据域之间的图像数据存在差异,知识学习神经网络模型在拟合数据时会产生分歧,使得知识学习神经网络模型在训练好后可能会由于源数据域的图像数据的强影响对知识的获取偏向于源数据域的知识,降低了目标数据域的图像数据在神经网络模型中的性能。
为了解决上述相关技术中存在的问题,本公开提出一种图像处理模型的训练方法和装置及预测方法和装置,该训练方法设置了源数据域相关的动态权重和目标数据域相关的动态权重,在多次训练周期Epoch中设置源数据域相关的动态权重按Epoch增序逐渐减小,设置目标数据域相关的动态权重按Epoch增序逐渐增大,基于源数据域相关的动态权重和目标数据域相关的动态权重获取图像处理模型的损失函数,来对图像处理模型进行训练,以达到源数据域的知识渐进式地迁移至目标数据域的目的,对于处理目标数据域的图像数据具有更好的性能。
下面,将参照图2至图10来详细描述根据本公开的图像处理模型的训练方法和装置及预测方法和装置。
图2是示出根据本公开的示例性实施例的图像处理模型的训练方法的流程图。在训练方法执行前,本公开的示例性实施例中的图像处理模型是预训练的应用于分类的神经网络模型,该神经网络模型可以是以下神经网络模型之一:ResNet神经网络模型、DenseNet神经网络模型等。
在本公开的示例性实施例中,使用训练数据集对图像处理模型执行多次训练周期Epoch的训练,其中,针对每次Epoch,执行如图2所示的各步骤操作:
需要说明的是,在本公开的示例性实施例中,训练周期即为Epoch。
请参照图2,在步骤201,可获取当前Epoch的训练数据集,其中,当前Epoch的训练数据集包括源数据域图像数据和目标数据域图像数据中的至少一个,其中,源数据域图像数据和目标数据域图像数据的图像数据特征信息不完全相同。
本公开的示例性实施例也可以为:当前Epoch的训练数据集包括源数据域图像数据和目标数据域图像数据。
根据本公开的示例性实施例,对于源数据域图像数据和目标数据域图像数据,这里图像数据可以是单个图像数据,也可以是视频数据中的视频帧数据等。
根据本公开的示例性实施例,当图像处理模型应用于图像分类任务时,得到的预测结果可为图像分类结果。又例如,当图像处理模型应用于图像识别任务时,得到的预测结果可为图像识别结果。又例如,当图像处理模型应用于视频图像分割任务时,得到的预测结果可为视频图像分割结果。又例如,当图像处理模型应用于行人重识别任务时,得到的预测结果可为行人重识别结果。
训练数据集包括源数据域图像数据的标签信息和目标数据域图像数据的伪标签信息,标签信息的准确程度高于伪标签信息的准确程度;当前训练周期的第一损失函数是根据源数据域图像数据的标签信息和当前训练周期的预测结果获得的;当前训练周期的第二损失函数是根据目标数据域图像数据的伪标签信息和当前训练周期的预测结果获得的。源数据域图像数据的标签信息是对于源数据域图像数据进行人工标注或机器标注获得的。目标数据域图像数据的伪标签信息是通过对所述目标数据域图像数据进行聚类获得的。需要说明的是,本公开的示例性实施例也可以保护目标数据域图像数据包含标签的方式。
在步骤202,可将当前Epoch的训练数据集输入图像处理模型,得到当前Epoch的预测结果。
当前Epoch的预测结果包括针对源数据域图像数据的预测结果和针对目标数据域图像数据的预测结果。具体为:将源数据域图像数据输入图像处理模型会输出针对源数据域图像数据的预测结果,将目标数据域图像数据输入图像处理模型会输出针对目标数据域图像数据的预测结果。
在步骤203,可基于所述当前Epoch的预测结果,确定当前Epoch的第一损失函数和当前Epoch的第二损失函数,并基于当前Epoch的第一动态权重和当前Epoch的第二动态权重分别对当前Epoch的第一损失函数和当前Epoch的第二损失函数加权,并基于加权后的当前Epoch的第一损失函数和当前Epoch的第二损失函数确定当前Epoch的图像处理模型的损失函数,其中,第一损失函数为基于所述源数据域图像数据得到的损失函数,第二损失函数为基于所述目标数据域图像数据得到的损失函数。
加权后的当前Epoch的第一损失函数和当前Epoch的第二损失函数是指:赋予了当前Epoch的第一动态权重的第一损失函数和赋予了当前Epoch的第二动态权重的第二损失函数。
步骤203是获取当前Epoch的图像处理模型的损失函数的过程,具体来说,当前Epoch的图像处理模型的损失函数的获取,至少是基于以下几个因子:当前Epoch的第一损失函数、当前Epoch的第二损失函数、当前Epoch的第一动态权重和当前Epoch的第二动态权重。
当前Epoch的第一损失函数和当前Epoch的第二损失函数均为交叉熵损失函数。交叉熵损失函数是应用于分类的神经网络模型的损失函数,交叉熵损失函数可通过预测结果进行获取,具体来说,即为通过针对源数据域图像数据域的预测结果获取当前Epoch的第一损失函数,通过针对目标数据域图像数据域的预测结果获取当前Epoch的第二损失函数。
在本公开的示例性实施例中,为当前Epoch的第一损失函数赋予当前Epoch的第一动态权重,为当前Epoch的第二损失函数赋予当前Epoch的第二动态权重。在多次Epoch中,第一动态权重和的第二动态权重是变化的,反应为:在多次Epoch中,第一动态权重按Epoch的增序从1递减至0,第二动态权重按Epoch的增序从0递增至1,且在每次Epoch中第一动态权重和第二动态权重的总和为1。
图3是示出根据本公开的示例性实施例的第一动态权重随Epoch的增序而变化的示意图;图4是示出根据本公开的示例性实施例的第二动态权重随Epoch的增序而变化的示意图。在图3中,横坐标代表Epoch的次序,纵坐标代表第一动态权重,在图4中,横坐标代表Epoch的次序,纵坐标代表第二动态权重。在图3和图4中,e1、e2和e3均为Epoch的次序且e3>e2>e1
请参照图3和图4,第一动态权重和第二动态权重均呈阶梯函数变化。第一动态权重根据阶梯函数按Epoch的增序从1递减至0,第二动态权重根据阶梯函数按Epoch的增序从0递增至1。具体为:多次Epoch按时序划分为多个区间,每个区间包括至少一次Epoch,为每个区间分配一个第一动态权重和一个第二动态权重,作为执行该区间中的至少一次Epoch的训练所使用的第一动态权重和第二动态权重。
可表示为公式(2):
Figure BDA0003212108130000101
其中,λs(e)为当前Epoch的第一动态权重,s代表源数据域,e代表当前Epoch,λt(e)为当前Epoch的第二动态权重,t代表目标数据域,e1、e2和e3均为Epoch的次序且e3>e2>e1。其中,ω(e)为当前Epoch的第一动态权重的阶梯函数表示,1ω(e)为当前Epoch的第二动态权重的阶梯函数表示。
基于加权后的当前Epoch的第一损失函数和当前Epoch的第二损失函数确定当前Epoch的图像处理模型的损失函数,可获得当前Epoch的图像处理模型的损失函数。当前Epoch的图像处理模型的损失函数,被表示为公式(3):
Figure BDA0003212108130000111
其中,
Figure BDA0003212108130000112
为当前Epoch的图像处理模型的损失函数,θ为当前Epoch的图像处理模型的损失函数的参数,λs(e)为当前Epoch的第一动态权重,s代表源数据域,e代表当前Epoch,
Figure BDA0003212108130000113
为当前Epoch的第一损失函数,λt(e)为当前Epoch的第二动态权重,t代表目标数据域,
Figure BDA0003212108130000114
为当前Epoch的第二损失函数。
在步骤204,可通过根据当前Epoch的图像处理模型的损失函数调整当前Epoch的图像处理模型的参数。
图5是示出根据本公开的示例性实施例的预测方法的流程图。
请参照图5,在步骤501,可获取待处理图像数据。
在步骤502,可将待处理图像数据输入本公开的示例性实施例中的图像处理模型的训练方法训练好的图像处理模型中,得到预测结果。
根据本公开的示例性实施例,待处理图像数据可包括,但不仅限于,单个图像数据、视频数据中的视频帧数据等。
根据本公开的示例性实施例,当图像处理模型应用于图像分类任务时,得到的预测结果可为图像分类结果。又例如,当图像处理模型应用于图像识别任务时,得到的预测结果可为图像识别结果。又例如,当图像处理模型应用于视频图像分割任务时,待处理图像数据可为视频数据中的视频帧数据,得到的预测结果可为视频图像分割结果。又例如,当图像处理模型应用于行人重识别任务时,待处理图像数据可为图像数据或视频数据中的视频帧数据,得到的预测结果可为行人重识别结果。
图6是示出根据本公开的示例性实施例的应用于分类的预测方法的性能的对比示意图;图7是示出根据本公开的示例性实施例的应用于聚类的预测方法的性能的对比示意图。
在图6中,横坐标Number of Epochs代表Epoch的次序,纵坐标Person re-IDPerformance的数值代表进行行人重识别分类的预测能力,数值越高能力越强。B为Baseline,C为交叉熵损失函数CrossEntropy Loss,P为本公开的示例性实施例的图像处理模型,rank-1和mAP为评价指标,Market和Duke均为大数据域。
在图7中,横坐标Number of Epochs代表Epoch的次序,纵坐标ClusteringPerformance的数值代表进行聚类的预测能力,数值越高能力越强。B为Baseline,C为交叉熵损失函数CrossEntropy Loss,P为本公开的示例性实施例的图像处理模型,NMI和F-measure为评价指标,Market和Duke均为大数据域。
请参照图6和图7,B+C代表阶段式跨域学习神经网络模型,B+C+P代表本公开的示例性实施例中的图像处理模型。本公开的示例性实施例中的图像处理模型在图6和图7中均在性能上优于相关技术中的阶段式跨域学习神经网络模型。另外,需要说明的是,在20~50epochs区间,本公开的示例性实施例中的图像处理模型在性能上明显优于相关技术中的阶段式跨域学习神经网络模型,本公开的示例性实施例中的图像处理模型具有更好的性能,更加有效,基于该区间数据,可以节约本公开的示例性实施例中的图像处理模型的训练成本。
图8是示出根据本公开的示例性实施例的图像处理模型的训练装置的框图。本公开的示例性实施例中的图像处理模型是应用于分类的神经网络模型,该神经网络模型可以是以下神经网络模型之一:ResNet神经网络模型、DenseNet神经网络模型等。请参照图8,根据本公开的示例性实施例的图像处理模型的训练装置800可包括数据获取单元801、模型估计单元802、函数计算单元803和参数调节单元804。
数据获取单元801、模型估计单元802、函数计算单元803和参数调节单元804可使用训练数据集对图像处理模型执行多次训练周期Epoch的训练。下面详细介绍,数据获取单元801、模型估计单元802、函数计算单元803和参数调节单元804针对每次Epoch的具体操作。
数据获取单元801可获取当前Epoch的训练数据集,其中,当前Epoch的训练数据集包括源数据域图像数据和目标数据域图像数据中的至少一个,其中,源数据域图像数据和目标数据域图像数据的图像数据特征信息不完全相同。
本公开的示例性实施例也可以为:当前Epoch的训练数据集包括源数据域图像数据和目标数据域图像数据。
根据本公开的示例性实施例,对于源数据域图像数据和目标数据域图像数据,这里图像数据可以是单个图像数据,也可以是视频数据中的视频帧数据等。
根据本公开的示例性实施例,当图像处理模型应用于图像分类任务时,得到的预测结果可为图像分类结果。又例如,当图像处理模型应用于图像识别任务时,得到的预测结果可为图像识别结果。又例如,当图像处理模型应用于视频图像分割任务时,得到的预测结果可为视频图像分割结果。又例如,当图像处理模型应用于行人重识别任务时,得到的预测结果可为行人重识别结果。
训练数据集包括源数据域图像数据的标签信息和目标数据域图像数据的伪标签信息,标签信息的准确程度高于伪标签信息的准确程度;当前训练周期的第一损失函数是根据源数据域图像数据的标签信息和当前训练周期的预测结果获得的;当前训练周期的第二损失函数是根据目标数据域图像数据的伪标签信息和当前训练周期的预测结果获得的。源数据域图像数据的标签信息是对于源数据域图像数据进行人工标注或机器标注获得的。目标数据域图像数据的伪标签信息是通过对所述目标数据域图像数据进行聚类获得的。需要说明的是,本公开的示例性实施例也可以保护目标数据域图像数据包含标签的方式。
模型估计单元802可将当前Epoch的训练数据集输入图像处理模型,得到当前Epoch的预测结果。
当前Epoch的预测结果包括针对源数据域图像数据的预测结果和针对目标数据域图像数据的预测结果。具体为:将源数据域图像数据输入图像处理模型会输出针对源数据域图像数据的预测结果,将目标数据域图像数据输入图像处理模型会输出针对目标数据域图像数据的预测结果。
函数计算单元803可基于当前Epoch的预测结果,确定当前Epoch的第一损失函数和当前Epoch的第二损失函数,并基于当前Epoch的第一动态权重和当前Epoch的第二动态权重分别对当前Epoch的第一损失函数和当前Epoch的第二损失函数加权,并基于加权后的当前Epoch的第一损失函数和当前Epoch的第二损失函数确定当前Epoch的图像处理模型的损失函数,其中,第一损失函数为基于源数据域图像数据得到的损失函数,第二损失函数为基于目标数据域图像数据得到的损失函数。
加权后的当前Epoch的第一损失函数和当前Epoch的第二损失函数是指:赋予了当前Epoch的第一动态权重的第一损失函数和赋予了当前Epoch的第二动态权重的第二损失函数。
函数计算单元803是获取当前Epoch的图像处理模型的损失函数的单元,具体来说,当前Epoch的图像处理模型的损失函数的获取,至少是基于以下几个因子:当前Epoch的第一损失函数、当前Epoch的第二损失函数、当前Epoch的第一动态权重和当前Epoch的第二动态权重。
当前Epoch的第一损失函数和当前Epoch的第二损失函数均为交叉熵损失函数。交叉熵损失函数是应用于分类的神经网络模型的损失函数,交叉熵损失函数可通过预测结果进行获取,具体来说,即为通过针对源数据域图像数据域的预测结果获取当前Epoch的第一损失函数,通过针对目标数据域图像数据域的预测结果获取当前Epoch的第二损失函数。
在本公开的示例性实施例中,为当前Epoch的第一损失函数赋予当前Epoch的第一动态权重,为当前Epoch的第二损失函数赋予当前Epoch的第二动态权重。在多次Epoch中,第一动态权重和的第二动态权重是变化的,反应为:在多次Epoch中,第一动态权重按Epoch的增序从1递减至0,第二动态权重按Epoch的增序从0递增至1,且在每次Epoch中第一动态权重和第二动态权重的总和为1。
第一动态权重和第二动态权重均呈阶梯函数变化。第一动态权重根据阶梯函数按Epoch的增序从1递减至0,第二动态权重根据阶梯函数按Epoch的增序从0递增至1。具体为:多次Epoch按时序划分为多个区间,每个区间包括至少一次Epoch,为每个区间分配一个第一动态权重和一个第二动态权重,作为执行该区间中的至少一次Epoch的训练所使用的第一动态权重和第二动态权重。
基于加权后的当前Epoch的第一损失函数和当前Epoch的第二损失函数确定当前Epoch的图像处理模型的损失函数,可获得当前Epoch的图像处理模型的损失函数。当前Epoch的图像处理模型的损失函数,通过公式(3)获取。
参数调节单元804可通过根据当前Epoch的图像处理模型的损失函数调整当前Epoch的图像处理模型的参数。
图9是示出根据本公开的示例性实施例的预测装置的框图。
请参照图9,根据本公开的示例性实施例的预测装置900可包括数据获取单元901和模型预测单元902。
数据获取单元901可获取待处理图像数据。
模型预测单元902可将待处理图像数据输入本公开的示例性实施例中的图像处理模型的训练方法训练好的图像处理模型中,得到预测结果。
根据本公开的示例性实施例,待处理图像数据可包括,但不仅限于,单个图像数据、视频数据中的视频帧数据等。
根据本公开的示例性实施例,当图像处理模型应用于图像分类任务时,得到的预测结果可为图像分类结果。又例如,当图像处理模型应用于图像识别任务时,得到的预测结果可为图像识别结果。又例如,当图像处理模型应用于视频图像分割任务时,待处理图像数据可为视频数据中的视频帧数据,得到的预测结果可为视频图像分割结果。又例如,当图像处理模型应用于行人重识别任务时,待处理图像数据可为图像数据或视频数据中的视频帧数据,得到的预测结果可为行人重识别结果。
图10是根据本公开的示例性实施例的电子设备1000的框图。
参照图10,电子设备1000包括至少一个存储器1001和至少一个处理器1002,所述至少一个存储器1001中存储有计算机可执行指令集合,当计算机可执行指令集合被至少一个处理器1002执行时,执行根据本公开的示例性实施例的图像处理模型的训练方法或预测方法。
作为示例,电子设备1000可以是PC计算机、平板装置、个人数字助理、智能手机、或其他能够执行上述指令集合的装置。这里,电子设备1000并非必须是单个的电子设备,还可以是任何能够单独或联合执行上述指令(或指令集)的装置或电路的集合体。电子设备1000还可以是集成控制系统或系统管理器的一部分,或者可被配置为与本地或远程(例如,经由无线传输)以接口互联的便携式电子设备。
在电子设备1000中,处理器1002可包括中央处理器(CPU)、图形处理器(GPU)、可编程逻辑装置、专用处理器系统、微控制器或微处理器。作为示例而非限制,处理器还可包括模拟处理器、数字处理器、微处理器、多核处理器、处理器阵列、网络处理器等。
处理器1002可运行存储在存储器1001中的指令或代码,其中,存储器1001还可以存储数据。指令和数据还可经由网络接口装置而通过网络被发送和接收,其中,网络接口装置可采用任何已知的传输协议。
存储器1001可与处理器1002集成为一体,例如,将RAM或闪存布置在集成电路微处理器等之内。此外,存储器1001可包括独立的装置,诸如,外部盘驱动、存储阵列或任何数据库系统可使用的其他存储装置。存储器1001和处理器1002可在操作上进行耦合,或者可例如通过I/O端口、网络连接等互相通信,使得处理器1002能够读取存储在存储器中的文件。
此外,电子设备1000还可包括视频显示器(诸如,液晶显示器)和用户交互接口(诸如,键盘、鼠标、触摸输入装置等)。电子设备1000的所有组件可经由总线和/或网络而彼此连接。
根据本公开的示例性实施例,还可提供一种存储指令的计算机可读存储介质,其中,当指令被至少一个处理器运行时,促使至少一个处理器执行根据本公开的图像处理模型的训练方法或预测方法。这里的计算机可读存储介质的示例包括:只读存储器(ROM)、随机存取可编程只读存储器(PROM)、电可擦除可编程只读存储器(EEPROM)、随机存取存储器(RAM)、动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、闪存、非易失性存储器、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、DVD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、蓝光或光盘存储器、硬盘驱动器(HDD)、固态硬盘(SSD)、卡式存储器(诸如,多媒体卡、安全数字(SD)卡或极速数字(XD)卡)、磁带、软盘、磁光数据存储装置、光学数据存储装置、硬盘、固态盘以及任何其他装置,所述任何其他装置被配置为以非暂时性方式存储计算机程序以及任何相关联的数据、数据文件和数据结构并将所述计算机程序以及任何相关联的数据、数据文件和数据结构提供给处理器或计算机使得处理器或计算机能执行所述计算机程序。上述计算机可读存储介质中的计算机程序可在诸如客户端、主机、代理装置、服务器等计算机设备中部署的环境中运行,此外,在一个示例中,计算机程序以及任何相关联的数据、数据文件和数据结构分布在联网的计算机系统上,使得计算机程序以及任何相关联的数据、数据文件和数据结构通过一个或多个处理器或计算机以分布式方式存储、访问和执行。
根据本公开的示例性实施例,还可提供一种计算机程序产品,该计算机程序产品中的指令可由计算机设备的处理器执行以完成根据本公开的示例性实施例的图像处理模型的训练方法或预测方法。
根据本公开的图像处理模型的训练方法和装置及预测方法和装置,通过在多次训练周期Epoch中设置按Epoch增序逐渐减小的第一动态权重和按Epoch增序逐渐增大的第二动态权重分别对源数据域相关的损失函数和目标数据域相关的损失函数进行加权调整,使得源数据域的知识能渐进式地迁移至目标数据域,充分地利用了带有标签的源数据域的图像数据,动态调整的过程也缓解了目标数据域的伪标签噪声,对于处理目标数据域的图像数据具有更好的性能。并且,目标数据域可不携带标签,降低了标注的成本。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种图像处理模型的训练方法,其特征在于,包括:
使用训练数据集对所述图像处理模型执行多次训练周期的训练,其中,针对每次训练周期,执行以下操作:
获取当前训练周期的训练数据集,其中,所述当前训练周期的训练数据集包括源数据域图像数据和目标数据域图像数据中的至少一个,其中,源数据域图像数据和目标数据域图像数据的图像数据特征信息不完全相同;
将所述当前训练周期的训练数据集输入所述图像处理模型,得到当前训练周期的预测结果;
基于所述当前训练周期的预测结果,确定当前训练周期的第一损失函数和当前训练周期的第二损失函数,并基于当前训练周期的第一动态权重和当前训练周期的第二动态权重分别对所述当前训练周期的第一损失函数和所述当前训练周期的第二损失函数加权,并基于加权后的当前训练周期的第一损失函数和当前训练周期的第二损失函数确定所述当前训练周期的图像处理模型的损失函数,其中,所述第一损失函数为基于所述源数据域图像数据得到的损失函数,所述第二损失函数为基于所述目标数据域图像数据得到的损失函数;
通过根据所述当前训练周期的图像处理模型的损失函数调整所述当前训练周期的图像处理模型的参数。
2.如权利要求1所述的训练方法,其特征在于,在所述多次训练周期中,第一动态权重按训练周期的增序从1递减至0,第二动态权重按训练周期的增序从0递增至1,且在每次训练周期中第一动态权重和第二动态权重的总和为1。
3.如权利要求2所述的训练方法,其特征在于,第一动态权重根据阶梯函数按训练周期的增序从1递减至0,第二动态权重根据阶梯函数按训练周期的增序从0递增至1。
4.如权利要求3所述的训练方法,其特征在于,所述多次训练周期按时序划分为多个区间,每个区间包括至少一次训练周期,为每个区间分配一个第一动态权重和一个第二动态权重,作为执行该区间中的至少一次训练周期的训练所使用的第一动态权重和第二动态权重。
5.一种预测方法,其特征在于,包括:
获取待处理图像数据;
将所述待处理图像数据输入经由如权利要求1到4中的任一权利要求所述的图像处理模型的训练方法训练好的图像处理模型中,得到预测结果。
6.一种图像处理模型的训练装置,其特征在于,包括:数据获取单元模型估计单元、函数计算单元和参数调节单元,
其中,数据获取单元、模型估计单元、函数计算单元和参数调节单元使用训练数据集对所述图像处理模型执行多次训练周期的训练,
其中,针对每次训练周期:
数据获取单元被配置为:获取当前训练周期的训练数据集,其中,所述当前训练周期的训练数据集包括源数据域图像数据和目标数据域图像数据中的至少一个,其中,源数据域图像数据和目标数据域图像数据的图像数据特征信息不完全相同;
模型估计单元被配置为:将所述当前训练周期的训练数据集输入所述图像处理模型,得到当前训练周期的预测结果;
函数计算单元被配置为:基于所述当前训练周期的预测结果,确定当前训练周期的第一损失函数和当前训练周期的第二损失函数,并基于当前训练周期的第一动态权重和当前训练周期的第二动态权重分别对所述当前训练周期的第一损失函数和所述当前训练周期的第二损失函数加权,并基于加权后的当前训练周期的第一损失函数和当前训练周期的第二损失函数确定所述当前训练周期的图像处理模型的损失函数,其中,所述第一损失函数为基于所述源数据域图像数据得到的损失函数,所述第二损失函数为基于所述目标数据域图像数据得到的损失函数;
参数调节单元被配置为:通过根据所述当前训练周期的图像处理模型的损失函数调整所述当前训练周期的图像处理模型的参数。
7.一种预测装置,其特征在于,包括:
数据获取单元,被配置为:获取待处理图像数据;
模型预测单元,被配置为:将所述待处理图像数据输入经由如权利要求1到4中的任一权利要求所述的图像处理模型的训练方法训练好的图像处理模型中,得到预测结果。
8.一种电子设备,其特征在于,包括:
至少一个处理器;
至少一个存储计算机可执行指令的存储器,
其中,所述计算机可执行指令在被所述至少一个处理器运行时,促使所述至少一个处理器执行如权利要求1到4中的任一权利要求所述的图像处理模型的训练方法或如权利要求5中所述的预测方法。
9.一种存储指令的计算机可读存储介质,其特征在于,当所述指令被至少一个处理器运行时,促使所述至少一个处理器如权利要求1到4中的任一权利要求所述的图像处理模型的训练方法或如权利要求5中所述的预测方法。
10.一种计算机程序产品,包括计算机指令,其特征在于,所述计算机指令被至少一个处理器执行时实现如权利要求1到4中的任一权利要求所述的图像处理模型的训练方法或如权利要求5中所述的预测方法。
CN202110933604.1A 2021-08-14 2021-08-14 图像处理模型的训练方法和装置及预测方法和装置 Active CN113537403B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110933604.1A CN113537403B (zh) 2021-08-14 2021-08-14 图像处理模型的训练方法和装置及预测方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110933604.1A CN113537403B (zh) 2021-08-14 2021-08-14 图像处理模型的训练方法和装置及预测方法和装置

Publications (2)

Publication Number Publication Date
CN113537403A true CN113537403A (zh) 2021-10-22
CN113537403B CN113537403B (zh) 2024-08-13

Family

ID=78091083

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110933604.1A Active CN113537403B (zh) 2021-08-14 2021-08-14 图像处理模型的训练方法和装置及预测方法和装置

Country Status (1)

Country Link
CN (1) CN113537403B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115690100A (zh) * 2022-12-28 2023-02-03 珠海横琴圣澳云智科技有限公司 半监督信号点检测模型训练方法、信号点检测方法和装置

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109523526A (zh) * 2018-11-08 2019-03-26 腾讯科技(深圳)有限公司 组织结节检测及其模型训练方法、装置、设备和系统
CN110135510A (zh) * 2019-05-22 2019-08-16 电子科技大学中山学院 一种动态领域自适应方法、设备及计算机可读存储介质
CN110427875A (zh) * 2019-07-31 2019-11-08 天津大学 基于深度迁移学习和极限学习机的红外图像目标检测方法
CN111126360A (zh) * 2019-11-15 2020-05-08 西安电子科技大学 基于无监督联合多损失模型的跨域行人重识别方法
CN111368886A (zh) * 2020-02-25 2020-07-03 华南理工大学 一种基于样本筛选的无标注车辆图片分类方法
CN111476168A (zh) * 2020-04-08 2020-07-31 山东师范大学 一种基于三阶段的跨域行人重识别方法和系统
CN111506862A (zh) * 2020-05-01 2020-08-07 西北工业大学 一种基于多源加权集成迁移学习的滚动轴承故障诊断方法
CN111814871A (zh) * 2020-06-13 2020-10-23 浙江大学 一种基于可靠权重最优传输的图像分类方法
US20210012162A1 (en) * 2019-07-09 2021-01-14 Shenzhen Malong Technologies Co., Ltd. 3d image synthesis system and methods
CN112329619A (zh) * 2020-11-04 2021-02-05 济南博观智能科技有限公司 一种人脸识别方法、装置、电子设备及可读存储介质
CN112836739A (zh) * 2021-01-29 2021-05-25 华中科技大学 基于动态联合分布对齐的分类模型建立方法及其应用
CN112861879A (zh) * 2021-02-23 2021-05-28 中国科学院计算技术研究所 基于双重迁移的认知障碍辅助决策支持方法和系统
CN113011513A (zh) * 2021-03-29 2021-06-22 华南理工大学 一种基于通用域自适应的图像大数据分类方法
CN113169752A (zh) * 2018-11-22 2021-07-23 诺基亚技术有限公司 通信系统中的学习
CN113221983A (zh) * 2021-04-28 2021-08-06 北京达佳互联信息技术有限公司 迁移学习模型的训练方法及装置、图像处理方法及装置

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109523526A (zh) * 2018-11-08 2019-03-26 腾讯科技(深圳)有限公司 组织结节检测及其模型训练方法、装置、设备和系统
CN113169752A (zh) * 2018-11-22 2021-07-23 诺基亚技术有限公司 通信系统中的学习
CN110135510A (zh) * 2019-05-22 2019-08-16 电子科技大学中山学院 一种动态领域自适应方法、设备及计算机可读存储介质
US20210012162A1 (en) * 2019-07-09 2021-01-14 Shenzhen Malong Technologies Co., Ltd. 3d image synthesis system and methods
CN110427875A (zh) * 2019-07-31 2019-11-08 天津大学 基于深度迁移学习和极限学习机的红外图像目标检测方法
CN111126360A (zh) * 2019-11-15 2020-05-08 西安电子科技大学 基于无监督联合多损失模型的跨域行人重识别方法
CN111368886A (zh) * 2020-02-25 2020-07-03 华南理工大学 一种基于样本筛选的无标注车辆图片分类方法
CN111476168A (zh) * 2020-04-08 2020-07-31 山东师范大学 一种基于三阶段的跨域行人重识别方法和系统
CN111506862A (zh) * 2020-05-01 2020-08-07 西北工业大学 一种基于多源加权集成迁移学习的滚动轴承故障诊断方法
CN111814871A (zh) * 2020-06-13 2020-10-23 浙江大学 一种基于可靠权重最优传输的图像分类方法
CN112329619A (zh) * 2020-11-04 2021-02-05 济南博观智能科技有限公司 一种人脸识别方法、装置、电子设备及可读存储介质
CN112836739A (zh) * 2021-01-29 2021-05-25 华中科技大学 基于动态联合分布对齐的分类模型建立方法及其应用
CN112861879A (zh) * 2021-02-23 2021-05-28 中国科学院计算技术研究所 基于双重迁移的认知障碍辅助决策支持方法和系统
CN113011513A (zh) * 2021-03-29 2021-06-22 华南理工大学 一种基于通用域自适应的图像大数据分类方法
CN113221983A (zh) * 2021-04-28 2021-08-06 北京达佳互联信息技术有限公司 迁移学习模型的训练方法及装置、图像处理方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
周胜;刘三民;: "基于迁移学习的数据流分类研究综述", 天津理工大学学报, no. 03 *
王晓权;郑绍华;潘林;: "基于迁移学习和SVM的糖网图像分类", 信息通信, no. 04 *
邹海鹏;龚勋;胡毕杰;罗俊;: "乳腺超声肿瘤动态噪声指数及分割算法", 中国图象图形学报, no. 10 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115690100A (zh) * 2022-12-28 2023-02-03 珠海横琴圣澳云智科技有限公司 半监督信号点检测模型训练方法、信号点检测方法和装置

Also Published As

Publication number Publication date
CN113537403B (zh) 2024-08-13

Similar Documents

Publication Publication Date Title
US11416765B2 (en) Methods and systems for evaluating training objects by a machine learning algorithm
EP3477550A1 (en) Vehicle license plate classification method and system based on deep learning, electronic apparatus, and storage medium
US9111375B2 (en) Evaluation of three-dimensional scenes using two-dimensional representations
WO2016062095A1 (zh) 视频分类方法和装置
CN113139628B (zh) 样本图像的识别方法、装置、设备及可读存储介质
CN113435545A (zh) 图像处理模型的训练方法及装置
CN114144770B (zh) 用于生成用于模型重新训练的数据集的系统和方法
WO2013067461A2 (en) Identifying associations in data
US20190311258A1 (en) Data dependent model initialization
US20200265307A1 (en) Apparatus and method with multi-task neural network
Akilandasowmya et al. Skin cancer diagnosis: Leveraging deep hidden features and ensemble classifiers for early detection and classification
Hidru et al. EquiNMF: Graph regularized multiview nonnegative matrix factorization
JP7502972B2 (ja) プルーニング管理装置、プルーニング管理システム及びプルーニング管理方法
US11651862B2 (en) System and method for diagnostics and prognostics of mild cognitive impairment using deep learning
US20220344051A1 (en) System and method for diagnostics and prognostics of mild cognitive impairment using deep learning
Yang et al. A multiorgan segmentation model for CT volumes via full convolution‐deconvolution network
CN113537403B (zh) 图像处理模型的训练方法和装置及预测方法和装置
Xu et al. Academic coupled dictionary learning for sketch-based image retrieval
AU2021251463B2 (en) Generating performance predictions with uncertainty intervals
CN113570058A (zh) 推荐方法和装置
US11688175B2 (en) Methods and systems for the automated quality assurance of annotated images
Kamraoui et al. Popcorn: Progressive pseudo-labeling with consistency regularization and neighboring
CN115080856A (zh) 推荐方法及装置、推荐模型的训练方法及装置
Pölsterl et al. Scalable, axiomatic explanations of deep alzheimer’s diagnosis from heterogeneous data
CN113223017A (zh) 目标分割模型的训练方法、目标分割方法及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant