CN112365513A - 一种模型训练的方法及装置 - Google Patents

一种模型训练的方法及装置 Download PDF

Info

Publication number
CN112365513A
CN112365513A CN202011321053.5A CN202011321053A CN112365513A CN 112365513 A CN112365513 A CN 112365513A CN 202011321053 A CN202011321053 A CN 202011321053A CN 112365513 A CN112365513 A CN 112365513A
Authority
CN
China
Prior art keywords
model
sub
image
training
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011321053.5A
Other languages
English (en)
Inventor
王硕
张晓星
李成洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN202011321053.5A priority Critical patent/CN112365513A/zh
Publication of CN112365513A publication Critical patent/CN112365513A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本说明书公开了一种模型训练的方法及装置,通过获取样本图像,将样本图像划分为若干个子样本图像,并确定连通图,对第一模型以及第二模型进行迭代训练,其中,针对每次迭代训练,获取上一次迭代训练得到的样本图像的标注信息,根据连通图等信息,对第一模型进行训练,得到当前训练的第一模型,确定每个子样本图像的标注结果,根据样本图像以及每个子样本图像的标注结果,对第二模型进行训练,得到当前训练的第二模型,确定当前训练得到的样本图像中每个像素点的标注信息。由上述内容可见,在对第一模型以及第二模型进行迭代训练后,可使第一模型以及第二模型得到的信息更准确,从而基于第一模型或者第二模型,得到较好的样本标注信息。

Description

一种模型训练的方法及装置
技术领域
本说明书涉及图像处理技术领域,尤其涉及一种模型训练的方法及装置。
背景技术
目前,通常采用有监督训练的方式训练机器学习模型,即,基于带有标注信息的训练样本来训练机器学习模型。
在图像分割技术领域中,常用的图像分割方法可基于图像中各像素点的语义信息来分割图像,因此,在采用有监督训练的方式训练图像分割模型时,需要获取样本图像中每个像素点的实际语义信息作为标注信息。
由于样本图像中包含较多的像素点,逐个对每个像素点进行标注的成本较高,因此,如何确定样本图像的标注信息,成为亟需解决的问题。
发明内容
本说明书实施例提供一种模型训练的方法及装置,以部分解决现有技术存在的上述问题。
本说明书实施例采用下述技术方案:
本说明书提供的一种模型训练的方法,所述方法包括:
获取样本图像;
将所述样本图像划分为若干个子样本图像,并根据各子样本图像的信息,确定由各子样本图像作为节点构成的连通图;
根据所述连通图,采用下述方法对第一模型以及第二模型进行迭代训练:
针对每次迭代训练,获取上一次迭代训练得到的所述样本图像中每个像素点的标注信息,根据所述连通图以及所述样本图像中每个像素点的标注信息,对所述第一模型进行训练,得到当前训练的第一模型;
通过所述当前训练的第一模型,确定每个子样本图像的标注结果;
根据所述样本图像以及每个子样本图像的标注结果,对所述第二模型进行训练,得到当前训练的第二模型;
通过所述当前训练的第二模型,确定当前训练得到的所述样本图像中每个像素点的标注信息。
可选地,将所述样本图像划分为若干个子样本图像,具体包括:
将所述样本图像输入预先训练的超像素模型,得到所述超像素模型输出的所述样本图像包含的各超像素区域作为各子样本图像。
可选地,根据各子样本图像的信息,确定由各子样本图像作为节点构成的连通图,具体包括:
针对每个子样本图像,确定该子样本图像的图像特征;
根据各子样本图像的图像特征,确定任意两个子样本图像之间的图像权重;
以各子样本图像为节点,以各子样本图像之间的图像权重为边,构建所述连通图。
可选地,根据各子样本图像的图像特征,确定任意两个子样本图像之间的图像权重,具体包括:
针对任意两个子样本图像,根据该两个子样本图像的图像特征的信息,确定该两个子样本图像的图像特征的差值的范数;
根据该两个子样本图像的图像特征的差值的范数,确定该两个子样本图像之间的图像权重,其中,所述该两个子样本图像的图像特征的差值的范数与所述该两个子样本图像之间的图像权重负相关。
可选地,根据所述连通图以及所述样本图像中每个像素点的标注信息,对所述第一模型进行训练,具体包括:
将所述连通图输入所述第一模型,得到所述第一模型输出的每个子样本图像的预测信息;
根据每个子样本图像的预测信息以及所述样本图像中每个像素点的标注信息,确定所述第一模型的损失;
以损失最小化为训练目标,对所述第一模型进行训练。
可选地,根据所述样本图像以及每个子样本图像的标注结果,对所述第二模型进行训练,具体包括:
将所述样本图像输入所述第二模型,得到所述第二模型输出的所述样本图像中每个像素点的预测信息;
根据每个子样本图像的标注结果以及每个像素点的预测信息,确定所述第二模型的损失;
以损失最小化为训练目标,对所述第二模型进行训练。
可选地,获取上一训练过程中得到的所述样本图像的标注信息,具体包括:
若当前训练过程为第一个训练过程,则将所述样本图像输入预先训练的标注模型,得到所述样本图像的标注结果。
本说明书提供一种模型训练的装置,所述装置包括:
获取模块,用于获取样本图像;
确定模块,用于将所述样本图像划分为若干个子样本图像,并根据各子样本图像的信息,确定由各子样本图像作为节点构成的连通图;
训练模块,用于根据所述连通图,采用下述方法对第一模型以及第二模型进行迭代训练:
训练第一模型模块,用于针对每次迭代训练,获取上一次迭代训练得到的所述样本图像中每个像素点的标注信息,根据所述连通图以及所述样本图像中每个像素点的标注信息,对所述第一模型进行训练,得到当前训练的第一模型;
确定标注结果模块,用于通过所述当前训练的第一模型,确定每个子样本图像的标注结果;
训练第二模型模块,用于根据所述样本图像以及每个子样本图像的标注结果,对所述第二模型进行训练,得到当前训练的第二模型;
确定标注信息模块,用于通过所述当前训练的第二模型,确定当前训练得到的所述样本图像中每个像素点的标注信息。
本说明书提供的一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述模型训练的方法。
本说明书提供的一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述模型训练的方法。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
本说明书可获取样本图像,将样本图像划分为若干个子样本图像,并根据各子样本图像的信息,确定由各子样本图像作为节点构成的连通图,根据连通图,采用下述方法对第一模型以及第二模型进行迭代训练:针对每次迭代训练,获取上一次迭代训练得到的样本图像中每个像素点的标注信息,根据连通图以及样本图像中每个像素点的标注信息,对第一模型进行训练,得到当前训练的第一模型,通过当前训练的第一模型,确定每个子样本图像的标注结果,根据样本图像以及每个子样本图像的标注结果,对第二模型进行训练,得到当前训练的第二模型,通过当前训练的第二模型,确定当前训练得到的样本图像中每个像素点的标注信息。由上述内容可见,在对第一模型以及第二模型进行有监督训练时,第一模型的输出信息可作为第二模型的输入信息的标注信息,并且,第二模型的输出信息可作为第一模型的输入信息的标注信息,在对第一模型以及第二模型进行迭代训练后,可使第一模型以及第二模型得到的信息更准确,从而基于第一模型或者第二模型,得到较好的样本标注信息。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书实施例提供的一种模型训练的方法流程图;
图2为本说明书实施例提供的一种得到样本图像对应的连通图的示意图;
图3为本说明书实施例提供的对第一模型以及第二模型进行一次迭代训练的过程的方法流程图;
图4为本说明书实施例提供的一种模型训练的装置的结构示意图;
图5为本说明书实施例提供的实现模型训练方法的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
在图像分割技术领域中,可将未知图像输入图像分割模型,通过图像分割模型确定未知图像中每个像素点的语义信息,以使图像分割模型基于每个像素点的语义信息,分割未知图像,得到未知图像的图像分割结果。因此,图像分割模型通常需要预先进行训练。
通常,在训练图像分割模型时,可采用有监督训练的方式训练图像分割模型,因此,在训练图像分割模型之前,需要获取样本图像中每个像素点的实际语义信息作为标注信息。
由于样本图像中包含较多的像素点,逐个对每个像素点进行标注的成本较高,因此,常见的方式是首先采用弱监督的方式获取样本图像的标注信息,例如,对样本图像进行图像分类,得到图像级的标注信息,又如,对样本图像进行目标检测,得到检测框级的标注信息,然后对获取的标注信息进行优化,得到样本图像中每个像素点的标注信息。
而无论是采用哪种弱监督方式,得到的样本图像的标注信息均为基于欧式空间得到的标注信息,欧式空间的数据的特点在于结构规则,具有平移不变性,而在图像分割场景中,样本图像中表示目标的像素点不仅与相邻的像素点有关,与其他非相邻的像素点也有关,这种不规则的数据结构,不具有平移不变性,因此,采用现有的方式得到的样本图像中每个像素点的标注信息,准确性不高,从而影响图像分割模型的训练效果。
因此,本说明书提供一种模型训练的方法,以部分解决上述内容存在的样本图像中各像素点的标注信息不准确的问题。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书实施例提供的一种模型训练的方法流程图,具体可包括以下步骤:
S100:获取样本图像。
在本说明书中,图像分割可包括显著性分割、语义分割、全景分割等,因此,针对不同的图像分割任务,样本图像中像素点的标注信息也不同。例如,在显著性分割任务中,样本图像中像素点的标注信息可包括前景、背景等信息,在语义分割中像素点的标注信息可具体到某一类别,例如,行人、车辆等,本说明书旨在提高像素点标注信息的准确性,考虑到不同的图像分割任务对应的像素点的标注信息所代表的含义不同,而本说明书提供的方法适用于不同的图像分割任务,因此,本说明书对图像中像素点的标注信息所代表的含义信息不作限制。
本说明书提供的模型训练的方法,可在电子设备上执行,例如,无人设备,无人设备主要包括无人驾驶车辆、无人机等智能无人驾驶设备,主要用于代替人工配送物品(例如在大型货物仓储中心运输分拣后的货物),或将货物从某一地点运输到另一地点。又如,服务器,并且可以是单独的一台设备或者是多台设备组成的分布式服务器,本说明书对此不做限制。
电子设备在获取样本图像时,可获取图像传感器实时采集的图像,也可以获取图像传感器历史上采集得到的图像,由于图像传感器可包括用于采集二维图像的普通图像传感器、用于采集三维图像的深度图像传感器,因此,本说明书中获取的样本图像可以是二维图像,也可以是三维图像。在一种实施例中,样本图像也可以是由图像传感器采集的图像经过剪裁等预处理后得到的图像。
S102:将所述样本图像划分为若干个子样本图像,并根据各子样本图像的信息,确定由各子样本图像作为节点构成的连通图。
在获取样本图像之后,首先,可对样本图像进行切分等操作,将样本图像切分为若干个子样本图像。
具体的,本说明书可以按照一定的规则对样本图像进行切分,得到若干个子样本图像,例如,根据样本图像中各像素点的像素值,对各像素点进行聚类,根据聚类结果得到若干个子样本图像,当然,本说明书也可设置子样本图像的数量,基于子样本图像的数量,对样本图像进行切分。
在本说明书提供的一种优选的实施例中,可对样本图像进行超像素分割,得到若干个超像素区域,其中,超像素区域是指由一系列位置相邻且颜色、亮度、纹理等特征相似的像素点组成的小区域,对于任意一个超像素区域,该超像素区域中各像素点的标注信息相同,例如,在显著性分割任务中,一个超像素区域的标注信息为前景,即,位于该超像素区域中的每个像素点的标注信息为前景。通过对超像素区域的标注,可将标注任务进行降维,即由像素级别的标注任务降维至区域级别的标注任务。
具体的,可将样本图像输入预先训练的超像素模型,得到超像素模型输出的样本图像包含的各超像素区域以及每个超像素区域的图像特征。其中,一个超像素区域即为一个子样本图像,超像素模型用于将样本图像划分为若干个子样本图像,超像素模型可以是机器学习模型,预先训练超像素模型可参考现有的内容,当然,现有的内容中还可以通过其他方式得到样本图像包含的各超像素区域,本说明书对此不作限制。
图2为本说明书实施例提供的一种得到样本图像对应的连通图的示意图,在图2中,样本图像可划分为五个子样本图像,每个子样本图像由不同的颜色表示。
在得到样本图像中包含的各子样本图像之后,可由各子样本图像作为节点构成连通图。
首先,针对每个子样本图像,确定该子样本图像的图像特征。
具体的,子样本图像的图像特征可由超像素模型确定,也可以采用现有的方式提取子样本图像的图像特征,其中,图像特征可表征子样本图像中的纹理、颜色等信息,各子样本图像的图像特征的维度相同。
然后,根据各子样本图像的图像特征,确定任意两个子样本图像之间的图像权重。
具体的,针对任意两个子样本图像,根据该两个子样本图像的图像特征的信息,确定该两个子样本图像的图像特征的差值的范数,根据该两个子样本图像的图像特征的差值的范数,确定该两个子样本图像之间的图像权重,其中,该两个子样本图像的图像特征的差值的范数与该两个子样本图像之间的图像权重负相关。
若子样本图像的图像特征表示为C,则第i个子样本图像与第j个子样本图像的图像特征的差值的范数可表示为‖Ci-Cj‖,若第i个子样本图像与第j个子样本图像之间的图像权重表示为Wij,则Wij的确定可如公式(1)所示。
Wij=f(‖Ci-Cj‖) (1)
其中,Wij与‖Ci-Cj‖负相关。
在一种优选的实施例中,可确定该两个子样本图像的图像特征的差值的范数的幂次方作为该两个子样本图像之间的图像权重,则Wij的确定可如公式(2)所示。
Figure BDA0002792923550000081
其中,σ表示为设置的平衡参数。
沿用上例,则第一个子样本图像与第二个子样本图像之间的图像权重W12即为
Figure BDA0002792923550000091
最后,以各子样本图像为节点,以各子样本图像之间的图像权重为边,构建连通图。
在图论中,连通图即指每个节点与其他任意节点之间均有连接关系,本说明书中,子样本图像可作为节点,子样本图像之间的图像权重可作为边,构建样本图像对应的连通图。其中,各子样本图像之间的图像权重可表示为邻接矩阵。
如图2所示,可将五个子样本图像作为节点,将其中任意两个子样本图像之间的图像权重作为该任意两个子样本图像的边约束,可构建出连通图。
S104:根据所述连通图,对第一模型以及第二模型进行迭代训练。
在构建出样本图像对应的连通图之后,可基于样本图像以及样本图像对应的连通图,对第一模型以及第二模型进行训练。
其中,针对第一模型,输入信息为样本图像对应的连通图,标注信息为样本图像中每个像素点的标注信息,输出信息为每个子样本图像的标注结果,第一模型用于确定样本图像中每个子样本图像的标注结果。针对第二模型,输入信息为样本图像,标注信息为样本图像中每个子样本图像的标注结果(即,第一模型的输出信息),输出信息为样本图像中每个像素点的标注信息(即,第一模型的标注信息),第二模型用于确定样本图像中每个像素点的标注信息。这里需要说明的是,子样本图像的标注结果是以该子样本图像作为整体进行标注的结果,可直接作为子样本图像中的每个像素点的标注信息,因此,子样本图像的标注结果与样本图像中每个像素点的标注信息的区别在于,标注的维度不同,子样本图像的标注结果是以子样本图像的维度上进行标注的,而像素点的标注信息是以像素点的维度上进行标注的。
由于对第一模型以及第二模型进行迭代训练,因此,本说明书以其中一次训练过程为例,对第一模型以及第二模型的训练过程进行描述。
图3为本说明书实施例提供的对第一模型以及第二模型进行一次迭代训练的过程的流程图,具体可包括以下步骤:
S1040:针对每次迭代训练,获取上一次迭代训练得到的所述样本图像中每个像素点的标注信息,根据所述连通图以及所述样本图像中每个像素点的标注信息,对所述第一模型进行训练,得到当前训练的第一模型。
若当前训练过程为第一个训练过程,由于不存在上一次迭代训练,从而无法获取上一次迭代训练得到的样本图像中每个像素点的标注信息,因此,可采用现有的方式确定样本图像中每个像素点的标注信息,例如,可将样本图像输入预先训练的标注模型,得到样本图像的标注结果。其中,标注模型用于标注样本图像中每个像素点的标注信息。需要说明的是,通过现有的方式获取得到的第一个训练过程中样本图像中每个像素点的标注信息的准确性是未知的,也正是由于现有的方式得到的样本图像中像素点的标注信息不准确,因此,本说明书对第一模型以及第二模型进行迭代训练以得到准确的像素点的标注信息。
若当前训练过程为第一个训练过程以后的训练过程,则可直接获取上一次迭代训练得到的样本图像中每个像素点的标注信息,将连通图输入第一模型,得到第一模型输出的每个子样本图像的预测信息,根据每个子样本图像的预测信息以及样本图像中每个像素点的标注信息,确定第一模型的损失,以损失最小化为训练目标,对第一模型进行训练。
具体的,在将连通图输入第一模型时,若样本图像包括N个子样本图像(也即,连通图的节点个数为N),每个子样本图像的图像特征的维度为D,则可将连通图转化为N*D的连通图矩阵,将连通图矩阵以及各子样本图像之间的图像权重表示的邻接矩阵输入第一模型,根据第一模型中各层的权重,对连通图进行运算,得到第一模型输出的每个子样本图像的预测信息(即,第一模型预测的每个子样本图像的标注信息)。然后针对每个像素点,可根据该像素点所在的子样本图像的预测信息与该像素点的标注信息,确定该像素点所在的子样本图像的预测信息与该像素点的标注信息的差异作为该像素点对应的差异,根据各像素点对应的差异,确定第一模型的损失,其中,所述损失与像素点对应的差异正相关,例如,根据各像素点对应的差异确定交叉熵作为第一模型的损失,以损失最小化为训练目标,对第一模型进行训练,得到当前训练的第一模型。
这里需要说明的是,得到的当前训练的第一模型,并不是最终训练完成的第一模型,而是在对第一模型进行迭代训练过程中的一次迭代训练过程训练完成的第一模型,每个迭代训练过程均会得到一个训练完成的第一模型,但是最后一次迭代训练过程得到的训练完成的第一模型即为最终训练完成的第一模型。
其中,第一模型可以为图神经网络模型(Graph Neural Networks,GNN),例如,图卷积神经网络模型(Graph Convolutional Network,GCN)。
S1042:通过所述当前训练的第一模型,确定每个子样本图像的标注结果。
在得到当前训练的第一模型后,可将连通图输入当前训练的第一模型,得到当前训练的第一模型输出的每个子样本图像的标注结果。
S1044:根据所述样本图像以及每个子样本图像的标注结果,对所述第二模型进行训练,得到当前训练的第二模型。
在得到当前训练的第一模型确定的样本图像中每个子样本图像的标注结果之后,可将样本图像输入第二模型,得到第二模型输出的样本图像中每个像素点的预测信息,然后根据每个子样本图像的标注结果以及每个像素点的预测信息,确定第二模型的损失,以损失最小化为训练目标,对第二模型进行训练。
具体的,可参考步骤S1040的相关内容,针对每个像素点,可根据第二模型输出的该像素点的预测信息以及该像素点所在的子样本图像的标注结果,确定第二模型输出的该像素点的预测信息与该像素点所在的子样本图像的标注结果之间的差异,作为该像素点对应的差异,根据各像素点对应的差异,确定第二模型的损失,其中,所述损失与像素点对应的差异正相关,例如,根据各像素点对应的差异确定交叉熵作为第二模型的损失,以损失最小化为训练目标,对第二模型进行训练,得到当前训练的第二模型。
同样的,得到的当前训练的第二模型,并不是最终训练完成的第二模型,而是在对第二模型进行迭代训练过程中的一次迭代训练过程训练完成的第二模型,每个迭代训练过程均会得到一个训练完成的第二模型,但是最后一次迭代训练过程得到的训练完成的第二模型即为最终训练完成的第二模型。
其中,第二模型可以为神经网络模型,例如,全卷积神经网络模型(FullyConvolutional Networks,FCN)。
S1046:通过所述当前训练的第二模型,确定当前训练得到的所述样本图像中每个像素点的标注信息。
在得到当前训练的第二模型后,可将样本图像输入当前训练的第二模型,得到当前训练的第二模型输出的样本图像中每个像素点的标注信息,即为当前训练过程得到的样本图像中每个像素点的标注信息,可用于下一迭代训练过程中第一模型的标注信息。
本说明书中,第一模型输出的为子样本图像的标注信息,第二模型输出的是每个像素点的标注信息,一个模型的输出信息作为另一个模型的标注信息,对两个模型进行有监督训练,由于这两个模型分别是站在子样本图像的维度以及像素点的维度输出的标注信息,因此,二者相互配合训练,可不断优化模型,从而不断对样本图像中各像素点的标注信息的准确性进行优化,相对于现有的方式得到的标注信息,通过本方案得到的样本图像中各像素点的标注信息更加准确。
本说明书在训练完成模型之后,若对未知图像中每个像素点进行标注,可将未知图像输入第二模型,得到第二模型输出的未知图像中每个像素点的标注信息,以便于根据未知图像中每个像素点的标注信息训练其他模型,例如,语义分割模型等。
本说明书提供的上述模型训练的方法,具体可应用于使用无人设备进行配送的领域,例如,使用无人设备进行快递、外卖等配送的场景。具体的,在上述的场景中,可使用多个无人设备所构成的无人驾驶车队进行配送。
基于图1所示的模型训练的方法,本说明书实施例还对应提供一种模型训练的装置的结构示意图,如图4所示。
图4为本说明书实施例提供的一种模型训练的装置的结构示意图,所述装置包括:
获取模块401,用于获取样本图像;
确定模块402,用于将所述样本图像划分为若干个子样本图像,并根据各子样本图像的信息,确定由各子样本图像作为节点构成的连通图;
训练模块403,用于根据所述连通图,采用下述方法对第一模型以及第二模型进行迭代训练:
训练第一模型模块4031,用于针对每次迭代训练,获取上一次迭代训练得到的所述样本图像中每个像素点的标注信息,根据所述连通图以及所述样本图像中每个像素点的标注信息,对所述第一模型进行训练,得到当前训练的第一模型;
确定标注结果模块4032,用于通过所述当前训练的第一模型,确定每个子样本图像的标注结果;
训练第二模型模块4033,用于根据所述样本图像以及每个子样本图像的标注结果,对所述第二模型进行训练,得到当前训练的第二模型;
确定标注信息模块4034,用于通过所述当前训练的第二模型,确定当前训练得到的所述样本图像中每个像素点的标注信息。
可选地,所述确定模块402具体用于,将所述样本图像输入预先训练的超像素模型,得到所述超像素模型输出的所述样本图像包含的各超像素区域作为各子样本图像。
可选地,所述确定模块402具体用于,针对每个子样本图像,确定该子样本图像的图像特征;根据各子样本图像的图像特征,确定任意两个子样本图像之间的图像权重;以各子样本图像为节点,以各子样本图像之间的图像权重为边,构建所述连通图。
可选地,所述确定模块402具体用于,针对任意两个子样本图像,根据该两个子样本图像的图像特征的信息,确定该两个子样本图像的图像特征的差值的范数;根据该两个子样本图像的图像特征的差值的范数,确定该两个子样本图像之间的图像权重,其中,所述该两个子样本图像的图像特征的差值的范数与所述该两个子样本图像之间的图像权重负相关。
可选地,训练第一模型模块4031具体用于,将所述连通图输入所述第一模型,得到所述第一模型输出的每个子样本图像的预测信息;根据每个子样本图像的预测信息以及所述样本图像中每个像素点的标注信息,确定所述第一模型的损失;以损失最小化为优化目标,对所述第一模型进行训练。
可选地,训练第二模型模块4033具体用于,将所述样本图像输入所述第二模型,得到所述第二模型输出的所述样本图像中每个像素点的预测信息;根据每个子样本图像的标注结果以及每个像素点的预测信息,确定所述第二模型的损失;以损失最小化为优化目标,对所述第二模型进行训练。
可选地,训练第一模型模块4031具体用于,若当前训练过程为第一个训练过程,则将所述样本图像输入预先训练的标注模型,得到所述样本图像的标注结果。
本说明书实施例还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的模型训练的方法。
基于图1所示的模型训练的方法,本说明书实施例还提出了图5所示的电子设备的示意结构图。如图5,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的模型训练的方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (10)

1.一种模型训练的方法,其特征在于,所述方法包括:
获取样本图像;
将所述样本图像划分为若干个子样本图像,并根据各子样本图像的信息,确定由各子样本图像作为节点构成的连通图;
根据所述连通图,采用下述方法对第一模型以及第二模型进行迭代训练:
针对每次迭代训练,获取上一次迭代训练得到的所述样本图像中每个像素点的标注信息,根据所述连通图以及所述样本图像中每个像素点的标注信息,对所述第一模型进行训练,得到当前训练的第一模型;
通过所述当前训练的第一模型,确定每个子样本图像的标注结果;
根据所述样本图像以及每个子样本图像的标注结果,对所述第二模型进行训练,得到当前训练的第二模型;
通过所述当前训练的第二模型,确定当前训练得到的所述样本图像中每个像素点的标注信息。
2.如权利要求1所述的方法,其特征在于,将所述样本图像划分为若干个子样本图像,具体包括:
将所述样本图像输入预先训练的超像素模型,得到所述超像素模型输出的所述样本图像包含的各超像素区域作为各子样本图像。
3.如权利要求1所述的方法,其特征在于,根据各子样本图像的信息,确定由各子样本图像作为节点构成的连通图,具体包括:
针对每个子样本图像,确定该子样本图像的图像特征;
根据各子样本图像的图像特征,确定任意两个子样本图像之间的图像权重;
以各子样本图像为节点,以各子样本图像之间的图像权重为边,构建所述连通图。
4.如权利要求3所述的方法,其特征在于,根据各子样本图像的图像特征,确定任意两个子样本图像之间的图像权重,具体包括:
针对任意两个子样本图像,根据该两个子样本图像的图像特征的信息,确定该两个子样本图像的图像特征的差值的范数;
根据该两个子样本图像的图像特征的差值的范数,确定该两个子样本图像之间的图像权重,其中,所述该两个子样本图像的图像特征的差值的范数与所述该两个子样本图像之间的图像权重负相关。
5.如权利要求1所述的方法,其特征在于,根据所述连通图以及所述样本图像中每个像素点的标注信息,对所述第一模型进行训练,具体包括:
将所述连通图输入所述第一模型,得到所述第一模型输出的每个子样本图像的预测信息;
根据每个子样本图像的预测信息以及所述样本图像中每个像素点的标注信息,确定所述第一模型的损失;
以损失最小化为训练目标,对所述第一模型进行训练。
6.如权利要求1所述的方法,其特征在于,根据所述样本图像以及每个子样本图像的标注结果,对所述第二模型进行训练,具体包括:
将所述样本图像输入所述第二模型,得到所述第二模型输出的所述样本图像中每个像素点的预测信息;
根据每个子样本图像的标注结果以及每个像素点的预测信息,确定所述第二模型的损失;
以损失最小化为训练目标,对所述第二模型进行训练。
7.如权利要求1所述的方法,其特征在于,获取上一训练过程中得到的所述样本图像的标注信息,具体包括:
若当前训练过程为第一个训练过程,则将所述样本图像输入预先训练的标注模型,得到所述样本图像的标注结果。
8.一种模型训练的装置,其特征在于,所述装置包括:
获取模块,用于获取样本图像;
确定模块,用于将所述样本图像划分为若干个子样本图像,并根据各子样本图像的信息,确定由各子样本图像作为节点构成的连通图;
训练模块,用于根据所述连通图,采用下述方法对第一模型以及第二模型进行迭代训练:
训练第一模型模块,用于针对每次迭代训练,获取上一次迭代训练得到的所述样本图像中每个像素点的标注信息,根据所述连通图以及所述样本图像中每个像素点的标注信息,对所述第一模型进行训练,得到当前训练的第一模型;
确定标注结果模块,用于通过所述当前训练的第一模型,确定每个子样本图像的标注结果;
训练第二模型模块,用于根据所述样本图像以及每个子样本图像的标注结果,对所述第二模型进行训练,得到当前训练的第二模型;
确定标注信息模块,用于通过所述当前训练的第二模型,确定当前训练得到的所述样本图像中每个像素点的标注信息。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1-7任一所述的方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1-7任一所述的方法。
CN202011321053.5A 2020-11-23 2020-11-23 一种模型训练的方法及装置 Pending CN112365513A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011321053.5A CN112365513A (zh) 2020-11-23 2020-11-23 一种模型训练的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011321053.5A CN112365513A (zh) 2020-11-23 2020-11-23 一种模型训练的方法及装置

Publications (1)

Publication Number Publication Date
CN112365513A true CN112365513A (zh) 2021-02-12

Family

ID=74532777

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011321053.5A Pending CN112365513A (zh) 2020-11-23 2020-11-23 一种模型训练的方法及装置

Country Status (1)

Country Link
CN (1) CN112365513A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113205144A (zh) * 2021-05-13 2021-08-03 北京三快在线科技有限公司 一种模型训练的方法及装置
CN114267191A (zh) * 2021-12-10 2022-04-01 北京理工大学 缓解交通拥堵驾驶员控制系统、方法、介质、设备及应用

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020006963A1 (zh) * 2018-07-06 2020-01-09 北京字节跳动网络技术有限公司 生成图像检测模型的方法和装置
CN111210024A (zh) * 2020-01-14 2020-05-29 深圳供电局有限公司 模型训练方法、装置、计算机设备和存储介质
CN111368902A (zh) * 2020-02-28 2020-07-03 北京三快在线科技有限公司 一种数据标注的方法及装置
CN111598900A (zh) * 2020-05-18 2020-08-28 腾讯科技(深圳)有限公司 一种图像区域分割模型训练方法、分割方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020006963A1 (zh) * 2018-07-06 2020-01-09 北京字节跳动网络技术有限公司 生成图像检测模型的方法和装置
CN111210024A (zh) * 2020-01-14 2020-05-29 深圳供电局有限公司 模型训练方法、装置、计算机设备和存储介质
CN111368902A (zh) * 2020-02-28 2020-07-03 北京三快在线科技有限公司 一种数据标注的方法及装置
CN111598900A (zh) * 2020-05-18 2020-08-28 腾讯科技(深圳)有限公司 一种图像区域分割模型训练方法、分割方法和装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113205144A (zh) * 2021-05-13 2021-08-03 北京三快在线科技有限公司 一种模型训练的方法及装置
CN114267191A (zh) * 2021-12-10 2022-04-01 北京理工大学 缓解交通拥堵驾驶员控制系统、方法、介质、设备及应用
CN114267191B (zh) * 2021-12-10 2023-04-07 北京理工大学 缓解交通拥堵驾驶员控制系统、方法、介质、设备及应用

Similar Documents

Publication Publication Date Title
US20220230282A1 (en) Image processing method, image processing apparatus, electronic device and computer-readable storage medium
CN109034183B (zh) 一种目标检测方法、装置及设备
CN112911281B (zh) 一种视频质量评价方法及装置
CN111010590A (zh) 一种视频裁剪方法及装置
CN113887608B (zh) 一种模型训练的方法、图像检测的方法及装置
Rodriguez-Gomez et al. Codebook hardware implementation on FPGA for background subtraction
CN112036462A (zh) 一种模型训练以及目标检测的方法及装置
CN111797711A (zh) 一种模型训练的方法及装置
CN111931859A (zh) 一种多标签图像识别方法和装置
CN112365513A (zh) 一种模型训练的方法及装置
CN114283357A (zh) 一种车辆检测方法、装置、存储介质及电子设备
CN115600157A (zh) 一种数据处理的方法、装置、存储介质及电子设备
CN112990099B (zh) 一种车道线检测的方法以及装置
CN113988162A (zh) 模型训练及图像识别方法、装置、存储介质及电子设备
CN113744280A (zh) 图像处理方法、装置、设备及介质
CN117197781B (zh) 一种交通标志识别的方法、装置、存储介质及电子设备
CN114440903A (zh) 一种高精地图构建方法、装置、存储介质及电子设备
CN111292331B (zh) 图像处理的方法与装置
CN113223011A (zh) 基于引导网络和全连接条件随机场的小样本图像分割方法
CN116486153A (zh) 图像分类方法、装置、设备及存储介质
CN112949642B (zh) 一种文字生成方法、装置、存储介质及电子设备
CN113344198B (zh) 一种模型训练的方法及装置
CN113139540B (zh) 背板检测方法及设备
CN114926437A (zh) 一种图像质量评价方法及装置
CN114359935A (zh) 一种模型训练以及表格识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination