CN112541463A - 模型训练方法、外观分割方法、设备及存储介质 - Google Patents
模型训练方法、外观分割方法、设备及存储介质 Download PDFInfo
- Publication number
- CN112541463A CN112541463A CN202011519870.1A CN202011519870A CN112541463A CN 112541463 A CN112541463 A CN 112541463A CN 202011519870 A CN202011519870 A CN 202011519870A CN 112541463 A CN112541463 A CN 112541463A
- Authority
- CN
- China
- Prior art keywords
- segmentation
- neural network
- network model
- module
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 316
- 238000012549 training Methods 0.000 title claims abstract description 117
- 238000000034 method Methods 0.000 title claims abstract description 75
- 238000003062 neural network model Methods 0.000 claims abstract description 160
- 230000014509 gene expression Effects 0.000 claims description 64
- 230000004927 fusion Effects 0.000 claims description 15
- 238000010606 normalization Methods 0.000 claims description 14
- 238000003709 image segmentation Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 6
- 230000002708 enhancing effect Effects 0.000 claims description 6
- 230000004069 differentiation Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 95
- 238000013528 artificial neural network Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 16
- 239000011159 matrix material Substances 0.000 description 15
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种模型训练方法、外观分割方法、设备及存储介质。该方法包括:将图像训练样本输入至车辆外观分割神经网络模型;根据车辆外观分割神经网络模型中粗分割模块的第一中间结果与标定图像的分类特征,确定对应的第一损失函数;根据车辆外观分割神经网络模型的生成结果与标定图像,确定对应的第二损失函数;基于第一损失函数和第二损失函数对车辆外观分割神经网络模型进行训练,直到车辆外观分割神经网络模型满足预设收敛条件。本发明实施例的技术方案,解决了对车辆外观智能分割时结果不够准确的问题,提高了车辆外观神经网络模型对车辆外观进行分割的清晰度和准确度。
Description
技术领域
本发明实施例涉及计算机视觉技术领域,尤其涉及一种模型训练方法、外观分割方法、设备及存储介质。
背景技术
随着社会经济的不断发展和人民生活水平的不断提高,私家车的保有量越来越多,车管所每年需要进行年检的车辆也越来越多,工作量与人工成本也随之迅速增大。
其中,对车辆外观的检测是车辆年检中的重要一环,需要通过车辆是否有破损、部件是否有开裂和锈蚀现象、车体是否周正、以及驾驶员座位两侧玻璃是否张贴遮阳膜等检测对车辆维护质量和车辆技术情况进行把关,以确保机动车的运行安全。传统技术中,对车辆外观进行分割以对各部分是否满足检测要求进行判断时,常采用人工标定判断的方式,不仅需要消耗大量人力成本,同时难以保证标识的准确性。
而智能检测情况下多通过深度学习模型对车辆外观进行分割,但由于训练所得的深度学习模型仅能针对获取到的真实图像中的特征进行粗分割,所得到的外观分割图像也仅能得到车辆各部件的大致位置信息,使得车辆外观分割结果不够准确。
发明内容
本发明提供一种模型训练方法、外观分割方法、设备及存储介质,以通过两个损失函数对车辆外观分割神经网络模型中的权重参数进行训练,并通过训练好的车辆外观分割神经网络模型对待分割图像进行处理,以得到更清晰、准确的车辆外观分割结果。
第一方面,本发明实施例提供了一种模型训练方法,该方法包括:
将图像训练样本输入至车辆外观分割神经网络模型,其中,图像训练样本包括真实图像以及与真实图像对应的标定图像,标定图像为根据真实图像分割结果进行特征标定后的图像;
根据车辆外观分割神经网络模型中粗分割模块的第一中间结果与标定图像的分类特征,确定对应的第一损失函数;
根据车辆外观分割神经网络模型的生成结果与标定图像,确定对应的第二损失函数;
基于第一损失函数和第二损失函数对车辆外观分割神经网络模型进行训练,直到车辆外观分割神经网络模型满足预设收敛条件。
第二方面,本发明实施例还提供了一种外观分割方法,该方法包括:
获取待分割的目标图像;
将目标图像输入至预设车辆外观分割神经网络模型中进行外观分割,预设车辆外观分割神经网络模型采用本发明实施例提供的模型训练方法训练得到;
根据预设车辆外观分割神经网络模型的输出结果,确定分割后的目标分割图像。
第三方面,本发明实施例还提供了一种模型训练装置,该模型训练装置包括:
样本输入模块,用于将图像训练样本输入至车辆外观分割神经网络模型,其中,图像训练样本包括真实图像以及与真实图像对应的标定图像,标定图像为根据真实图像分割结果进行特征标定后的图像;
第一函数确定模块,用于根据车辆外观分割神经网络模型中粗分割模块的第一中间结果与标定图像的分类特征,确定对应的第一损失函数;
第二函数确定模块,用于根据车辆外观分割神经网络模型的生成结果与标定图像,确定对应的第二损失函数;
模型训练模块,用于基于第一损失函数和第二损失函数对车辆外观分割神经网络模型进行训练,直到车辆外观分割神经网络模型满足预设收敛条件。
第四方面,本发明实施例还提供了一种外观分割装置,该外观分割装置包括:
目标图像获取模块,用于获取待分割的目标图像;
外观分割模块,用于将目标图像输入至预设车辆外观分割神经网络模型中进行外观分割,预设车辆外观分割神经网络模型采用本发明实施例提供的模型训练方法训练得到;
分割图像确定模块,用于根据预设车辆外观分割神经网络模型的输出结果,确定分割后的目标分割图像。
第五方面,本发明实施例还提供了一种计算机设备,包括存储装置、处理器及存储在存储装置上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现如本发明任意实施例提供的方法。
第六方面,本发明实施例还提供了一种包含计算机可执行指令的存储介质,计算机可执行指令在由计算机处理器执行时用于执行如本发明任意实施例提供的方法。
本发明实施例通过将图像训练样本输入至车辆外观分割神经网络模型,其中,图像训练样本包括真实图像以及与真实图像对应的标定图像,标定图像为根据真实图像分割结果进行特征标定后的图像;根据车辆外观分割神经网络模型中粗分割模块的第一中间结果与标定图像的分类特征,确定对应的第一损失函数;根据车辆外观分割神经网络模型的生成结果与标定图像,确定对应的第二损失函数;基于第一损失函数和第二损失函数对车辆外观分割神经网络模型进行训练,直到车辆外观分割神经网络模型满足预设收敛条件。通过采用上述技术方案,通过向待训练的车辆外观分割神经网络模型中输入图像训练样本,根据车辆外观分割神经网络模型中不同模块输出的中间结果以及模型最终输出的生成结果,得到对应的用于对车辆外观神经网络模型进行训练的第一损失函数和第二损失函数,通过第一损失函数和第二损失函数对车辆外观神经网络模型进行训练以对其中各模块的权重参数进行调整,使得训练得到的车辆外观神经网络模型对输入图片的分割效果更好,解决了对车辆外观进行人工分割时人工成本高,进行智能分割时分割结果不够准确的问题,提高了训练好的车辆外观神经网络模型对车辆外观进行分割的清晰度和准确度。
附图说明
图1是本发明实施例一中的一种模型训练方法的流程图;
图2是本发明实施例二中的一种模型训练方法的流程图;
图3是本发明实施例二中的一种车辆外观分割神经网络模型的结构示例图;
图4是本发明实施例三中的一种外观分割方法的流程图;
图5是本发明实施例四中的一种模型训练装置的结构示意图;
图6是本发明实施例五中的一种外观分割装置的结构示意图;
图7是本发明实施例六中的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。此外,在不冲突的情况下,本发明中的实施例及实施例中的特征可以互相组合。
另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
实施例一
图1为本发明实施例一提供的一种模型训练方法的流程图,本实施例可适用于对用以进行车辆外观分割的车辆外观分割神经网络模型进行训练的情况,该方法可以由模型训练装置来执行,该模型训练装置可以由软件和/或硬件来实现,该模型训练装置可以配置在计算设备上,具体包括如下步骤:
S101、将图像训练样本输入至车辆外观分割神经网络模型。
其中,图像训练样本包括真实图像以及与真实图像对应的标定图像,标定图像为根据真实图像分割结果进行特征标定后的图像。
在本实施例中,图像训练样本可理解为输入车辆外观分割神经网络模型中用以对其进行训练的,根据真实图像确定的训练对象的集合,进一步地,由于本申请中所需训练的为车辆外观分割神经网络模型对输入车辆图片进行外观分割的能力,此时输入的图像训练样本中应包括需要进行外观分割的车辆图片,和与车辆图片对应的已经分割且对各分割部分特征进行标定后的车辆标定图片,也即为图像训练样本中包括真实图像以及与真实图像对应的标定图像。示例性的,车辆标定图片中的标定部分可根据待识别的车辆部件类型进行划分,如车牌、车灯、车轮、车标、车门、前风挡玻璃、防护装置、后视镜和栅栏等,由于不同车辆部件在图像中具有不同的显示特征,因此可根据特征的不同对车辆图片进行分割标定。
在本实施例中,车辆外观分割神经网络模型可理解为一种用以针对输入的待分割车辆图片进行处理,并生成分割后符合预设分割类别的图像的神经网络模型,其中,预设分割类别可理解为根据实际车辆检测需要,确定出的根据车辆部件类型不同将车辆外观进行分割形成的多个类别,示例性的,可包括前风挡玻璃、左前车门、右前车门、引擎盖和左前轮等。神经网络模型(Neural Networks,NN)可理解为一种由大量的、简单的处理单元(也可称为神经元)广泛地互相连接而形成的复杂网络系统,其可反映人脑功能的许多基本特征,是一种高度复杂的非线性动力学习系统,简而言之,神经网络模型可理解为一种以神经元为基础的数学模型。
一般的,神经网络模型由多个神经网络层构成,不同的神经网络层可对输入其中的数据实现不同的处理,如卷积和归一化等,多个不同的神经网络层以一定预设规则进行组合可形成神经网络模型中作用不同的模块,可选的,本申请中的车辆外观分割神经网络模型中可包括多个作用不同的模块,各模块对输入图像训练样本进行处理后可形成不同的中间结果,并最终结合多个中间结果得到输出车辆外观分割神经网络模型输出的生成结果。
具体的,将由真实图像以及与真实图像对应的标定图像所构成的图像训练样本输入至车辆外观分割神经网络模型中,其中,车辆外观分割神经网络模型主要通过对输入的图像训练样本中的真实图像进行特征提取,并针对提取的特征进行处理得到中间结果以及生成结果,并将其与图像训练样本中的标定图像进行特征比对,以确定对应的损失函数,进而完成车辆外观分割神经网络模型的训练。
S102、根据车辆外观分割神经网络模型中粗分割模块的第一中间结果与标定图像的分类特征,确定对应的第一损失函数。
在本实施例中,损失函数(Loss Function)可理解为用以测量深度学习过程中训练的模型与理想模型之间距离的函数,损失函数可被用于模型的参数估计(ParametericEstimation)使训练的模型达到收敛状态,进而减小训练后模型预测值与真实值之间的误差。粗分割模块可理解为车辆外观分割神经网络模型中多个神经网络层的组合,可用于对输入的图像训练样本进行粗分割,针对不同的分割类别生成关于不同特征的特征矩阵。标定图像的分类特征可理解为针对真实图像的分割结果,将标定图像根据分割结果所对应的不同分割类别进行分割,将标定图像中分割后不同分割区域所对应的特征确定为标定图像的分类特征。
具体的,将图像训练样本中的真实图像分割结果经特征提取处理后输入至车辆外观分割神经网络模型中的粗分割模块中,并将粗分割模块的输出确定为第一中间结果,其中,第一中间结果可为一个或多个,分别对应于不同预设分割类别所对应的不同特征,每个第一中间结果可理解为一种分割类别对应特征的特征矩阵。根据分割类别确定第一中间结果对应的特征矩阵,以及与分割类别对应的标定图像的分类特征的特征矩阵,计算各分割类别所对应特征矩阵间的特征距离进而确定对应的第一损失函数。
在本发明实施例中,确定出的第一损失函数可以用于在训练中对车辆外观分割神经网络模型中的粗分割模块或其他相关模块的权重参数进行调整,而非利用统一的损失函数对车辆外观分割神经网络模型中各模块的权重参数进行调整,使得训练后的权重参数调整更为准确,对不同特征间的划分更清晰。
S103、根据车辆外观分割神经网络模型的生成结果与标定图像,确定对应的第二损失函数。
在本实施例中,生成结果可理解为与输入的图像训练样本中的真实图像相对应的,希望生成的与真实图像进行标定后的标定图像相近的生成图像。
具体的,将包括真实图像以及与真实图像对应的标定图像的图像训练样本输入至车辆外观分割神经网络模型中,车辆外观分割神经网络模型根据其中各模块对应的神经网络层以及其中的权重参数输出生成结果,该生成结果可为与标定图像近似的生成图像。计算生成结果与标定图像间的特征距离,进而根据特征距离确定比对结果,从而根据比对结果确定出车辆外观分割神经网络模型对应的第二损失函数。
S104、基于第一损失函数和第二损失函数对车辆外观分割神经网络模型进行训练,直到车辆外观分割神经网络模型满足预设收敛条件。
在本实施例中,预设收敛条件可理解为用以判断训练的车辆外观分割神经网络模型是否进入收敛状态的条件。可选的,预设收敛条件可包括计算得到的特征距离小于预设特征距离值、模型训练两次迭代之间的权重参数变化小于预设参数变化阈值和迭代超过设定的最大迭代次数以及训练样本全部训练完毕等,本发明实施例对此不进行限定。
具体的,利用得到的第一损失函数与第二损失函数对车辆外观分割神经网络模型进行反向传播,可以使得车辆外观分割神经网络模型中组成粗分割模块的神经网络层中的权重参数可根据第一损失函数进行调整,并使得车辆外观分割神经网络模型中其他模块的神经网络层中的权重参数可根据第二损失函数进行调整,直到满足预设收敛条件时停止对车辆外观分割神经网络模型的训练。
本实施例的技术方案,通过将图像训练样本输入至车辆外观分割神经网络模型,其中,图像训练样本包括真实图像以及与真实图像对应的标定图像,标定图像为根据真实图像分割结果进行特征标定后的图像;根据车辆外观分割神经网络模型中粗分割模块的第一中间结果与标定图像的分类特征,确定对应的第一损失函数;根据车辆外观分割神经网络模型的生成结果与标定图像,确定对应的第二损失函数;基于第一损失函数和第二损失函数对车辆外观分割神经网络模型进行训练,直到车辆外观分割神经网络模型满足预设收敛条件。通过采用上述技术方案,通过向待训练的车辆外观分割神经网络模型中输入图像训练样本,根据车辆外观分割神经网络模型中不同模块输出的中间结果以及模型最终输出的生成结果,得到对应的用于对车辆外观神经网络模型进行训练的第一损失函数和第二损失函数,通过第一损失函数和第二损失函数对车辆外观神经网络模型进行训练以对其中各模块的权重参数进行调整,使得训练得到的车辆外观神经网络模型对输入图片的分割效果更好,解决了对车辆外观进行人工分割时人工成本高,进行智能分割时分割结果不够准确的问题,提高了训练好的车辆外观神经网络模型对车辆外观进行分割的清晰度和准确度。
实施例二
图2是本发明实施例二提供的一种模型训练方法的流程图,本发明实施例的技术方案在上述各可选技术方案的基础上进一步优化,通过在车辆外观分割神经网络模型中粗分割模块的基础上添加其他中间结果处理模块,从而对提取出的特征在类别分割上进行强化,进而通过学习类别上下文关系提升训练所得车辆外观分割神经网络模型的分割准确性。同时通过确定出的两个损失函数分别对车辆外观分割神经网络模型中不同神经网络层组成的不同模块进行权重参数调整,对参数调整更为细腻准确,使得训练得到的车辆外观分割神经网络模型对输入图像进行处理时可得到清晰度和准确度更高的识别结果。
进一步地,车辆外观分割神经网络模型中至少包括骨干网络、像素表达模块、粗分割模块、类别区分表达模块、像素区域关系模块、类别上下文表达模块和增强表达模块。具体包括如下步骤:
S201、将图像训练样本中的真实图像输入骨干网络,确定与真实图像对应的骨干特征。
在本实施例中,骨干网络可理解为一种用于提取图像特征的神经网络,可选的,骨干网络可为残差网络ResNet、轻量级深层神经网络MobileNet或其他用于特征提取的神经网络,本发明实施例对此不进行限制。骨干特征可理解为通过骨干网络提取出的真实图像中的至少一个特征。
具体的,将图像训练样本中的真实图像和标定图像通过如resize等函数进行预处理,使其转化为适宜输入车辆外观分割神经网络模型的图像,将转化后的真实图像输入至车辆外观分割神经网络模型中的骨干网络中,通过骨干网络初步提取其中的各项特征,并将上述特征确定为骨干网络提取出的与真实图像对应的骨干特征。
S202、将骨干特征分别输入像素表达模块和粗分割模块,将像素表达模块的输出确定为骨干特征的增强特征,将粗分割模块的输出确定为第一中间结果。
其中,第一中间结果的个数与预设分割类别数相同。
在本实施例中,像素表达模块可理解为用以对经骨干网络提取出的骨干特征进行进一步的加工、融合和特征增强的,车辆外观分割神经网络模型中多个神经网络层的组合,可选的,在像素表达模块中可将骨干特征通过卷积、归一化和激活函数等进行处理,得到融合后的增强特征,其中,激活函数可采用线性整流函数relu和SIGMOD函数等,本发明实施例对此不进行限制。在粗分割模块中可将骨干特征通过卷积、结果归一化、激活函数并再次卷积的处理,得到根据预设分割类别确定的多个输出,并将输出作为第一中间结果。
具体的,将经骨干网络提取得到的骨干特征输入至像素表达模块中,在像素表达模块中对骨干特征进行卷积、归一化和融合处理,使得骨干特征进行融合增强后输出,并将像素表达模块的输出确定为增强特征。将经骨干网络提取得到的骨干特征输入至粗分割模块中,在粗分割模块中将骨干特征通过卷积、结果归一化、激活函数以及再次卷积的处理,得到对应预设分割类别的多个输出,并将输出确定为第一中间结果,其中,每个第一中间结果均与一个预设分割类别中的特征相对应。
S203、将增强特征与第一中间结果输入类别区分表达模块,以根据第一中间结果对增强特征中的目标特征进行增强,将类别区分表达模块的输出确定为第二中间结果。
其中,目标特征为增强特征中与第一中间结果对应的分割类别相对应的特征。
在本实施例中,类别区分表达模块可理解为用以根据第一中间结果对应的分割类别对增强特征中与分割类别相对应的特征再次进行增强处理的,车辆外观分割神经网络模型中多个神经网络层的组合。
具体的,将增强特征与第一中间结果均输入至类别区分表达模块中,在类别区分表达模块中根据第一中间结果对应的分割类别,确定该分割类别对应的归一化系数矩阵,将归一化系数矩阵中对应分割类别区域的系数赋以较大值,将背景区域的系数赋以较小值。以使在将归一化系数矩阵与增强特征对应的特征矩阵相乘时,可对增强特征中与分割类别相对应区域的特征进行增强,即最终可得到与预设分割类别数相同的,对各分割类别对应特征分别进行增强的多个特征矩阵,上述特征矩阵为类别区分表达模块的输出,也即为第二中间结果。
示例性的,假设预设分割类别数为k,B为像素表达模块输出的增强特征,C为粗分割模块输出的第一中间结果,Bi用以表征增强特征中的一个像素i,Cki用以表征第一中间结果属于第k个分割类别时像素i对应的归一化系数,其中Cki是经过softmax逻辑回归的系数,Dk用以表征对第k个分割类别进行增强后类别区分表达模块输出的第二中间结果。因此,第二中间结果可通过如下公式表达:
进一步地,假设输入车辆外观分割神经网络模型的图像大小为512*512像素,预设分割类别数k为26,经特征提取后可通过128*128个像素来表征提取后图像中的特征,若经过像素表达模块后处理得到的增强特征形状可表征为B[512,128,128],经过粗分割模块后得到的第一中间结果形状可表征为C[26,128,128],在进行数据处理时可将B后面的两个128拉成一行并放置到前面,最终处理为[16384,512],将C后面的两个128拉成一行并处理为[26,16384],最终得到的类别区分表达模块的输出为:也即:
[26,16384]*[16384,512]=[26,512]
即最终所确定的第二中间结果D的形状为[26,512]。该类别区分表达模块的物理意义在于构造像素之间的相关性加权和。转换至线性空间,每个分割类别特征可用一个长度为512的像素来表示。所得到的第二中间结果[26,512]中的每个像素都是经过加权和操作所得的,其是对于目标类别的像素赋予较大的权重,对于非目标类别的像素,将其作为背景赋予较小的权重,从而实现对所需分割类别对应特征的增强。
在本发明实施例中,通过对粗分割后的特征根据所属分割类别进行增强,使得各不同分割类别所对应特征可以被更清晰的突显出来,得到分割特征更加鲜明的中间处理结果,以使得后续根据突显的特征生成对应分割类别的生成图像与真实图像对应标定图像间的损失更小,分割准确度更高。
S204、将增强特征与第二中间结果输入像素区域关系模块,以根据第二中间结果与增强特征间的通道相关性对增强特征进行增强,将像素区域关系模块的输出确定为第三中间结果。
在本实施例中,像素区域关系模块可理解为用以根据第二中间结果与增强特征间各通道的相关性,对属于相同类别的通道所对应特征再次进行增强处理的,车辆外观分割神经网络模型中多个神经网络层的组合。
具体的,将增强特征与第二中间结果均输入值像素区域关系模块中,在像素区域关系模块中对上述输入进行卷积融合处理,得到减少通道数后的特征矩阵,根据第二中间结果与增强特征间各通道的相关性,进行矩阵相乘,使得属于相同类别的通道所对应的特征得到再次增强后输出,将输出确定为第三中间结果。
接上述示例,假设E为像素区域关系模块输出的第三中间结果,则第三中间结果可通过如下公式表达:
进一步地,为了使增强特征矩阵B可以与类别区分表达模块输出的第二中间结果矩阵D相乘,由于B可表征为[512,128,128],D可表征为[26,512],则先对二者通过1*1卷积融合特征减少通道数,再交换位置,使得B的最终形状表征为[16384,256],D的最终形状表征为[256,26],两矩阵相乘可得为[16384,26],通过softmax对进行归一化处理,得到最终确定的第三中间结果E可表示为:
其中,s为缩放系数,一般将s赋值为0.001,本发明实施例对此不进行限制。该像素区域关系模块的物理意义在于构造通道之间的相关性加权和,其对于通道所属类别的特征赋予较大的权重,对于不是该类别的特征赋予较小的权重,从而实现利用通道相关性对增强特征进行增强。
在本发明实施例中,通过对分割类别强化后的特征根据通道之间相关性再次进行增强,使得通道所属类别的特征可以被更清晰的突显出来,得到通道相关性更高、分割特征更加鲜明的中间处理结果,以使得后续根据突显的特征生成对应分割类别的生成图像与真实图像对应标定图像间的损失更小,分割准确度更高。
S205、将第二中间结果、第三中间结果和增强特征输入类别上下文表达模块,以确定上下文拼接特征。
在本实施例中,类别上下文表达模块可理解为用以将车辆外观分割神经网络模型中得到的多个中间结果的特征整合为一个特征矩阵的,车辆外观分割神经网络模型中多个神经网络层的组合。
具体的,将第二中间结果、第三中间结果以及增强特征输入至类别上下文表达模块,并将第二中间结果与第三中间结果相乘,进行特征融合和通道数减少,同时对增强特征进行矩阵变换,使得得到的特征矩阵转变为同一格式,最终将各特征矩阵进行拼接,将得到对应的上下文拼接特征确定为类别上下文表达模块的输出。
进一步地,确定上下文拼接特征具体包括:通过类别上下文表达模块根据第二中间结果和第三中间结果确定融合特征,将融合特征与增强特征拼接,并将拼接后的特征确定为上下文拼接特征。
接上述示例,假设F1为第二中间结果与第三中间结果确定的融合特征,第三中间结果E的形状为[16384,26],第二中间结果D的形状为[26,512],为了融合特征和减少通道数,对D进行1*1卷积操作,得到新的的形状为[26,256],则融合特征F1可表示为:
也即F1的形状为[16384,256]。
假设F2为用以进行拼接的增强特征,由于原始增强特征B的形状为[512,128,128],需将其调整为与F1格式相同的特征矩阵以便完成拼接,因此可通过reshape函数将F2的形状调整为[16384,512]。
进一步地,假设F为根据拼接后特征确定出的上下文拼接特征,则F的形状可表示为[16384,768]。该模块的物理意义在于通过融合在先确定的,对类别特征以及通道相关性分别进行增强的特征,得到同类别和不同类别之间的学习类别上下文关系,从而使得得到的特征矩阵可以更有效的分割图像。
S206、将上下文拼接特征输入增强表达模块,以将上下文拼接特征进行融合归一化,并将增强表达模块的输出确定为车辆外观分割神经网络模型的生成结果。
在本实施例中,增强表达模块可理解为用以将输入的上下文拼接特征进行融合归一化,进而形成对应特征图的,车辆外观分割神经网络模型中多个神经网络层的组合。
具体的,将上下文拼接特征输入至增强表达模块中,在增强表达模块中对上下文拼接特征通过卷积、归一化函数和激活函数对其进行处理,并在处理后通过1*1卷积将其转变为通道数和预设分割类别数一致的特征图,并将该特征图确定为车辆外观分割神经网络模型的生成结果。
S207、根据预设分割类别确定标定图像的分类特征。
具体的,由于标定图像为针对真实图像分割结果确定的图像,真实图像分割结果可根据预设分割类别确定出不同分割类别对应的不同区域,对不同区域进行与分割类别对应的标定即可得到标定图像,而不同的分割类别在标定图像中特征表现各不相同,则可根据预设分割类别所对应不同表现的特征确定标定图像中不同分割类别对应的分类特征。
S208、将第一中间结果,以及标定图像中与第一中间结果对应的分割类别相对应的分类特征进行比对。
具体的,由于一个第一中间结果仅体现一种分割类别所对应的特征,因此确定第一中间结果对应的分割类别,将标定图像中与该分割类别相对应的分类特征与第一中间结果进行比对,得到对应该分割类别的比对结果。
S209、根据比对结果确定粗分割模块对应的第一损失函数。
具体的,根据不同第一中间结果对应的分割类别确定出对应不同分割类别的比对结果,该比对结果可根据不同分割类别所对应的第一中间结果与标定图像中分类特征间的特征向量距离确定,进而通过比对结果对第一损失函数进行确定。
S210、确定车辆外观分割神经网络模型的生成结果与标定图像间的特征向量距离。
具体的,根据车辆外观分割神经网络模型的生成结果所对应的第一特征向量,以及标定图像中所对应的图像特征的第二特征向量,确定二者间的特征向量距离。
其中,第一特征向量与第二特征向量具有相同的分类特征。
S211、根据特征向量距离确定车辆外观分割神经网络模型对应的第二损失函数。
在本实施例中,特征向量距离可将为用以衡量标定图像与生成结果间各特征间接近程度的参量。
S212、基于第一损失函数和第二损失函数对车辆外观分割神经网络模型进行训练,以根据第一损失函数对粗分割模块中的权重参数进行调整,并根据第二损失函数对类别区分表达模块和像素区域关系模块中的权重参数进行调整。
具体的,基于第一损失函数和第二损失函数对车辆外观分割神经网络模型进行反向传播,使得粗分割模块所对应神经网络层中的权重参数根据第一损失函数中确定的损失值进行调整;同时使得类别区分表达模块与像素区域关系模块中确定的权重参数根据第二损失函数中确定的损失值进行调整,直到调整后的车辆外观分割神经网络模型满足预设收敛条件时认为训练完成。
示例性的,图3为本发明实施例提供的一种车辆外观分割神经网络模型的结构示例图,其中包括骨干网络、像素表达模块、粗分割模块、类别区分表达模块、像素区域关系模块、类别上下文表达模块和增强表达模块,具体数据流向如图3中所示。
本实施例的技术方案,通过将车辆外观分割神经网络模型中各神经网络层划分为不同的模块,将不同模块处理得到的不同中间结果以预设方式进行整合,得到对分割类别和通道相关性均再次进行增强的特征,并将提取的特征与增强的特征进行拼接整合,根据类别上下文关系得到更为准确的外观分割结果,同时通过确定出的两个损失函数,分别对车辆外观分割神经网络模型中不同模块中的权重参数进行调整,使得训练后的车辆外观分割神经网络模型对输入图片的分割效果更好,提高了对输入车辆外观分割神经网络模型中待分割图片中车辆外观分割的清晰度和准确度。
实施例三
图4为本发明实施例三提供的一种外观分割方法的流程图,该方法可以由外观分割装置执行,其中该外观分割装置可以由软件和/或硬件来实现,该外观分割装置可以配置在计算设备上,具体包括如下步骤:
S301、获取待分割的目标图像。
在本实施例中,待分割的目标图像可以与本发明实施例中的图像训练样本中的真实图像形式一致。示例性的,待分割的目标图像可为接收车检的车辆外观图片等。
S302、将目标图像输入至预设车辆外观分割神经网络模型中进行外观分割。
其中,所述预设车辆外观分割神经网络模型采用本发明实施例提供的一种模型训练方法训练得到。
S303、根据预设车辆外观分割神经网络模型的输出结果,确定分割后的目标分割图像。
示例性的,将待分割的目标图像输入预设车辆外观分割神经网络模型后,预设车辆外观分割神经网络模型可根据其内部各模块训练好的参数就输入的目标图像进行图像生成,生成的图像即为分割后的目标分割图像。其中,目标分割图像可以与本发明实施例中的图像训练样本中的标定图像形式一致。
本发明实施例提供的外观分割方法,由于采用了本发明实施例提供的模型训练方法训练得到的车辆外观分割神经网络模型,再基于该模型进行车辆外观分割,能够利用特征的上下文关系产生更好的分割识别效果,提高了生成的目标分割图像的清晰度和准确度,以及其与真实车辆分割结果的相似度。
实施例四
图5为本发明实施例四提供的一种模型训练装置的结构示意图,该模型训练装置包括:样本输入模块41,第一函数确定模块42,第二函数确定模块43和模型训练模块44。
其中,样本输入模块41,用于将图像训练样本输入至车辆外观分割神经网络模型,其中,图像训练样本包括真实图像以及与真实图像对应的标定图像,标定图像为根据真实图像分割结果进行特征标定后的图像;第一函数确定模块42,用于根据车辆外观分割神经网络模型中粗分割模块的第一中间结果与标定图像的分类特征,确定对应的第一损失函数;第二函数确定模块43,用于根据车辆外观分割神经网络模型的生成结果与标定图像,确定对应的第二损失函数;模型训练模块44,用于基于第一损失函数和第二损失函数对车辆外观分割神经网络模型进行训练,直到车辆外观分割神经网络模型满足预设收敛条件。
本实施例的技术方案,解决了对车辆外观进行人工分割时人工成本高,进行智能分割时分割结果不够准确的问题,提高了训练好的车辆外观神经网络模型对车辆外观进行分割的清晰度和准确度。
进一步地,车辆外观分割神经网络模型至少包括:骨干网络、像素表达模块、粗分割模块、类别区分表达模块、像素区域关系模块、类别上下文表达模块和增强表达模块。
可选的,样本输入模块41,具体用于:
将图像训练样本中的真实图像输入骨干网络,确定与真实图像对应的骨干特征;
将骨干特征分别输入像素表达模块和粗分割模块,将像素表达模块的输出确定为骨干特征的增强特征,将粗分割模块的输出确定为第一中间结果,其中,第一中间结果的个数与预设分割类别数相同;
将增强特征与第一中间结果输入类别区分表达模块,以根据第一中间结果对增强特征中的目标特征进行增强,将类别区分表达模块的输出确定为第二中间结果,其中,目标特征为增强特征中与第一中间结果对应的分割类别相对应的特征;
将增强特征与第二中间结果输入像素区域关系模块,以根据第二中间结果与增强特征间的通道相关性对增强特征进行增强,将像素区域关系模块的输出确定为第三中间结果;
将第二中间结果、第三中间结果和增强特征输入类别上下文表达模块,以确定上下文拼接特征;
将上下文拼接特征输入增强表达模块,以将上下文拼接特征进行融合归一化,并将增强表达模块的输出确定为车辆外观分割神经网络模型的生成结果。
进一步地,确定上下文拼接特征,包括:通过类别上下文表达模块根据第二中间结果和第三中间结果确定融合特征,将融合特征与增强特征拼接,并将拼接后的特征确定为上下文拼接特征。
可选的,第一函数确定模块42,包括:
特征比对单元,用于将第一中间结果,以及标定图像中与第一中间结果对应的分割类别相对应的分类特征进行比对;
第一函数确定单元,用于根据比对结果确定粗分割模块对应的第一损失函数。
可选的,第二函数确定模块43,包括:
特征距离确定单元,用于确定车辆外观分割神经网络模型的生成结果与标定图像间的特征向量距离;
第二函数确定单元,用于根据特征向量距离确定车辆外观分割神经网络模型对应的第二损失函数。
可选的,模型训练模块44,具体用于:基于第一损失函数和第二损失函数对车辆外观分割神经网络模型进行训练,以根据第一损失函数对粗分割模块中的权重参数进行调整,并根据第二损失函数对类别区分表达模块和像素区域关系模块中的权重参数进行调整。
本发明实施例提供的模型训练装置可执行本发明任意实施例所提供的模型训练方法,具备执行方法相应的功能模块和有益效果。
实施例五
图6是本发明实施例五提供的一种外观分割装置的结构示意图,该外观分割装置可由软件和/或硬件实现,一般可集成在计算机设备中,可通过执行外观分割方法来进行车辆外观分割。如图6所示,该装置包括:目标图像获取模块51,外观分割模块52和分割图像确定模块53。
其中,目标图像获取模块51,用于获取待分割的目标图像;外观分割模块52,用于将目标图像输入至预设车辆外观分割神经网络模型中进行外观分割,预设车辆外观分割神经网络模型采用本发明实施例提供的模型训练方法训练得到;分割图像确定模块53,用于根据预设车辆外观分割神经网络模型的输出结果,确定分割后的目标分割图像。
本发明实施例提供的外观分割装置,由于采用了本发明实施例提供的模型训练方法训练得到的车辆外观分割神经网络模型,再基于该模型进行车辆外观分割,能够利用特征的上下文关系产生更好的分割识别效果,提高了生成的目标分割图像的清晰度和准确度,以及其与真实车辆分割结果的相似度。
实施例六
图7为本发明实施例六提供的一种计算机设备的结构示意图,该计算机设备中可集成本发明实施例提供的模型训练装置和/或外观分割装置。如图7所示,计算机设备600包括存储装置601、处理器602及存储在存储装置601上并可在处理器602上运行的计算机程序,所述处理器602执行所述计算机程序时实现本发明实施例提供的模型训练方法和/或外观分割方法。
存储装置601作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的模型训练方法和/或外观分割方法对应的程序指令/模块(例如,样本输入模块41,第一函数确定模块42,第二函数确定模块43和模型训练模块44,或,目标图像获取模块51,外观分割模块52和分割图像确定模块53)。处理器602通过运行存储在存储装置601中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的模型训练方法和/或外观分割方法。
存储装置601可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储装置601可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储装置601可进一步包括相对于处理器602远程设置的存储器,这些远程存储器可以通过网络连接至识别。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
实施例七
本发明实施例七还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行本发明实施例提供的模型训练方法和/或外观分割方法。
其中,模型训练方法包括:
将图像训练样本输入至车辆外观分割神经网络模型,其中,图像训练样本包括真实图像以及与真实图像对应的标定图像,标定图像为根据真实图像分割结果进行特征标定后的图像;
根据车辆外观分割神经网络模型中粗分割模块的第一中间结果与标定图像的分类特征,确定对应的第一损失函数;
根据车辆外观分割神经网络模型的生成结果与标定图像,确定对应的第二损失函数;
基于第一损失函数和第二损失函数对车辆外观分割神经网络模型进行训练,直到车辆外观分割神经网络模型满足预设收敛条件。
其中,外观分割方法,包括:
获取待分割的目标图像;
将目标图像输入至预设车辆外观分割神经网络模型中进行外观分割,预设车辆外观分割神经网络模型采用本发明实施例提供的模型训练方法训练得到;
根据预设车辆外观分割神经网络模型的输出结果,确定分割后的目标分割图像。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的模型训练方法和/或外观分割方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述搜索装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种模型训练方法,其特征在于,包括:
将图像训练样本输入至车辆外观分割神经网络模型,其中,所述图像训练样本包括真实图像以及与真实图像对应的标定图像,所述标定图像为根据真实图像分割结果进行特征标定后的图像;
根据所述车辆外观分割神经网络模型中粗分割模块的第一中间结果与所述标定图像的分类特征,确定对应的第一损失函数;
根据所述车辆外观分割神经网络模型的生成结果与所述标定图像,确定对应的第二损失函数;
基于所述第一损失函数和所述第二损失函数对所述车辆外观分割神经网络模型进行训练,直到所述车辆外观分割神经网络模型满足预设收敛条件。
2.根据权利要求1所述的方法,其特征在于,所述车辆外观分割神经网络模型至少包括骨干网络、像素表达模块、粗分割模块、类别区分表达模块、像素区域关系模块、类别上下文表达模块和增强表达模块,所述将图像训练样本输入至车辆外观分割神经网络模型,包括:
将所述图像训练样本中的真实图像输入所述骨干网络,确定与所述真实图像对应的骨干特征;
将所述骨干特征分别输入所述像素表达模块和所述粗分割模块,将所述像素表达模块的输出确定为所述骨干特征的增强特征,将所述粗分割模块的输出确定为第一中间结果,其中,所述第一中间结果的个数与预设分割类别数相同;
将所述增强特征与所述第一中间结果输入所述类别区分表达模块,以根据所述第一中间结果对所述增强特征中的目标特征进行增强,将所述类别区分表达模块的输出确定为第二中间结果,其中,所述目标特征为所述增强特征中与所述第一中间结果对应的分割类别相对应的特征;
将所述增强特征与所述第二中间结果输入所述像素区域关系模块,以根据所述第二中间结果与所述增强特征间的通道相关性对所述增强特征进行增强,将所述像素区域关系模块的输出确定为第三中间结果;
将所述第二中间结果、所述第三中间结果和所述增强特征输入所述类别上下文表达模块,以确定上下文拼接特征;
将所述上下文拼接特征输入所述增强表达模块,以将所述上下文拼接特征进行融合归一化,并将所述增强表达模块的输出确定为所述车辆外观分割神经网络模型的生成结果。
3.根据权利要求2所述的方法,其特征在于,所述确定上下文拼接特征,包括:
通过所述类别上下文表达模块根据所述第二中间结果和所述第三中间结果确定融合特征,将所述融合特征与所述增强特征拼接,并将拼接后的特征确定为上下文拼接特征。
4.根据权利要求2所述的方法,其特征在于,所述根据所述车辆外观分割神经网络模型中粗分割模块的第一中间结果与所述标定图像的分类特征,确定对应的第一损失函数,包括:
根据所述预设分割类别确定所述标定图像的分类特征;
将所述第一中间结果,以及所述标定图像中与所述第一中间结果对应的分割类别相对应的分类特征进行比对;
根据比对结果确定所述粗分割模块对应的第一损失函数。
5.根据权利要求1所述的方法,其特征在于,所述根据所述车辆外观分割神经网络模型的生成结果与所述标定图像,确定对应的第二损失函数,包括:
确定所述车辆外观分割神经网络模型的生成结果与所述标定图像间的特征向量距离;
根据所述特征向量距离确定所述车辆外观分割神经网络模型对应的第二损失函数。
6.根据权利要求2所述的方法,其特征在于,所述基于所述第一损失函数和所述第二损失函数对所述车辆外观分割神经网络模型进行训练,包括:
基于所述第一损失函数和所述第二损失函数对所述车辆外观分割神经网络模型进行训练,以根据所述第一损失函数对所述粗分割模块中的权重参数进行调整,并根据所述第二损失函数对所述类别区分表达模块和所述像素区域关系模块中的权重参数进行调整。
7.一种外观分割方法,其特征在于,包括:
获取待分割的目标图像;
将所述目标图像输入至预设车辆外观分割神经网络模型中进行外观分割,所述预设车辆外观分割神经网络模型采用权利要求1-6任一项所述的模型训练方法训练得到;
根据所述预设车辆外观分割神经网络模型的输出结果,确定分割后的目标分割图像。
8.一种模型训练装置,其特征在于,包括:
样本输入模块,用于将图像训练样本输入至车辆外观分割神经网络模型,其中,所述图像训练样本包括真实图像以及与真实图像对应的标定图像,所述标定图像为根据真实图像分割结果进行特征标定后的图像;
第一函数确定模块,用于根据所述车辆外观分割神经网络模型中粗分割模块的第一中间结果与所述标定图像的分类特征,确定对应的第一损失函数;
第二函数确定模块,用于根据所述车辆外观分割神经网络模型的生成结果与所述标定图像,确定对应的第二损失函数;
模型训练模块,用于基于所述第一损失函数和所述第二损失函数对所述车辆外观分割神经网络模型进行训练,直到所述车辆外观分割神经网络模型满足预设收敛条件。
9.一种计算机设备,包括存储装置、处理器及存储在存储装置上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-7任一项所述的方法。
10.一种包含计算机可执行指令的存储介质,其特征在于,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011519870.1A CN112541463A (zh) | 2020-12-21 | 2020-12-21 | 模型训练方法、外观分割方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011519870.1A CN112541463A (zh) | 2020-12-21 | 2020-12-21 | 模型训练方法、外观分割方法、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112541463A true CN112541463A (zh) | 2021-03-23 |
Family
ID=75019370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011519870.1A Pending CN112541463A (zh) | 2020-12-21 | 2020-12-21 | 模型训练方法、外观分割方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112541463A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221907A (zh) * | 2021-06-01 | 2021-08-06 | 平安科技(深圳)有限公司 | 一种车辆部件分割方法、装置、设备及存储介质 |
CN114549948A (zh) * | 2022-02-16 | 2022-05-27 | 北京百度网讯科技有限公司 | 深度学习模型的训练方法、图像识别方法、装置和设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108765423A (zh) * | 2018-06-20 | 2018-11-06 | 北京七鑫易维信息技术有限公司 | 一种卷积神经网络训练方法及装置 |
CN109886342A (zh) * | 2019-02-26 | 2019-06-14 | 视睿(杭州)信息科技有限公司 | 基于机器学习的模型训练方法和装置 |
CN110796183A (zh) * | 2019-10-17 | 2020-02-14 | 大连理工大学 | 基于相关性引导的判别学习的弱监督细粒度图像分类算法 |
CN110853069A (zh) * | 2019-10-09 | 2020-02-28 | 上海眼控科技股份有限公司 | 一种用于车辆外观分割的神经网络模型构建方法与系统 |
US20200074205A1 (en) * | 2017-06-28 | 2020-03-05 | Beijing Sensetime Technology Development Co., Ltd. | Methods and apparatuses for vehicle appearance feature recognition, methods and apparatuses for vehicle retrieval, storage medium, and electronic devices |
US20200320697A1 (en) * | 2019-04-04 | 2020-10-08 | Alibaba Group Holding Limited | Method, system, and device for lung lobe segmentation, model training, model construction and segmentation |
-
2020
- 2020-12-21 CN CN202011519870.1A patent/CN112541463A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200074205A1 (en) * | 2017-06-28 | 2020-03-05 | Beijing Sensetime Technology Development Co., Ltd. | Methods and apparatuses for vehicle appearance feature recognition, methods and apparatuses for vehicle retrieval, storage medium, and electronic devices |
CN108765423A (zh) * | 2018-06-20 | 2018-11-06 | 北京七鑫易维信息技术有限公司 | 一种卷积神经网络训练方法及装置 |
CN109886342A (zh) * | 2019-02-26 | 2019-06-14 | 视睿(杭州)信息科技有限公司 | 基于机器学习的模型训练方法和装置 |
US20200320697A1 (en) * | 2019-04-04 | 2020-10-08 | Alibaba Group Holding Limited | Method, system, and device for lung lobe segmentation, model training, model construction and segmentation |
CN110853069A (zh) * | 2019-10-09 | 2020-02-28 | 上海眼控科技股份有限公司 | 一种用于车辆外观分割的神经网络模型构建方法与系统 |
CN110796183A (zh) * | 2019-10-17 | 2020-02-14 | 大连理工大学 | 基于相关性引导的判别学习的弱监督细粒度图像分类算法 |
Non-Patent Citations (1)
Title |
---|
张文秀等: "基于残差块和注意力机制的细胞图像分割方法", 光学学报, vol. 40, no. 17, 30 September 2020 (2020-09-30), pages 1 - 8 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221907A (zh) * | 2021-06-01 | 2021-08-06 | 平安科技(深圳)有限公司 | 一种车辆部件分割方法、装置、设备及存储介质 |
CN113221907B (zh) * | 2021-06-01 | 2024-05-31 | 平安科技(深圳)有限公司 | 一种车辆部件分割方法、装置、设备及存储介质 |
CN114549948A (zh) * | 2022-02-16 | 2022-05-27 | 北京百度网讯科技有限公司 | 深度学习模型的训练方法、图像识别方法、装置和设备 |
CN114549948B (zh) * | 2022-02-16 | 2023-06-30 | 北京百度网讯科技有限公司 | 深度学习模型的训练方法、图像识别方法、装置和设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110135437B (zh) | 用于车辆的定损方法、装置、电子设备和计算机存储介质 | |
CN110458077B (zh) | 一种车辆颜色识别方法及系统 | |
CN110163069B (zh) | 用于辅助驾驶的车道线检测方法 | |
Rani et al. | Object detection and recognition using contour based edge detection and fast R-CNN | |
CN112541463A (zh) | 模型训练方法、外观分割方法、设备及存储介质 | |
CN108428248B (zh) | 车窗定位方法、系统、设备及存储介质 | |
CN113312983B (zh) | 基于多模态数据融合的语义分割方法、系统、装置及介质 | |
KR20190137669A (ko) | 자동으로 사고 차량의 파손 정도를 산출하는 장치, 방법 및 컴퓨터 프로그램 | |
CN114170516B (zh) | 一种基于路侧感知的车辆重识别方法、装置及电子设备 | |
CN117079139B (zh) | 一种基于多尺度语义特征的遥感图像目标检测方法及系统 | |
CN113657409A (zh) | 车辆损失检测方法、装置、电子设备及存储介质 | |
CN111353505A (zh) | 可联合实现语义分割和景深估计的网络模型及训练方法 | |
CN111368850A (zh) | 图像的特征提取、目标检测方法及装置、卷积装置、cnn网络装置、终端 | |
CN114913493A (zh) | 一种基于深度学习的车道线检测方法 | |
CN115019273A (zh) | 一种目标检测方法、装置、汽车及存储介质 | |
CN113496148A (zh) | 一种多源数据融合方法及系统 | |
Zhu et al. | A unified framework of intelligent vehicle damage assessment based on computer vision technology | |
CN106650814B (zh) | 一种基于车载单目视觉室外道路自适应分类器生成方法 | |
Zang et al. | Lightweight seatbelt detection algorithm for mobile device | |
CN116912485A (zh) | 一种基于热感图像和可见光图像特征融合的场景语义分割方法 | |
CN108873097B (zh) | 无人停车库中载车板停车时的安全检测方法及装置 | |
CN115376094A (zh) | 基于尺度感知神经网络的无人清扫车路面识别方法及系统 | |
CN115272755A (zh) | 一种激光点云检测分割方法及系统 | |
CN113139991A (zh) | 一种基于重叠区域掩模预测的3d点云配准方法 | |
CN115272992B (zh) | 一种车辆姿态估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |