CN111027617A - 神经网络训练及图像识别方法、装置、设备和存储介质 - Google Patents
神经网络训练及图像识别方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN111027617A CN111027617A CN201911242690.0A CN201911242690A CN111027617A CN 111027617 A CN111027617 A CN 111027617A CN 201911242690 A CN201911242690 A CN 201911242690A CN 111027617 A CN111027617 A CN 111027617A
- Authority
- CN
- China
- Prior art keywords
- neural network
- initial
- network model
- segmentation
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012549 training Methods 0.000 title claims abstract description 133
- 238000000034 method Methods 0.000 title claims abstract description 110
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 33
- 238000003062 neural network model Methods 0.000 claims abstract description 598
- 230000011218 segmentation Effects 0.000 claims abstract description 298
- 238000000605 extraction Methods 0.000 claims abstract description 189
- 238000010586 diagram Methods 0.000 claims abstract description 82
- 230000006870 function Effects 0.000 claims description 56
- 230000009467 reduction Effects 0.000 claims description 54
- 230000015654 memory Effects 0.000 claims description 35
- 238000004590 computer program Methods 0.000 claims description 13
- 238000011176 pooling Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 abstract description 34
- 230000001965 increasing effect Effects 0.000 abstract description 13
- 238000012545 processing Methods 0.000 description 24
- 230000000694 effects Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000005291 magnetic effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- KLDZYURQCUYZBL-UHFFFAOYSA-N 2-[3-[(2-hydroxyphenyl)methylideneamino]propyliminomethyl]phenol Chemical compound OC1=CC=CC=C1C=NCCCN=CC1=CC=CC=C1O KLDZYURQCUYZBL-UHFFFAOYSA-N 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及一种神经网络训练及图像识别方法、装置、设备和存储介质。所述训练方法包括:将训练数据通过初始特征提取神经网络模型,得到目标对象的初始特征图;将初始特征图通过第一初始识别神经网络模型,得到第一预测结果;将初始特征图通过第二初始识别神经网络模型,得到第二预测结果;将初始特征图通过初始分割神经网络模型,得到分割结果;根据第一预测结果、第二预测结果和分割结果,更新初始特征提取神经网络模型,得到训练后的特征提取神经网络模型。通过上述过程可以增大了特征提取网络模型的网络容量、泛化能力以及提取精度;同时,利用该模型得到的分割结果可以使得训练得到的特征提取网络模型具有更高的收敛度和精确度。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种神经网络训练及图像识别方法、装置、设备和存储介质。
背景技术
行人重识别是指给出一个行人的询问图片,需要在一个大规模的数据集中寻找到同一个人的所有图片。随着深度学习技术的发展,行人重识别可以通过神经网络来实现。
然而,随着行人重识别任务愈加复杂,对神经网络的识别精度的要求愈高,如何提高神经网络的识别能力,成为一个亟待解决的问题。
发明内容
本公开提出了一种神经网络的训练方案。
根据本公开的一方面,提供了一种神经网络的训练方法,包括:
将训练数据通过初始特征提取神经网络模型,得到目标对象的初始特征图;
将所述初始特征图通过第一初始识别神经网络模型,得到第一预测结果,其中,所述第一初始识别神经网络模型用于根据所述目标对象的整体特征进行识别;
将所述初始特征图通过第二初始识别神经网络模型,得到第二预测结果,其中,所述第二初始识别神经网络模型用于根据所述目标对象的局部特征进行识别;
将所述初始特征图通过初始分割神经网络模型,得到分割结果,其中,所述初始分割神经网络模型用于在所述初始特征图中将所述目标对象与非目标对象所在的区域进行区分;
根据所述第一预测结果、所述第二预测结果和所述分割结果,更新所述初始特征提取神经网络模型,得到训练后的特征提取神经网络模型。
通过上述过程,可以分别通过第一初始识别神经网络模型和第二初始识别神经网络模型,利用提取的训练数据中的整体特征和局部特征,来实现对初始特征提取神经网络模型的训练,从而使得训练后得到的特征提取神经网络模型在对目标对象进行特征提取时,可以兼具整体和局部的提取效果,从而增大了特征提取网络模型的网络容量、泛化能力以及提取精度;同时,由于在训练时还加入了初始分割神经网络模型,利用该模型得到的分割结果可以有效的在更新初始特征提取神经网络模型时提供约束和监督,从而可以指导特征提取模型学习细粒度的信息,使得训练得到的特征提取网络模型具有更高的收敛度和精确度。
在一种可能的实现方式中,所述将所述初始特征图通过第二初始识别神经网络模型,得到第二预测结果,包括:
根据所述初始特征图,生成局部特征掩模;
根据所述局部特征掩模,对所述初始特征图进行降维,得到第一降维结果;
将所述第一降维结果作为所述第二预测结果。
通过上述过程,可以减少初始特征图中与局部特征无关的背景噪声对得到的第二预测结果的影响,提升第二初始识别神经网络模型对局部特征的抽取能力,从而提升得到的第二预测结果的准确程度,继而可以提升根据第二预测结果训练得到的特征提取神经网络模型的精度和准确程度。
在一种可能的实现方式中,所述根据所述初始特征图,生成局部特征掩模,包括:
将所述初始特征图通过第一卷积层,得到卷积结果;
将所述卷积结果的值对应到预设值域内,得到局部特征掩模。
通过上述过程,可以使得得到的局部特征掩模可以在不损失分辨率的前提下,增加对非线性特征的提取能力,基于这一方式得到的局部特征掩模来得到的第二预测结果,具有更高的准确度。
在一种可能的实现方式中,所述根据所述局部特征掩模,对所述初始特征图进行降维,得到第一降维结果,包括:
通过所述局部特征掩模,对所述初始特征图进行加权均值池化,得到第一降维结果。
通过上述过程,可以有效加强局部特征的信息,减少噪声和无关数据对第二预测结果的影响。
在一种可能的实现方式中,所述第二初始识别神经网络模型的数量包括一个或两个以上,其中,
在所述第二初始识别神经网络模型的数量为两个以上的情况下,将所述初始特征图分别通过每个所述第二初始识别神经网络模型,得到两个以上的第二预测结果。
通过上述过程,可以利用与待识别的局部特征数量对应个数量下的第二初始识别神经网络模型,来分别对每个局部特征进行识别,从而大大提升第二预测结果的准确度,也使得基于第二预测结果训练的特征提取神经网络模型具有更高的特征提取精度,提升特征提取神经网络模型的质量。
在一种可能的实现方式中,所述将所述初始特征图通过初始分割神经网络模型,得到分割结果,包括:
获取所述初始分割神经网络模型包括的K个分割标签,其中,K为不小于1的整数;
在所述K个分割标签下,对所述初始特征图包括的每个像素点进行分割预测,分别得到每个所述像素点的K个分割预测结果;
根据每个所述像素点的K个分割预测结果,确定所述初始特征图中属于所述目标对象的像素点,作为所述分割结果。
通过增加了分割的约束,对初始特征图中的每个像素点进行了分割预测,可以识别训练图像中每个像素点所属的类别,当不同的训练图像中局部特征所处的位置不同时,由于分割预测了每个像素点所属的类别,因此可以强化网络对于训练图像中所需训练的局部特征的关注,减少全局特征不对齐情况,同时有效地减小不同局部特征之间发生的特征冗余的情况的发生,从而大大提升训练得到的特征提取神经网络模型的提取结果的准确性和收敛性。
在一种可能的实现方式中,所述在所述K个分割标签下,对所述初始特征图包括的每个像素点进行分割预测,分别得到每个所述像素点的K个分割预测结果,包括:
将所述初始特征图依次通过反卷积层进行放大,得到放大特征图;
对所述放大特征图通过第二卷积层进行降维,得到第二降维结果;
将所述第二降维结果通过分类器,得到每个所述像素点的K个分割预测结果。
通过将初始特征图放大后降维来得到第二降维结果,再根据第二降维结果进行分类,得到每个像素点的分割预测结果,可以减小由于初始特征图较小而导致的分割预测结果不准确的情况,提升分割结果的准确程度,继而提升训练得到的特征提取神经网络模型的精确程度,同时减少局部特征的冗余。
在一种可能的实现方式中,所述根据所述第一预测结果和所述第二预测结果,更新所述初始特征提取神经网络模型,得到训练后的特征提取神经网络模型,包括:
根据所述第一预测结果,对所述第一初始识别神经网络模型包括的第一初始权重进行反向梯度更新,得到更新后的第一权重和第一识别神经网络模型;
根据所述第二预测结果,对所述第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到更新后的第二权重和第二识别神经网络模型;
根据所述分割结果,对所述初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型;
根据所述第一预测结果、第二预测结果、分割结果、第一权重、第二权重和第三权重,对所述初始特征提取神经网络模型进行反向梯度更新,得到训练后的特征提取神经网络模型。
通过上述过程可以在分别训练第一识别神经网络模型、第二识别神经网络模型和分割神经网络模型的基础上,根据三者的训练结果共同训练特征提取神经网络模型,从而实现对特征提取神经网络模型的多分支训练,从而使得训练得到的特征提取神经网络模型兼具了整体特征和局部特征的提取能力,增大网络容量,提高网络的泛化能力和表达能力,具有较好的特征提取效果,同时在分割分支的约束下,增加了特征提取过程的监督和约束,从而具有更高的模型收敛速度和泛化能力。
在一种可能的实现方式中,所述根据所述分割结果,对所述初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型,包括:
根据所述分割结果,分别获取K个分割标签对应的K个分割损失函数值;
将所述K个分割损失函数值的平均值作为所述初始分割神经网络模型的总分割损失函数值;
根据所述总分割损失函数值,对所述初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型。
通过将K个分割标签对应的K个分割损失函数值的平均值作为总分割损失函数值,可以进一步提升训练得到的分割神经网络模型的精度,继而提升特征提取神经网络模型的精度。
在一种可能的实现方式中,在所述第二初始神经网络模型的数量为两个以上的情况下,根据每个所述第二预测结果,分别对每个对应的所述第二初始神经网络模型包括的第二初始权重进行反向梯度更新,得到两个以上的更新后的第二权重和第二识别神经网络模型。
通过上述过程,可以进一步增加特征提取神经网络模型训练分支的数量,从而使得训练得到的特征提取神经网络模型更加具有多个局部特征的提取能力,进一步地增大网络容量、提高网络的泛化能力以及提升特征提取效果。
在一种可能的实现方式中,所述方法包括:
在第一处理器中,将所述初始特征图通过第一初始识别神经网络模型,得到第一预测结果,以及根据所述第一预测结果,对所述第一初始识别神经网络模型包括的第一初始权重进行反向梯度更新,得到更新后的第一权重和第一识别神经网络模型;
在第二处理器中,将所述初始特征图通过第二初始识别神经网络模型,得到第二预测结果,以及根据所述第二预测结果,对所述第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到更新后的第二权重和第二识别神经网络模型;
在第三处理器中,将所述初始特征图通过初始分割神经网络模型,得到分割结果,以及根据所述分割结果,对所述初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型;
在第四处理器中,将所述训练数据通过初始特征提取神经网络模型,得到目标对象的初始特征图,以及根据所述第一预测结果、第二预测结果、分割结果、第一权重、第二权重和第三权重,对所述初始特征提取神经网络模型进行反向梯度更新,得到训练后的特征提取神经网络模型。
通过上述过程,可以实现在不同硬件设备上对不同神经网络模型的分布式训练,从而减小了在训练数据量较大的情况下,单个处理器的资源不足而降低训练效率这种情况发生的可能性,提升了神经网络模型训练的稳定性和效率。
在一种可能的实现方式中,所述方法还包括:
在所述第二初始神经网络模型的数量为两个以上的情况下,分别在不同的第二处理器中,将所述初始特征图分别通过每个第二初始识别神经网络模型,得到两个以上的第二预测结果,以及根据每个所述第二预测结果,分别对每个所述第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到两个以上更新后的第二权重和第二识别神经网络模型。
通过上述过程可以看出,在不同的第二处理器中训练不同的第二初始识别神经网络模型,可以进一步降低每个硬件设备所需处理的数据量,从而更加提升神经网络模型训练的稳定性和效率。
根据本公开的一方面,提供了一种图像识别方法,包括:
获取待识别图像;
根据如权利要求上述任意一项所述的训练后的特征提取神经网络模型,对所述待识别图像进行识别和/或分割。
通过训练后的特征提取神经网络模型可以较全面的提取图像特征,因而利用训练后的特征提取神经网络模型,再与其他的识别神经网络模型来进行结合,可以得到较好的识别结果。
在一种可能的实现方式中,所述根据上述任意一项所述的训练后的特征提取神经网络模型,对所述待识别图像进行识别,包括:
根据所述训练后的特征提取神经网络模型,结合如上述任意一项所述的更新后的第一识别神经网络模型,对待识别图像进行识别;和/或,
根据所述训练后的特征提取神经网络模型,结合如上述任意一项所述的更新后的第二识别神经网络模型,对待识别图像进行识别;和/或,
根据所述训练后的特征提取神经网络模型,结合如上述任意一项所述的更新后的分割神经网络模型,对待识别图像进行分割;和/或,
根据所述训练后的特征提取神经网络模型,结合如上述任意一项所述的更新后的第一识别神经网络模型、所述更新后的第二识别神经网络模型和所述更新后的分割神经网络模型,对待识别图像进行识别。
通过上述过程,可以根据训练好的特征提取神经网络模型,灵活的对待识别图像进行识别,增加了得到的特征提取神经网络模型应用的灵活性和实用性。
根据本公开的一方面,提供了一种神经网络的训练装置,包括:
初始特征提取模块,用于将训练数据通过初始特征提取神经网络模型,得到目标对象的初始特征图;
第一识别模块,用于将所述初始特征图通过第一初始识别神经网络模型,得到第一预测结果,其中,所述第一初始识别神经网络模型用于根据所述目标对象的整体特征进行识别;
第二识别模块,用于将所述初始特征图通过第二初始识别神经网络模型,得到第二预测结果,其中,所述第二初始识别神经网络模型用于根据所述目标对象的局部特征进行识别;
分割模块,用于将所述初始特征图通过初始分割神经网络模型,得到分割结果,其中,所述初始分割神经网络模型用于在所述初始特征图中将所述目标对象与非目标对象所在的区域进行区分;
训练模块,用于根据所述第一预测结果、所述第二预测结果和所述分割结果,更新所述初始特征提取神经网络模型,得到训练后的特征提取神经网络模型。
在一种可能的实现方式中,所述第二识别模块用于:
根据所述初始特征图,生成局部特征掩模;
根据所述局部特征掩模,对所述初始特征图进行降维,得到第一降维结果;
将所述第一降维结果作为所述第二预测结果。
在一种可能的实现方式中,所述第二识别模块进一步用于:
将所述初始特征图通过第一卷积层,得到卷积结果;
将所述卷积结果的值对应到预设值域内,得到局部特征掩模。
在一种可能的实现方式中,所述第二识别模块进一步用于:
通过所述局部特征掩模,对所述初始特征图进行加权均值池化,得到第一降维结果。
在一种可能的实现方式中,所述第二初始识别神经网络模型的数量包括一个或两个以上,其中,
在所述第二初始识别神经网络模型的数量为两个以上的情况下,将所述初始特征图分别通过每个所述第二初始识别神经网络模型,得到两个以上的第二预测结果。
在一种可能的实现方式中,所述分割模块用于:
获取所述初始分割神经网络模型包括的K个分割标签,其中,K为不小于1的整数;
在所述K个分割标签下,对所述初始特征图包括的每个像素点进行分割预测,分别得到每个所述像素点的K个分割预测结果;
根据每个所述像素点的K个分割预测结果,确定所述初始特征图中属于所述目标对象的像素点,作为所述分割结果。
在一种可能的实现方式中,所述分割模块进一步用于:
将所述初始特征图依次通过反卷积层进行放大,得到放大特征图;
对所述放大特征图通过第二卷积层进行降维,得到第二降维结果;
将所述第二降维结果通过分类器,得到每个所述像素点的K个分割预测结果。
在一种可能的实现方式中,所述训练模块用于:
根据所述第一预测结果,对所述第一初始识别神经网络模型包括的第一初始权重进行反向梯度更新,得到更新后的第一权重和第一识别神经网络模型;
根据所述第二预测结果,对所述第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到更新后的第二权重和第二识别神经网络模型;
根据所述分割结果,对所述初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型;
根据所述第一预测结果、第二预测结果、分割结果、第一权重、第二权重和第三权重,对所述初始特征提取神经网络模型进行反向梯度更新,得到训练后的特征提取神经网络模型。
在一种可能的实现方式中,所述训练模块进一步用于:
根据所述分割结果,分别获取K个分割标签对应的K个分割损失函数值;
将所述K个分割损失函数值的平均值作为所述初始分割神经网络模型的总分割损失函数值;
根据所述总分割损失函数值,对所述初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型。
在一种可能的实现方式中,在所述第二初始神经网络模型的数量为两个以上的情况下,根据每个所述第二预测结果,分别对每个对应的所述第二初始神经网络模型包括的第二初始权重进行反向梯度更新,得到两个以上的更新后的第二权重和第二识别神经网络模型。
在一种可能的实现方式中,所述装置还用于:
在第一处理器中,将所述初始特征图通过第一初始识别神经网络模型,得到第一预测结果,以及根据所述第一预测结果,对所述第一初始识别神经网络模型包括的第一初始权重进行反向梯度更新,得到更新后的第一权重和第一识别神经网络模型;
在第二处理器中,将所述初始特征图通过第二初始识别神经网络模型,得到第二预测结果,以及根据所述第二预测结果,对所述第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到更新后的第二权重和第二识别神经网络模型;
在第三处理器中,将所述初始特征图通过初始分割神经网络模型,得到分割结果,以及根据所述分割结果,对所述初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型;
在第四处理器中,将所述训练数据通过初始特征提取神经网络模型,得到目标对象的初始特征图,以及根据所述第一预测结果、第二预测结果、分割结果、第一权重、第二权重和第三权重,对所述初始特征提取神经网络模型进行反向梯度更新,得到训练后的特征提取神经网络模型。
在一种可能的实现方式中,所述装置还用于:
在所述第二初始神经网络模型的数量为两个以上的情况下,分别在不同的第二处理器中,将所述初始特征图分别通过每个第二初始识别神经网络模型,得到两个以上的第二预测结果,以及根据每个所述第二预测结果,分别对每个所述第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到两个以上更新后的第二权重和第二识别神经网络模型。
根据本公开的一方面,提供了一种图像识别装置,包括:
获取模块,用于获取待识别图像;
应用模块,用于根据如上述任意一项所述的训练后的特征提取神经网络模型,对所述待识别图像进行识别和/或分割。
在一种可能的实现方式中,所述应用模块用于:
根据所述训练后的特征提取神经网络模型,结合如上述任意一项所述的更新后的第一识别神经网络模型,对待识别图像进行识别;和/或,
根据所述训练后的特征提取神经网络模型,结合如上述任意一项所述的更新后的第二识别神经网络模型,对待识别图像进行识别;和/或,
根据所述训练后的特征提取神经网络模型,结合如上述任意一项所述的更新后的分割神经网络模型,对待识别图像进行分割;和/或,
根据所述训练后的特征提取神经网络模型,结合如上述任意一项所述的更新后的第一识别神经网络模型、所述更新后的第二识别神经网络模型和所述更新后的分割神经网络模型,对待识别图像进行识别。
根据本公开的一方面,提供了一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行上述神经网络的训练方法。
根据本公开的一方面,提供了一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行上述图像识别方法。
根据本公开的一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述神经网络的训练方法。
根据本公开的一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述图像识别方法。
在本公开实施例中,通过将训练数据通过初始特征提取神经网络模型来得到初始特征图,再将初始特征图分别通过第一初始识别神经网络模型、第二初始识别神经网络模型和初始分割神经网络模型来分别得到第一预测结果、第二预测结果和分割结果,最后根据第一预测结果、第二预测结果和分割结果来得到训练后的特征提取神经网络模型。通过上述过程,可以分别通过第一初始识别神经网络模型和第二初始识别神经网络模型,利用提取的训练数据中的整体特征和局部特征,来实现对初始特征提取神经网络模型的训练,从而使得训练后得到的特征提取神经网络模型在对目标对象进行特征提取时,可以兼具整体和局部的提取效果,从而增大了特征提取网络模型的网络容量、泛化能力以及提取精度;同时,由于在训练时还加入了初始分割神经网络模型,利用该模型得到的分割结果可以有效的在更新初始特征提取神经网络模型时提供约束和监督,从而可以指导特征提取模型学习细粒度的信息,使得训练得到的特征提取网络模型具有更高的收敛度和精确度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1示出根据本公开一实施例的神经网络的训练方法的流程图。
图2示出根据本公开一实施例的图像识别方法的流程图。
图3示出根据本公开一实施例的神经网络的训练装置的框图。
图4示出根据本公开一实施例的图像识别装置的框图。
图5示出根据本公开一应用示例的示意图。
图6示出根据本公开实施例的一种电子设备的框图。
图7示出根据本公开实施例的一种电子设备的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
另外,为了更好地说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1示出根据本公开一实施例的神经网络的训练方法的流程图,该方法可以应用于终端设备、服务器或者其他处理设备等。其中,终端设备可以为用户设备(UserEquipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字处理(PersonalDigital Assistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等。在一个示例中,该神经网络的训练方法可以应用于人工智能处理器等芯片设备中。
在一些可能的实现方式中,该神经网络的训练方法也可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
如图1所示,所述神经网络的训练方法可以包括:
步骤S11,将训练数据通过初始特征提取神经网络模型,得到目标对象的初始特征图。
步骤S12,将初始特征图通过第一初始识别神经网络模型,得到第一预测结果,其中,第一初始识别神经网络模型用于根据目标对象的整体特征进行识别。
步骤S13,将初始特征图通过第二初始识别神经网络模型,得到第二预测结果,其中,第二初始识别神经网络模型用于根据目标对象的局部特征进行识别。
步骤S14,将初始特征图通过初始分割神经网络模型,得到分割结果,其中,初始分割神经网络模型用于在初始特征图中将目标对象与非目标对象所在的区域进行区分。
步骤S15,根据第一预测结果、第二预测结果和分割结果,更新初始特征提取神经网络模型,得到训练后的特征提取神经网络模型。
上述公开实施例中,目标对象可以是需要被识别的对象,可以根据实际情况灵活定义,在一种可能的实现方式中,目标对象可以是如行人、学生或是某类动物等具有生命的生物对象,也可以是车牌或是建筑等无生命的物体对象。
训练数据则可以是包含有目标对象的数据,比如包含有目标对象的图像或是包含有目标对象的视频等,训练数据的数量在此不做限制,可以根据训练需求灵活定义训练数据的数量。
初始特征提取神经网络模型可以提取训练数据中目标对象的全部特征,其具体实现形式在本公开实施例中也不做限制,任何具有特征提取功能的神经网络模型,均可以作为初始特征提取神经网络模型的实现形式。在一种可能的实现方式中,初始特征提取神经网络模型可以从已有的神经网络模型中进行截取来得到,在一个示例中,可以从具有行人重识别功能的神经网络模型中,选择其中用于提取行人全部特征的部分,来作为初始特征提取神经网络模型的实现形式。
第一初始识别神经网络模型可以从提取的初始特征图中,进一步根据目标对象的整体特征进行识别,从而来预测初始特征图中包含有目标对象的概率。其中,整体特征可以为用于识别出目标对象所需的全部特征,以目标对象为行人为例来说,整体特征可以是目标对象是否同时包含有头、身、手以及腿等特征。第一初始识别神经网络模型的具体实现形式同样在本公开实施例中不做限制,可以根据目标对象的实际情况灵活决定。在一种可能的实现方式中,第一初始识别神经网络模型也可以从已有的神经网络模型中进行截取来得到,比如当目标对象是行人时,第一初始识别神经网络模型可以是从具有行人重识别功能的神经网络模型中,选择其中根据特征图进行识别的部分,来作为第一初始识别神经网络模型的实现形式。
第二初始识别神经网络模型可以从提取的初始特征图中,进一步根据目标对象的局部特征进行识别,从而来预测初始特征图中包含有存在该局部特征的目标对象的概率。其中,局部特征可以为待识别的目标对象所具有的特定特征,以目标对象为行人为例来说,局部特征可以是行人是否带了帽子,或是行人是否穿了鞋子等等。第二初始识别神经网络模型的具体实现形式同样在本公开实施例中不做限制,可以根据目标对象的实际情况灵活决定。在一种可能的实现方式中,第二初始识别神经网络模型也可以从已有的神经网络模型中进行截取来得到,比如当目标对象是行人时,第二初始识别神经网络模型可以是从具有识别戴帽子行人的神经网络模型中,选择其中根据特征图进行识别的部分,来作为第二初始识别神经网络模型的实现形式。
初始分割神经网络模型可以从提取的初始特征图中,将初始特征图中的目标对象与背景进行分割,其中,背景可以为不包含目标对象的区域,初始分割神经网络模型可以遍历初始特征图中的每个像素,确定每个像素是属于目标对象还是属于背景,从而来达到目标对象和背景之间的分割效果。初始分割神经网络模型的具体实现在本公开实施例中也不做限制,可以随着目标对象的不同而灵活决定,不局限于后续公开实施例。
在本公开实施例中,通过将训练数据通过初始特征提取神经网络模型来得到初始特征图,再将初始特征图分别通过第一初始识别神经网络模型、第二初始识别神经网络模型和初始分割神经网络模型来分别得到第一预测结果、第二预测结果和分割结果,最后根据第一预测结果、第二预测结果和分割结果来得到训练后的特征提取神经网络模型。通过上述过程,可以分别通过第一初始识别神经网络模型和第二初始识别神经网络模型,利用提取的训练数据中的整体特征和局部特征,来实现对初始特征提取神经网络模型的训练,从而使得训练后得到的特征提取神经网络模型在对目标对象进行特征提取时,可以兼具整体和局部的提取效果,从而增大了特征提取网络模型的网络容量、泛化能力以及提取精度;同时,由于在训练时还加入了初始分割神经网络模型,利用该模型得到的分割结果可以有效的在更新初始特征提取神经网络模型时提供约束和监督,从而可以指导特征提取模型学习细粒度的信息,使得训练得到的特征提取网络模型具有更高的收敛度和精确度。
通过上述公开实施例可以看出,本公开实施例中提出的神经网络的训练方法,主要的目的在于对特征提取神经网络模型的训练,因此首先可以通过步骤S11,依次将每个训练数据通过初始特征提取神经网络模型,来得到对每个训练数据进行特征提取后得到的初始特征图。
在得到了初始特征图后,可以根据步骤S12,将初始特征图通过第一初始识别神经网络模型,来得到第一预测结果。上述公开实施例中已经提出,第一初始识别神经网络模型的目的是识别目标对象的整体特征,从而来预测初始特征图中包含有目标对象的概率,而其具体形式可以根据实际情况灵活选择,因此,在本公开实施例中不对第一初始识别神经网络模型的实现方式进行限制。在一个示例中,当第一初始识别神经网络模型是用于进行行人重识别时,可以根据初始特征图来提取目标对象的特征向量,从而根据特征向量之间的距离来判定该目标对象是否为需要被识别的行人。
通过上述公开实施例还可以看出,得到了初始特征图后,还可以通过步骤S13,来识别目标对象的局部特征,从而来预测初始特征图中包含有存在该局部特征的目标对象的概率。需要注意的是,在本公开实施例中,步骤S12和步骤S13的实现顺序不受限制,即可以先通过步骤S12来识别目标对象的整体特征,再通过步骤S13来识别目标对象的局部特征;也可以先通过步骤S13来识别目标对象的局部特征,再通过步骤S12来识别目标对象的整体特征;也可以同时进行步骤S12和步骤S13,从而同时获取到目标对象的整体特征与局部特征。
具体如何识别目标对象的局部特征,其实现方式也可以根据实际情况灵活选择,不局限于下述公开实施例。在一种可能的实现方式中,步骤S13可以包括:
步骤S131,根据初始特征图,生成局部特征掩模。
步骤S132,根据局部特征掩模,对初始特征图进行降维,得到第一降维结果。
步骤S133,将第一降维结果作为第二预测结果。
通过上述公开实施例可以看出,在一种可能的实现方式中,识别局部特征的方式可以为先根据初始特征图来生成局部特征掩模,再根据局部特征掩模对初始特征图像进行降维,这样得到的降维结果可以作为第二初始识别神经网络模型的第二识别结果。
其中,局部特征掩模(attention mask)可以是基于注意力(attention)机制生成的掩模,它可以进一步突出初始特征图中需要被识别的局部特征部分,基于该局部特征掩模来得到的第二预测结果,可以减少信息损失,以及减少与局部特征无关的其他噪声信息对于第二预测结果的干扰,从而增强局部特征的表达能力。其具体的生成过程可以根据实际情况进行灵活选择,可以参加下述各公开实施例,在此暂不做展开。
通过生成局部特征掩模再基于局部特征掩模进行降维来得到第二预测结果的方式,比起直接通过池化层(pooling)进行降维来得到第二预测结果的方式来说,可以减少初始特征图中与局部特征无关的背景噪声对得到的第二预测结果的影响,提升第二初始识别神经网络模型对局部特征的抽取能力,从而提升得到的第二预测结果的准确程度,继而可以提升根据第二预测结果训练得到的特征提取神经网络模型的精度和准确程度。
上述公开实施例中已经提出,步骤S131来生成局部特征掩模的方式可以根据实际情况灵活选择。在一种可能的实现方式中,步骤S131可以包括:
步骤S1311,将初始特征图通过第一卷积层,得到卷积结果。
步骤S1312,将卷积结果的值对应到预设值域内,得到局部特征掩模。
上述公开实施例中,将初始特征图通过卷积层可以便于得到包含有初始特征图的局部特征的局部特征掩模,因此,第一卷积层的具体实现方式,可以根据初始特征图需要得到的局部特征的内容来灵活决定,不局限于下述公开实施例。在一种可能的实现方式中,第一卷积层可以为1×1卷积层,1×1卷积层具有保持图像尺度不变的特性,因此,将初始特征图通过1×1卷积层,可以在不损失初始特征图分辨率的情况下,得到卷积结果。
上述公开实施例中,将卷积结果的值对应到的预设值域,这一值域的具体值可以根据实际情况灵活选择。在一个示例中,预设值域可以是[0,1]这一值域。
由于预设值域的值可以根据实际情况灵活选择,因此将卷积结果的值对应至预设值域的方式也可以根据预设值域的值灵活确定。在一个示例中,当预设值域为[0,1]时,可以通过sigmoid函数来对卷积结果进行处理,从而得到局部特征掩模。
通过先将初始特征图通过1×1卷积层来得到卷积结果,再将卷积结果的值对应到预设至于内来得到局部特征掩模,由于1×1卷积层可以保持初始特征图的尺度不变,因此得到的卷积结果可以与初始特征图具有相同的分辨率,从而使得得到的局部特征掩模可以在不损失分辨率的前提下,增加对非线性特征的提取能力,基于这一方式得到的局部特征掩模来得到的第二预测结果,具有更高的准确度。
在得到了局部特征掩模后,可以通过步骤S132来对初始特征图进行降维,得到第一降维结果。降维的方式同样可以根据实际情况灵活选择,不局限于下述公开实施例。在一种可能的方式中,步骤S132可以包括:通过局部特征掩模,对初始特征图进行加权均值池化,得到第一降维结果。
上述公开实施例中,通过局部特征掩模对初始特征图进行加权均值池化的方式可以通过将局部特征掩模与初始特征图之间进行卷积的方式来实现,基于局部特征掩模,来对初始特征图进行加权均值池化来得到第二预测结果,比起简单的对初始特征图进行池化的方式来说,可以有效加强局部特征的信息,减少噪声和无关数据对第二预测结果的影响。
通过上述各公开实施例可以看出,通过第二初始识别神经网络模型,可以有效的得到包含有目标对象的局部特征的第二预测结果,基于这一第二预测结果结合第一预测结果训练得到的特征提取神经网络模型,可以更有效的提取出目标对象的所有特征,为后续的识别做好基础。然而,对于一个目标对象来说,可以仅包含一个用于识别的局部特征,也可以包含多个用于识别的局部特征,比如当目标对象是行人时,其可以同时包含行人戴帽子、行人打伞或是行人穿鞋子等局部特征。当包含多个局部特征时,可以用多个第二初始识别神经网络模型来同时提取这些局部特征,以提高得到的第二预测结果的识别精度。
因此,在一种可能的实现方式中,第二初始识别神经网络模型的数量包括一个或两个以上,其中,
在第二初始识别神经网络模型的数量为两个以上的情况下,将初始特征图分别通过每个第二初始识别神经网络模型,得到两个以上的第二预测结果。
通过上述公开实施例可以看出,第二初始识别神经网络模型的数量可以灵活选择,在一种可能的实现方式中,可以根据需要识别的局部特征的数量,来确定第二初始识别神经网络模型的数量,即每个第二初始识别神经网络模型用于识别某个特定的局部特征,从而通过设置多个第二初始识别神经网络模型,来实现全部所需的局部特征的识别。
进一步地,当设置多个第二初始识别神经网络模型时,由于这些第二初始识别神经网络模型是识别不同局部特征的,彼此之间不会造成干涉,因此,这些第二初始识别神经网络模型对初始特征图进行处理时,彼此之间的处理顺序不受限定,可以根据需求按照一定的次序处理初始特征图,也可以同时处理初始特征图,来得到相应的第二预测结果。
通过设置至少一个第二初始识别神经网络模型,并在存在两个以上的第二初始识别神经网络模型时,将初始特征图分别通过每个第二初始识别神经网络模型,来得到两个以上的第二预测结果,可以利用与待识别的局部特征数量对应个数量下的第二初始识别神经网络模型,来分别对每个局部特征进行识别,从而大大提升第二预测结果的准确度,也使得基于第二预测结果训练的特征提取神经网络模型具有更高的特征提取精度,提升特征提取神经网络模型的质量。
通过上述公开实施例还可以看出,得到了初始特征图后,还可以通过步骤S14,在初始对象中将目标对象和背景进一步分割,从而区分初始特征图中目标对象和非目标对象所在的区域。需要注意的是,在本公开实施例中,步骤S14与步骤S12和步骤S13的实现顺序同样不受限制,即这三个步骤之间是并列关系,执行时可以同时执行,也可以根据需求任意确定彼此之间的先后顺序,在此不做具体限定。
具体如何对初始特征图进行分割,其实现方式也可以根据实际情况灵活选择,不局限于下述公开实施例。在一种可能的实现方式中,步骤S14可以包括:
步骤S141,获取初始分割神经网络模型包括的K个分割标签,其中,K为不小于1的整数。
步骤S142,在K个分割标签下,对初始特征图包括的每个像素点进行分割预测,分别得到每个像素点的K个分割预测结果。
步骤S143,根据每个像素点的K个分割预测结果,确定初始特征图中属于目标对象的像素点,作为分割结果。
上述公开实施例中,分割标签可以是用于判断像素点是属于目标对象还是不包括目标对象的背景的标签,其数量和具体的标签内容可以根据实际情况灵活决定,在此不做限定。在一个示例中,当目标对象为行人时,分割标签可以包括行人标签和背景标签,当初始特征图中某一像素点在行人标签下的分割预测结果的概率值超过设定的阈值时可以认为该像素点属于目标对象,当初始特征图中某一像素点在背景标签下的分割预测结果的概率值超过设定的阈值时可以认为该像素点属于背景。在一个示例中,当目标对象为行人时,由于行人可能还包含有其他特征,比如身体部位以及走路姿势等,因此分割标签中的行人标签可以进一步根据这些特征细分为身体部位标签、走路姿势标签,同样地,背景标签也可以细分成马路标签、树木标签等等,根据初始特征图中每个像素点在这些标签下的分割预测结果的概率,可以确定像素点是属于目标对象还是背景,继而实现对初始特征图中目标对象与背景的分割。
由于分割标签的内容可以根据实际情况灵活决定,因此相应的,分割标签的获取方式可以根据分割标签的内容来灵活决定。在一种可能的实现方式中,可以从预先训练好的相关神经网络模型中来得到需要的分割标签,比如当目标对象为行人时,可以利用在COCO Densepose数据集上预训练的姿势预测模型,来得到用于监督的分割标签pseudolabels。
上述公开实施例中已经提出,分割标签的数量可以根据实际情况灵活决定,即表明,K的数量可以根据实际情况进行确定。
通过获取初始分割神经网络模型的K个分割标签,然后在K个分割标签下,对初始特征图包括的每个像素点进行分割预测,分别得到每个像素点的K个预测结果,根据每个像素点的K个分割预测结果,可以确定初始特征图中属于目标对象的像素点,从而实现初始特征图中目标对象与背景的分割,通过K个标签下的分割,可以使得分割结果与目标对象的特征之间建立联系,这样,利用分割结果进行初始特征提取神经网络模型的更新时,可以有效的将分割信息加入到特征提取神经网络模型中,从而约束特征提取神经网络模型去学习目标对象的局部特征,提升特征提取神经网络模型的收敛效果。通过增加了分割的约束,对初始特征图中的每个像素点进行了分割预测,可以识别训练图像中每个像素点所属的类别,当不同的训练图像中局部特征所处的位置不同时,由于分割预测了每个像素点所属的类别,因此可以强化网络对于训练图像中所需训练的局部特征的关注,减少全局特征不对齐情况,同时有效地减小不同局部特征之间发生的特征冗余的情况的发生,从而大大提升训练得到的特征提取神经网络模型的提取结果的准确性和收敛性。
具体地,如何在K个分割标签下对初始特征图包括的每个像素点进行分割预测,其实现方式也可以根据实际情况进行灵活选择,不局限于下述公开实施例。在一种可能的实现方式中,步骤S142可以包括:
步骤S1421,将初始特征图依次通过反卷积层进行放大,得到放大特征图。
步骤S1422,对放大特征图通过第二卷积层进行降维,得到第二降维结果。
步骤S1423,将第二降维结果通过分类器,得到每个像素点的K个分割预测结果。
上述公开实施例中,具体选择何种反卷积层来放大初始特征图,可以根据初始特征图的实际情况灵活决定,在一个示例中,可以通过步长为2的3×3反卷积层,来放大初始特征图。
在得到了放大特征图后,可以对放大特征图进行降维,以便于后续对基于第二降维结果的分类,具体的降维方式在本公开实施例中同样不受限定。在一种可能的实现方式中,可以通过第二卷积层来处理放大特征图,从而实现降维,选用的第二卷积层可以根据放大特征图的实际情况灵活决定,在一个示例中,可以利用步长为1的1×1卷积层来实现降维,得到第二降维结果。
得到第二降维结果后,可以将第二降维结果输入分类器,例如softmax分类器等,从而得到初始特征图中的每个像素点在K个标签下的概率,作为每个像素点的K个分割结果。
通过将初始特征图放大后降维来得到第二降维结果,再根据第二降维结果进行分类,得到每个像素点的分割预测结果,可以减小由于初始特征图较小而导致的分割预测结果不准确的情况,提升分割结果的准确程度,继而提升训练得到的特征提取神经网络模型的精确程度,同时减少局部特征的冗余。
在得到了第一预测结果、第二预测结果和分割结果后,可以通过步骤S15,来根据第一预测结果、第二预测结果和分割结果得到训练后的特征提取神经网络模型,在一种可能的实现方式中,步骤S15可以包括:
步骤S151,根据第一预测结果,对第一初始识别神经网络模型包括的第一初始权重进行反向梯度更新,得到更新后的第一权重和第一识别神经网络模型。
步骤S152,根据第二预测结果,对第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到更新后的第二权重和第二识别神经网络模型。
步骤S153,根据分割结果,对初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型。
步骤S154,根据第一预测结果、第二预测结果、分割结果、第一权重、第二权重和第三权重,对初始特征提取神经网络模型进行反向梯度更新,得到训练后的特征提取神经网络模型。
由于第一预测结果是通过第一初始识别神经网络模型所得到,提取的是目标对象的整体特征,而第二预测结果是通过第二初始识别神经网络模型所得的,提取的是目标对象的局部特征,因此,第一预测结果对第二初始识别神经网络模型的识别精度不产生影响,同样地,第二预测结果对第一初始识别神经网络模型的识别精度也不产生影响。基于此原因,在训练时,第一预测结果可以用于对第一初始识别神经网络模型包括的第一权重进行反向梯度更新,第二预测结果可以用于对第二初始识别神经网络模型包括的第二权重进行反向梯度更新。但是由于第一初始识别神经网络模型和第二初始识别神经网络模型均基于初始特征提取网络模型提取的初始特征图来进行的识别,因此,第一预测结果和第二预测结果均受到初始特征提取神经网络模型的影响,也就是说,第一预测结果和对应更新的第一权重,以及第二预测结果和对应更新的第二权重,均可以用于对初始特征提取神经网络模型的训练。同理,通过分割神经网络模型得到的分割结果,对第一初始识别神经网络模型和第二初始识别神经网络模型均不产生影响,分割神经网络模型也不会受到第一权重和第二权重的影响,同时,分割结果对应更新的第三权重,可以用于对初始特征提取神经网络模型的训练。基于上述原因,可以通过步骤S151来基于第一预测结果更新第一初始识别神经网络模型,得到训练后的第一权重和第一识别神经网络模型,同时可以通过步骤S152来基于第二预测结果更新第二初始识别神经网络模型,得到训练后的第二权重和第二识别神经网络模型,同时可以通过步骤S153来基于分割结果更新初始分割神经网络模型,再通过步骤S154,来基于第一预测结果、第二预测结果、分割结果、第一权重、第二权重和第三权重更新初始特征提取神经网络模型,得到训练后的特征提取神经网络模型。需要注意的是,与获取预测结果相同,在进行反向训练时,步骤S151、步骤S152和步骤S153之间同样没有顺序限制,三者可以同时进行,也可以根据需求依次进行,在此不做限定。
由于反向梯度更新神经网络模型时,需要根据损失函数(loss函数)来调整权重,而不同的神经网络模型的loss函数不同,同时第一初始识别神经网络模型、第二初始识别神经网络模型、初始分割神经网络模型和初始特征提取神经网络模型的具体实现形式在本公开中均未做限制,因此步骤S151、S152、S153和S154具体的更新过程可以根据各神经网络模型的实现形式来确定,在此不做限定。
通过根据第一预测结果反向更新第一初始识别神经网络模型来得到第一权重,根据第二预测结果反向更新第二初始识别神经网络模型来得到第二权重,根据分割结果反向更新第三初始分割神经网络模型,再根据第一预测结果、第二预测结果、分割结果、第一权重、第二权重和第三权重来得到训练后的特征提取神经网络模型,通过上述过程可以在分别训练第一识别神经网络模型、第二识别神经网络模型和分割神经网络模型的基础上,根据三者的训练结果共同训练特征提取神经网络模型,从而实现对特征提取神经网络模型的多分支训练,从而使得训练得到的特征提取神经网络模型兼具了整体特征和局部特征的提取能力,增大网络容量,提高网络的泛化能力和表达能力,具有较好的特征提取效果,同时在分割分支的约束下,增加了特征提取过程的监督和约束,从而具有更高的模型收敛速度和泛化能力。
上述公开实施例中已经提出,初始分割神经网络模型可以包括有K个标签,根据初始特征图中每个像素点在K各标签下的分割预测结果来得到分割结果,因此,相应的,在对初始分割神经网络模型进行训练时,也可以基于这K个标签的损失函数来确定最终的损失函数,因此,在一种可能的实现方式中,步骤S153可以包括:
步骤S1531,根据分割结果,分别获取K个分割标签对应的K个分割损失函数值。
步骤S1532,将K个分割损失函数值的平均值作为初始分割神经网络模型的总分割损失函数值。
步骤S1533,根据总分割损失函数值,对初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型。
上述公开实施例中,具体每个标签下的分割损失函数值如何计算,在本公开实施例中不做限定,在一个示例中,可以是统计该标签下每个像素点的损失函数值,来得到该标签下的分割损失函数值,因为随着模型的不同,损失函数的具体函数式也可以相应调整,因此具体的损失函数公式在本公开实施例中不做具体限定与描述。
在得到了K个标签下的分割损失函数值后,可以将其平均值作为初始分割神经网络模型的总分割损失函数值,其过程可以通过下述公式来表示:
在一种可能的实现方式中,可以通过分割结果与实际结果之间的误差值来得到分割神经网络模型的总分割损失,并在总分割损失超出预设阈值的情况下反向调整初始分割神经网络模型的各个第三权重,最终得到训练好的分割神经网络模型。通过将K个分割标签对应的K个分割损失函数值的平均值作为总分割损失函数值,可以进一步提升训练得到的分割神经网络模型的精度,继而提升特征提取神经网络模型的精度。
进一步地,由于上述公开实施例中提出过,第二初始神经网络模型的数量可以为多个,从而分别提取目标对象不同的局部特征,相应的,这些第二初始神经网络模型在更新权重时,也可以分别根据各自的第二预测结果来进行更新。因此,在一种可能的实现方式中,在第二初始神经网络模型的数量为两个以上的情况下,根据每个第二预测结果,分别对每个对应的第二初始神经网络模型包括的第二初始权重进行反向梯度更新,得到两个以上的更新后的第二权重和第二识别神经网络模型。
通过上述公开实施例可以看出,在包含多个第二初始神经网络模型时,由于每个第二初始神经网络模型都会产生一个对应的第二预测结果,因此,在更新权重时,不同的第二初始神经网络模型之间也可以互不干扰,仅根据自身产生的第二预测结果来反向梯度更新自身的第二权重,得到更新后的第二识别神经网络模型。而这些更新后的多个第二权重,则可以相应的均用于对初始特征提取神经网络模型的权重更新中,通过上述过程,可以进一步增加特征提取神经网络模型训练分支的数量,从而使得训练得到的特征提取神经网络模型更加具有多个局部特征的提取能力,进一步地增大网络容量、提高网络的泛化能力以及提升特征提取效果。
为了提升神经网络的训练效果,一般会使用较大数据量的训练数据来训练神经网络,通过上述各公开实施例可以看出,在本公开实施例中,训练特征提取神经网络模型时,还需要基于第一识别神经网络模型和第二识别神经网络模型的训练结果,因此,所需处理的数据量会更加庞大,此时可以通过多个硬件设备来进行上述过程,以提高训练的效率。
在一种可能的实现方式中,本公开实施例提出的神经网络的训练方法可以包括:
在第一处理器中,将初始特征图通过第一初始识别神经网络模型,得到第一预测结果,以及根据第一预测结果,对第一初始识别神经网络模型包括的第一初始权重进行反向梯度更新,得到更新后的第一权重和第一识别神经网络模型。
在第二处理器中,将初始特征图通过第二初始识别神经网络模型,得到第二预测结果,以及根据第二预测结果,对第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到更新后的第二权重和第二识别神经网络模型。
在第三处理器中,将初始特征图通过初始分割神经网络模型,得到分割结果,以及根据分割结果,对初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型。
在第四处理器中,将训练数据通过初始特征提取神经网络模型,得到目标对象的初始特征图,以及根据第一预测结果、第二预测结果、分割结果、第一权重、第二权重和第三权重,对所述初始特征提取神经网络模型进行反向梯度更新,得到训练后的特征提取神经网络模型。
上述公开实施例中,第一处理器、第二处理器、第三处理器和第四处理器中的“第一”等限定,仅用于表明上述四个步骤在实施时,是在不同的处理器中进行实现的,而非限定上述四个步骤的实施顺序。而第一处理器、第二处理器、第三处理器和第四处理器的实现方式在本公开实施例中也不做限定,可以为人工智能处理器,也可以为通用处理器如CPU或是GPU等等。进一步地,第一处理器、第二处理器、第三处理器和第四处理器可以采用同类型处理器,也可以采用不同类型处理器,根据实际情况灵活选择即可,在此均不作限制。
通过上述公开实施例可以看出,本公开实施例中提出的神经网络训练方法,可以在不同的硬件设备上分别对不同的初始神经网络模型进行训练,即可以将第一初始识别神经网络模型的训练过程在第一处理器上实现,第二初始识别神经网络模型的训练过程在第二处理器上实现,分割神经网络模型的训练过程在第三处理器上实现,特征提取神经网络模型的训练过程在第四处理器上实现,上述公开实施例已经提出过,第一初始识别神经网络模型、第二初始识别神经网络模型和分割神经网络模型在更新权重时,相互之间的权重更新过程独立,因此三者在不同硬件设备上实现,可以进一步增加彼此的独立性,提升训练过程整体的灵活性,而初始特征提取神经网络模型在权重的更新过程中,需要参考第一初始识别神经网络模型、第二初始识别神经网络模型和初始分割神经网络模型的更新结果,且初始特征提取神经网络模型的对训练数据处理得当的初始特征图,也需要分别传递给第一初始识别神经网络模型、第二初始识别神经网络模型和分割神经网络模型,因此,在第四处理器上实现初始特征提取神经网络模型的训练时,可以通过与第一处理器、第二处理器和第三处理器之间的通信,来实现与这三个神经网络模型之间数据的共享。当然,在其他实施例中,某些处理器也可以负责同时训练一个以上的网络模型。
在实际应用中,由于初始特征提取神经网络模型对每个训练数据均需要进行特征提取,如果通过单独的第四处理器来训练初始特征提取神经网络模型,第四处理器本身的计算要求还是会很高,也容易降低训练效率,因此,在一种可能的实现方式中,还可以将初始特征提取神经网络模型分别与每个第一初始识别神经网络模型、第二初始识别神经网络模型和初始分割神经网络模型进行结合,即将初始特征提取神经网络模型分别布置到每个第一处理器、第二处理器和第三处理器中,此时第四处理器可以同时是第一处理器、第二处理器和第三处理器,即无需额外的第四处理器来单独训练特征提取神经网络模型,而是将训练数据分散在各第一处理器、第二处理器和第三处理器中,来实现对各识别神经网络模型、分割神经网络模型和特征提取神经网络模型的训练,从而进一步降低每个处理器的数据处理压力,提升训练效率。
通过上述过程,可以实现在不同硬件设备上对不同神经网络模型的分布式训练,从而减小了在训练数据量较大的情况下,单个处理器的资源不足而降低训练效率这种情况发生的可能性,提升了神经网络模型训练的稳定性和效率。
进一步地,当第二初始识别神经网络模型的数量为多个的情况下,上述公开实施例中已经提出,这些第二初始识别神经网络模型的识别过程和权重更新过程均可以相互独立,因此,相应的,不同的第二初始识别神经网络模型,其整体训练过程也可以通过不同的第二处理器来实现。因此,在一种可能的实现方式中,本公开实施例中提出的神经网络的训练方法还可以包括:
在第二初始神经网络模型的数量为两个以上的情况下,分别在不同的第二处理器中,将初始特征图分别通过每个第二初始识别神经网络模型,得到两个以上的第二预测结果,以及根据每个第二预测结果,分别对每个第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到两个以上更新后的第二权重和第二识别神经网络模型。
通过上述过程可以看出,在不同的第二处理器中训练不同的第二初始识别神经网络模型,可以进一步降低每个硬件设备所需处理的数据量,从而更加提升神经网络模型训练的稳定性和效率。
通过上述各公开实施例,可以得到训练后的特征提取神经网络模型,继而可以根据得到的特征提取神经网络模型来进行实际应用。具体的应用方式可以根据实际情况灵活选择,因此,图2示出根据本公开一实施例的图像识别方法的流程图,该方法可以应用于终端设备、服务器或者其他处理设备等。其中,终端设备可以为用户设备(User Equipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字处理(Personal DigitalAssistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等。在一个示例中,该神经网络的训练方法可以应用于人工智能处理器等芯片设备中。
在一些可能的实现方式中,该图像识别方法也可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
如图2所示,所述图像识别方法可以包括:
步骤S21,获取待识别图像。
步骤S22,根据本公开实施例训练后的特征提取神经网络模型,对待识别图像进行识别和/或分割。
上述公开实施例中,待识别图像的具体实现形式,任何具有识别需求的图像均可以作为待识别图像,由于待识别图像的实现形式不受限定,因此获取待识别图像的方式可以根据待识别图像的实际情况灵活决定。
在获取了待识别图像后,可以通过步骤S22,基于上述公开实施例中得到的训练后的特征提取神经网络模型,来对待识别图像进行识别或是分割等。通过上述各公开实施例可以看出,训练后的特征提取神经网络模型可以较全面的提取图像特征,因而利用训练后的特征提取神经网络模型,再与其他的识别神经网络模型来进行结合,可以得到较好的识别结果。或是再与其他的分割神经网络模型来进行结合,也可以得到较好的分割结果。具体将特征提取神经网络模型与哪些神经网络模型来结合实现识别,可以根据实际情况灵活决定。在一种可能的实现方式中,步骤S22可以包括:
步骤S221,根据训练后的特征提取神经网络模型,结合更新后的第一识别神经网络模型,对待识别图像进行识别;和/或,
步骤S222,根据训练后的特征提取神经网络模型,结合更新后的第二识别神经网络模型,对待识别图像进行识别;和/或,
步骤S223,根据训练后的特征提取神经网络模型,结合更新后的分割神经网络模型,对待识别图像进行分割;和/或,
步骤S224,根据训练后的特征提取神经网络模型,结合更新后的第一识别神经网络模型、更新后的第二识别神经网络模型和更新后的分割神经网络模型,对待识别图像进行识别。
通过上述公开实施例可以看出,根据第一预测结果、第二预测结果和分割结果对特征提取网络模型进行反向更新时,还会一并更新第一识别神经网络模型、第二识别神经网络模型和分割神经网络模型,因此,在应用时,可以将训练好的特征提取神经网络模型与第一识别神经网络模型结合,来提取待识别图像的整体特征,以进行目标识别,由于特征提取神经网络模型是基于第一识别神经网络模型和第二识别神经网络模型两个分支来训练出的,虽然其只与第一识别神经网络模型配合应用,但是由于其提取的特征包含了整体特征和局部特征,再配合第一识别神经网络进行应用时,其提取的整体特征也会更准确,对目标对象的整体识别结果也会更加精确。同理,在应用时,也可以将训练好的特征提取神经网络模型与第二识别神经网络模型结合来提取待识别图像的局部特征,以进行目标属性识别,也可以增加目标对象属性识别结果的准确性。进一步地,在应用时,还可以将训练好的特征提取神经网络模型同时与第一识别神经网络模型和第二识别神经网络模型进行结合,然后可以将不同识别神经网络模型的结果进行融合,来得到最终的识别结果,这样可以更加提升整体识别结果的准确程度。进一步地,也可以将训练好的特征提取神经网络模型,与其他的识别神经网络模型或是需要应用到提取的特征的神经网络模型进行结合,来对待识别图像进行识别,由于训练好的特征提取神经网络模型具有较全面的特征提取能力,因此可以相应增加与之结合的神经网络模型的识别结果的准确程度。进一步地,还可以将训练好的特征提取网络模型与分割神经网络模型进行结合,来将目标对象和背景分割开,由于训练好的特征提取网络可以提取更全面的特征,因此分割的结果也可以更准确。进一步地,还可以在将训练好的特征提取网络模型与任意识别神经网络模型进行结合时,添加分割神经网络模型的结合,从而利用分割神经网络模型的约束,进一步提升最终的识别效果。
更进一步地,由于第二识别神经网络模型的数量可以为多个,因此,在应用时,特征提取神经网络模型可以根据需求与多个第二识别神经网络模型中的一个、多个或是全部进行配合,实现根据单一局部特征进行目标的识别,或是根据多个局部特征进行目标属性的识别,或是根据多个局部特征进行融合,实现根据整体特征进行目标整体的识别。在与这些第二识别神经网络模型进行配合时,同样地,可以与第一识别神经网络模型或是分割神经网络模型配合,也可以不与第一识别神经网络模型或是分割神经网络模型配合。综上所述,训练好的特征提取神经网络模型,可以与训练时同时得到的任意其他训练好的神经网络模型进行任意数量的结合。
通过上述过程,可以根据训练好的特征提取神经网络模型,灵活的对待识别图像进行识别,增加了得到的特征提取神经网络模型应用的灵活性和实用性。
图3示出根据本公开实施例的神经网络的训练装置的框图。如图所示,装置30包括:
初始特征提取模块31,用于将训练数据通过初始特征提取神经网络模型,得到目标对象的初始特征图;
第一识别模块32,用于将初始特征图通过第一初始识别神经网络模型,得到第一预测结果,其中,第一初始识别神经网络模型用于根据目标对象的整体特征进行识别;
第二识别模块33,用于将初始特征图通过第二初始识别神经网络模型,得到第二预测结果,其中,第二初始识别神经网络模型用于根据目标对象的局部特征进行识别;
分割模块34,用于将初始特征图通过初始分割神经网络模型,得到分割结果,其中,初始分割神经网络模型用于在初始特征图中将目标对象与非目标对象所在的区域进行区分;
训练模块35,用于根据第一预测结果、第二预测结果和分割结果,更新初始特征提取神经网络模型,得到训练后的特征提取神经网络模型。
在一种可能的实现方式中,第二识别模块用于:根据初始特征图,生成局部特征掩模;根据局部特征掩模,对初始特征图进行降维,得到第一降维结果;将第一降维结果作为所述第二预测结果。
在一种可能的实现方式中,第二识别模块进一步用于:将初始特征图通过第一卷积层,得到卷积结果;将卷积结果的值对应到预设值域内,得到局部特征掩模。
在一种可能的实现方式中,第二识别模块进一步用于:通过局部特征掩模,对初始特征图进行加权均值池化,得到第一降维结果。
在一种可能的实现方式中,第二初始识别神经网络模型的数量包括一个或两个以上,其中,在第二初始识别神经网络模型的数量为两个以上的情况下,将初始特征图分别通过每个第二初始识别神经网络模型,得到两个以上的第二预测结果。
在一种可能的实现方式中,分割模块用于:获取初始分割神经网络模型包括的K个分割标签,其中,K为不小于1的整数;在K个分割标签下,对初始特征图包括的每个像素点进行分割预测,分别得到每个像素点的K个分割预测结果;根据每个像素点的K个分割预测结果,确定初始特征图中属于目标对象的像素点,作为分割结果。
在一种可能的实现方式中,分割模块进一步用于:将初始特征图依次通过反卷积层进行放大,得到放大特征图;对放大特征图通过第二卷积层进行降维,得到第二降维结果;将第二降维结果通过分类器,得到每个像素点的K个分割预测结果。
在一种可能的实现方式中,训练模块用于:根据第一预测结果,对第一初始识别神经网络模型包括的第一初始权重进行反向梯度更新,得到更新后的第一权重和第一识别神经网络模型;根据第二预测结果,对第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到更新后的第二权重和第二识别神经网络模型;根据分割结果,对初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型;根据第一预测结果、第二预测结果、分割结果、第一权重、第二权重和第三权重,对初始特征提取神经网络模型进行反向梯度更新,得到训练后的特征提取神经网络模型。
在一种可能的实现方式中,训练模块进一步用于:根据分割结果,分别获取K个分割标签对应的K个分割损失函数值;将K个分割损失函数值的平均值作为初始分割神经网络模型的总分割损失函数值;根据总分割损失函数值,对初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型。
在一种可能的实现方式中,在第二初始神经网络模型的数量为两个以上的情况下,根据每个第二预测结果,分别对每个对应的第二初始神经网络模型包括的第二初始权重进行反向梯度更新,得到两个以上的更新后的第二权重和第二识别神经网络模型。
在一种可能的实现方式中,装置还用于:在第一处理器中,将初始特征图通过第一初始识别神经网络模型,得到第一预测结果,以及根据第一预测结果,对第一初始识别神经网络模型包括的第一初始权重进行反向梯度更新,得到更新后的第一权重和第一识别神经网络模型;在第二处理器中,将初始特征图通过第二初始识别神经网络模型,得到第二预测结果,以及根据第二预测结果,对第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到更新后的第二权重和第二识别神经网络模型;在第三处理器中,将初始特征图通过初始分割神经网络模型,得到分割结果,以及根据分割结果,对初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型;在第四处理器中,将训练数据通过初始特征提取神经网络模型,得到目标对象的初始特征图,以及根据第一预测结果、第二预测结果、分割结果、第一权重、第二权重和第三权重,对初始特征提取神经网络模型进行反向梯度更新,得到训练后的特征提取神经网络模型。
在一种可能的实现方式中,装置还用于:在第二初始神经网络模型的数量为两个以上的情况下,分别在不同的第二处理器中,将初始特征图分别通过每个第二初始识别神经网络模型,得到两个以上的第二预测结果,以及根据每个第二预测结果,分别对每个第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到两个以上更新后的第二权重和第二识别神经网络模型。
图4示出根据本公开实施例的图像识别装置的框图。如图4所示,图像识别装置40包括:
获取模块41,用于获取待识别图像;
应用模块42,用于根据本公开实施例训练后的特征提取神经网络模型,对待识别图像进行识别和/或分割。
在一种可能的实现方式中,应用模块用于:根据训练后的特征提取神经网络模型,结合如上述神经网络的训练方法或装置中任意一项实施例的更新后的第一识别神经网络模型,对待识别图像进行识别;和/或,根据训练后的特征提取神经网络模型,结合如上述神经网络的训练方法或装置中任意一项实施例的更新后的第二识别神经网络模型,对待识别图像进行识别;和/或,根据训练后的特征提取神经网络模型,结合如上述神经网络的训练方法或装置中任意一项实施例的更新后的分割神经网络模型,对待识别图像进行分割;和/或,根据训练后的特征提取神经网络模型,结合如上述神经网络的训练方法或装置中任意一项实施例的更新后的第一识别神经网络模型、更新后的第二识别神经网络模型和更新后的分割神经网络模型,对待识别图像进行识别。
应用场景示例
随着行人重识别任务愈加复杂,单一网络能够提取的特征有限,因此,一个可以提取较多特征的神经网络模型,可以有效提升行人重识别任务的识别效果。
图5示出了根据本公开一应用示例的示意图,如图所示,本公开实施例提出了一种神经网络模型的训练方法,其具体过程可以为:
首先可以将具有根据整体特征进行目标识别功能的第一初始识别神经网络模型部署到显卡A中,将N个具有根据不同局部特征进行目标属性识别功能的第二初始识别神经网络模型分别部署到显卡B1,B2,…,Bn中,将具有分割功能的初始分割神经网络模型部署到显卡C中。同时,将初始特征提取神经网络模型分别布置到显卡A、显卡B1,B2,…,Bn以及显卡C中,来实现初始特征提取神经网络模型与不同初始识别神经网络模型之间和初始分割神经网络模型的结合。
在部署好了上述硬件设备后,可以将训练数据分成N+2份,分别传输到显卡A、显卡B1,B2,…,Bn以及显卡C中,来开始对各个初始神经网络模型的训练。
在每个显卡中,训练数据依次经过初始特征提取神经网络模型和相应的初始识别神经网络模型与初始分割神经网络模型,得到预测结果,然后每个显卡独立的根据各自的预测结果,对该显卡中的初始识别神经网络模型或是初始分割神经网络模型进行误差计算,并根据误差计算的结果进行反向梯度更新,来优化各自显卡中初始识别神经网络模型或是初始分割神经网络模型的权重,得到训练后的第一识别神经网络模型、第二识别神经网络模型和分割神经网络模型。
进一步地,在得到了更新的第一识别神经网络模型、第二识别神经网络模型和分割神经网络模型后,可以将这些更新的权重进行汇总,传递到其中的某一显卡中,对初始特征提取神经网络模型进行反向梯度更新,从而得到训练后的特征提取神经网络模型。
在得到了训练后的特征提取神经网络模型后,可以将其与训练后的任一识别神经网络模型或是分割神经网络模型进行融合,来构建一个完整的可以实现对目标对象或目标对象属性进行识别或是对目标对象进行分割的神经网络模型,也可以将其与训练后的每个识别神经网络模型进行融合,得到一个具有较高精度的可以识别目标对象和目标对象属性的神经网络模型,由于训练好的特征提取神经网络模型是基于整体特征和局部特征的提取来训练得到的,并增加了分割结果的约束,因此,无论其与哪个识别神经网络模型进行融合,均可以提升其最终的识别精度。
本公开应用示例中提出的神经网络模型的训练方法,除了可以应用于行人重识别任务中以外,也可以应用到其他有全面的特征提取的需求的神经网络模型中。
可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本公开不再赘述。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
本公开实施例还提出一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。计算机可读存储介质可以是易失性计算机可读存储介质或非易失性计算机可读存储介质。
本公开实施例还提出一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为上述方法。
在实际应用中,上述存储器可以是易失性存储器(volatile memory),例如RAM;或者非易失性存储器(non-volatile memory),例如ROM,快闪存储器(flash memory),硬盘(Hard Disk Drive,HDD)或固态硬盘(Solid-State Drive,SSD);或者上述种类的存储器的组合,并向处理器提供指令和数据。
上述处理器可以为ASIC、DSP、DSPD、PLD、FPGA、CPU、控制器、微控制器、微处理器中的至少一种。可以理解地,对于不同的设备,用于实现上述处理器功能的电子器件还可以为其它,本公开实施例不作具体限定。
电子设备可以被提供为终端、服务器或其它形态的设备。
基于前述实施例相同的技术构思,本公开实施例还提供了一种计算机程序,该计算机程序被处理器执行时实现上述方法。
图6是根据本公开实施例的一种电子设备800的框图。例如,电子设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等终端。
参照图6,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在电子设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当电子设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到电子设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关人员信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由电子设备800的处理器820执行以完成上述方法。
图7是根据本公开实施例的一种电子设备1900的框图。例如,电子设备1900可以被提供为一服务器。参照图7,电子设备1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
电子设备1900还可以包括一个电源组件1926被配置为执行电子设备1900的电源管理,一个有线或无线网络接口1950被配置为将电子设备1900连接到网络,和一个输入输出(I/O)接口1958。电子设备1900可以操作基于存储在存储器1932的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由电子设备1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态人员信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (20)
1.一种神经网络的训练方法,其特征在于,包括:
将训练数据通过初始特征提取神经网络模型,得到目标对象的初始特征图;
将所述初始特征图通过第一初始识别神经网络模型,得到第一预测结果,其中,所述第一初始识别神经网络模型用于根据所述目标对象的整体特征进行识别;
将所述初始特征图通过第二初始识别神经网络模型,得到第二预测结果,其中,所述第二初始识别神经网络模型用于根据所述目标对象的局部特征进行识别;
将所述初始特征图通过初始分割神经网络模型,得到分割结果,其中,所述初始分割神经网络模型用于在所述初始特征图中将所述目标对象与非目标对象所在的区域进行区分;
根据所述第一预测结果、所述第二预测结果和所述分割结果,更新所述初始特征提取神经网络模型,得到训练后的特征提取神经网络模型。
2.根据权利要求1所述的方法,其特征在于,所述将所述初始特征图通过第二初始识别神经网络模型,得到第二预测结果,包括:
根据所述初始特征图,生成局部特征掩模;
根据所述局部特征掩模,对所述初始特征图进行降维,得到第一降维结果;
将所述第一降维结果作为所述第二预测结果。
3.根据权利要求2所述的方法,其特征在于,所述根据所述初始特征图,生成局部特征掩模,包括:
将所述初始特征图通过第一卷积层,得到卷积结果;
将所述卷积结果的值对应到预设值域内,得到局部特征掩模。
4.根据权利要求2或3所述的方法,其特征在于,所述根据所述局部特征掩模,对所述初始特征图进行降维,得到第一降维结果,包括:
通过所述局部特征掩模,对所述初始特征图进行加权均值池化,得到第一降维结果。
5.根据权利要求1至4中任意一项所述的方法,其特征在于,所述第二初始识别神经网络模型的数量包括一个或两个以上,其中,
在所述第二初始识别神经网络模型的数量为两个以上的情况下,将所述初始特征图分别通过每个所述第二初始识别神经网络模型,得到两个以上的第二预测结果。
6.根据权利要求1至5中任意一项所述的方法,其特征在于,所述将所述初始特征图通过初始分割神经网络模型,得到分割结果,包括:
获取所述初始分割神经网络模型包括的K个分割标签,其中,K为不小于1的整数;
在所述K个分割标签下,对所述初始特征图包括的每个像素点进行分割预测,分别得到每个所述像素点的K个分割预测结果;
根据每个所述像素点的K个分割预测结果,确定所述初始特征图中属于所述目标对象的像素点,作为所述分割结果。
7.根据权利要求6所述的方法,其特征在于,所述在所述K个分割标签下,对所述初始特征图包括的每个像素点进行分割预测,分别得到每个所述像素点的K个分割预测结果,包括:
将所述初始特征图依次通过反卷积层进行放大,得到放大特征图;
对所述放大特征图通过第二卷积层进行降维,得到第二降维结果;
将所述第二降维结果通过分类器,得到每个所述像素点的K个分割预测结果。
8.根据权利要求1至7中任意一项所述的方法,其特征在于,所述根据所述第一预测结果和所述第二预测结果,更新所述初始特征提取神经网络模型,得到训练后的特征提取神经网络模型,包括:
根据所述第一预测结果,对所述第一初始识别神经网络模型包括的第一初始权重进行反向梯度更新,得到更新后的第一权重和第一识别神经网络模型;
根据所述第二预测结果,对所述第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到更新后的第二权重和第二识别神经网络模型;
根据所述分割结果,对所述初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型;
根据所述第一预测结果、第二预测结果、分割结果、第一权重、第二权重和第三权重,对所述初始特征提取神经网络模型进行反向梯度更新,得到训练后的特征提取神经网络模型。
9.根据权利要求8所述的方法,其特征在于,所述根据所述分割结果,对所述初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型,包括:
根据所述分割结果,分别获取K个分割标签对应的K个分割损失函数值;
将所述K个分割损失函数值的平均值作为所述初始分割神经网络模型的总分割损失函数值;
根据所述总分割损失函数值,对所述初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型。
10.根据权利要求8或9所述的方法,其特征在于,在所述第二初始神经网络模型的数量为两个以上的情况下,根据每个所述第二预测结果,分别对每个对应的所述第二初始神经网络模型包括的第二初始权重进行反向梯度更新,得到两个以上的更新后的第二权重和第二识别神经网络模型。
11.根据权利要求8至10中任意一项所述的方法,其特征在于,所述方法包括:
在第一处理器中,将所述初始特征图通过第一初始识别神经网络模型,得到第一预测结果,以及根据所述第一预测结果,对所述第一初始识别神经网络模型包括的第一初始权重进行反向梯度更新,得到更新后的第一权重和第一识别神经网络模型;
在第二处理器中,将所述初始特征图通过第二初始识别神经网络模型,得到第二预测结果,以及根据所述第二预测结果,对所述第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到更新后的第二权重和第二识别神经网络模型;
在第三处理器中,将所述初始特征图通过初始分割神经网络模型,得到分割结果,以及根据所述分割结果,对所述初始分割神经网络模型包括的第三初始权重进行反向梯度更新,得到更新后的第三权重和分割神经网络模型;
在第四处理器中,将所述训练数据通过初始特征提取神经网络模型,得到目标对象的初始特征图,以及根据所述第一预测结果、第二预测结果、分割结果、第一权重、第二权重和第三权重,对所述初始特征提取神经网络模型进行反向梯度更新,得到训练后的特征提取神经网络模型。
12.根据权利要求11所述的方法,其特征在于,所述方法还包括:
在所述第二初始神经网络模型的数量为两个以上的情况下,分别在不同的第二处理器中,将所述初始特征图分别通过每个第二初始识别神经网络模型,得到两个以上的第二预测结果,以及根据每个所述第二预测结果,分别对每个所述第二初始识别神经网络模型包括的第二初始权重进行反向梯度更新,得到两个以上更新后的第二权重和第二识别神经网络模型。
13.一种图像识别方法,其特征在于,所述方法包括:
获取待识别图像;
根据如权利要求1至12中任意一项所述的训练后的特征提取神经网络模型,对所述待识别图像进行识别和/或分割。
14.根据权利要求13所述的方法,其特征在于,所述根据如权利要求1至12中任意一项所述的训练后的特征提取神经网络模型,对所述待识别图像进行识别,包括:
根据所述训练后的特征提取神经网络模型,结合如权利要求8至12中任意一项所述的更新后的第一识别神经网络模型,对待识别图像进行识别;和/或,
根据所述训练后的特征提取神经网络模型,结合如权利要求8至12中任意一项所述的更新后的第二识别神经网络模型,对待识别图像进行识别;和/或,
根据所述训练后的特征提取神经网络模型,结合如权利要求8至12中任意一项所述的更新后的分割神经网络模型,对待识别图像进行分割;和/或,
根据所述训练后的特征提取神经网络模型,结合如权利要求8至12中任意一项所述的更新后的第一识别神经网络模型、所述更新后的第二识别神经网络模型和所述更新后的分割神经网络模型,对待识别图像进行识别。
15.一种神经网络的训练装置,其特征在于,包括:
初始特征提取模块,用于将训练数据通过初始特征提取神经网络模型,得到目标对象的初始特征图;
第一识别模块,用于将所述初始特征图通过第一初始识别神经网络模型,得到第一预测结果,其中,所述第一初始识别神经网络模型用于根据所述目标对象的整体特征进行识别;
第二识别模块,用于将所述初始特征图通过第二初始识别神经网络模型,得到第二预测结果,其中,所述第二初始识别神经网络模型用于根据所述目标对象的局部特征进行识别;
分割模块,用于将所述初始特征图通过初始分割神经网络模型,得到分割结果,其中,所述初始分割神经网络模型用于在所述初始特征图中将所述目标对象与非目标对象所在的区域进行区分;
训练模块,用于根据所述第一预测结果、所述第二预测结果和所述分割结果,更新所述初始特征提取神经网络模型,得到训练后的特征提取神经网络模型。
16.一种图像识别装置,其特征在于,所述装置包括:
获取模块,用于获取待识别图像;
应用模块,用于根据如权利要求1至12中任意一项所述的训练后的特征提取神经网络模型,对所述待识别图像进行识别和/或分割。
17.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行权利要求1至12中任意一项所述的方法。
18.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行权利要求13至14中任意一项所述的方法。
19.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至12中任意一项所述的方法。
20.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求13至14中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911242690.0A CN111027617A (zh) | 2019-12-06 | 2019-12-06 | 神经网络训练及图像识别方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911242690.0A CN111027617A (zh) | 2019-12-06 | 2019-12-06 | 神经网络训练及图像识别方法、装置、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111027617A true CN111027617A (zh) | 2020-04-17 |
Family
ID=70207457
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911242690.0A Withdrawn CN111027617A (zh) | 2019-12-06 | 2019-12-06 | 神经网络训练及图像识别方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111027617A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112215243A (zh) * | 2020-10-30 | 2021-01-12 | 百度(中国)有限公司 | 图像特征提取方法、装置、设备及存储介质 |
CN113159049A (zh) * | 2021-04-23 | 2021-07-23 | 上海芯翌智能科技有限公司 | 弱监督语义分割模型的训练方法及装置、存储介质、终端 |
CN113344247A (zh) * | 2021-05-12 | 2021-09-03 | 广东华联云谷科技研究院有限公司 | 一种基于深度学习的电力设施选址预测方法与系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108960184A (zh) * | 2018-07-20 | 2018-12-07 | 天津师范大学 | 一种基于异构部件深度神经网络的行人再识别方法 |
CN109447169A (zh) * | 2018-11-02 | 2019-03-08 | 北京旷视科技有限公司 | 图像处理方法及其模型的训练方法、装置和电子系统 |
CN109711316A (zh) * | 2018-12-21 | 2019-05-03 | 广东工业大学 | 一种行人重识别方法、装置、设备及存储介质 |
CN109753578A (zh) * | 2019-01-25 | 2019-05-14 | 浙江理工大学 | 一种基于掩膜选择卷积特征的图像检索方法 |
CN109784166A (zh) * | 2018-12-13 | 2019-05-21 | 北京飞搜科技有限公司 | 行人重识别的方法及装置 |
US20190354811A1 (en) * | 2017-12-07 | 2019-11-21 | Shanghai Cambricon Information Technology Co., Ltd | Image compression method and related device |
-
2019
- 2019-12-06 CN CN201911242690.0A patent/CN111027617A/zh not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190354811A1 (en) * | 2017-12-07 | 2019-11-21 | Shanghai Cambricon Information Technology Co., Ltd | Image compression method and related device |
CN108960184A (zh) * | 2018-07-20 | 2018-12-07 | 天津师范大学 | 一种基于异构部件深度神经网络的行人再识别方法 |
CN109447169A (zh) * | 2018-11-02 | 2019-03-08 | 北京旷视科技有限公司 | 图像处理方法及其模型的训练方法、装置和电子系统 |
CN109784166A (zh) * | 2018-12-13 | 2019-05-21 | 北京飞搜科技有限公司 | 行人重识别的方法及装置 |
CN109711316A (zh) * | 2018-12-21 | 2019-05-03 | 广东工业大学 | 一种行人重识别方法、装置、设备及存储介质 |
CN109753578A (zh) * | 2019-01-25 | 2019-05-14 | 浙江理工大学 | 一种基于掩膜选择卷积特征的图像检索方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112215243A (zh) * | 2020-10-30 | 2021-01-12 | 百度(中国)有限公司 | 图像特征提取方法、装置、设备及存储介质 |
CN113159049A (zh) * | 2021-04-23 | 2021-07-23 | 上海芯翌智能科技有限公司 | 弱监督语义分割模型的训练方法及装置、存储介质、终端 |
CN113344247A (zh) * | 2021-05-12 | 2021-09-03 | 广东华联云谷科技研究院有限公司 | 一种基于深度学习的电力设施选址预测方法与系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310616B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN110210535B (zh) | 神经网络训练方法及装置以及图像处理方法及装置 | |
CN108121952B (zh) | 人脸关键点定位方法、装置、设备及存储介质 | |
TWI728564B (zh) | 圖像的描述語句定位方法及電子設備和儲存介質 | |
CN110544217B (zh) | 一种图像处理方法及装置、电子设备和存储介质 | |
WO2021056808A1 (zh) | 图像处理方法及装置、电子设备和存储介质 | |
TW202105244A (zh) | 圖像處理方法及裝置、電子設備和電腦可讀儲存介質 | |
CN111340766A (zh) | 目标对象的检测方法、装置、设备和存储介质 | |
CN110532956B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
TW202113757A (zh) | 目標對象匹配方法及目標對象匹配裝置、電子設備和電腦可讀儲存媒介 | |
CN107784279B (zh) | 目标跟踪方法及装置 | |
CN107563994B (zh) | 图像的显著性检测方法及装置 | |
CN109543537B (zh) | 重识别模型增量训练方法及装置、电子设备和存储介质 | |
JP2022522551A (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
CN111027617A (zh) | 神经网络训练及图像识别方法、装置、设备和存储介质 | |
CN110543849B (zh) | 检测器的配置方法及装置、电子设备和存储介质 | |
CN112906484B (zh) | 一种视频帧处理方法及装置、电子设备和存储介质 | |
CN111242303A (zh) | 网络训练方法及装置、图像处理方法及装置 | |
CN111259967A (zh) | 图像分类及神经网络训练方法、装置、设备及存储介质 | |
CN104077597A (zh) | 图像分类方法及装置 | |
CN111523599B (zh) | 目标检测方法及装置、电子设备和存储介质 | |
CN111582383A (zh) | 属性识别方法及装置、电子设备和存储介质 | |
CN114332503A (zh) | 对象重识别方法及装置、电子设备和存储介质 | |
CN113486957A (zh) | 神经网络训练和图像处理方法及装置 | |
CN111046780A (zh) | 神经网络训练及图像识别方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200417 |