CN109242029A - 识别分类模型训练方法和系统 - Google Patents

识别分类模型训练方法和系统 Download PDF

Info

Publication number
CN109242029A
CN109242029A CN201811095132.1A CN201811095132A CN109242029A CN 109242029 A CN109242029 A CN 109242029A CN 201811095132 A CN201811095132 A CN 201811095132A CN 109242029 A CN109242029 A CN 109242029A
Authority
CN
China
Prior art keywords
level
feature
picture sample
sample data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811095132.1A
Other languages
English (en)
Inventor
徐智浩
王达
周雪峰
苏泽荣
鄢武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Institute of Intelligent Manufacturing
Original Assignee
Guangdong Institute of Intelligent Manufacturing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Institute of Intelligent Manufacturing filed Critical Guangdong Institute of Intelligent Manufacturing
Priority to CN201811095132.1A priority Critical patent/CN109242029A/zh
Publication of CN109242029A publication Critical patent/CN109242029A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种识别分类模型训练方法和系统。所述方法包括:根据破坏率和初始图片样本数据,获取有损图片样本数据,将有损图片样本数据输入去噪声模型中进行训练,将获取的还原图片样本数据输入识别分类模型中进行训练,获取样本标签值和识别损失值,对去噪声模型和识别分类模型进行反向传导算法的计算,获取训练好的去噪声模型和训练好的识别分类模型。采用本方法所训练的去噪声模型可以有效地匹配识别分类模型,使得识别分类模型可以对有损的数据进行有效且准确地的识别和分类,降低实际应用中噪声对识别分类的影响,提高对具有噪声或者特征不明显的图片进行识别和分类的准确度。

Description

识别分类模型训练方法和系统
技术领域
本申请涉及深度学习技术领域,特别是涉及一种识别分类模型训练方法和识别分类模型训练系统。
背景技术
人工智能发展迅速,其中,卷积神经网络模型是深度学习中重要的模型,主要应用在图片处理,其在图片处理以及分类上有着显著的效果。
传统技术下,用于分类识别的卷积神经网络模型训练过程中进行分类的图片一般是是无损且特征明显的图片,训练后的卷积神经网络模型适用于处理无损且特征明显的图片。
但是在实际应用环境中,由于信号受到干扰,或者设备存在质量问题等,所获取的图片往往会存在噪声,或者出现特征不明显的现象,用于分类识别的卷积神经网络模型对具有噪声或者特征不明显的图片进行识别的准确度低。
发明内容
基于此,有必要针对上述用于分类识别的卷积神经网络模型对具有噪声或者特征不明显的图片进行识别的准确度低的问题,提供一种识别分类模型训练方法和系统。
一种识别分类模型训练方法,包括以下步骤:
根据破坏率和初始图片样本数据,获取有损图片样本数据;
将有损图片样本数据输入去噪声模型中进行训练,获取还原图片样本数据和去噪损失值;
将还原图片样本数据输入识别分类模型中进行训练,获取样本标签值和识别损失值;
根据样本标签值、去噪损失值和识别损失值,分别对去噪声模型和识别分类模型进行反向传导算法的计算,获取训练好的去噪声模型和训练好的识别分类模型。
一种识别分类模型训练系统,包括:
有损图片样本数据获取模块,用于根据破坏率和初始图片样本数据,获取有损图片样本数据;
还原图片样本数据获取模块,用于将有损图片样本数据输入去噪声模型中进行训练,获取还原图片样本数据和去噪损失值;
样本标签值获取模块,用于将还原图片样本数据输入识别分类模型中进行训练,获取样本标签值和识别损失值;
训练模型获取模块,用于根据样本标签值、去噪损失值和识别损失值,分别对去噪声模型和识别分类模型进行反向传导算法的计算,获取训练好的去噪声模型和训练好的识别分类模型。
上述识别分类模型训练方法和系统,所训练的识别分类模型根据样本标签值、去噪损失值和识别损失值在反向传导算法进行修正,同时所训练的去噪声模型可以有效地匹配识别分类模型,使得识别分类模型可以对有损的数据进行有效且准确地的识别和分类,降低实际应用中噪声对识别分类的影响,提高对具有噪声或者特征不明显的图片进行识别和分类的准确度。
附图说明
图1为一个实施例中识别分类模型训练方法的流程图;
图2为一个实施例中有损图片样本数据获取的流程图;
图3为一个实施例中还原图片样本数据获取的流程图;
图4为一个实施例中去噪声模型训练的流程图;
图5为一个实施例中样本标签值获取的流程图;
图6为一个实施例中识别分类模型训练的流程图;
图7为一个实施例中反向传导算法计算的流程图;
图8为一个实施例中样本标签值输出的流程图;
图9为另一个实施例中识别分类模型训练方法的流程图;
图10为另一个实施例中去噪声模型的效果展示图;
图11为另一个实施例中反向传导的流程图;
图12为一个实施例中识别分类模型训练系统的结构示意图;
图13为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,图1为一个实施例中识别分类模型训练方法的流程图,提供了一种识别分类模型训练方法,本实施例中的识别分类模型训练方法包括以下步骤:
步骤S100:根据破坏率和初始图片样本数据,获取有损图片样本数据。
破坏率用于表示一定程度的破坏,本步骤中将初始图片样本数据进行一定程度的破坏,可以生成有损图片样本数据,以便于模拟实际生产使用过程中存在的噪声情况,有损图片样本数据中包括一定程度的噪声。
步骤S200:将有损图片样本数据输入去噪声模型中进行训练,获取还原图片样本数据和去噪损失值。
去噪声模型可以用于通过去噪声对有损图片样本数据进行还原和重构,获取去噪声后重构的还原图片样本数据。去噪损失值可以体现去噪声模型中去噪声能力的强弱,去噪损失值的值越小说明去噪声模型的去噪声能力越强。
步骤S300:将还原图片样本数据输入识别分类模型中进行训练,获取样本标签值和识别损失值。
识别分类模型可以用于对数据进行识别和分类,并输出样本标签值。识别损失值可以体现识别分类模型中识别分类能力的强弱。
步骤S400:根据样本标签值、去噪损失值和识别损失值,分别对去噪声模型和识别分类模型进行反向传导算法的计算,获取训练好的去噪声模型和训练好的识别分类模型。
通过反向传导算法的计算,分别对去噪声模型和识别分类模型进行修正,获取训练好的去噪声模型和训练好的识别分类模型。
上述识别分类模型训练方法,所训练的识别分类模型根据样本标签值、去噪损失值和识别损失值在反向传导算法进行修正,同时所训练的去噪声模型可以有效地匹配识别分类模型,使得识别分类模型可以对有损的数据进行有效且准确地的识别和分类,降低实际应用中噪声对识别分类的影响,提高对具有噪声或者特征不明显的图片进行识别和分类的准确度。
所训练的去噪声模型可以处理有损图片样本数据并获取还原图片样本数据,即可以处理有损的图片并生成是用于识别分类模型适用的去噪声的图片,减少噪声对识别分类模型进行识别分类的干扰。且所训练的识别分类模型和去噪声模型都经过反向传导算法的计算,完成两个模型的修正,使得去噪声模型可以与识别分类模型匹配,以便于提高识别分类模型进行识别和分类的准确度。
在一个实施例中,如图2所示,图2为一个实施例中有损图片样本数据获取的流程图,根据破坏率和初始图片样本数据,获取有损图片样本数据的步骤,包括以下步骤:
步骤S110:根据破坏率获取随机值和预设范围。
随机值和预设范围与破坏率有关,根据不同破坏率所获取的随机值的范围不同,根据不同破坏率所获取的预设范围在初始图片样本数据中的区域上分布不同。例如,在模拟实际生产过程中破环程度对图片数据的影响中,破坏率增加时,可以使随机值的范围相应地扩大,和/或使得被破坏的预设范围的区域增加,增加数据值被破坏的幅度和增加数据被破坏的位置区域。当破坏率足够大时,可使得图片的特征不明显,还可以用于模拟并生成特征不明显的有损图片样本数据。
步骤S120:在初始图片样本数据中预设范围的数据值上叠加随机值,并生成有损图片样本数据。
通过在初始图片样本数据中数据值叠加随机值,进行增加噪声的模拟,破坏初始图片样本数据并生成有损图片样本数据。
上述识别分类模型训练方法,根据随机值和预设范围随机来模拟实际应用中噪声,通过在数据值上叠加随机值对图片进行破坏,获得有损图片样本数据,而且还同时可以满足去噪声模型和识别分类模型在一定破坏率情况下训练,可以不需要重新建立新训练情况下对应的训练样本数据,提高训练效率和降低训练成本。
在一个实施例中,如图3所示,图3为一个实施例中还原图片样本数据获取的流程图,去噪声模型包括卷积层、下采样层、还原层、融合还原层和全连接层;
将有损图片样本数据输入去噪声模型中进行训练,获取还原图片样本数据和去噪损失值的步骤,包括以下步骤:
步骤S210:将有损图片样本数据输入卷积层,并提取有损图片样本数据的特征。
通过卷积层提取有损图片样本数据的特征,将深度大小为1的有损图片样本数据进行特征提取,加深深度。
将有损图片样本数据输入卷积层,并提取有损图片样本数据的特征的步骤,可以包括以下步骤:根据获取有损图片样本数据的特征,其中,yj为有损图片样本数据的第j个特征,xi为有损图片样本数据的第i个数据值,kij为卷积层的第j个特征和第i个数据值之间的权值,bj为阈值,Mj为与xj关联的有损图片样本数据的数据值的个数,f(·)为激活函数,f(·)可以为:
步骤S220:将有损图片样本数据的特征输入下采样层,并获取深化特征。
通过下采样层对有损图片样本数据的特征向下直接传递,并进行进一步的深化处理,保持位移不变。
将有损图片样本数据的特征输入下采样层,并获取深化特征的步骤,可以包括以下步骤:根据yj=f(βjdown(xj)+bj)获取深化特征,其中,yj为深化特征的第j个特征,xj为有损图片样本数据的第j个特征,f(·)为激活函数,βj为权值,down(·)为下采样函数,bj为阈值。f(·)可以为:
步骤S230:将深化特征输入还原层,并获取还原数据。
通过还原层将深化特征进行还原,将深化特征的深度还原至有损图片样本数据的特征的深度,即使得还原后获取的还原数据的深度大小与步骤S210中所提取有损图片样本数据的特征的深度大小相同。
步骤S240:将还原数据输入融合还原层并获取融合还原数据,将融合还原数据输入全连接层,并获取还原图片样本数据。
通过融合还原层对还原数据进行还原操作,并获取融合还原数据;通过全连接层对融合还原数据进行融合还原操作,获取深度大小为1的还原图片样本数据。
步骤S250:根据初始图片样本数据和还原图片样本数据,获取去噪损失值。
对于去噪损失值,如果还原图片样本数据越接近初始图片样本数据,那么去噪损失值越小;如果还原图片样本数据越不接近初始图片样本数据,那么去噪损失值越大。通过去噪损失值可以看出去噪声模型的去噪声能力和还原能力。
上述识别分类模型训练方法,通过训练去噪声模型,可以获取去噪声后重构的还原图片样本数据,以便于后续进行识别分类模型的训练,同时去噪声模型与识别分类模型进行更好的匹配。
在一个实施例中,如图4所示,图4为一个实施例中去噪声模型训练的流程图,破坏率包括第一破坏率和第二破坏率,有损图片样本数据包括第一有损图片样本数据和第二有损图片样本数据,根据破坏率和初始图片样本数据,获取有损图片样本数据的步骤,包括以下步骤:
步骤S131:根据第一破坏率和初始图片样本数据生成第一有损图片样本数据,步骤S132:根据第二破坏率和初始图片样本数据生成第二有损图片样本数据。
根据不同的破坏率获取不同破坏程度下的有损图片样本数据,可以同时提供不同破坏程度下的有损图片样本数据作为去噪声模型的训练样本数据,便于获取充足的训练样本数据进行去噪声模型的训练。
卷积层包括第一卷积层、第二卷积层和第三卷积层,有损图片样本数据的特征包括第一有损图片样本数据的第一特征、第二有损图片样本数据的第二特征和第三特征,将有损图片样本数据输入卷积层,并提取有损图片样本数据的特征的步骤,包括以下步骤:
步骤S211:将第一有损图片样本数据和第一破坏率输入第一卷积层,并提取第一有损图片样本数据的第一特征。步骤S212:将第二有损图片样本数据和第二破坏率输入第二卷积层,并提取第二有损图片样本数据的第二特征。
步骤S213:将第一特征和第二特征输入第三卷积层,并提取第三特征。
第一有损图片样本数据和第二有损图片样本数据的深度大小分别为1。分别对第一有损图片样本数据和第二有损图片样本数据进行特征提取的操作,加深深度,并分别获取第一特征和第二特征。同时对第一有损图片样本数据的第一特征和第二有损图片样本数据的第二特征进行特征提取的操作,加深深度,提取不同破坏率之间的特征,并获取第三特征。
下采样层包括第一下采样层、第二下采样层和第三下采样层,深化特征包括第一深化特征、第二深化特征和第三深化特征,将有损图片样本数据的特征输入下采样层,并获取深化特征的步骤,包括以下步骤:
步骤S221:将第一特征输入第一下采样层并获取第一深化特征,步骤S222:将第二特征输入第二下采样层并获取第二深化特征,步骤S223:将第三特征输入第三下采样层并获取第三深化特征。
分别对第一特征、第二特征和第三特征向下直接传递,并进行进一步的深化处理,保持位移不变,分别获取第一深化特征、第二深化特征和第三深化特征。
还原层包括第一还原层、第二还原层和第三还原层,还原数据包括第一还原数据、第二还原数据和第三还原数据,将深化特征输入还原层,并获取还原数据的步骤,包括以下步骤:
步骤S231:将第一深化特征输入第一还原层并获取第一还原数据,步骤S232:将第二深化特征输入第二还原层并获取第二还原数据,步骤S233:将第三深化特征输入第三还原层并获取第三还原数据。
分别对第一深化特征、第二深化特征和第三深化特征进行还原,还原后获取的第一还原数据、第二还原数据和第三还原数据的深度大小与第三特征的深度大小相同。
融合还原层包括第一融合还原层和第二融合还原层,融合还原数据包括第一融合还原数据和第二融合还原数据,将还原数据输入融合还原层并获取融合还原数据,将融合还原数据输入全连接层,并获取还原图片样本数据的步骤,包括以下步骤:
步骤S241:将第一还原数据和第三还原数据输入第一融合还原层,并获取第一融合还原数据。步骤S242:将第二还原数据和第三还原数据输入第二融合还原层,并获取第二融合还原数据。
步骤S243:将第一融合还原数据和第二融合还原数据输入全连接层,并获取还原图片样本数据。
根据第一还原数据和第三还原数据进行还原操作,获取还原后的第一融合还原数据的深度大小与第一特征的深度大小相同。根据第二还原数据和第三还原数据进行还原操作,获取还原后的第二融合还原数据与第二特征的深度大小相同。
将第一融合还原数据和第二融合还原数据进行融合还原操作并还原至深度大小为1,获取深度大小为1的还原图片样本数据。
上述识别分类模型训练方法,通过对不同的破坏率建立新训练情况下对应的第一有损图片样本数据和第二有损图片样本数据,对去噪声模型进行训练,提高去噪声模型的准确性。
在一个实施例中,根据初始图片样本数据和还原图片样本数据,获取去噪损失值的步骤,包括以下步骤:
根据获取去噪损失值,
其中,q(x,z)为去噪损失值,x为初始图片样本数据,z为还原图片样本数据,xi为初始图片样本数据中第i个数据值,zi为第i个数据值对应的还原图片样本中的数据值,d为初始图片样本数据的数据值的总个数。
上述识别分类模型训练方法,可以准确地获取去噪损失值,以便于后续根据去噪损失值对去噪声模型进行方向传导算法的计算。
在一个实施例中,如图5所示,图5为一个实施例中样本标签值获取的流程图,识别分类模型包括一级卷积层、一级下采集层、二级卷积层、二级下采集层和一级全连接层;
将还原图片样本数据输入识别分类模型中进行训练,获取样本标签值和识别损失值的步骤,包括以下步骤:
步骤S310:将还原图片样本数据输入一级卷积层,并获取还原图片样本数据的一级提取特征。
通过一级卷积层对还原图片样本数据提取特征,并获取一级提取特征,将深度大小为1的还原图片样本数据进行特征提取,加深深度。
将还原图片样本数据输入一级卷积层,并获取还原图片样本数据的一级提取特征的步骤,可以包括以下步骤:根据获取还原图片样本数据的一级提取特征,其中,yj为一级提取特征的第j个特征,xi为还原图片样本数据的第i个数据值,kij为卷积层的第j个特征和第i个数据值之间的权值,bj为阈值,Mj为与xj关联的还原图片样本数据的数据值的个数,f(·)为激活函数。f(·)可以为:
步骤S320:将一级提取特征输入一级下采集层,并获取二级提取特征。
通过一级下采集层对一级提取特征进行深化处理,保持位移不变,获取二级提取特征。
将一级提取特征输入一级下采集层,并获取二级提取特征的步骤,可以包括以下步骤:根据yj=f(βjdown(xj)+bj)获取二级提取特征,其中,yj为二级提取特征的第j个特征,xj为一级提取特征的第j个特征,f(·)为激活函数,βj为权值,down(·)为下采样函数,bj为阈值。f(·)可以为:
步骤S330:将二级提取特征输入二级卷积层,并获取三级提取特征。
通过二级卷积层对二级提取特征提取特征,并获取三级提取特征,加深深度。
将二级提取特征输入二级卷积层,并获取三级提取特征的步骤,可以包括以下步骤:根据获取三级提取特征,其中,yj为三级提取特征的第j个特征,xi为二级提取特征的第i个特征,kij为卷积层在三级提取特征的第j个特征和二级提取特征的第i个特征之间的权值,bj为阈值,Mj为与xj关联的二级提取特征的个数,f(·)为激活函数。f(·)可以为:
步骤S340:将三级提取特征输入二级下采集层,并获取四级提取特征。
通过二级下采集层对三级提取特征进行深化处理,保持位移不变,获取四级提取特征。
将三级提取特征输入二级下采集层,并获取四级提取特征的步骤,可以包括以下步骤:根据yj=f(βjdown(xj)+bj)获取四级提取特征,其中,yj为四级提取特征的第j个特征,xj为三级提取特征的第j个特征,f(·)为激活函数,βj为权值,down(·)为下采样函数,bj为阈值。f(·)可以为:
步骤S350:将四级提取特征输入一级全连接层,获取样本标签值。
通过一级全连接层对四级提取特征进行识别分类操作,获取样本标签值。
步骤S360:根据样本标签值和还原图片样本数据获取识别损失值。
对于识别损失值,如果识别分类模型的识别分类能力越强,那么识别损失值越小;如果识别分类模型的识别分类能力越弱,那么识别损失值越大。通过识别损失值可以看出识别分类模型的识别分类能力。
上述识别分类模型训练方法,通过训练识别分类模型,可以获取样本标签值,完成对还原图片样本数据的识别和分类操作。
在一个实施例中,如图6所示,图6为一个实施例中识别分类模型训练的流程图,还原图片样本数据包括第一还原图片样本和第二还原图片样本,一级卷积层包括第一一级卷积层、第二一级卷积层和第三一级卷积层,一级提取特征包括第一一级提取特征、第二一级提取特征和第三一级提取特征,将还原图片样本数据输入一级卷积层,并获取还原图片样本数据的一级提取特征的步骤,包括以下步骤:
步骤S311:将第一还原图片样本输入第一一级卷积层并获取第一一级提取特征,步骤S312:将第二还原图片样本输入第二一级卷积层并获取第二一级提取特征。
分别对第一还原图片样本和第二还原图片样本进行特征提取的操作,加深深度,并分别获取第一一级提取特征和第二一级提取特征。
可以通过还原被破坏的初始图片样本数据获取还原图片样本数据,由还原图片样本数据组成还原样本数据集,还原图片样本数据包括第一还原图片样本和第二还原图片样本,可以从还原样本数据集中可以获取第一还原图片样本和第二还原图片样本。
步骤S313:将第一一级提取特征和第二一级提取特征输入第三一级卷积层,并获取第三一级提取特征。
另外,还对第一一级提取特征和第二一级提取特征进行特征提取的操作,加深深度,提取第一一级提取特征和第二一级提取特征之间的特征差异,获取第三一级提取特征。
一级下采集层包括第一一级下采集层、第二一级下采集层和第三一级下采集层,二级提取特征包括第一二级提取特征、第二二级提取特征和第三二级提取特征,将一级提取特征输入一级下采集层,并获取二级提取特征的步骤,包括以下步骤:
步骤S321:将第一一级提取特征输入第一一级下采集层并获取第一二级提取特征,步骤S322:将第二一级提取特征输入第二一级下采集层并获取第二二级提取特征,步骤S323:将第三一级提取特征输入第三一级下采集层并获取第三二级提取特征。
分别对第一一级提取特征、第二一级提取特征和第三一级提取特征进行进一步的深化处理,保证位移不变,分别获取第一二级提取特征、第二二级提取特征和第三二级提取特征。
二级卷积层包括第一二级卷积层、第二二级卷积层和第三二级卷积层,三级提取特征包括第一三级提取特征、第二三级提取特征和第三三级提取特征,将二级提取特征输入二级卷积层,并获取三级提取特征的步骤,包括以下步骤:
步骤S331:将第一二级提取特征输入第一二级卷积层并获取第一三级提取特征,步骤S332:将第二二级提取特征输入第二二级卷积层并获取第二三级提取特征,步骤S333:将第三二级提取特征输入第三二级卷积层并获取第三三级提取特征。
分别对第一二级提取特征、第二二级提取特征和第三二级提取特征进行特征提取的操作,加深深度,并分别获取第一三级提取特征、第二三级提取特征和第三三级提取特征。
二级下采集层包括第一二级下采集层、第二二级下采集层和第三二级下采集层,四级提取特征包括第一四级提取特征、第二四级提取特征和第三四级提取特征,将三级提取特征输入二级下采集层,并获取四级提取特征的步骤,包括以下步骤:
步骤S341:将第一三级提取特征输入第一二级下采集层并获取第一四级提取特征,步骤S342:将第二三级提取特征输入第二二级下采集层并获取第二四级提取特征,步骤S343:将第三三级提取特征输入第三二级下采集层并获取第三四级提取特征。
分别对第一三级提取特征、第二三级提取特征和第三三级提取特征进行进一步的深化处理,保持位移不变,分别获取第一四级提取特征、第二四级提取特征和第三四级提取特征。
一级全连接层第一一级全连接层和第二一级全连接层,将四级提取特征输入一级全连接层,获取样本标签值的步骤,包括以下步骤:
步骤S351:将第一四级提取特征、第二四级提取特征和第三四级提取特征输入第一一级全连接层并生成融合统一数据。
通过第一一级全连接层对第一四级提取特征、第二四级提取特征和第三四级提取特征进行深度学习的统一操作,并生成融合统一数据。
步骤S352:将融合统一数据输入第二一级全连接层进行识别分类操作,并输出样品标签值。
通过第二一级全连接层对融合统一数据进行分类和识别的操作,生成样本标签值并输出。
上述识别分类模型训练方法,通过第一还原图片样本和第二还原图片样本,进行多次的特征提取和深化特征,对识别分类模型进行训练,提高识别分类模型的准确性。
在一个实施例中,根据样本标签值和还原图片样本数据获取识别损失值的步骤,包括以下步骤:
根据获取识别损失值,
其中,xi为还原图片样本数据的第i个样品,n为还原图片样本数据的样本总数,yi为还原图片样本数据中第i个样本的样本标签值,g(·)为激励函数,L为识别分类模型的总层数,w为权值矩阵,wj为识别分类模型第j层的权值矩阵,wLi为识别分类模型第L层的权值矩阵的第i个权值,为正则化项,λ为正则化项系数。
上述识别分类模型训练方法,可以准确地获取识别损失值,以便于后续根据识别损失值以及去噪损失值对识别分类模型进行方向传导算法的计算。
在一个实施例中,如图7所示,图7为一个实施例中反向传导算法计算的流程图,根据样本标签值、去噪损失值和识别损失值,分别对去噪声模型和识别分类模型进行反向传导算法的计算,获取训练好的去噪声模型和训练好的识别分类模型的步骤,包括以下步骤:
步骤S410:将去噪损失值和识别损失值的和值作为总损失值。
步骤S420:根据总损失值,更新去噪声模型的权值和阈值并获取更新的去噪声模型,更新识别分类模型的权值和阈值并获取更新的识别分类模型,根据更新的去噪声模型和更新的识别分类模型,获取更新的总损失值。
更新的去噪声模型为根据更新后的去噪声模型的权值和阈值所建立的去噪声模型;更新的识别分类模型为根据更新后的识别分类模型的权值和阈值所建立的识别分类模型。
步骤S430:在总损失值小于或等于预设值时,将更新的去噪声模型作为训练好的去噪声模型,将更新的识别分类模型作为训练好的识别分类模型。
步骤S440:在总损失值大于预设值时,根据更新的总损失值,跳转至更新去噪声模型的权值和阈值并获取更新的去噪声模型,更新识别分类模型的权值和阈值并获取更新的识别分类模型,根据更新的去噪声模型和更新的识别分类模型,获取更新的总损失值的步骤。
沿总损失值减小的方向,更新去噪声模型的权值和阈值,以及更新识别分类模型的权值和阈值,直至总损失值降低至预设值,停止训练去噪声模型和识别分类模型,并保存训练好的去噪声模型和训练好的识别分类模型。
上述识别分类模型训练方法,沿总损失值减小的方向训练去噪声模型和识别分类模型,使总损失值降低至预设值,提高去噪声模型去噪声能力以及识别分类模型的识别分类能力,进一步提高去噪声模型和识别分类模型的准确性。
在一个实施例中,更新去噪声模型的权值和阈值的步骤,包括以下步骤:
通过更新去噪声模型的权值,其中,w1为更新后去噪声模型的权值,w1′为更新前去噪声模型的权值,η为学习率,T为总损失值;
通过更新去噪声模型的阈值,其中,b1为更新后去噪声模型的阈值,b1′为更新前去噪声模型的阈值,η为学习率,T为总损失值;
上述识别分类模型训练方法,根据总损失值对去噪声模型的权值和阈值进行更新,通过更改去噪声模型的权值和阈值,可以更新去噪声模型。
在一个实施例中,更新识别分类模型的权值和阈值的步骤,包括以下步骤:
通过更新识别分类模型的权值,其中,w2为更新后识别分类模型的权值,w2′为更新前识别分类模型的权值,η为学习率,T为总损失值;
通过更新识别分类模型的阈值,其中,b2为更新后识别分类模型的阈值,b2′为更新前识别分类模型的阈值,η为学习率,T为总损失值。
上述识别分类模型训练方法,根据总损失值对识别分类模型的权值和阈值更新,通过更改识别分类模型的权值和阈值,可以更新识别分类模型。
在一个实施例中,如图8所示,图8为一个实施例中样本标签值输出的流程图,在获取训练好的去噪声模型和训练好的识别分类模型的步骤之后,还包括以下步骤:
步骤S510:将待测图片输入获取训练好的去噪声模型并生成待测还原图片;
步骤S520:将待测还原图片输入获取训练好的识别分类模型,输出待测图片的样本标签值。
上述识别分类模型训练方法,通过训练好的去噪声模型对待测图片进行还原操作并生成待测还原照片,通过训练好的识别分类模型可以对待测还原图片进行识别分类操作,完成识别分类模型的识别分类的功能,对待测图片进行识别和分类,并获取待测图片的样本标签值。
在另一个实施例中,如图9所示,图9为另一个实施例中识别分类模型训练方法的流程图。本实施例中,识别分类模型训练方法包括以下步骤:
第一步:输入原始训练数据,将原始训练数据转换成计算机可以处理和识别的数据格式,获取该数据格式下的初始图片样本数据。例如,可以将原始训练数据的图片转变为计算机可以处理的数据格式,还可以将原始训练数据的视频转变为每个帧对应的图片并将每个帧对应的图片转变为计算机可以处理的数据格式。还需要初始化去噪声模型和分类识别模型中的权值和阈值。
第二步:将初始图片样本数据进行不同程度的破坏,并生成有损图片样本数据。破坏的方法,可以是通过在初始图片样本数据的数据值上随机叠加随机值,例如在初始图片样本数据中一定范围内的数据值上叠加随机值。生成的有损图片样本数据可以模拟实际应用和现实生活中可能存在的噪声情况。而且不同程度破坏下获取不同的有损图片样本数据,扩大了训练数据集的容量,好处是不必重新建立新的训练数据集就可以适用和应对不同训练条件的情况。
第三步:将有损图片样本数据输入去噪声模型中进行训练,并生成还原图片样本数据,以及获取去噪损失值。去噪损失值用于代表当前去噪声模型的去噪声能力,去噪损失值越小,说明去噪声模型的去噪声能力越强。
第四步:将还原图片样本数据输入识别分类模型中进行训练,并生成样本标签值,以及获取识别损失值。识别损失值用于代表当前识别分类模型的识别分类能力,识别损失值越小,说明识别分类模型的识别分类能力越强。
第五步:通过反向传导算法对去噪声模型和识别分类模型进行修正,更新和改变去噪声模型和识别分类模型中的权值和阈值,同时使得去噪损失值与识别损失值的和值减小。在去噪损失值与识别损失值的和值小于或等于预设值时,将获取更新的去噪声模型作为训练好的去噪声模型,将更新的识别分类模型作为训练好的识别分类模型。在输出的样本标签值,以及去噪损失值与识别损失值的和值达到满意的结果后停止训练,保存模型。
第六步:将待测图片输入获取训练好的去噪声模型并生成待测还原图片;将待测还原图片输入获取训练好的识别分类模型,输出待测图片的样本标签值。
对于第二步至第三步具体可以包括以下步骤:
根据不同的破坏率获取不同的有损图片样本数据。破坏率包括第一破坏率和第二破坏率,根据第一破坏率和初始图片样本数据生成第一有损图片样本数据,根据第二破坏率和初始图片样本数据生成第二有损图片样本数据。
对不同的破坏率对应的有损图片样本数据进行提取特征的操作,加深深度,并分别对应获取第一特征和第二特征。还对第一特征和第二特征进行特征提取的操作,加深深度,提取不同破坏率之间的特征,并获取第三特征。将第一有损图片样本数据和第一破坏率输入第一卷积层,并提取第一有损图片样本数据的第一特征。将第二有损图片样本数据和第二破坏率输入第二卷积层,并提取第二有损图片样本数据的第二特征。将第一特征和第二特征输入第三卷积层,并提取第三特征。卷积层的计算公式为:
其中,yj为本层获取的第j个特征,xi为输入数据的第i个数据值或输入的第i个特征,kij为本层获取的第j个和输入的第i个特征之间的权值,bj为阈值,Mj为与xj关联的输入的特征的个数,f(·)为激活函数。等式右边表示针对上层所有关联的特征xi和本层的j个卷积核kij做卷积运算并求和,然后加上一个偏置参数bj,最后通入f(·)。f(·)可以为:
分别将提取的第一特征、第二特征和第三特征向下直接传递,进行特征的进一步的深化处理,保证位移不变,并分别对应生成第一深化特征、第二深化特征和第三深化特征。将第一特征输入第一下采样层并获取第一深化特征,将第二特征输入第二下采样层并获取第二深化特征,将第三特征输入第三下采样层并获取第三深化特征。采样层的计算公式为:
yj=f(βjdown(xj)+bj),
其中,yj为本层获取的第j个特征,xj为输入的第j个特征,f(·)为激活函数,βj为权值,down(·)为下采样函数,bj为阈值。f(·)可以为:
将深化特征进行还原,将第一深化特征、第二深化特征和第三深化特征的深度分别还原至第三特征的深度,分别对应生成第一还原数据、第二还原数据和第三还原数据。将第一深化特征输入第一还原层并获取第一还原数据,将第二深化特征输入第二还原层并获取第二还原数据,将第三深化特征输入第三还原层并获取第三还原数据。第一还原层、第二还原层和第三还原层可以分别是一个全连接层。
将第一还原数据和第三还原数据相融合,进行一次深度学习,对还原数据进行还原操作,将第一还原数据和第三还原数据输入一个卷积层,被还原的深度大小为1,获取还原后的第一融合还原数据的深度大小与第一特征的深度大小相同。将第二还原数据和第三还原数据相融合,进行一次深度学习,对还原数据进行还原操作,将第二还原数据和第三还原数据输入一个卷积层,被还原的深度大小为1,获取还原后的第二融合还原数据与第二特征的深度大小相同。
将第一融合还原数据和第二融合还原数据再进行一次深度学习,输入一个全连接层,进行统一操作,进行融合还原操作,被还原的深度大小为1。将第一融合还原数据和第二融合还原数据进行融合还原操作并还原至深度大小为1,获取深度大小为1的还原图片样本数据。
对于去噪损失值可以根据初始图片样本数据和还原图片样本数据的关系进行计算,如果还原图片样本数据越接近初始图片样本数据,那么去噪损失值越小;如果还原图片样本数据越不接近初始图片样本数据,那么去噪损失值越大。通过去噪损失值可以看出去噪声模型的去噪声和还原能力,获取去噪损失值的函数可以如下表示:
其中,q(x,z)为去噪损失值,x为初始图片样本数据,z为还原图片样本数据,xi为初始图片样本数据中第i个数据值,zi为第i个数据值对应的还原图片样本数据中的数据值,d为初始图片样本数据的数据值的总个数。
如图10所示,图10为另一个实施例中去噪声模型的效果展示图,图10(a)为初始图片样本数据,图10(b)为有损图片样本数据,图10(c)为还原图片样本数据。
对于第四步具体可以包括以下步骤:
输入经过还原的数据集,将经过还原的数据集转换成计算机可以处理和识别的数据格式,即输入还原图片样本数据。
将还原图片样本数据的两个样本分别进行第一轮深度学习,进行提取特征的操作,将深度大小为1的还原图片样本数据在通过卷积操作后可以加深深度,将第一还原图片样本输入第一一级卷积层并获取第一一级提取特征,将第二还原图片样本输入第二一级卷积层并获取第二一级提取特征。还对第一一级提取特征和第二一级提取特征进行特征提取的操作,加深深度,提取两个样本之间的特征,并获取第三一级提取特征。将第一一级提取特征和第二一级提取特征输入第三一级卷积层,并获取第三一级提取特征。
将第一一级提取特征、第二一级提取特征和第三一级提取特征分别进行第二轮深度学习,提取特征,进行进一步深化处理的操作,保持位移不变。将第一一级提取特征输入第一一级下采集层并获取第一二级提取特征,将第二一级提取特征输入第二一级下采集层并获取第二二级提取特征,将第三一级提取特征输入第三一级下采集层并获取第三二级提取特征。
将第一二级提取特征、第二二级提取特征和第三二级提取特征分别进行第三轮深化学习,进行提取特征的操作,第一二级提取特征、第二二级提取特征和第三二级提取特征在通过卷积操作后可以加深深度。将第一二级提取特征输入第一二级卷积层并获取第一三级提取特征,将第二二级提取特征输入第二二级卷积层并获取第二三级提取特征,将第三二级提取特征输入第三二级卷积层并获取第三三级提取特征。
将第一三级提取特征、第二三级提取特征和第三三级提取特征分别进行第四轮深度学习,提取特征,进行进一步深化处理的操作,保持位移不变。将第一三级提取特征输入第一二级下采集层并获取第一四级提取特征,将第二三级提取特征输入第二二级下采集层并获取第二四级提取特征,将第三三级提取特征输入第三二级下采集层并获取第三四级提取特征。
卷积层的计算公式为:其中,yj为本层获取的第j个特征,xi为输入数据的第i个数据值或输入的第i个特征,kij为本层获取的第j个和输入的第i个特征之间的权值,bj为阈值,Mj为与xj关联的输入的特征的个数,f(·)为激活函数。等式右边表示针对上层所有关联的特征xi和本层的j个卷积核kij做卷积运算并求和,然后加上一个偏置参数bj,最后通入f(·)。f(·)可以为:
采样层的计算公式为:yj=f(βjdown(xj)+bj),其中,yj为本层获取的第j个特征,xj为输入的第j个特征,f(·)为激活函数,βj为权值,down(·)为下采样函数,bj为阈值。f(·)可以为:
将第一四级提取特征、第二四级提取特征和第三四级提取特征再进行一次深度学习的统一操作,将第一四级提取特征、第二四级提取特征和第三四级提取特征输入第一一级全连接层并生成融合统一数据。
将融合统一数据输入第二一级全连接层进行识别分类操作,生成样本标签值并输出样品标签值。
识别损失值可以体现识别分类模型中识别分类能力的强弱。如果识别分类模型的识别分类能力越强,那么识别损失值越小;如果识别分类模型的识别分类能力越弱,那么识别损失值越大。通过识别损失值可以看出识别分类模型的识别分类能力。获取识别损失值的函数可以如下表示:
其中,xi为还原图片样本数据的第i个样品,n为还原图片样本数据的样本总数,yi为还原图片样本数据中第i个样本的样本标签值,g(·)为激励函数,L为识别分类模型的总层数,w为权值矩阵,wLi为识别分类模型第L层的权值矩阵的第i个权值,wj为识别分类模型第j层的权值矩阵,为正则化项,λ为正则化项系数。采用了L2正则化(l2-norm),λ为正则化项系数,用于抑制过拟合。可使用了批量正则化,效果为减少参数的认为选择,可以取消L2正则项参数,或者采取更小的L2正则项约束参数。而在每次传入数据进入激活函数模型时,需要通过批量正则化进行数据处理,目的是放置得到的结果产生过拟合的情况。
其中在去噪声模型和分类识别模型训练阶段要通过激活函数处理数据,对于激活函数可以为:
对于一次训练产生的总损失值为去噪损失值和识别损失值的和值,T=q+p,其中,T为总损失值,q为去噪损失值,p为识别损失值。改变整个系统的权值和阈值方向就是使总损失值减小。最终通过多次循环此过程,观察输出结果,通过沿着总损失值减小的方向更新权值与阈值,如图11所示,图11为另一个实施例中反向传导的流程图。将去噪损失值和识别损失值的和值作为总损失值。根据总损失值,更新去噪声模型的权值和阈值并获取更新的去噪声模型,更新识别分类模型的权值和阈值并获取更新的识别分类模型,根据更新的去噪声模型和更新的识别分类模型,获取更新的总损失值。在总损失值小于或等于预设值时,将更新的去噪声模型作为训练好的去噪声模型,将更新的识别分类模型作为训练好的识别分类模型。在总损失值大于预设值时,根据更新的总损失值,跳转至更新去噪声模型的权值和阈值并获取更新的去噪声模型,更新识别分类模型的权值和阈值并获取更新的识别分类模型,根据更新的去噪声模型和更新的识别分类模型,获取更新的总损失值的步骤。
对于权值和阈值的更新使用如下公式:
通过更新去噪声模型的权值,其中,w1为更新后去噪声模型的权值,w1′为更新前去噪声模型的权值,η为学习率,T为总损失值;
通过更新去噪声模型的阈值,其中,b1为更新后去噪声模型的阈值,b1′为更新前去噪声模型的阈值,η为学习率,T为总损失值;
通过更新识别分类模型的权值,其中,w2为更新后识别分类模型的权值,w2′为更新前识别分类模型的权值,η为学习率,T为总损失值;
通过更新识别分类模型的阈值,其中,b2为更新后识别分类模型的阈值,b2′为更新前识别分类模型的阈值,η为学习率,T为总损失值。
上述识别分类模型训练方法,所训练的识别分类模型根据样本标签值、去噪损失值和识别损失值在反向传导算法进行修正,同时所训练的去噪声模型可以有效地匹配识别分类模型,使得识别分类模型可以对有损的数据进行有效且准确地的识别和分类,降低实际应用中噪声对识别分类的影响,提高对具有噪声或者特征不明显的图片进行识别和分类的准确度。
而且,1、训练后的去噪声模型和识别分类模型更加适合现实情况。
2、在不同条件时可不必重新建立训练数据,可以在一些标准数据加一些真实的噪声,模拟真实情况。加噪声模拟后的效果不会影响之前训练效果。
3、去噪声模型和识别分类模型在现实情况的检测效果更好,抗干扰能力强。
4、面对有损或者特征不明显的图片或者视频也可以很好地进行分类识别。可以有效的处理有损的信息将它还原成无损状态,或者接近无损状态。
5、在同等情况下,识别的精度与之前的深度学习方法相等,但在有损与特征不明显的情况下,上述识别分类模型训练方法可以大大提升精度。在现实情况的检测效果更好。
6、无论是在干扰情况大或者小的情况下都可以进行很好的识别与分类,适应性强。可以不用重新建立训练模型,也可以提高在干扰环境识别和分类效果。
应该理解的是,虽然图1至9,以及图11的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1至9,以及图11中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图12所示,图12为一个实施例中识别分类模型训练系统的结构示意图,提供了一种识别分类模型训练系统,包括:有损图片样本数据获取模块61、还原图片样本数据获取模块62、样本标签值获取模块63和训练模型获取模块64,其中:
有损图片样本数据获取模块61,用于根据破坏率和初始图片样本数据,获取有损图片样本数据;
还原图片样本数据获取模块62,用于将有损图片样本数据输入去噪声模型中进行训练,获取还原图片样本数据和去噪损失值;
样本标签值获取模块63,用于将还原图片样本数据输入识别分类模型中进行训练,获取样本标签值和识别损失值;
训练模型获取模块64,用于根据样本标签值、去噪损失值和识别损失值,分别对去噪声模型和识别分类模型进行反向传导算法的计算,获取训练好的去噪声模型和训练好的识别分类模型。
上述识别分类模型训练系统,所训练的识别分类模型根据样本标签值、去噪损失值和识别损失值在反向传导算法进行修正,同时所训练的去噪声模型可以有效地匹配识别分类模型,使得识别分类模型可以对有损的数据进行有效且准确地的识别和分类,降低实际应用中噪声对识别分类的影响,提高对具有噪声或者特征不明显的图片进行识别和分类的准确度。
关于识别分类模型训练系统的具体限定可以参见上文中对于识别分类模型训练方法的限定,在此不再赘述。上述识别分类模型训练系统中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图13所示,图13为一个实施例中计算机设备的内部结构图。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种识别分类模型训练方法。
本领域技术人员可以理解,图13中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述识别分类模型训练方法的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现识别分类模型训练方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种识别分类模型训练方法,其特征在于,包括以下步骤:
根据破坏率和初始图片样本数据,获取有损图片样本数据;
将所述有损图片样本数据输入去噪声模型中进行训练,获取还原图片样本数据和去噪损失值;
将所述还原图片样本数据输入识别分类模型中进行训练,获取样本标签值和识别损失值;
根据所述样本标签值、所述去噪损失值和所述识别损失值,分别对所述去噪声模型和所述识别分类模型进行反向传导算法的计算,获取训练好的去噪声模型和训练好的识别分类模型。
2.根据权利要求1所述的识别分类模型训练方法,其特征在于,所述根据破坏率和初始图片样本数据,获取有损图片样本数据的步骤,包括以下步骤:
根据所述破坏率获取随机值和预设范围;
在所述初始图片样本数据中所述预设范围的数据值上叠加所述随机值,并生成所述有损图片样本数据。
3.根据权利要求1所述的识别分类模型训练方法,其特征在于,所述去噪声模型包括卷积层、下采样层、还原层、融合还原层和全连接层;
所述将所述有损图片样本数据输入去噪声模型中进行训练,获取还原图片样本数据和去噪损失值的步骤,包括以下步骤:
将所述有损图片样本数据输入所述卷积层,并提取所述有损图片样本数据的特征;
将所述有损图片样本数据的特征输入所述下采样层,并获取深化特征;
将所述深化特征输入所述还原层,并获取还原数据;
将所述还原数据输入所述融合还原层并获取融合还原数据,将所述融合还原数据输入所述全连接层,并获取所述还原图片样本数据;
根据所述初始图片样本数据和所述还原图片样本数据,获取所述去噪损失值。
4.根据权利要求3所述的识别分类模型训练方法,其特征在于,所述破坏率包括第一破坏率和第二破坏率,所述有损图片样本数据包括第一有损图片样本数据和第二有损图片样本数据,所述根据破坏率和初始图片样本数据,获取有损图片样本数据的步骤,包括以下步骤:
根据所述第一破坏率和所述初始图片样本数据生成所述第一有损图片样本数据,根据所述第二破坏率和所述初始图片样本数据生成所述第二有损图片样本数据;
所述卷积层包括第一卷积层、第二卷积层和第三卷积层,所述有损图片样本数据的特征包括所述第一有损图片样本数据的第一特征、所述第二有损图片样本数据的第二特征和第三特征,所述将所述有损图片样本数据输入所述卷积层,并提取所述有损图片样本数据的特征的步骤,包括以下步骤:
将所述第一有损图片样本数据和所述第一破坏率输入所述第一卷积层,并提取所述第一有损图片样本数据的第一特征;
将所述第二有损图片样本数据和所述第二破坏率输入所述第二卷积层,并提取所述第二有损图片样本数据的第二特征;
将所述第一特征和所述第二特征输入所述第三卷积层,并提取所述第三特征;
所述下采样层包括第一下采样层、第二下采样层和第三下采样层,所述深化特征包括第一深化特征、第二深化特征和第三深化特征,所述将所述有损图片样本数据的特征输入所述下采样层,并获取深化特征的步骤,包括以下步骤:
将所述第一特征输入所述第一下采样层并获取所述第一深化特征,将所述第二特征输入所述第二下采样层并获取所述第二深化特征,将所述第三特征输入所述第三下采样层并获取所述第三深化特征;
所述还原层包括第一还原层、第二还原层和第三还原层,所述还原数据包括第一还原数据、第二还原数据和第三还原数据,所述将所述深化特征输入所述还原层,并获取还原数据的步骤,包括以下步骤:
将所述第一深化特征输入所述第一还原层并获取所述第一还原数据,将所述第二深化特征输入所述第二还原层并获取所述第二还原数据,将所述第三深化特征输入所述第三还原层并获取所述第三还原数据;
所述融合还原层包括第一融合还原层和第二融合还原层,所述融合还原数据包括第一融合还原数据和第二融合还原数据,所述将所述还原数据输入所述融合还原层并获取融合还原数据,将所述融合还原数据输入所述全连接层,并获取所述还原图片样本数据的步骤,包括以下步骤:
将所述第一还原数据和所述第三还原数据输入所述第一融合还原层,并获取所述第一融合还原数据;
将所述第二还原数据和所述第三还原数据输入所述第二融合还原层,并获取所述第二融合还原数据;
将所述第一融合还原数据和第二融合还原数据输入所述全连接层,并获取所述还原图片样本数据。
5.根据权利要求3所述的识别分类模型训练方法,其特征在于,所述根据所述初始图片样本数据和所述还原图片样本数据,获取所述去噪损失值的步骤,包括以下步骤:
根据获取所述去噪损失值,
其中,q(x,z)为所述去噪损失值,x为所述初始图片样本数据,z为所述还原图片样本数据,xi为所述初始图片样本数据中第i个数据值,zi为所述第i个数据值对应的还原图片样本中的数据值,d为所述初始图片样本数据的数据值的总个数。
6.根据权利要求1所述的识别分类模型训练方法,其特征在于,所述识别分类模型包括一级卷积层、一级下采集层、二级卷积层、二级下采集层和一级全连接层;
所述将所述还原图片样本数据输入识别分类模型中进行训练,获取样本标签值和识别损失值的步骤,包括以下步骤:
将所述还原图片样本数据输入所述一级卷积层,并获取所述还原图片样本数据的一级提取特征;
将所述一级提取特征输入所述一级下采集层,并获取二级提取特征;
将所述二级提取特征输入所述二级卷积层,并获取三级提取特征;
将所述三级提取特征输入所述二级下采集层,并获取四级提取特征;
将所述四级提取特征输入所述一级全连接层,获取所述样本标签值;
根据所述样本标签值和所述还原图片样本数据获取所述识别损失值。
7.根据权利要求6所述的识别分类模型训练方法,其特征在于,所述还原图片样本数据包括第一还原图片样本和第二还原图片样本,所述一级卷积层包括第一一级卷积层、第二一级卷积层和第三一级卷积层,所述一级提取特征包括第一一级提取特征、第二一级提取特征和第三一级提取特征,所述将所述还原图片样本数据输入所述一级卷积层,并获取所述还原图片样本数据的一级提取特征的步骤,包括以下步骤:
将所述第一还原图片样本输入所述第一一级卷积层并获取所述第一一级提取特征,将所述第二还原图片样本输入所述第二一级卷积层并获取所述第二一级提取特征;
将所述第一一级提取特征和所述第二一级提取特征输入所述第三一级卷积层,并获取所述第三一级提取特征;
所述一级下采集层包括第一一级下采集层、第二一级下采集层和第三一级下采集层,所述二级提取特征包括第一二级提取特征、第二二级提取特征和第三二级提取特征,所述将所述一级提取特征输入所述一级下采集层,并获取二级提取特征的步骤,包括以下步骤:
将所述第一一级提取特征输入所述第一一级下采集层并获取所述第一二级提取特征,将所述第二一级提取特征输入所述第二一级下采集层并获取所述第二二级提取特征,将所述第三一级提取特征输入所述第三一级下采集层并获取所述第三二级提取特征;
所述二级卷积层包括第一二级卷积层、第二二级卷积层和第三二级卷积层,所述三级提取特征包括第一三级提取特征、第二三级提取特征和第三三级提取特征,所述将所述二级提取特征输入所述二级卷积层,并获取三级提取特征的步骤,包括以下步骤:
将所述第一二级提取特征输入所述第一二级卷积层并获取所述第一三级提取特征,将所述第二二级提取特征输入所述第二二级卷积层并获取所述第二三级提取特征,将所述第三二级提取特征输入所述第三二级卷积层并获取所述第三三级提取特征;
所述二级下采集层包括第一二级下采集层、第二二级下采集层和第三二级下采集层,所述四级提取特征包括第一四级提取特征、第二四级提取特征和第三四级提取特征,所述将所述三级提取特征输入所述二级下采集层,并获取四级提取特征的步骤,包括以下步骤:
将所述第一三级提取特征输入所述第一二级下采集层并获取所述第一四级提取特征,将所述第二三级提取特征输入所述第二二级下采集层并获取所述第二四级提取特征,将所述第三三级提取特征输入所述第三二级下采集层并获取所述第三四级提取特征;
所述一级全连接层第一一级全连接层和第二一级全连接层,所述将所述四级提取特征输入所述一级全连接层,获取样本标签值的步骤,包括以下步骤:
将所述第一四级提取特征、所述第二四级提取特征和所述第三四级提取特征输入所述第一一级全连接层并生成融合统一数据,将所述融合统一数据输入所述第二一级全连接层进行识别分类操作,并输出样品标签值。
8.根据权利要求6所述的识别分类模型训练方法,其特征在于,所述根据所述样本标签值和所述还原图片样本数据获取所述识别损失值的步骤,包括以下步骤:
根据获取所述识别损失值,
其中,xi为所述还原图片样本数据的第i个样品,n为所述还原图片样本数据的样本总数,yi为所述还原图片样本数据中第i个样本的样本标签值,g(·)为激励函数,L为所述识别分类模型的总层数,w为权值矩阵,wj为所述识别分类模型第j层的权值矩阵,wLi为所述识别分类模型第L层的权值矩阵的第i个权值,为正则化项,λ为正则化项系数。
9.根据权利要求1所述的识别分类模型训练方法,其特征在于,所述根据所述样本标签值、所述去噪损失值和所述识别损失值,分别对所述去噪声模型和所述识别分类模型进行反向传导算法的计算,获取训练好的去噪声模型和训练好的识别分类模型的步骤,包括以下步骤:
将所述去噪损失值和所述识别损失值的和值作为总损失值;
根据所述总损失值,更新所述去噪声模型的权值和阈值并获取更新的去噪声模型,更新所述识别分类模型的权值和阈值并获取更新的识别分类模型,根据所述更新的去噪声模型和所述更新的识别分类模型,获取更新的总损失值;
在所述总损失值小于或等于预设值时,将所述更新的去噪声模型作为训练好的去噪声模型,将所述更新的识别分类模型作为训练好的识别分类模型;
在所述总损失值大于所述预设值时,根据所述更新的总损失值,跳转至更新去噪声模型的权值和阈值并获取更新的去噪声模型,更新识别分类模型的权值和阈值并获取更新的识别分类模型,根据所述更新的去噪声模型和所述更新的识别分类模型,获取更新的总损失值的步骤。
10.一种识别分类模型训练系统,其特征在于,所述系统包括:
有损图片样本数据获取模块,用于根据破坏率和初始图片样本数据,获取有损图片样本数据;
还原图片样本数据获取模块,用于将所述有损图片样本数据输入去噪声模型中进行训练,获取还原图片样本数据和去噪损失值;
样本标签值获取模块,用于将所述还原图片样本数据输入识别分类模型中进行训练,获取样本标签值和识别损失值;
训练模型获取模块,用于根据所述样本标签值、所述去噪损失值和所述识别损失值,分别对所述去噪声模型和所述识别分类模型进行反向传导算法的计算,获取训练好的去噪声模型和训练好的识别分类模型。
CN201811095132.1A 2018-09-19 2018-09-19 识别分类模型训练方法和系统 Pending CN109242029A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811095132.1A CN109242029A (zh) 2018-09-19 2018-09-19 识别分类模型训练方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811095132.1A CN109242029A (zh) 2018-09-19 2018-09-19 识别分类模型训练方法和系统

Publications (1)

Publication Number Publication Date
CN109242029A true CN109242029A (zh) 2019-01-18

Family

ID=65058376

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811095132.1A Pending CN109242029A (zh) 2018-09-19 2018-09-19 识别分类模型训练方法和系统

Country Status (1)

Country Link
CN (1) CN109242029A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079630A (zh) * 2019-12-12 2020-04-28 哈尔滨市科佳通用机电股份有限公司 一种铁路货车制动梁安装位置不正确的故障识别方法
CN112116025A (zh) * 2020-09-28 2020-12-22 北京嘀嘀无限科技发展有限公司 用户分类模型的训练方法、装置、电子设备及存储介质
CN112130216A (zh) * 2020-08-19 2020-12-25 中国地质大学(武汉) 基于卷积神经网络多物探法耦合的地质超前精细预报方法
CN113449814A (zh) * 2021-07-20 2021-09-28 曲阜师范大学 一种图片层级分类方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180032867A1 (en) * 2016-07-28 2018-02-01 Samsung Electronics Co., Ltd. Neural network method and apparatus
CN107871306A (zh) * 2016-09-26 2018-04-03 北京眼神科技有限公司 一种图片去噪的方法和装置
CN108108754A (zh) * 2017-12-15 2018-06-01 北京迈格威科技有限公司 重识别网络的训练、重识别方法、装置和系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180032867A1 (en) * 2016-07-28 2018-02-01 Samsung Electronics Co., Ltd. Neural network method and apparatus
CN107871306A (zh) * 2016-09-26 2018-04-03 北京眼神科技有限公司 一种图片去噪的方法和装置
CN108108754A (zh) * 2017-12-15 2018-06-01 北京迈格威科技有限公司 重识别网络的训练、重识别方法、装置和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王达 等: "受损图片分类的双并行交叉降噪卷积神经网络", 《计算机工程与应用》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079630A (zh) * 2019-12-12 2020-04-28 哈尔滨市科佳通用机电股份有限公司 一种铁路货车制动梁安装位置不正确的故障识别方法
CN111079630B (zh) * 2019-12-12 2020-10-30 哈尔滨市科佳通用机电股份有限公司 一种铁路货车制动梁安装位置不正确的故障识别方法
CN112130216A (zh) * 2020-08-19 2020-12-25 中国地质大学(武汉) 基于卷积神经网络多物探法耦合的地质超前精细预报方法
CN112116025A (zh) * 2020-09-28 2020-12-22 北京嘀嘀无限科技发展有限公司 用户分类模型的训练方法、装置、电子设备及存储介质
CN113449814A (zh) * 2021-07-20 2021-09-28 曲阜师范大学 一种图片层级分类方法及系统
CN113449814B (zh) * 2021-07-20 2022-10-04 曲阜师范大学 一种图片层级分类方法及系统

Similar Documents

Publication Publication Date Title
CN111724083B (zh) 金融风险识别模型的训练方法、装置、计算机设备及介质
Sladojevic et al. Deep neural networks based recognition of plant diseases by leaf image classification
Menezes et al. Continual object detection: a review of definitions, strategies, and challenges
US10740651B2 (en) Methods of systems of generating virtual multi-dimensional models using image analysis
CN109242029A (zh) 识别分类模型训练方法和系统
Gill et al. Multi-Model CNN-RNN-LSTM Based Fruit Recognition and Classification.
CA2948499A1 (en) System and method for classifying and segmenting microscopy images with deep multiple instance learning
CN113272827A (zh) 卷积神经网络中分类决策的验证
CN110852316A (zh) 一种采用密集结构卷积网络的图像篡改检测和定位方法
CN109711283A (zh) 一种联合双字典和误差矩阵的遮挡表情识别算法
CN112749737A (zh) 图像分类方法及装置、电子设备、存储介质
CN116306681A (zh) 基于事实场景的可解释性视觉问答模型构建方法与系统
CN117036843A (zh) 目标检测模型训练方法、目标检测方法和装置
Mutahar et al. Concept-based explanations using non-negative concept activation vectors and decision tree for cnn models
CN117011219A (zh) 物品质量检测方法、装置、设备、存储介质和程序产品
Tian et al. A multitask convolutional neural network for artwork appreciation
CN114202428A (zh) 基于图卷积神经网络的资产数据处理方法、装置及设备
Wen Research on Modern Book Packaging Design Based on Aesthetic Evaluation Based on a Deep Learning Model
He Vocal Music Recognition Based on Deep Convolution Neural Network
CN111915621B (zh) 一种融合深度神经网络与cv模型的污损图像分割方法
Lavania A Deep Learning Framework to identify real-world stego images
CN110415099A (zh) 一种金融信贷诈骗识别方法、系统及电子设备
You [Retracted] Modeling and Analysis of Multifocus Picture Division Algorithm Based on Deep Learning
CN117392074A (zh) 图像中物体检测的方法、装置、计算机设备和存储介质
Kong et al. Multi-label Image Transient Background Information Recognition Based on Graph Convolutional Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190118

RJ01 Rejection of invention patent application after publication