CN113553956A - 一种基于对抗生成神经网络的单色釉瓷器自动识别方法 - Google Patents

一种基于对抗生成神经网络的单色釉瓷器自动识别方法 Download PDF

Info

Publication number
CN113553956A
CN113553956A CN202110846936.6A CN202110846936A CN113553956A CN 113553956 A CN113553956 A CN 113553956A CN 202110846936 A CN202110846936 A CN 202110846936A CN 113553956 A CN113553956 A CN 113553956A
Authority
CN
China
Prior art keywords
model
training
monochromatic
color
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110846936.6A
Other languages
English (en)
Inventor
蔡花菲
徐艳芳
胡振生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changsha University of Science and Technology
Original Assignee
Changsha University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changsha University of Science and Technology filed Critical Changsha University of Science and Technology
Priority to CN202110846936.6A priority Critical patent/CN113553956A/zh
Publication of CN113553956A publication Critical patent/CN113553956A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

本发明公开了一种基于对抗生成神经网络的单色釉瓷器自动识别方法,首先,进行单色釉瓷器图片收集,实现图像数据预处理和数据集构建;然后,通过条件深度卷积生成对抗网络模型的构建和训练,获取其中判别器对于单色釉瓷器相关的关键鉴别性特征参数;之后,基于判别器基础上,构建结合Focal Loss损失函数的釉色分类器,并在构建的数据集上进行训练;最后,使用测试数据集对模型进行测试得到釉色识别结果,包括以下步骤:S1,图像数据预处理和数据集构建;S2,条件深度卷积生成对抗网络模型的构建和训练;S3,基于CDCGAN的单色釉瓷器图像分类模型构建和训练;S4,输入新的测试集中的单色釉瓷器图片,输出对应的釉色预测类别。

Description

一种基于对抗生成神经网络的单色釉瓷器自动识别方法
技术领域
本发明涉及一种基于对抗生成神经网络的单色釉瓷器自动识别方法,具体涉及对抗神经网络、深度学习领域技术的建模处理,应用于单色釉瓷器的釉色分类,属于陶瓷艺术与人工智能交叉领域。
背景技术
目前现有的三大国际色彩体系中,由于色彩模式不能完整的表达陶瓷釉色色彩的特征,不能准确涵盖与表述瓷器色彩的面貌,很难沿用唯一性对照的方式,建立与釉色名相对应的釉色数值参照体系,因此,均不能直接适用于表达瓷釉的色标。
产生上述问题的原因主要有以下两个方面。
一、陶瓷表面的颜色,除了受颜色影响,还收到材质等其他生产工艺的影响。
例如,窑变作为釉色的本体特征之一,既展现了釉色之美,又成为釉色辨识的关键。又如,郎红釉的流淌性产生的脱口、豇豆红釉自然生成的黑色斑点、茶叶末釉和兔毫釉的颗粒感、拉丝效果等。釉色的丰富性、变化性成为与其他色彩相比截然不同的特征。
单色瓷器的釉色与普通颜色的不同,釉色并非固定的颜色,也非某种单色,不能用固定的RGB数值来表述;同时,瓷色在光线、角度变化下产生的色彩相貌的变化,以及烧成氛围作用下釉色的相对不稳定性,也都增加了识别的难度。同时虽然釉色变化多端,无法用固定的数值进行表达,但是不同釉色之间依然具有一定的区分度,非陶瓷领域专家较难识别不同单色瓷器的釉色。
二、在长期历史中,在陶瓷领域内形成了独特的瓷器釉色命名与分类体系。
中国传统的五色观念中的瓷器釉色色彩分类体系,以红、青、黄、黑、白五色为参照建立的五色体系,每一类中又有数量繁多的瓷器釉色,具体为:
红(附紫):祭红、霁红、积红、醉红、鸡红、宝石红、朱红、大红、鲜红、抹红、珊瑚、胭脂水、胭脂红、粉红、美人祭、豇豆红、桃花浪、桃花片、海棠红、娃娃脸、美人脸、杨妃色、淡茄、云豆、均紫、茄皮紫、葡萄紫、玫瑰紫、乳鼠皮、柿红、枣红、桔红、矾红、翻红、肉红、羊肝、猪肝、苹果青、苹果绿。(39种)
青(附蓝绿):天青、东青、豆青、豆彩、梨青、蛋青、蟹甲青、虾青、毡毛青、影青、青花夹紫、新桔、瓜皮绿、哥绿、果绿、孔雀绿、翠羽、子母绿、菠菜绿、鹦哥绿、秋葵绿、松花绿、葡萄水、西湖水、积蓝、洒蓝、宝石蓝、玻璃蓝、鱼子蓝、抹蓝、海鼠色、鳖裙、褐绿、粉色褐。(34种)
黄:鹅黄、蛋黄、蜜蜡黄、鸡油黄、鱼子黄、牙色淡黄、金酱、芝麻酱、茶叶沫、鼻烟、菜尾、鳝鱼皮、黄褐色、老僧衣。(14种)
黑:黑彩、墨彩、乌金、古铜、墨褐、铁粽。(6种)
白:月白、鱼肚白、牙白、填白。(4种)
上述五色体系中的颜色命名,无法与国际色彩体系进行一一对应。
也正是由于上述釉色的特殊性,传统颜色识别方法无法有效进行识别。并且,现有技术也尚未存在符合陶瓷领域的门槛和专业知识的识别方法。导致上述问题的原因集中体现在,实现针对陶瓷色彩识别存在陶瓷釉色的多变性和数值化困难的问题。
解决上述问题,可以实现识别方法的标准化,可以构建普通民众与传统陶瓷器物之间的有效桥梁,从而获得实现促进传统陶瓷文化的传播具有重要意义。
发明内容
本发明的目的是提供一种基于对抗生成神经网络的单色釉瓷器自动识别方法。
其技术原理为充分获取单色瓷器釉色特征,利用条件深度卷积生成对抗神经网络预训练模型在相关数据集预训练得到关键鉴别参数,以上述预训练模型的鉴别器网络为基础,构建单色瓷器釉色分类器,并结合Focal Loss损失函数解决样本失衡问题。
为了实现上述发明目的,本发明采用的技术方案如下。
一种基于对抗生成神经网络的单色釉瓷器自动识别方法,首先,进行单色釉瓷器图片收集,实现图像数据预处理和数据集构建;然后,通过条件深度卷积生成对抗网络模型的构建和训练,获取其中判别器对于单色釉瓷器相关的关键鉴别性特征参数;之后,基于判别器基础上,构建结合Focal Loss损失函数的釉色分类器,并在构建的数据集上进行训练;最后,使用测试数据集对模型进行测试得到釉色识别结果,
具体包括以下步骤:
S1,图像数据预处理和数据集构建,对收集到的单色釉瓷器图像进行预处理操作,收集真实单色釉瓷器图片,所述单色釉瓷器的类型为碟、盘、瓶,然后分别做好标签标注并统一将维度处理为256×256,之后,使用完全随机的方式按照7∶2∶1的比例进行划分,最后构建数据集,所述数据集分为训练集、验证集及测试集;
S2,条件深度卷积生成对抗网络模型的构建和训练,条件深度卷积生成对抗网络模型的构建和训练,构建条件深度卷积生成对抗神经网络模型,简称CDCGAN,构建方法和流程如图2所示,将S1训练集的图像输入,进行预训练,当整个模型的损失函数Lglaze收敛至稳定状态时,完成模型训练;
S2具体训练过程为,在生成器网络中输入为100维噪声数据向量z和94维釉色标签数据向量y;经过两层全连阶层及维度转换得到(28,28,128)三维张量,之后经过三层转置卷积层后输出(256,256,3)三维张量,代表一个生成的单色釉图像尺寸样本,同时为了增强釉色标签数据在训练中的引导作用,网络模型中每一层的输入张量都要在其最后一维拼接标签数据,在判别器模型中,输入为一张(256,256,3)的单色釉瓷器样本数据,经过卷积层转换之后得到(28,28,128)的三维矩阵,将三维张量展开,通过两个全连接层后,输出1维的结果,此处判别器不需要拼接标签数据,纯粹从原始图像中学习数据特征;
在模型训练过程中,生成器D的的目标是要生成能够以假乱真的单色釉瓷样本数据,使得判别器难以判断真假,即生成器D输出的图像数据样本通过判别器G后的结果要接近真实单色釉瓷器样本,具体判断结果的数值表现为接近1;而判别器G的目标则是能不断提高够辨出真假的能力,即在对单色釉瓷器的真实样本的判断结果结果接近1,即表示判断出真实存在,对于生成器D生成的图像数据样本接近0,即表示判断出虚假构造;
其中生成器G的目标函数定义为:
Figure BDA0003180128820000031
其中其中E(·)计算期望值,x代表真实单色釉瓷器图片样本,z表示随机生成的噪声数据,c为限制条件,此处为釉色标签,
Figure BDA0003180128820000032
表示随机噪声结合限制条件c输入生成器产生的生成样本,输入判别器网络D判断其为真实数据的概率,
判别器D的目标函数定义为:
Figure BDA0003180128820000033
其中
Figure BDA0003180128820000034
表示将真实样本x与限制条件c输入判别器网络D判断其为真实数据的概率,
整个模型的损失函数为:
Figure BDA0003180128820000035
训练过程中,采用Adam优化器优化损失函数,同时为了避免梯度消失问题的出现,每更新N(N>1)次生成器之后更新一次判别器,减缓判别器优化迭代过程,保持生成器与判别器能够持续不断对抗平衡学习,训练迭代到最佳效果后,保存整个模型架构及参数,即可得到单色釉瓷器的关键鉴别性相关特征参数;
S3,基于CDCGAN的单色釉瓷器图像分类模型构建和训练,构建基于S2得到的预训练模型的单色釉瓷器图像分类模型,在S1单色釉瓷器训练集及验证集进行模型训练,
S3具体为构建及训练过程为,
S3.1,加载S2中保存的模型架构及参数,将其中的判别器部分去除最后一层提取出来并保存为M;
S3.2,加载M并在其后添加一个全连阶层,即构成图像分类模型,输出为94维的向量z={z1,z2,z3,...,z94},输入为(256,256,3)三维张量,即单色釉瓷器样本图像;
S3.3,输出向量z通过Softmax分类器得到各类别概率值向量p={p1,p2,p3,...,p94};模型的预测输出为最大概率对应的类别。
其中概率值pi的计算如下式:
Figure BDA0003180128820000041
其中k为类别数量,此处为94种单色釉瓷器的釉色类别;
由于构建的数据集存在样本不均衡且类别较多问题,在分类预测过程中,正负样本比例失衡,因此在训练过程中采用Focal Loss(FL)损失函数,解决数据失衡导致的模型训练困难的问题,Focal Loss在标准交叉熵损失函数的基础上进行改进,通过调节易分类样本和难分类样本的权重,控制不同样本对训练损失的贡献程度来解决样本失衡问题,提高模型的识别准确率,其定义如下:
Figure BDA0003180128820000042
其中k表示标签类别的个数,这里取值为94,γ用于减少模型已经易于分类的类别样本对损失函数对影响,相当于惩罚项;αi代表是各类别数据对损失函数的权重值,用于调节正负样本的比例,取值范围在[0,1]之间,其定义如下:
Figure BDA0003180128820000051
pit是不同类别的分类概率,定义如下,其中yi是数据样本i真实标签:
Figure BDA0003180128820000052
模型训练批次样本大小的大小设置为64,初始学习率为5×10-5,模型采用Adam优化器,其中β1=0.9,β2=0.9999,在模型训练的初始阶段使用warming-up策略预热学习率,并在模型效果相对稳定的时候使用了学习率衰减策略以防止过拟合等问题的发生。当损失降低到稳定状态时,完成模型训练;
S4,输入新的测试集中的单色釉瓷器图片,输出对应的釉色预测类别。
本发明的有益技术效果为:通过利用建立条件深度卷积对抗生成神经网络在单色釉瓷器数据集进行预训练,在生成器网络中加入釉色标签向量,将无监督学习转换为监督学习,从而更好的获取其中的釉色关键鉴别性特征参数,并通过利用鉴别器网络作为单色釉瓷器釉色分类器基本网络,加载预训练模型参数,提高了模型迭代训练速度和效率,通过结合Focal Loss损失函数,控制不同样本对训练损失的贡献程度来解决样本失衡问题,提高模型的识别准确率。该方法实现了釉色识别的端对到端模型,无须手工设计相关釉色特征,减少了专业标注成本同时提高了预测准确度;对于传统陶瓷文化传播、大众普及教育具有重要意义,可以构建普通民众与传统陶瓷器物之间的有效桥梁,以实现陶瓷文化的对外输出与转化。
附图说明
图1为本发明单色瓷器釉色识别方法流程图;
图2为本发明条件深度卷积生成对抗网络模型示意图;
图3为本发明基于CDCGAN判别器的釉色分类模型示意图。
具体实施方式
本发明通过实施例,结合说明书附图对本发明内容作进一步详细说明,但不是对本发明的限定。
一种基于对抗生成神经网络的单色釉瓷器自动识别方法,基本流程如图1所示,首先单色釉瓷器图片收集及预处理构建数据集,构建条件深度卷积生成对抗神经网络模型进行预训练,获取其中判别器对于单色釉瓷器相关的关键鉴别性特征参数;其次基于上述判别器基础上构建结合Focal Loss损失函数的釉色分类器,在构建的数据集上进行训练;最后使用测试数据集对模型进行测试得到釉色识别结果。具体包括如下步骤:
S1,图像数据预处理和数据集构建,对收集到的单色釉瓷器图像进行预处理操作,收集真实单色釉瓷器图片,所述单色釉瓷器的类型为碟、盘、瓶,然后分别做好标签标注并统一将维度处理为256×256,之后,使用完全随机的方式按照7∶2∶1的比例进行划分,最后构建数据集,所述数据集分为训练集、验证集及测试集;
S2,条件深度卷积生成对抗网络模型的构建和训练,构建条件深度卷积生成对抗神经网络模型,简称CDCGAN,构建方法和流程如图2所示,将S1训练集的图像输入,进行预训练,当整个模型的损失函数Lglaze收敛至稳定状态时,完成模型训练,
具体训练过程为,在生成器网络中输入为100维噪声数据向量z和94维釉色标签数据向量y;经过两层全连阶层及维度转换得到(28,28,128)三维张量,之后经过三层转置卷积层后输出(256,256,3)三维张量,代表一个生成的单色釉图像尺寸样本,同时为了增强釉色标签数据在训练中的引导作用,网络模型中每一层的输入张量都要在其最后一维拼接标签数据,在判别器模型中,输入为一张(256,256,3)的单色釉瓷器样本数据,经过卷积层转换之后得到(28,28,128)的三维矩阵,将三维张量展开,通过两个全连接层后,输出1维的结果,此处判别器不需要拼接标签数据,纯粹从原始图像中学习数据特征;
在模型训练过程中,生成器D的的目标是要生成能够以假乱真的单色釉瓷样本数据,使得判别器难以判断真假,即生成器D输出的图像数据样本通过判别器G后的结果要接近真实单色釉瓷器样本,具体判断结果的数值表现为接近1;而判别器G的目标则是能不断提高够辨出真假的能力,即在对单色釉瓷器的真实样本的判断结果结果接近1,即表示判断出真实存在,对于生成器D生成的图像数据样本接近0,即表示判断出虚假构造;
其中生成器G的目标函数定义为:
Figure BDA0003180128820000061
其中其中E(·)计算期望值,x代表真实单色釉瓷器图片样本,z表示随机生成的噪声数据,c为限制条件,此处为釉色标签,
Figure BDA0003180128820000062
表示随机噪声结合限制条件c输入生成器产生的生成样本,输入判别器网络D判断其为真实数据的概率,
判别器D的目标函数定义为:
Figure BDA0003180128820000063
其中
Figure BDA0003180128820000071
表示将真实样本x与限制条件c输入判别器网络D判断其为真实数据的概率,
整个模型的损失函数为:
Figure BDA0003180128820000072
训练过程中,采用Adam优化器优化损失函数,同时为了避免梯度消失问题的出现,每更新N(N>1)次生成器之后更新一次判别器,减缓判别器优化迭代过程,保持生成器与判别器能够持续不断对抗平衡学习,训练迭代到最佳效果后,保存整个模型架构及参数,即可得到单色釉瓷器的关键鉴别性相关特征参数;
S3,基于CDCGAN的单色釉瓷器图像分类模型构建和训练,构建基于S2得到的预训练模型的单色釉瓷器图像分类模型,架构如图3所示,在S1单色釉瓷器训练集及验证集进行模型训练,具体构建及训练过程如下,
S3.1,加载S2中保存的模型架构及参数,将其中的判别器部分去除最后一层提取出来并保存为M;
S3.2,加载M并在其后添加一个全连阶层,即构成图像分类模型,输出为94维的向量z={z1,z2,z3,...,z94},输入为(256,256,3)三维张量,即单色釉瓷器样本图像;
S3.3,输出向量z通过Softmax分类器得到各类别概率值向量p={p1,p2,p3,...,p94};模型的预测输出为最大概率对应的类别。
其中概率值pi的计算如下式:
Figure BDA0003180128820000073
其中k为类别数量,此处为94种单色釉瓷器的釉色类别;
由于构建的数据集存在样本不均衡且类别较多问题,在分类预测过程中,正负样本比例失衡,因此在训练过程中采用Focal Loss(FL)损失函数,解决数据失衡导致的模型训练困难的问题,Focal Loss在标准交叉熵损失函数的基础上进行改进,通过调节易分类样本和难分类样本的权重,控制不同样本对训练损失的贡献程度来解决样本失衡问题,提高模型的识别准确率,其定义如下:
Figure BDA0003180128820000081
其中k表示标签类别的个数,这里取值为94,γ用于减少模型已经易于分类的类别样本对损失函数对影响,相当于惩罚项;αi代表是各类别数据对损失函数的权重值,用于调节正负样本的比例,取值范围在[0,1]之间,其定义如下:
Figure BDA0003180128820000082
pit是不同类别的分类概率,定义如下,其中yi是数据样本i真实标签:
Figure BDA0003180128820000083
模型训练批次样本大小的大小设置为64,初始学习率为5×10-5,模型采用Adam优化器,其中β1=0.9,β2=0.9999,在模型训练的初始阶段使用warming-up策略预热学习率,并在模型效果相对稳定的时候使用了学习率衰减策略以防止过拟合等问题的发生。当损失降低到稳定状态时,完成模型训练;
S4,输入新的测试集中的单色釉瓷器图片,输出对应的釉色预测类别。

Claims (6)

1.一种基于对抗生成神经网络的单色釉瓷器自动识别方法,其特征在于:首先,进行单色釉瓷器图片收集,实现图像数据预处理和数据集构建;然后,通过条件深度卷积生成对抗网络模型的构建和训练,获取其中判别器对于单色釉瓷器相关的关键鉴别性特征参数;之后,基于判别器基础上,构建结合Focal Loss损失函数的釉色分类器,并在构建的数据集上进行训练;最后,使用测试数据集对模型进行测试得到釉色识别结果,包括以下步骤:
S1,图像数据预处理和数据集构建;
S2,条件深度卷积生成对抗网络模型的构建和训练;
S3,基于CDCGAN的单色釉瓷器图像分类模型构建和训练;
S4,输入新的测试集中的单色釉瓷器图片,输出对应的釉色预测类别。
2.根据权利要求1所述的单色釉瓷器自动识别方法,其特征在于:所述S1具体为,对收集到的单色釉瓷器图像进行预处理操作,收集真实单色釉瓷器图片,所述单色釉瓷器的类型为碟、盘、瓶,然后分别做好标签标注并统一将维度处理为256×256,之后,使用完全随机的方式按照7∶2∶1的比例进行划分,最后构建数据集,所述数据集分为训练集、验证集及测试集。
3.根据权利要求1所述的单色釉瓷器自动识别方法,其特征在于:所述S2具体为,条件深度卷积生成对抗网络模型的构建和训练,构建条件深度卷积生成对抗神经网络模型,简称CDCGAN,构建方法和流程如图2所示,将S1训练集的图像输入,进行预训练,当整个模型的损失函数Lglaze收敛至稳定状态时,完成模型训练。
4.根据权利要求3所述的单色釉瓷器自动识别方法,其特征在于:所述S2具体训练过程为,在生成器网络中输入为100维噪声数据向量z和94维釉色标签数据向量y;经过两层全连阶层及维度转换得到(28,28,128)三维张量,之后经过三层转置卷积层后输出(256,256,3)三维张量,代表一个生成的单色釉图像尺寸样本,同时为了增强釉色标签数据在训练中的引导作用,网络模型中每一层的输入张量都要在其最后一维拼接标签数据,在判别器模型中,输入为一张(256,256,3)的单色釉瓷器样本数据,经过卷积层转换之后得到(28,28,128)的三维矩阵,将三维张量展开,通过两个全连接层后,输出1维的结果,此处判别器不需要拼接标签数据,纯粹从原始图像中学习数据特征;
在模型训练过程中,生成器D的的目标是要生成能够以假乱真的单色釉瓷样本数据,使得判别器难以判断真假,即生成器D输出的图像数据样本通过判别器G后的结果要接近真实单色釉瓷器样本,具体判断结果的数值表现为接近1;而判别器G的目标则是能不断提高够辨出真假的能力,即在对单色釉瓷器的真实样本的判断结果结果接近1,即表示判断出真实存在,对于生成器D生成的图像数据样本接近0,即表示判断出虚假构造;
其中生成器G的目标函数定义为:
Figure FDA0003180128810000021
其中其中E(·)计算期望值,x代表真实单色釉瓷器图片样本,z表示随机生成的噪声数据,c为限制条件,此处为釉色标签,
Figure FDA0003180128810000022
表示随机噪声结合限制条件c输入生成器产生的生成样本,输入判别器网络D判断其为真实数据的概率,
判别器D的目标函数定义为:
Figure FDA0003180128810000023
其中
Figure FDA0003180128810000024
表示将真实样本x与限制条件c输入判别器网络D判断其为真实数据的概率,
整个模型的损失函数为:
Figure FDA0003180128810000025
训练过程中,采用Adam优化器优化损失函数,同时为了避免梯度消失问题的出现,每更新N(N>1)次生成器之后更新一次判别器,减缓判别器优化迭代过程,保持生成器与判别器能够持续不断对抗平衡学习,训练迭代到最佳效果后,保存整个模型架构及参数,即可得到单色釉瓷器的关键鉴别性相关特征参数。
5.根据权利要求1所述的单色釉瓷器自动识别方法,其特征在于:所述S3具体为,构建基于S2得到的预训练模型的单色釉瓷器图像分类模型,在S1单色釉瓷器训练集及验证集进行模型训练。
6.根据权利要求5所述的单色釉瓷器自动识别方法,其特征在于:所述S3具体为构建及训练过程为,
S3.1,加载S2中保存的模型架构及参数,将其中的判别器部分去除最后一层提取出来并保存为M;
S3.2,加载M并在其后添加一个全连阶层,即构成图像分类模型,输出为94维的向量z={z1,z2,z3,...,z94},输入为(256,256,3)三维张量,即单色釉瓷器样本图像;
S3.3,输出向量z通过Softmax分类器得到各类别概率值向量p={p1,p2,p3,...,p94};模型的预测输出为最大概率对应的类别。
其中概率值pi的计算如下式:
Figure FDA0003180128810000031
其中k为类别数量,此处为94种单色釉瓷器的釉色类别;
由于构建的数据集存在样本不均衡且类别较多问题,在分类预测过程中,正负样本比例失衡,因此在训练过程中采用Focal Loss(FL)损失函数,解决数据失衡导致的模型训练困难的问题,Focal Loss在标准交叉熵损失函数的基础上进行改进,通过调节易分类样本和难分类样本的权重,控制不同样本对训练损失的贡献程度来解决样本失衡问题,提高模型的识别准确率,其定义如下:
Figure FDA0003180128810000032
其中k表示标签类别的个数,这里取值为94,γ用于减少模型已经易于分类的类别样本对损失函数对影响,相当于惩罚项;αi代表是各类别数据对损失函数的权重值,用于调节正负样本的比例,取值范围在[0,1]之间,其定义如下:
Figure FDA0003180128810000033
pit是不同类别的分类概率,定义如下,其中yi是数据样本i真实标签:
Figure FDA0003180128810000034
模型训练批次样本大小的大小设置为64,初始学习率为5×10-5,模型采用Adam优化器,其中β1=0.9,β2=0.9999,在模型训练的初始阶段使用warming-up策略预热学习率,并在模型效果相对稳定的时候使用了学习率衰减策略以防止过拟合等问题的发生。当损失降低到稳定状态时,完成模型训练。
CN202110846936.6A 2021-07-26 2021-07-26 一种基于对抗生成神经网络的单色釉瓷器自动识别方法 Pending CN113553956A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110846936.6A CN113553956A (zh) 2021-07-26 2021-07-26 一种基于对抗生成神经网络的单色釉瓷器自动识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110846936.6A CN113553956A (zh) 2021-07-26 2021-07-26 一种基于对抗生成神经网络的单色釉瓷器自动识别方法

Publications (1)

Publication Number Publication Date
CN113553956A true CN113553956A (zh) 2021-10-26

Family

ID=78104491

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110846936.6A Pending CN113553956A (zh) 2021-07-26 2021-07-26 一种基于对抗生成神经网络的单色釉瓷器自动识别方法

Country Status (1)

Country Link
CN (1) CN113553956A (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110516561A (zh) * 2019-08-05 2019-11-29 西安电子科技大学 基于dcgan和cnn的sar图像目标识别方法
CN112990342A (zh) * 2021-04-08 2021-06-18 重庆大学 一种半监督sar目标识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110516561A (zh) * 2019-08-05 2019-11-29 西安电子科技大学 基于dcgan和cnn的sar图像目标识别方法
CN112990342A (zh) * 2021-04-08 2021-06-18 重庆大学 一种半监督sar目标识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李圆圆: "基于深度生成对抗网络的图像识别方法的研究与应用", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *

Similar Documents

Publication Publication Date Title
He et al. A fully convolutional neural network for wood defect location and identification
CN109376792A (zh) 基于多通道残差神经网络的光伏电池外观缺陷分类方法
CN109949317A (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN111783841B (zh) 基于迁移学习和模型融合的垃圾分类方法、系统及介质
CN108229458A (zh) 一种基于运动检测和多特征提取的火焰智能识别方法
CN109002848B (zh) 一种基于特征映射神经网络的弱小目标检测方法
CN110991549A (zh) 一种针对图像数据的对抗样本生成方法及系统
CN113109782B (zh) 一种直接应用于雷达辐射源幅度序列的分类方法
CN113011487B (zh) 一种基于联合学习与知识迁移的开放集图像分类方法
CN107480723B (zh) 基于局部二进制阈值学习网络的纹理识别方法
CN111127360B (zh) 一种基于自动编码器的灰度图像迁移学习方法
CN109934203A (zh) 一种基于信息熵选择的代价敏感增量式人脸识别方法
CN114399763B (zh) 一种单样本与小样本微体古生物化石图像识别方法及系统
CN110399888A (zh) 一种基于mlp神经网络和计算机视觉的围棋裁判系统
CN108960413A (zh) 一种应用于螺钉表面缺陷检测的深度卷积神经网络方法
CN113011513B (zh) 一种基于通用域自适应的图像大数据分类方法
CN113553956A (zh) 一种基于对抗生成神经网络的单色釉瓷器自动识别方法
CN111275137B (zh) 基于专属孪生网络模型的茶叶验真方法
CN116310475A (zh) 一种基于半监督学习的垃圾图像分类算法
CN114896598A (zh) 一种基于卷积神经网络的恶意代码检测方法
Chen et al. A feature extraction strategy of fire hole video based on VGG16 and migration learning
Zhou et al. Composition analysis and identification of ancient glass objects based on spearman correlation analysis model
Yao et al. Expression of Concern: Oil painting color image enhancement recognition method based on artificial intelligence: applications of an AI model in environmental research
CN111144289B (zh) 一种针对视频中复杂人类行为的识别方法
Zhao [Retracted] Intelligent Auxiliary Artificial Wood Plank Pattern Design Based on the Subject Search Algorithm of Multimedia Resources

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination