CN117409008A - 一种设备图像生成方法 - Google Patents

一种设备图像生成方法 Download PDF

Info

Publication number
CN117409008A
CN117409008A CN202311722733.1A CN202311722733A CN117409008A CN 117409008 A CN117409008 A CN 117409008A CN 202311722733 A CN202311722733 A CN 202311722733A CN 117409008 A CN117409008 A CN 117409008A
Authority
CN
China
Prior art keywords
image
generator
discriminator
representing
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311722733.1A
Other languages
English (en)
Other versions
CN117409008B (zh
Inventor
邓芳明
李帆
涂枫
韦宝泉
李伟
林圣�
于小四
沈阳
张艺博
周晓靖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Jiaotong University
Original Assignee
East China Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Jiaotong University filed Critical East China Jiaotong University
Priority to CN202311722733.1A priority Critical patent/CN117409008B/zh
Publication of CN117409008A publication Critical patent/CN117409008A/zh
Application granted granted Critical
Publication of CN117409008B publication Critical patent/CN117409008B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种设备图像生成方法,该设备图像生成方法在原始的SAGAN模型基础上添加约束条件提升生成图像细节,考虑目标设备的几何结构特征变化规律,指导生成图像接近真实图像的数据分布,同时将可微分增强应用于真实和虚假图像的生成器和判别器训练,在生成器的损失函数和判别器的损失函数中引入增广T函数,能够在不操纵目标分布的情况下使判别器正规化,保持训练动态的平衡,提高模型稳定性,本发明的设备图像生成方法,能够使SAGAN模型训练保持稳定,能够生成足量、高质量且多样化的设备图像。

Description

一种设备图像生成方法
技术领域
本发明涉及设备图像缺陷检测技术领域,特别是涉及一种设备图像生成方法。
背景技术
有监督目标检测算法已广泛于设备图像缺陷检测领域,在大量数据的训练下取得了良好的效果。然而,由于样本数据采集难度和成本的限制,故障样本图像数量稀少。且随着数据保护意识的提高,大多高质量数据不公开共享,因此在样本匮乏的条件下难以训练性能良好的检测模型。为此,国内外研究学者通过各种图像增强方法来扩充数据集,传统的有监督式图像增强技术简单高效,但生成的样本较单一,有限的特征无法有效提升模型的检测性能。无监督式图像增强技术生成的图像种类丰富,但生成对抗网络模型存在生成图像质量低、训练稳定性差等问题。
GAN(生成对抗网络)模型通过生成器G与判别器D相互对抗博弈能够,生成与输入真实图像相似的图像。然而,GAN模型的卷积感受野太小,生成器只能生成局部图像,不能顾及图像不同部分之间的联系,判别器能够考虑全局图像,但无法生成图像。为了简约且高效利用图像众多全局信息,SAGAN(自我注意生成对抗网络)模型提出将注意力机制引入到GAN模型的图像生成中,使用带自注意力的特征图代替传统的卷积特征图,得到自适应注意力的特征图。SAGAN在每一层都考虑了全局信息,也没有引入过多的参数量,在提高感受野和减小参数量之间实现了很好的平衡。
然而,现有的SAGAN模型仍存在着收敛速度慢和训练稳定性差等问题。训练过程中网络判别器的训练准确率很快饱和,容易发生严重的过拟合问题,会出现模型崩溃,导致生成图像质量下降。
发明内容
本发明的目的在于提供一种设备图像生成方法,以解决现有技术生成图像质量下降的问题。
一种设备图像生成方法,包括以下步骤:
步骤1,采集设备的原始图像数据集,所述原始图像数据集包括正常设备图像和故障设备图像,对原始图像数据集中的正常设备图像和故障设备图像进行预处理,得到增强数据集,将增强数据集拆分为训练集与测试集;
步骤2,将训练集输入至SAGAN模型进行训练,SAGAN模型包括生成器和判别器,在SAGAN模型训练过程中,采集混合高斯噪声与脉冲噪声的随机噪声作为生成器的原始输入,生成器将输入的随机噪声合成为一张图像,在生成器训练阶段,固定判别器参数,并在生成器中加入目标设备的几何结构特征作为约束条件,在判别器训练阶段,固定判别器参数,并在判别器中加入目标设备的几何结构特征作为约束条件,且在生成器的损失函数和判别器的损失函数中引入增广T函数,将生成器合成的图像与训练集的图像一起作为判别器的输入,生成器与判别器分阶段对抗训练,达到设定训练次数后,结束SAGAN模型的训练;
步骤3,使用测量生成图像的评价指标,对由生成器生成且判别器判别为真的图像进行评估,并根据评估结果对生成器和判别器进行参数调整,参数调整完成后,使用测试集对SAGAN模型进行测试,测试通过后,采用SAGAN模型生成设备图像。
根据本发明提供的设备图像生成方法,在原始的SAGAN模型基础上添加约束条件提升生成图像细节,考虑目标设备的几何结构特征变化规律,指导生成图像接近真实图像的数据分布,同时将可微分增强应用于真实和虚假图像的生成器和判别器训练,在生成器的损失函数和判别器的损失函数中引入增广T函数,能够在不操纵目标分布的情况下使判别器正规化,保持训练动态的平衡,提高模型稳定性,本发明的设备图像生成方法,能够使SAGAN模型训练保持稳定,能够生成足量、高质量且多样化的设备图像。
附图说明
图1为本发明的实施例提供的设备图像生成方法的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,本发明的实施例提供一种设备图像生成方法,该方法包括步骤1~步骤3:
步骤1,采集设备的原始图像数据集,所述原始图像数据集包括正常设备图像和故障设备图像,对原始图像数据集中的正常设备图像和故障设备图像进行预处理,得到增强数据集,将增强数据集拆分为训练集与测试集。
步骤2,将训练集输入至SAGAN模型进行训练,SAGAN模型包括生成器和判别器,在SAGAN模型训练过程中,采集混合高斯噪声与脉冲噪声的随机噪声作为生成器的原始输入,生成器将输入的随机噪声合成为一张图像,在生成器训练阶段,固定判别器参数,并在生成器中加入目标设备的几何结构特征作为约束条件,在判别器训练阶段,固定判别器参数,并在判别器中加入目标设备的几何结构特征作为约束条件,且在生成器的损失函数和判别器的损失函数中引入增广T函数,将生成器合成的图像与训练集的图像一起作为判别器的输入,生成器与判别器分阶段对抗训练,达到设定训练次数后,结束SAGAN模型的训练。
传统GAN模型依赖卷积建模图像不同区域的依赖关系,由于卷积核比较小导致卷积感受野太小,需要进行多层卷积才能获取远距离的依赖关系,最终导致优化算法优化参数困难。
SAGAN(自我注意生成对抗网络)模型将自我注意机制引入到卷积GAN中。自我注意是卷积的补充,使生成器和判别器都能有效地建模广泛分离的空间区域之间的关系。有了自我注意,生成器可以绘制图像,其中每个位置的精细细节都与图像远处部分的精细细节仔细协调。此外,判别器还可以更准确地对全局图像结构施加复杂的几何约束。
具体的,步骤2中,SAGAN模型在训练时的目标函数为:
其中,G表示生成器,D表示判别器,V表示对抗损失,x表示输入的图像,表示判别器的输出,/>表示生成器生成的图像,/>表示生成真实图像的概率,z表示随机噪声,/>表示来自实际分布的数据通过判别器的熵,是指使得真实数据放入到判别器输出的计算值和整个式子值尽可能大;/>表示来自噪声分布的随机噪声通过生成器的熵,是生成器训练时的损失函数;/>表示x来自真实数据分布,/>表示z来自噪声分布。
生成对抗网络损失函数最大化D和最小化G的损失,直到双方收敛,即V(D,G)获得全局最优解,此时,G将生成与真实分布最近似的样本。
本实施例中,在SAGAN模型中,引入约束条件。在GAN这种无监督网络中加上一个标签或一点监督信息,使整个网络就可看成半监督模型。其基本架构不变,只要添加一个约束条件即可,约束条件就是加入的监督信息。
作为一个具体示例,步骤2具体包括:
在生成器训练阶段,在生成器中加入目标设备的几何结构特征作为约束条件,所述几何结构特征包括长宽比、间距差以及开口角度,约束条件作为类别信息通过维度拼接的方式加入到随机噪声中,通过设置目标的几何结构特性阈值,将目标设备的长宽比、间距差以及开口角度这三个条件以参数形式设置在预设区间,指导生成器生成设备图像;
在判别器训练阶段,在判别器中加入目标设备的几何结构特征作为约束条件,指导判别器判别生成的图像,在判别器的损失函数判定中,输出结果不再是1或0,即简单的判定为真实或构造,当判别器判定生成器的生成图像为真实数据后,还需要通过比较图像目标设备长宽比、间距差以及开口角度的参数,判定出图像类别。并按照类别最小化来训练,即判别器输出接近约束条件,希望生成图像更符合约束条件。即判别器中加入约束条件后,输入一张图像x和约束条件,除了判断图像是否真实,判断为真实图像后还需要输出该图像在该条件下的概率。
生成对抗网络训练中,判别器倾向于记忆观察结果引发严重过拟合问题,过度拟合的判别器导致训练的不稳定性且生成的图像质量大幅下降。可微分增强为了缓解过拟合问题,则从数据增强角度出发,鼓励判别器在不同类型的增强下表现良好,并保持生成器和判别器之间的平衡,提高训练稳定性。
将可微分增强应用于判别器训练,使用平移、翻转和颜色调整三种变化组合成的增广T函数增强输入样本,增广T函数是可微的。
具体的,步骤2中,生成器的损失函数的表达式为:
其中,y表示输入图像的标签,T表示由平移、翻转和颜色调整三种变化组合成的增广T函数,表示输入数据与标签经过判别器的最小二分类交叉熵,/>表示生成器输出与标签经过判别器的最小二分类交叉熵,/>表示xy来自真实数据分布,/>表示y来自真实数据分布;
判别器的损失函数的表达式为:
其中,表示生成器输出与标签经过判别器的交叉熵。
本实施例中,增广T函数具体由平移(在图像大小的[-1/4, 1/4]范围内,用零填充),翻转(随机旋转90°、180°或-90°,各1/3概率),以及颜色(包括[-0.3, 0.3]范围内的随机亮度,[0.3, 1.3]范围内的对比度,以及[0, 1.5]范围内的饱和度)三种变化组合成。
步骤3,使用测量生成图像的评价指标,对由生成器生成且判别器判别为真的图像进行评估,并根据评估结果对生成器和判别器进行参数调整,参数调整完成后,使用测试集对SAGAN模型进行测试,测试通过后,采用SAGAN模型生成设备图像。
步骤3中,使用测量生成图像的评价指标,对由生成器生成且判别器判别为真的图像进行评估,满足以下条件式:
其中,表示评价指标得分,exp表示指数函数,KL表示KL散度函数,y r表示真实图像的标签,/>表示x属于第y类标签的概率,/>表示输入图像的标签分布,/>表示真实图像的标签分布,/>表示/>与/>两个概率间分布的差值,表示/>与/>两个概率间分布的差值,表示以x为输入的/>之差的熵,FID表示距离得分,/>和/>分别表示真实图像和生成图像的特征均值,Tr表示矩阵的迹运算,/>和/>分别表示真实图像和生成图像特征的协方差矩阵。
评价指标得分增加了/>和/>KL散度计算,生成图像和真实图像的KL散度越小,则评价指标得分/>越高,表明模型的生成效果越好;距离得分FID越低,则表明由模型生成的图像质量越高,多样性也越好。根据生成图像质量与多样性对模型的生成器与判别器进行参数调整,模型训练完毕后,使用测试集对SAGAN模型进行测试,测试通过后,即可采用SAGAN模型生成设备图像。
综上,根据本发明提供的设备图像生成方法,在原始的SAGAN模型基础上添加约束条件提升生成图像细节,考虑目标设备的几何结构特征变化规律,指导生成图像接近真实图像的数据分布,同时将可微分增强应用于真实和虚假图像的生成器和判别器训练,在生成器的损失函数和判别器的损失函数中引入增广T函数,能够在不操纵目标分布的情况下使判别器正规化,保持训练动态的平衡,提高模型稳定性,本发明的设备图像生成方法,能够使SAGAN模型训练保持稳定,能够生成足量、高质量且多样化的设备图像。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、 “示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。

Claims (5)

1.一种设备图像生成方法,其特征在于,包括以下步骤:
步骤1,采集设备的原始图像数据集,所述原始图像数据集包括正常设备图像和故障设备图像,对原始图像数据集中的正常设备图像和故障设备图像进行预处理,得到增强数据集,将增强数据集拆分为训练集与测试集;
步骤2,将训练集输入至SAGAN模型进行训练,SAGAN模型包括生成器和判别器,在SAGAN模型训练过程中,采集混合高斯噪声与脉冲噪声的随机噪声作为生成器的原始输入,生成器将输入的随机噪声合成为一张图像,在生成器训练阶段,固定判别器参数,并在生成器中加入目标设备的几何结构特征作为约束条件,在判别器训练阶段,固定判别器参数,并在判别器中加入目标设备的几何结构特征作为约束条件,且在生成器的损失函数和判别器的损失函数中引入增广T函数,将生成器合成的图像与训练集的图像一起作为判别器的输入,生成器与判别器分阶段对抗训练,达到设定训练次数后,结束SAGAN模型的训练;
步骤3,使用测量生成图像的评价指标,对由生成器生成且判别器判别为真的图像进行评估,并根据评估结果对生成器和判别器进行参数调整,参数调整完成后,使用测试集对SAGAN模型进行测试,测试通过后,采用SAGAN模型生成设备图像。
2.根据权利要求1所述的设备图像生成方法,其特征在于,步骤2中,SAGAN模型在训练时的目标函数为:
其中,G表示生成器,D表示判别器,V表示对抗损失,x表示输入的图像,表示判别器的输出,/>表示生成器生成的图像,/>表示生成真实图像的概率,z表示随机噪声,/>表示来自实际分布的数据通过判别器的熵,/>表示来自噪声分布的随机噪声通过生成器的熵,/>表示x来自真实数据分布,/>表示z来自噪声分布。
3.根据权利要求1所述的设备图像生成方法,其特征在于,步骤2具体包括:
在生成器训练阶段,在生成器中加入目标设备的几何结构特征作为约束条件,所述几何结构特征包括长宽比、间距差以及开口角度,约束条件作为类别信息通过维度拼接的方式加入到随机噪声中,通过设置目标的几何结构特性阈值,将目标设备的长宽比、间距差以及开口角度这三个条件以参数形式设置在预设区间,指导生成器生成设备图像;
在判别器训练阶段,在判别器中加入目标设备的几何结构特征作为约束条件,指导判别器判别生成的图像,其中,在判别器的损失函数判定中,当判别器判定生成器的生成图像为真实数据后,通过比较图像的目标设备的长宽比、间距差以及开口角度的参数,判定出图像类别。
4.根据权利要求1所述的设备图像生成方法,其特征在于,步骤2中,生成器的损失函数的表达式为:
其中,y表示输入图像的标签,T表示由平移、翻转和颜色调整三种变化组合成的增广T函数,表示输入数据与标签经过判别器的最小二分类交叉熵,/>表示生成器输出与标签经过判别器的最小二分类交叉熵,/>表示xy来自真实数据分布,/>表示y来自真实数据分布;
判别器的损失函数的表达式为:
其中,表示生成器输出与标签经过判别器的交叉熵。
5.根据权利要求1所述的设备图像生成方法,其特征在于,步骤3中,使用测量生成图像的评价指标,对由生成器生成且判别器判别为真的图像进行评估,满足以下条件式:
其中,表示评价指标得分,exp表示指数函数,KL表示KL散度函数,y r表示真实图像的标签,/>表示x属于第y类标签的概率,/>表示输入图像的标签分布,/>表示真实图像的标签分布,/>表示/>与/>两个概率间分布的差值,表示/>与/>两个概率间分布的差值,表示以x为输入的/>之差的熵,FID表示距离得分,/>和/>分别表示真实图像和生成图像的特征均值,Tr表示矩阵的迹运算,/>和/>分别表示真实图像和生成图像特征的协方差矩阵。
CN202311722733.1A 2023-12-15 2023-12-15 一种设备图像生成方法 Active CN117409008B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311722733.1A CN117409008B (zh) 2023-12-15 2023-12-15 一种设备图像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311722733.1A CN117409008B (zh) 2023-12-15 2023-12-15 一种设备图像生成方法

Publications (2)

Publication Number Publication Date
CN117409008A true CN117409008A (zh) 2024-01-16
CN117409008B CN117409008B (zh) 2024-03-22

Family

ID=89498342

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311722733.1A Active CN117409008B (zh) 2023-12-15 2023-12-15 一种设备图像生成方法

Country Status (1)

Country Link
CN (1) CN117409008B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110263858A (zh) * 2019-06-21 2019-09-20 华北电力大学(保定) 一种螺栓图像合成方法、装置及相关设备
US20210197335A1 (en) * 2019-12-26 2021-07-01 Dalian University Of Technology Data Augmentation Method Based On Generative Adversarial Networks In Tool Condition Monitoring
CN113160190A (zh) * 2021-04-27 2021-07-23 西安交通大学 一种接触网紧固件异常检测方法、设备、检测装置及存储介质
CN113450318A (zh) * 2021-06-11 2021-09-28 东华大学 基于无人机自主视觉的初级配电系统瓷绝缘子检测方法
CN113537467A (zh) * 2021-07-15 2021-10-22 南京邮电大学 一种基于wgan-gp的对抗扰动图像生成方法
WO2022105308A1 (zh) * 2020-11-20 2022-05-27 南京大学 一种基于生成对抗级联网络增广图像的方法
CN115689964A (zh) * 2022-11-22 2023-02-03 江西锦路科技开发有限公司 一种图像增强方法、装置、电子设备及存储介质
CN116704266A (zh) * 2023-07-28 2023-09-05 国网浙江省电力有限公司信息通信分公司 一种电力设备故障检测方法、装置、设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110263858A (zh) * 2019-06-21 2019-09-20 华北电力大学(保定) 一种螺栓图像合成方法、装置及相关设备
US20210197335A1 (en) * 2019-12-26 2021-07-01 Dalian University Of Technology Data Augmentation Method Based On Generative Adversarial Networks In Tool Condition Monitoring
WO2022105308A1 (zh) * 2020-11-20 2022-05-27 南京大学 一种基于生成对抗级联网络增广图像的方法
CN113160190A (zh) * 2021-04-27 2021-07-23 西安交通大学 一种接触网紧固件异常检测方法、设备、检测装置及存储介质
CN113450318A (zh) * 2021-06-11 2021-09-28 东华大学 基于无人机自主视觉的初级配电系统瓷绝缘子检测方法
CN113537467A (zh) * 2021-07-15 2021-10-22 南京邮电大学 一种基于wgan-gp的对抗扰动图像生成方法
CN115689964A (zh) * 2022-11-22 2023-02-03 江西锦路科技开发有限公司 一种图像增强方法、装置、电子设备及存储介质
CN116704266A (zh) * 2023-07-28 2023-09-05 国网浙江省电力有限公司信息通信分公司 一种电力设备故障检测方法、装置、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LIJUN HE, NAN SHI, KAINNAT MALIK, FAN LI: "Unsupervised defect inspection algorithm based on cascaded GAN with edge repair feature fusion", APPLIED INTELLIGENCE, vol. 52, 3 June 2021 (2021-06-03), XP037673645, DOI: 10.1007/s10489-021-02556-3 *
贾宇峰,马力: "条件约束下的自我注意生成对抗网络", 西安电子科技大学学报, vol. 46, no. 6, 31 December 2019 (2019-12-31), pages 1 - 3 *

Also Published As

Publication number Publication date
CN117409008B (zh) 2024-03-22

Similar Documents

Publication Publication Date Title
CN110119753B (zh) 一种重构纹理识别岩性的方法
CN107833220A (zh) 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法
CN111429340A (zh) 一种基于自注意力机制的循环图像翻译方法
CN108959474B (zh) 实体关系提取方法
CN112700432B (zh) 一种基于异常合成与分解的纹理表面缺陷检测方法与系统
CN113724354B (zh) 基于参考图颜色风格的灰度图像着色方法
CN113743474B (zh) 基于协同半监督卷积神经网络的数字图片分类方法与系统
CN114913493A (zh) 一种基于深度学习的车道线检测方法
CN114998602A (zh) 基于低置信度样本对比损失的域适应学习方法及系统
Li et al. Image manipulation localization using attentional cross-domain CNN features
Zhang et al. Exposing unseen GAN-generated image using unsupervised domain adaptation
Camacho et al. Convolutional neural network initialization approaches for image manipulation detection
CN116030302A (zh) 基于表征数据增强和损失再平衡的长尾图像识别方法
CN113255832B (zh) 双分支多中心的长尾分布识别的方法
Yan et al. ARTDL: Adaptive random testing for deep learning systems
CN117409008B (zh) 一种设备图像生成方法
CN111931553B (zh) 遥感数据增强生成对抗网络方法、系统、存储介质及应用
CN117314787A (zh) 基于自适应多尺度融合和注意力机制的水下图像增强方法
CN116563636A (zh) 一种合成孔径雷达图像生成方法及系统
CN114758123A (zh) 一种遥感影像目标样本增强方法
Zhang et al. Optimized latent-code selection for explainable conditional text-to-image gans
CN112257787B (zh) 基于生成式双重条件对抗网络结构的图像半监督分类方法
CN114862803A (zh) 一种基于快速傅里叶卷积的工业图像异常检测方法
Lee et al. Design of CycleGAN model for SAR image colorization
CN112365551A (zh) 一种图像质量处理系统、方法、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant