CN111652864A - 一种基于条件式生成对抗网络的铸件缺陷图像生成方法 - Google Patents

一种基于条件式生成对抗网络的铸件缺陷图像生成方法 Download PDF

Info

Publication number
CN111652864A
CN111652864A CN202010473340.1A CN202010473340A CN111652864A CN 111652864 A CN111652864 A CN 111652864A CN 202010473340 A CN202010473340 A CN 202010473340A CN 111652864 A CN111652864 A CN 111652864A
Authority
CN
China
Prior art keywords
image
generation
countermeasure network
convolution
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010473340.1A
Other languages
English (en)
Inventor
于涵
李兴捷
刘薇
尚尔峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Research Institute of Foundry Co Ltd
Original Assignee
Shenyang Research Institute of Foundry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Research Institute of Foundry Co Ltd filed Critical Shenyang Research Institute of Foundry Co Ltd
Priority to CN202010473340.1A priority Critical patent/CN111652864A/zh
Publication of CN111652864A publication Critical patent/CN111652864A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30116Casting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于条件式生成对抗网络的铸件缺陷图像生成方法,该方法基于条件式生成对抗网络的控制生成图像内容的能力,利用已有的铸件缺陷数据集,生成大量的多样性较高的有效图像,即生成对抗网络的铸件缺陷图像。该方法采用标注图像作为约束条件,控制生成样本的内容,提高生成样本的多样性;且通过改变约束条件图像的灰度标签,即可生成不同种类的缺陷图像,无需为每一种缺陷单独设计生成算法。在生成模型的损失计算中加入深度特征损失,克服只使用图像逐像素间的L1损失造成的图像模糊问题,使生成的图像更清晰,更加符合人眼的主观感受。

Description

一种基于条件式生成对抗网络的铸件缺陷图像生成方法
技术领域
本发明属于铸件缺陷自动识别及缺陷图像生成领域,具体涉及一种基于条件式生成对抗网络的铸件缺陷图像生成方法。
背景技术
由于铸件结构,铸造工艺,铸造材料等多种因素的影响,铸件不可避免地会出现各种各样的缺陷。为了保证铸件满足使用需求,必须对其进行适当的检测,最常见的检测方式是通过射线检测的方法获取铸件内部图像以判断是否存在缺陷。
对于铸件是否存在缺陷,主要有两种判断方式:人工检测和自动检测。自动检测是指利用图像算法对图像中的缺陷进行自动判断,具有客观、高效等优点。目前利用深度学习技术对缺陷进行自动识别是主要的发展趋势,虽然深度学习技术相比于传统识别算法具有更好的准确性和鲁棒性,但是其需要大量的缺陷样本进行监督训练,样本的数量会限制算法的性能。尤其对于铸件检测而言,某些类型的缺陷较难获取,这种现象会引起数据不平衡问题,进而影响缺陷检测的精度,因此需要一种铸件缺陷图像的生成方法,生成高质量、高分辨率、高多样性的缺陷图像,以克服数据不平衡问题,提高铸件缺陷检测的准确性。
目前存在的铸件缺陷图像生成方法主要是有两种方法:
(1)基于三维CAD的方法
利用三维CAD工具设计铸件和缺陷的三维结构,通过射线衰减的经验公式,模拟生成缺陷部分的图像,该方法的不足之处在于人工设计的铸件和缺陷的三维结构多样性较差且生成图像所基于的射线衰减公式并不完全准确,导致图像的真实感不强。
(2)基于人工设计特征的图像叠加方法
该方法利用人工设计的特征,如灰度,纹理等,生成缺陷的形状轮廓和内部图像的表征,并将图像与无缺陷背景进行融合叠加。该方法的不足之处在于基于人工设计的特征图像多样性不高;对于不同的缺陷需要设计不同的缺陷生成算法;只能利用现有的无缺陷背景,无法生成多样性的背景等。
发明内容
针对现有技术的不足,本发明提供了一种基于条件式生成对抗网络的铸件缺陷图像生成方法,利用条件式生成对抗网络的控制生成图像内容的能力,该方法能够利用已有的铸件缺陷数据集,生成大量的多样性较高的有效图像,满足深度学习对大量样本的需求,提高铸件缺陷图像识别的准确率。
为实现上述目的,本发明的技术方案具体如下:
一种基于条件式生成对抗网络的铸件缺陷图像生成方法,该方法基于条件式生成对抗网络的控制生成图像内容的能力,利用已有的铸件缺陷数据集,生成大量的多样性较高的有效图像,即生成对抗网络的铸件缺陷图像。
基于条件式生成对抗网络的铸件缺陷图像生成方法具体步骤如下:
(1)面向铸件缺陷图像生成的铸件缺陷图像数据集的建立;
(2)构造一种条件式生成对抗网络,网络框架包括生成模型和辨别模型;
(3)训练条件式生成对抗网络:交替训练判别模型和生成模型;
(4)利用训练好的网络模型生成铸件缺陷图像:训练完成后,将任意的标注图像输入生成模型,该模型输出对应的的生成图像,即生成的虚拟铸件缺陷图像。
所述步骤(1)具体为:基于工业DR检测系统,采集典型铸件的数字图像,标注出图像中的缺陷区域,铸件缺陷图像作为训练数据集,对应的标注出缺陷区域的图像作为约束条件,标注图像中不同种类的缺陷由不同的灰度进行表示,铸件缺陷图像作为训练数据集,对应的标注出缺陷区域的图像作为约束条件,并将图像的分辨率统一至相同大小。
所述步骤(2)中生成模型,包括卷积核大小为4×4的卷积模块,数量为64,步长为2,填充一圈0像素,微步幅度卷积,生成网络分为编码和解码两部分结构,均采用4×4的卷积核进行操作,步长设置为2,沿图像边缘填充一层0像素。先使输入图像下采样成1×1×1×512的张量,再上采样回原图尺寸大小。通过卷积模块将浅层次特征与深层特征进行拼接,利用浅层信息,并缓解低层次特征与高层次特征之间存在的语义差异。
所述步骤(2)中辨别模型,采用PatchGAN结构,1到3层卷积层的卷积核的大小为4×4,卷积核数量分别为64、128和256,步长均为2,均沿图像边缘填充一层像素。后两层卷积层的卷积核的大小为4×4,数量分别为512和1,步长均为1,均沿图像边缘填充一层像素。最终输出30×30×1的特征图,每个值对应原图的局部区域,判别图像中的这些局部区域的真假,再将判别结果取平均作为损失,使用局部判别的方法会使参数的数量大规模缩减,提升训练的效率。
所述的卷积模块分为两个分支,将上一层的输出分别用1×1的卷积核和3×3的卷积核进行卷积操作,采用不同的卷积核尺寸可以获取不同的感受野,得到不同尺度的特征,加强网络对多尺度的适应性,提高网络的学习能力。为减少训练的参数量,在用3×3卷积核进行卷积操作之前用1×1的卷积核进行降维,之后用1×1的卷积核进行升维,保证编码层经过卷积模块路径之后的输出维度不变,即与对应拼接的解码层的特征图尺寸相同。既满足充分利用浅层网络信息的要求,又控制了参数的数量。
所述步骤(3)训练条件式生成对抗网络:交替训练判别模型和生成模型,训练判别模型时生成模型权值固定,反之亦然,损失值收敛时训练中止,此时判别模型无法区分输入的图像是否为真实图像。条件式生成对抗网络的目标函数为
Figure BDA0002515050890000041
其中G表示生成模型,D表示判别模型,x表示输入的真实图像,c表示标注图像,即约束条件,G(c)表示生成图像,LA表示深度特征损失与L1损失的和。
训练生成模型:输入生成模型是铸件原始图像对应的约束条件,即对应的标注图像。经生成模型前向传播即可输出一张虚拟的射线图像,计算虚拟图像与真实图像间的特征损失与L1损失之和,通过反向传播算法更新生成模型参数。
训练判别模型:输入判别模型的是成对数据,判别模型除了判别输入数据x是否真实,还需判别x与条件c是否匹配。从数据集中随机选取一对图像,即一张缺陷图像和一张标注图像,将标注图像图像输入生成模型,输出结果为生成图像。将标注图像和生成图像拼接后输入判别模型,输出结果代入交叉熵损失函数ylogp(y=1|x)+(1-y)logp(y=0|x),计算损失值,通过反向传播算法计算判别模型的梯度并更新参数。
所述步骤(3)训练中,采用Adam算法,生成模型的损失值由交叉熵损失函数和特征损失计算求得,并使用L1正则化约束参数,深度特征损失即计算生成图像和真实图像的深度特征的L1距离,将生成图像和真实图像分别输入经过预训练的固定参数的VGG19网络,输出每层卷积层后的特征图,分别计算各层特征图之间的L1距离。
所述
Figure BDA0002515050890000042
仅在更新生成模型的参数时使用,其中F(i)代表VGG19网络的第i层卷积层的输出含有Mi个元素,N为卷积层的数量,α和β为超参数,根据具体情况调节,实验过程中分别设置为0.2和0.3。
本发明的有益效果:
1.该方法采用标注图像作为约束条件,控制生成样本的内容,提高生成样本的多样性;且通过改变约束条件图像的灰度标签,即可生成不同种类的缺陷图像,无需为每一种缺陷单独设计生成算法。
2.该方法的生成模型中的卷积模块采用了两个分支,不同的卷积核尺寸,不同的感受野,不同尺度的特征,加强了网络对多尺度的适应性,提高网络的学习能力。通过卷积模块将浅层次特征与深层特征进行拼接,充分利用浅层信息,并缓解低层次特征与高层次特征之间存在的语义差异,提高生成样本的质量。
3.该方法在生成模型的损失计算中加入深度特征损失,克服只使用图像逐像素间的L1损失造成的图像模糊问题,使生成的图像更清晰,更加符合人眼的主观感受。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是铸件缺陷图像及其标注图像;
图2是条件式生成对抗网络模型框架;
图3是生成模型结构图;
图4是标注图像、生成图像、真实图像对比图;
其中,T表示真,F表示假,C4-64表示卷积核大小为4×4,S2表示步长为2,P1表示填充一圈0像素,D表示微步幅度卷积。
具体实施方式
实施例1
本发明公开了一种基于条件式生成对抗网络的铸件缺陷图像生成方法,其所述的一种基于条件式生成对抗网络的铸件缺陷图像生成方法包括以下步骤:
(1)面向铸件缺陷图像生成的铸件缺陷图像数据集的建立:基于工业DR检测系统,采集若干张如图1所示的典型铸件的数字图像,由专业的评片人员标注出图像中的缺陷区域,标注图像中不同种类的缺陷由不同的灰度进行表示。铸件缺陷图像作为训练数据集,对应的标注出缺陷区域的图像作为约束条件,并将图像的分辨率统一至相同大小,训练样本及其对应的约束条件如图1所示;
(2)构造一种条件式生成对抗网络:网络框架如图2所示,其中T表示真,F表示假,具体结构如下所述。生成模型:如图3所示,其中C4-64表示卷积核大小为4×4数量为64,S2表示步长为2,P1表示填充一圈0像素,D表示微步幅度卷积。生成网络分为编码和解码两部分结构,均采用4×4的卷积核进行操作,步长设置为2,沿图像边缘填充一层0像素。先使输入图像下采样成1×1×1×512的张量,再上采样回原图尺寸大小。通过卷积模块将浅层次特征与深层特征进行拼接,充分利用浅层信息,并缓解低层次特征与高层次特征之间存在的语义差异。判别模型:采用PatchGAN结构,1到3层卷积层的卷积核的大小为4×4,卷积核数量分别为64、128和256,步长均为2,均沿图像边缘填充一层像素。后两层卷积层的卷积核的大小为4×4,数量分别为512和1,步长均为1,均沿图像边缘填充一层像素。最终输出30×30×1的特征图,每个值对应原图的局部区域,判别图像中的这些局部区域的真假,再将判别结果取平均作为损失,使用局部判别的方法会使参数的数量大规模缩减,提升训练的效率。
(3)训练条件式生成对抗网络:交替训练判别模型和生成模型,训练判别模型时生成模型权值固定,反之亦然,损失值收敛时训练中止,此时判别模型无法区分输入的图像是否为真实图像。条件式生成对抗网络的目标函数为
Figure BDA0002515050890000071
其中G表示生成模型,D表示判别模型,x表示输入的真实图像,c表示标注图像,即约束条件,G(c)表示生成图像,LA表示深度特征损失与L1损失的和。
训练生成模型:输入生成模型是铸件原始图像对应的约束条件,即对应的标注图像。经生成模型前向传播即可输出一张虚拟的射线图像,计算虚拟图像与真实图像间的特征损失与L1损失之和,通过反向传播算法更新生成模型参数。
训练判别模型:输入判别模型的是成对数据,判别模型除了判别输入数据x是否真实,还需判别x与条件c是否匹配。从数据集中随机选取一对图像,即一张缺陷图像和一张标注图像,将标注图像图像输入生成模型,输出结果为生成图像。将标注图像和生成图像拼接后输入判别模型,输出结果代入交叉熵损失函数ylogp(y=1|x)+(1-y)logp(y=0|x),计算损失值,通过反向传播算法计算判别模型的梯度并更新参数。
(4)利用训练好的网络模型生成铸件缺陷图像:训练完成后,将任意的标注图像输入生成模型,该模型输出对应的的生成图像,即生成的虚拟铸件缺陷图像。如图4所示,输入左侧标注图像时输出中间的生成图像,右侧为真实图像。
步骤(2)中所述的卷积模块分为两个分支,将上一层的输出分别用1×1的卷积核和3×3的卷积核进行卷积操作,采用不同的卷积核尺寸可以获取不同的感受野,得到不同尺度的特征,加强网络对多尺度的适应性,提高网络的学习能力。为减少训练的参数量,在用3×3卷积核进行卷积操作之前用1×1的卷积核进行降维,之后用1×1的卷积核进行升维,保证编码层经过卷积模块路径之后的输出维度不变,即与对应拼接的解码层的特征图尺寸相同。既满足充分利用浅层网络信息的要求,又控制了参数的数量。
步骤(3)中所述的训练过程中:采用Adam算法作为优化方式。生成模型的损失值由交叉熵损失函数和特征损失计算求得,并使用L1正则化约束参数,减小因数据量少而引起的网络过拟合问题。深度特征损失即计算生成图像和真实图像的深度特征的L1距离,将生成图像和真实图像分别输入经过预训练的固定参数的VGG19网络,输出每层卷积层后的特征图,分别计算各层特征图之间的L1距离。步骤(3)中所述的
Figure BDA0002515050890000081
仅在更新生成模型的参数时使用,其中F(i)代表VGG19网络的第i层卷积层的输出含有Mi个元素,N为卷积层的数量,α和β为超参数,根据具体情况调节,实验过程中分别设置为0.2和0.3。训练流程如表1。
表1
Figure BDA0002515050890000082

Claims (10)

1.一种基于条件式生成对抗网络的铸件缺陷图像生成方法,其特征在于:该方法基于条件式生成对抗网络的控制生成图像内容的能力,利用已有的铸件缺陷数据集,生成大量的多样性较高的有效图像,即生成对抗网络的铸件缺陷图像。
2.根据权利要求1所述的基于条件式生成对抗网络的铸件缺陷图像生成方法,其特征在于:基于条件式生成对抗网络的铸件缺陷图像生成方法具体步骤如下:
(1)面向铸件缺陷图像生成的铸件缺陷图像数据集的建立;
(2)构造一种条件式生成对抗网络,网络框架包括生成模型和辨别模型;
(3)训练条件式生成对抗网络:交替训练判别模型和生成模型;
(4)利用训练好的网络模型生成铸件缺陷图像。
3.根据权利要求2所述的基于条件式生成对抗网络的铸件缺陷图像生成方法,其特征在于,所述步骤(1)具体为:采集典型铸件的数字图像,标注出图像中的缺陷区域,铸件缺陷图像作为训练数据集,对应的标注出缺陷区域的图像作为约束条件,并将图像的分辨率统一。
4.根据权利要求2所述的基于条件式生成对抗网络的铸件缺陷图像生成方法,其特征在于,所述步骤(2)中生成模型,包括卷积核大小为4×4的卷积模块,数量为64,步长为2,填充一圈0像素,微步幅度卷积,通过卷积模块将浅层次特征与深层特征进行拼接,利用浅层信息,并缓解低层次特征与高层次特征之间存在的语义差异。
5.根据权利要求2所述的基于条件式生成对抗网络的铸件缺陷图像生成方法,其特征在于,所述步骤(2)中辨别模型,采用PatchGAN结构,1到3层卷积层的卷积核的大小为4×4,卷积核数量分别为64、128和256,步长均为2,均沿图像边缘填充一层像素。后两层卷积层的卷积核的大小为4×4,数量分别为512和1,步长均为1,均沿图像边缘填充一层像素。最终输出30×30×1的特征图,每个值对应原图的局部区域,判别图像中的这些局部区域的真假,再将判别结果取平均作为损失。
6.根据权利要求2所述的基于条件式生成对抗网络的铸件缺陷图像生成方法,其特征在于,所述步骤(3)中条件式生成对抗网络的目标函数为
Figure FDA0002515050880000021
其中G表示生成模型,D表示判别模型,x表示输入的真实图像,c表示标注图像,即约束条件,G(c)表示生成图像,LA表示深度特征损失与L1损失的和。
7.根据权利要求2所述的基于条件式生成对抗网络的铸件缺陷图像生成方法,其特征在于,所述步骤(3)中训练辨别模型中,交叉熵损失函数为ylogp(y=1|x)+(1-y)logp(y=0|x)。
8.根据权利要求4所述的基于条件式生成对抗网络的铸件缺陷图像生成方法,其特征在于,所述卷积模块分为两个分支,将上一层的输出分别用1×1的卷积核和3×3的卷积核进行卷积操作,在用3×3卷积核进行卷积操作之前用1×1的卷积核进行降维,之后用1×1的卷积核进行升维。
9.根据权利要求2所述的基于条件式生成对抗网络的铸件缺陷图像生成方法,其特征在于,所述步骤(3)训练中,采用Adam算法,生成模型的损失值由交叉熵损失函数和特征损失计算求得,并使用L1正则化约束参数,深度特征损失即计算生成图像和真实图像的深度特征的L1距离,将生成图像和真实图像分别输入经过预训练的固定参数的VGG19网络,输出每层卷积层后的特征图,分别计算各层特征图之间的L1距离。
10.根据权利要求6所述的基于条件式生成对抗网络的铸件缺陷图像生成方法,其特征在于,所述
Figure FDA0002515050880000022
仅在更新生成模型的参数时使用,其中F(i)代表VGG19网络的第i层卷积层的输出含有Mi个元素,N为卷积层的数量,α和β为超参数,根据具体情况调节,实验过程中分别设置为0.2和0.3。
CN202010473340.1A 2020-05-29 2020-05-29 一种基于条件式生成对抗网络的铸件缺陷图像生成方法 Pending CN111652864A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010473340.1A CN111652864A (zh) 2020-05-29 2020-05-29 一种基于条件式生成对抗网络的铸件缺陷图像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010473340.1A CN111652864A (zh) 2020-05-29 2020-05-29 一种基于条件式生成对抗网络的铸件缺陷图像生成方法

Publications (1)

Publication Number Publication Date
CN111652864A true CN111652864A (zh) 2020-09-11

Family

ID=72349787

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010473340.1A Pending CN111652864A (zh) 2020-05-29 2020-05-29 一种基于条件式生成对抗网络的铸件缺陷图像生成方法

Country Status (1)

Country Link
CN (1) CN111652864A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112508946A (zh) * 2020-12-29 2021-03-16 苏州光格科技股份有限公司 一种基于对抗神经网络的电缆隧道异常检测方法
CN112597887A (zh) * 2020-12-22 2021-04-02 深圳集智数字科技有限公司 一种目标识别方法及装置
CN112598034A (zh) * 2020-12-09 2021-04-02 华东交通大学 基于生成式对抗网络的矿石图像生成方法和计算机可读存储介质
CN113284086A (zh) * 2021-03-31 2021-08-20 广东电力信息科技有限公司 电力稀缺缺陷图像生成及检测方法、装置及相关设备
CN114511570A (zh) * 2022-04-20 2022-05-17 深圳市信润富联数字科技有限公司 伪缺陷库建立方法、缺陷检测方法、设备及存储介质
WO2022185864A1 (ja) * 2021-03-05 2022-09-09 日立Astemo株式会社 外観検査装置、外観検査方法、画像生成装置および画像生成方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109819256A (zh) * 2019-03-06 2019-05-28 西安电子科技大学 基于特征感知的视频压缩感知方法
CN109977922A (zh) * 2019-04-11 2019-07-05 电子科技大学 一种基于生成对抗网络的行人掩模生成方法
CN110097543A (zh) * 2019-04-25 2019-08-06 东北大学 基于生成式对抗网络的热轧带钢表面缺陷检测方法
CN110503598A (zh) * 2019-07-30 2019-11-26 西安理工大学 基于条件循环一致性生成对抗网络的字体风格迁移方法
CN110751193A (zh) * 2019-10-08 2020-02-04 浙江工业大学 一种基于中层特征扩展卷积网络的农作物病害分析方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109819256A (zh) * 2019-03-06 2019-05-28 西安电子科技大学 基于特征感知的视频压缩感知方法
CN109977922A (zh) * 2019-04-11 2019-07-05 电子科技大学 一种基于生成对抗网络的行人掩模生成方法
CN110097543A (zh) * 2019-04-25 2019-08-06 东北大学 基于生成式对抗网络的热轧带钢表面缺陷检测方法
CN110503598A (zh) * 2019-07-30 2019-11-26 西安理工大学 基于条件循环一致性生成对抗网络的字体风格迁移方法
CN110751193A (zh) * 2019-10-08 2020-02-04 浙江工业大学 一种基于中层特征扩展卷积网络的农作物病害分析方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112598034A (zh) * 2020-12-09 2021-04-02 华东交通大学 基于生成式对抗网络的矿石图像生成方法和计算机可读存储介质
CN112597887A (zh) * 2020-12-22 2021-04-02 深圳集智数字科技有限公司 一种目标识别方法及装置
CN112597887B (zh) * 2020-12-22 2024-05-07 深圳集智数字科技有限公司 一种目标识别方法及装置
CN112508946A (zh) * 2020-12-29 2021-03-16 苏州光格科技股份有限公司 一种基于对抗神经网络的电缆隧道异常检测方法
CN112508946B (zh) * 2020-12-29 2024-04-26 苏州光格科技股份有限公司 一种基于对抗神经网络的电缆隧道异常检测方法
WO2022185864A1 (ja) * 2021-03-05 2022-09-09 日立Astemo株式会社 外観検査装置、外観検査方法、画像生成装置および画像生成方法
CN113284086A (zh) * 2021-03-31 2021-08-20 广东电力信息科技有限公司 电力稀缺缺陷图像生成及检测方法、装置及相关设备
CN114511570A (zh) * 2022-04-20 2022-05-17 深圳市信润富联数字科技有限公司 伪缺陷库建立方法、缺陷检测方法、设备及存储介质

Similar Documents

Publication Publication Date Title
CN109859190B (zh) 一种基于深度学习的目标区域检测方法
CN111652864A (zh) 一种基于条件式生成对抗网络的铸件缺陷图像生成方法
CN111292264B (zh) 一种基于深度学习的图像高动态范围重建方法
CN113158862B (zh) 一种基于多任务的轻量级实时人脸检测方法
CN109191476A (zh) 基于U-net网络结构的生物医学图像自动分割新方法
CN110728219A (zh) 基于多列多尺度图卷积神经网络的3d人脸生成方法
CN109671071A (zh) 一种基于深度学习的地下管道缺陷定位及等级判定方法
CN114332578A (zh) 图像异常检测模型训练方法、图像异常检测方法和装置
CN113609896A (zh) 基于对偶相关注意力的对象级遥感变化检测方法及系统
CN115131797B (zh) 一种基于特征增强金字塔网络的场景文本检测方法
CN111739037B (zh) 一种针对室内场景rgb-d图像的语义分割方法
CN110135446A (zh) 文本检测方法及计算机存储介质
CN112070040A (zh) 一种用于视频字幕的文本行检测方法
Fan et al. A novel sonar target detection and classification algorithm
CN116012395A (zh) 一种基于深度可分离卷积的多尺度融合烟雾分割方法
CN115830449A (zh) 显式轮廓引导和空间变化上下文增强的遥感目标检测方法
CN111126155A (zh) 一种基于语义约束生成对抗网络的行人再识别方法
CN113361496B (zh) 一种基于U-Net的城市建成区统计方法
CN114612658A (zh) 基于双重类别级对抗网络的图像语义分割方法
CN116912675B (zh) 一种基于特征迁移的水下目标检测方法及系统
CN116805360B (zh) 一种基于双流门控渐进优化网络的显著目标检测方法
CN113066074A (zh) 一种基于双目视差偏移融合的视觉显著性预测方法
CN117456330A (zh) 一种基于MSFAF-Net的低照度目标检测方法
CN116091784A (zh) 一种目标跟踪方法、设备及存储介质
CN114913433A (zh) 一种联合均衡特征和可变形卷积的多尺度目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200911