CN117671431B - 一种工业缺陷图像生成方法、装置、设备及存储介质 - Google Patents
一种工业缺陷图像生成方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN117671431B CN117671431B CN202410114960.4A CN202410114960A CN117671431B CN 117671431 B CN117671431 B CN 117671431B CN 202410114960 A CN202410114960 A CN 202410114960A CN 117671431 B CN117671431 B CN 117671431B
- Authority
- CN
- China
- Prior art keywords
- defect image
- path
- layer
- feature
- generator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000007547 defect Effects 0.000 title claims abstract description 163
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000003860 storage Methods 0.000 title claims abstract description 13
- 238000000605 extraction Methods 0.000 claims abstract description 86
- 238000009776 industrial production Methods 0.000 claims abstract description 13
- 238000011176 pooling Methods 0.000 claims description 45
- 238000013507 mapping Methods 0.000 claims description 29
- 238000010606 normalization Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005242 forging Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请公开了一种工业缺陷图像生成方法、装置、设备及存储介质,涉及图像生成技术领域,包括:采集实际工业生产中产生的缺陷图像得到实际缺陷图像,并将实际缺陷图像输入至预先创建的目标生成对抗网络中,以利用生成器和判别器生成与实际缺陷图像相似的伪造缺陷图像;生成器由多个上采样层、特征提取层和特征门控层组成,并通过结构重参数化的方式对模型参数进行重新表示,特征提取层采用非对称卷积结构;判别器采用全尺度跳跃连接方式的DenseNet网络。本申请通过采用非对称卷积结构的生成器以及采用全尺度跳跃连接方式的判别器生成与实际缺陷图像相似的伪造缺陷图像,能够生成高质量的工业缺陷图像,并提高图像生成的效率。
Description
技术领域
本申请涉及图像生成技术领域,特别涉及一种工业缺陷图像生成方法、装置、设备及存储介质。
背景技术
工业缺陷图像生成技术主要应用于提高计算机视觉系统在工业检测方面的性能,目前通常通过深度学习来模拟和生成工业缺陷图像。然而,由于生产线的良率较高,要采集到大量的缺陷图像是一件很困难的事,因此生成足够多样性和真实的缺陷样本以训练缺陷识别模型是一个重要的挑战。
目前,主流的工业缺陷图像生成方法有以下几种:①基于特征统计的方法:利用机器学习算法对缺陷进行建模,并通过对图像特征的统计描述来生成缺陷。例如,使用支持向量机(SVM,Support Vector Machine)对缺陷进行分类;②基于样本生成的方法:通过对已知缺陷进行建模,然后利用模型生成新的缺陷。例如,使用循环神经网络(RNN,RecurrentNeural Network)对缺陷进行建模,然后通过反向传播算法(BP,Back Propagation)生成新的缺陷。③基于生成对抗网络的方法:使用生成对抗网络(GAN,Generative AdversarialNetworks)来模拟缺陷的生成过程,其中,GAN由两个神经网络组成,一个是生成器,另一个是判别器,生成器的任务是生成与真实数据相似的缺陷图像,而判别器的任务是区分真实图像和生成图像,通过不断调整生成器和判别器的参数,最终可以得到与真实缺陷相似的图像。上述三种工业缺陷图像生成方法中GAN使用的最为广泛,由GAN生成的工业缺陷图像的多样性更加丰富,能够有效缓解数据长尾分布的问题。
然而,上述生成对抗网络的工业缺陷图像生成方法存在图像生成耗时严重的问题,具体原因为:为提高生成图像的质量,生成器的结构非常复杂,如大量使用跳跃连接、分支结构和深度可分离卷积等,虽然这种结构能极大改善图像的质量,但对于CPU(CentralProcessing Unit,中央处理器)/GPU(Graphics Processing Unit,图形处理器)等硬件设备并不友好,会导致负载过高、无法并行运算等问题,使得计算效率低下,无法在短时间内生成所需的工业缺陷图像。
发明内容
有鉴于此,本申请的目的在于提供一种工业缺陷图像生成方法、装置、设备及存储介质,能够生成高质量的工业缺陷图像,并提高图像生成的效率。其具体方案如下:
第一方面,本申请公开了一种工业缺陷图像生成方法,包括:
采集实际工业生产中产生的缺陷图像,得到实际缺陷图像;
将所述实际缺陷图像输入至预先创建的目标生成对抗网络中,以便利用所述目标生成对抗网络中的生成器和判别器生成与所述实际缺陷图像相似的伪造缺陷图像;其中,所述生成器由多个上采样层、多个特征提取层和多个特征门控层组成,并通过结构重参数化的方式对模型参数进行重新表示,所述特征提取层采用非对称卷积结构;所述判别器采用全尺度跳跃连接方式的DenseNet网络;所述特征门控层采用门控的方法对特征进行重标定,并包括基于恒等映射的第一路径以及包含全局平均池化层、卷积层和权重归一化层的第二路径;
所述方法,还包括:采用2×2池化和4×4池化的下采样方式对所述判别器中尺度不一致且不同稠密块的特征图进行拼接;采用恒等映射的方式对所述判别器中尺度一致且不同稠密块的特征图进行拼接。
可选的,所述工业缺陷图像生成方法,还包括:
将随机生成的噪点数据依次经过所述生成器中的所述上采样层、所述特征提取层和所述特征门控层中,以生成预设分辨率的图像;
将所述预设分辨率的图像输入至所述判别器中,以对所述预设分辨率的图像进行特征提取得到特征提取结果,并根据所述特征提取结果以及先验知识对所述预设分辨率的图像的真伪进行判别得到判别结果,再将所述判别结果返回至所述生成器,以通过反向传播更新所述生成器的权重参数。
可选的,所述利用所述目标生成对抗网络中的生成器和判别器生成与所述实际缺陷图像相似的伪造缺陷图像,包括:
利用所述实际缺陷图像对所述目标生成对抗网络中的判别器进行训练,得到训练后的判别器;
通过所述训练后的判别器指导所述目标生成对抗网络中的生成器生成与所述实际缺陷图像相似的伪造缺陷图像。
可选的,所述生成器和所述判别器的对抗目标为价值函数最小化最大值。
可选的,所述生成器中的各个所述上采样层均采用双线性插值法进行上采样。
第二方面,本申请公开了一种工业缺陷图像生成装置,包括:
缺陷图像采集模块,用于采集实际工业生产中产生的缺陷图像,得到实际缺陷图像;
缺陷图像生成模块,用于将所述实际缺陷图像输入至预先创建的目标生成对抗网络中,以便利用所述目标生成对抗网络中的生成器和判别器生成与所述实际缺陷图像相似的伪造缺陷图像;其中,所述生成器由多个上采样层、多个特征提取层和多个特征门控层组成,并通过结构重参数化的方式对模型参数进行重新表示,所述特征提取层采用非对称卷积结构;所述判别器采用全尺度跳跃连接方式的DenseNet网络;所述特征门控层采用门控的方法对特征进行重标定,并包括基于恒等映射的第一路径以及包含全局平均池化层、卷积层和权重归一化层的第二路径;
所述装置法,还用于采用2×2池化和4×4池化的下采样方式对所述判别器中尺度不一致且不同稠密块的特征图进行拼接;采用恒等映射的方式对所述判别器中尺度一致且不同稠密块的特征图进行拼接。
第三方面,本申请公开了一种电子设备,包括处理器和存储器;其中,所述处理器执行所述存储器中保存的计算机程序时实现前述的工业缺陷图像生成方法。
第四方面,本申请公开了一种计算机可读存储介质,用于存储计算机程序;其中,所述计算机程序被处理器执行时实现前述的工业缺陷图像生成方法。
可见,本申请先采集实际工业生产中产生的缺陷图像得到实际缺陷图像,然后将所述实际缺陷图像输入至预先创建的目标生成对抗网络中,以便利用所述目标生成对抗网络中的生成器和判别器生成与所述实际缺陷图像相似的伪造缺陷图像;其中,所述生成器由多个上采样层、多个特征提取层和多个特征门控层组成,并通过结构重参数化的方式对模型参数进行重新表示,所述特征提取层采用非对称卷积结构;所述判别器采用全尺度跳跃连接方式的DenseNet网络;所述特征门控层采用门控的方法对特征进行重标定,并包括基于恒等映射的第一路径以及包含全局平均池化层、卷积层和权重归一化层的第二路径;并采用2×2池化和4×4池化的下采样方式对所述判别器中尺度不一致且不同稠密块的特征图进行拼接;采用恒等映射的方式对所述判别器中尺度一致且不同稠密块的特征图进行拼接。本申请通过预先创建的生成对抗网络生成与实际缺陷图像相似的伪造缺陷图像,该生成对抗网络中的生成器由多个上采样层、多个特征提取层和多个特征门控层组成,并通过结构重参数化的方式对模型参数进行重新表示,其中,特征提取层采用非对称卷积结构,特征门控层采用门控的方法对特征进行重标定,并包括基于恒等映射的第一路径以及包含全局平均池化层、卷积层和权重归一化层的第二路径,并通过结构重参数化方式进行参数重表示,判别器采用全尺度跳跃连接方式的DenseNet网络,另外,模型还采用2×2池化和4×4池化的下采样方式对判别器中尺度不一致且不同稠密块的特征图进行拼接;采用恒等映射的方式对判别器中尺度一致且不同稠密块的特征图进行拼接,能够生成高质量的工业缺陷图像,并提高图像生成的效率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请公开的一种工业缺陷图像生成方法流程图;
图2为本申请公开的一种具体的生成器结构示意图;
图3为本申请公开的一种具体的结构重参数方式计算过程示意图;
图4为本申请公开的一种具体的判别器结构示意图;
图5为本申请公开的一种工业缺陷图像生成装置结构示意图;
图6为本申请公开的一种电子设备结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例公开了一种工业缺陷图像生成方法,参见图1所示,该方法包括:
步骤S11:采集实际工业生产中产生的缺陷图像,得到实际缺陷图像。
可以理解的是,实际工业生产中产生的缺陷图像良率较高,缺陷图像的多样性相对不足,为了生成足够多样性和真实的缺陷样本以训练缺陷识别模型,本实施例先对实际工业生产中产生的缺陷类型较少的缺陷图像进行采集,得到实际缺陷图像。
步骤S12:将所述实际缺陷图像输入至预先创建的目标生成对抗网络中,以便利用所述目标生成对抗网络中的生成器和判别器生成与所述实际缺陷图像相似的伪造缺陷图像;其中,所述生成器由多个上采样层、多个特征提取层和多个特征门控层组成,并通过结构重参数化的方式对模型参数进行重新表示,所述特征提取层采用非对称卷积结构;所述判别器采用全尺度跳跃连接方式的DenseNet网络;所述特征门控层采用门控的方法对特征进行重标定,并包括基于恒等映射的第一路径以及包含全局平均池化层、卷积层和权重归一化层的第二路径;并采用2×2池化和4×4池化的下采样方式对所述判别器中尺度不一致且不同稠密块的特征图进行拼接;采用恒等映射的方式对所述判别器中尺度一致且不同稠密块的特征图进行拼接。
本实施例中,采集到实际工业生产中产生的缺陷图像之后,将上述实际缺陷图像输入至预先创建的包含生成器和判别器的目标生成对抗网络中,从而通过所述目标生成对抗网络中的生成器和判别器生成与上述实际缺陷图像相似的伪造缺陷图像;其中,所述生成器由多个上采样层、多个特征提取层和多个特征门控层组成,并通过结构重参数化(Structural Re-Parameters)的方式对模型参数进行重新表示,即将原来的模型参数表示转化为一个新的模型参数表示,从而使模型更易于训练和优化;所述特征提取层采用非对称卷积结构,所述判别器采用全尺度跳跃连接方式的DenseNet网络,并且,所述特征门控层采用门控的方法对特征进行重标定,具体包括基于恒等映射的第一路径以及包含全局平均池化层(GAP,Global Average Pooling)、卷积层和权重归一化层(WN,WeightNormalization)的第二路径。例如,参见图2所示,图2示出了一种具体的生成器结构,该结构中包括5个上采样层和4个阶段,其中,每个阶段均包含特征提取层和特征门控层,当输入的实际缺陷图像的像素为1×1时,经过前4个上采样层后输出的图像像素依次为4×4、16×16、64×64、256×256,最终再经过1个上采样层后输出的图像像素为512×512。本实施例中,为了提高生成器的稳定性,特征提取层采用了非对称卷积结构并结合标准的3×3卷积,另外,为了提升生成器在推理时的运行速度,通过结构重参数化的方式对生成器的模型参数进行重新表示。需要指出的是,特征提取层在生成伪造缺陷图像的过程中,由于使用了结构重参数化方式对模型参数进行重新表示,故又可以分为训练阶段和推理阶段,其中,训练阶段在进行训练的过程中,先将输入数据分别发送至4条路径,分别为路径_1、路径_2、路径_3和路径_4,通过路径_1时使用1×1卷积对输入数据进行特征提取得到第一特征提取结果,接着第一特征提取结果又进入两条路径,一条路径直接通往Add层,另一条路径_5则与路径_2的数据进行相加,相加后的结果使用1×3卷积进行特征提取得到第二特征提取结果,第二特征提取结果又进入两条路径,一条路径直接通往Add层,另一条路径_6则与路径_3的数据进行相加,相加后的结果使用3×1卷积进行特征提取得到第三特征提取结果,第三特征提取结果又进入两条路径,一条路径直接通往Add层,另一条路径_7则与路径_4的数据进行相加,相加后的结果直接进入Add层;其中,1×3和3×1卷积是非对称卷积,相比直接使用3×3卷积进行特征提取,加入非对称卷积可以使模型更加稳定的伪造缺陷图像,提高特征的提取能力。最终,Add层将4条路径的数据进行相加,用于融合多尺度信息;可以理解的是,随着数据逐层相加,感受野将不断扩大。在推理阶段,特征提取层中的卷积核权重将会全部融合到3×3卷积上,具体的,参见图3所示,通过结构重参数化对模型参数进行重新表示时会形成一个单分支结构,单分支结构在推理速度上远高于多分支结构。进一步的,为了提高生成的造缺陷图像的丰富性及生成图像的质量,特征门控层采用了无sigmoid函数的特征门控的方法对特征进行重标定,并且该特征门控层中包括两条路径,一条为基于恒等映射的路径,另一条为包含全局平均池化层、卷积层和权重归一化层的路径具体的。具体的,参见图2所示,特征门控层由两条路径组成,其中,路径_1是恒等映射,对数据不做处理;路径_2先将输入数据经过至一层全局平均池化层,用于获取全局性的通道信息,然后进入一层1×1卷积层,用于学习如何识别重要特征,再进入一层权重归一化层,用于筛选出重要特征,接着将筛选出的重要特征与路径_1的数据逐像素相乘,从而获得相对重要的通道。相对于传统的采用sigmiod函数进行特征筛选的方法,由于sigmoid函数中含有指数运算,而指数运算对于CPU/GPU等硬件设备并不友好,它会大大降低计算效率,而本申请未使用sigmiod函数,因此对CPU/GPU等硬件设备更加友好,计算速度更快。其中,权重归一化层(即Norm)的计算公式如下所示:
;
其中,N为归一化层Norm的输出,为第i个通道经过1×1卷积层计算后的值,为第i个通道经过L2范数计算后的值,C为输入的通道总数,/>为所有输入通道L2范数的和。
在一种具体的实施方式中,所述生成器中的各个所述上采样层均采用双线性插值法进行上采样。例如,图2中的5个上采样层均采用双线性插值法(BilinearInterpolation)对图像进行上采样;其中,前4个可以采用4倍上采样,第5个上采样层可以采用2倍上采样。
具体的,所述判别器的结构具体采用的是2×2池化和4×4池化的下采样方式对所述判别器中尺度不一致且不同稠密块的特征图进行拼接的,并采用恒等映射的方式对所述判别器中尺度一致且不同稠密块的特征图进行拼接。例如,参见图4所示,图4示出了一种采用全尺度跳跃连接方式的DenseNet网络的判别器结构,通过采用全尺度跳跃连接方式可以将特征重用的对象由稠密块内部扩展到稠密块之间,进而更好地指导生成器获得高质量的缺陷图像。针对不同稠密块的特征图之间因为尺度不一致而无法拼接的问题,本实施例中分别采用2×2池化和4×4池化的下采样方式对判别器中尺度不一致且不同稠密块的特征图进行拼接,并采用恒等映射的方式对判别器中尺度一致且不同稠密块的特征图进行拼接,同时结合全局平均池化层输出全局性的通道特征,完成判别器的深度特征提取,最后将特征提取结果输入Softmax函数得到分类结果。本实施例中的判别器结构通过采用全尺度跳跃连接的方式能够改善DenseNet网络中信息和梯度的流动问题,进而使DenseNet网络更加易于训练,由于全尺度跳跃连接是一种稠密连接方式,这种方式能够实现密集的特征重用,从而使DenseNet网络可以在计算量和参数量更少的情形下实现更优的性能。
具体的,所述利用所述目标生成对抗网络中的生成器和判别器生成与所述实际缺陷图像相似的伪造缺陷图像,可以包括:利用所述实际缺陷图像对所述目标生成对抗网络中的判别器进行训练,得到训练后的判别器;通过所述训练后的判别器指导所述目标生成对抗网络中的生成器生成与所述实际缺陷图像相似的伪造缺陷图像。本实施例中,为了进一步提高判别器鉴别真伪的能力,可以使用实际缺陷图像训练目标生成对抗网络中的判别器,得到训练后的判别器,然后通过训练后的判别器指导生成器获得高质量的与实际缺陷图像相似的伪造缺陷图像。
本实施例中,在利用所述生成对抗网络生成工业缺陷图像的过程中,具体还包括:将随机生成的噪点数据依次经过所述生成器中的所述上采样层、所述特征提取层和所述特征门控层中,以生成预设分辨率的图像;将所述预设分辨率的图像输入至所述判别器中,以对所述预设分辨率的图像进行特征提取得到特征提取结果,并根据所述特征提取结果以及先验知识对所述预设分辨率的图像的真伪进行判别得到判别结果,再将所述判别结果返回至所述生成器,以通过反向传播更新所述生成器的权重参数。可以理解的是,生成对抗网络中的生成器和判别器是两个对立的存在,在生成器和判别器“动态”博弈的过程中,可以先将随机生成的噪点数据依次经过生成器中的上采样层、特征提取层和特征门控层中,得到一张分辨率为512×512的图像,接着将生成的512×512的图像送入判别器中,判别器再经过层层卷积特征提取,然后根据特征提取结果以及先验知识对512×512的图像进行真伪判别得到判别结果,即判断输入的图像是生成器伪造的还是真实的缺陷图像,再将判别器的判别结果返回至生成器;当生成器接收到判别器返回的判别结果后,可以通过反向传播更新权重参数,从而进一步提高伪造缺陷图像的能力。
在一种具体的实施方式中,所述生成器和所述判别器的对抗目标为价值函数最小化最大值。本实施例中,在生成器和判别器的对抗过程,对抗目标为价值函数最小化最大值,价值函数/>具体可以表示为:
;
其中,D、G分别表示判别器和生成器,x为实际缺陷图像数据,z为噪点数据,为实际缺陷图像数据分布,/>为噪点数据分布,/>为实际缺陷图像数据x的数学期望,/>为噪点数据z的数学期望,/>为x来自实际缺陷图像数据的概率,/>为噪点数据z经生成器产生的样本被判定为来自实际缺陷图像数据的概率。
可见,本申请实施例先采集实际工业生产中产生的缺陷图像得到实际缺陷图像,然后将所述实际缺陷图像输入至预先创建的目标生成对抗网络中,以便利用所述目标生成对抗网络中的生成器和判别器生成与所述实际缺陷图像相似的伪造缺陷图像;其中,所述生成器由多个上采样层、多个特征提取层和多个特征门控层组成,并通过结构重参数化的方式对模型参数进行重新表示,所述特征提取层采用非对称卷积结构;所述判别器采用全尺度跳跃连接方式的DenseNet网络,所述特征门控层采用门控的方法对特征进行重标定,并包括基于恒等映射的第一路径以及包含全局平均池化层、卷积层和权重归一化层的第二路径;并采用2×2池化和4×4池化的下采样方式对所述判别器中尺度不一致且不同稠密块的特征图进行拼接;采用恒等映射的方式对所述判别器中尺度一致且不同稠密块的特征图进行拼接。本申请实施例通过预先创建的生成对抗网络生成与实际缺陷图像相似的伪造缺陷图像,该生成对抗网络中的生成器由多个上采样层、多个特征提取层和多个特征门控层组成,并通过结构重参数化的方式对模型参数进行重新表示,其中,特征提取层采用非对称卷积结构,特征门控层采用门控的方法对特征进行重标定,并包括基于恒等映射的第一路径以及包含全局平均池化层、卷积层和权重归一化层的第二路径,并通过结构重参数化方式进行参数重表示,判别器采用全尺度跳跃连接方式的DenseNet网络,另外,模型还采用2×2池化和4×4池化的下采样方式对判别器中尺度不一致且不同稠密块的特征图进行拼接;采用恒等映射的方式对判别器中尺度一致且不同稠密块的特征图进行拼接,能够生成高质量的工业缺陷图像,并提高图像生成的效率。
相应的,本申请实施例还公开了一种工业缺陷图像生成装置,参见图5所示,该装置包括:
缺陷图像采集模块11,用于采集实际工业生产中产生的缺陷图像,得到实际缺陷图像;
缺陷图像生成模块12,用于将所述实际缺陷图像输入至预先创建的目标生成对抗网络中,以便利用所述目标生成对抗网络中的生成器和判别器生成与所述实际缺陷图像相似的伪造缺陷图像;其中,所述生成器由多个上采样层、多个特征提取层和多个特征门控层组成,并通过结构重参数化的方式对模型参数进行重新表示,所述特征提取层采用非对称卷积结构;所述判别器采用全尺度跳跃连接方式的DenseNet网络;所述特征门控层采用门控的方法对特征进行重标定,并包括基于恒等映射的第一路径以及包含全局平均池化层、卷积层和权重归一化层的第二路径;
所述装置法,还用于采用2×2池化和4×4池化的下采样方式对所述判别器中尺度不一致且不同稠密块的特征图进行拼接;采用恒等映射的方式对所述判别器中尺度一致且不同稠密块的特征图进行拼接。
其中,关于上述各个模块的具体工作流程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
可见,本申请实施例中,先采集实际工业生产中产生的缺陷图像得到实际缺陷图像,然后将所述实际缺陷图像输入至预先创建的目标生成对抗网络中,以便利用所述目标生成对抗网络中的生成器和判别器生成与所述实际缺陷图像相似的伪造缺陷图像;其中,所述生成器由多个上采样层、多个特征提取层和多个特征门控层组成,并通过结构重参数化的方式对模型参数进行重新表示,所述特征提取层采用非对称卷积结构;所述判别器采用全尺度跳跃连接方式的DenseNet网络,所述特征门控层采用门控的方法对特征进行重标定,并包括基于恒等映射的第一路径以及包含全局平均池化层、卷积层和权重归一化层的第二路径;并采用2×2池化和4×4池化的下采样方式对所述判别器中尺度不一致且不同稠密块的特征图进行拼接;采用恒等映射的方式对所述判别器中尺度一致且不同稠密块的特征图进行拼接。本申请实施例通过预先创建的生成对抗网络生成与实际缺陷图像相似的伪造缺陷图像,该生成对抗网络中的生成器由多个上采样层、多个特征提取层和多个特征门控层组成,并通过结构重参数化的方式对模型参数进行重新表示,其中,特征提取层采用非对称卷积结构,特征门控层采用门控的方法对特征进行重标定,并包括基于恒等映射的第一路径以及包含全局平均池化层、卷积层和权重归一化层的第二路径,并通过结构重参数化方式进行参数重表示,判别器采用全尺度跳跃连接方式的DenseNet网络,另外,模型还采用2×2池化和4×4池化的下采样方式对判别器中尺度不一致且不同稠密块的特征图进行拼接;采用恒等映射的方式对判别器中尺度一致且不同稠密块的特征图进行拼接,能够生成高质量的工业缺陷图像,并提高图像生成的效率。
在一些具体实施例中,所述工业缺陷图像生成装置,还可以包括:
第一图像生成单元,用于将随机生成的噪点数据依次经过所述生成器中的所述上采样层、所述特征提取层和所述特征门控层中,以生成预设分辨率的图像;
图像输入单元,用于将所述预设分辨率的图像输入至所述判别器中,以对所述预设分辨率的图像进行特征提取得到特征提取结果,并根据所述特征提取结果以及先验知识对所述预设分辨率的图像的真伪进行判别得到判别结果,再将所述判别结果返回至所述生成器,以通过反向传播更新所述生成器的权重参数。
在一些具体实施例中,所述缺陷图像生成模块12,具体可以包括:
判别器训练单元,用于利用所述实际缺陷图像对所述目标生成对抗网络中的判别器进行训练,得到训练后的判别器;
第二图像生成单元,用于通过所述训练后的判别器指导所述目标生成对抗网络中的生成器生成与所述实际缺陷图像相似的伪造缺陷图像。
在一些具体实施例中,所述生成器和所述判别器的对抗目标为价值函数最小化最大值。
在一些具体实施例中,所述生成器中的各个所述上采样层均采用双线性插值法进行上采样。
进一步的,本申请实施例还公开了一种电子设备,图6是根据一示例性实施例示出的电子设备20结构图,图中的内容不能认为是对本申请的使用范围的任何限制。
图6为本申请实施例提供的一种电子设备20的结构示意图。该电子设备20,具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,以实现前述任一实施例公开的工业缺陷图像生成方法中的相关步骤。另外,本实施例中的电子设备20具体可以为电子计算机。
本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源可以包括操作系统221、计算机程序222等,存储方式可以是短暂存储或者永久存储。
其中,操作系统221用于管理与控制电子设备20上的各硬件设备以及计算机程序222,其可以是Windows Server、Netware、Unix、Linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由电子设备20执行的工业缺陷图像生成方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。
进一步的,本申请还公开了一种计算机可读存储介质,用于存储计算机程序;其中,所述计算机程序被处理器执行时实现前述公开的工业缺陷图像生成方法。关于该方法的具体步骤可以参考前述实施例中公开的相应内容,在此不再进行赘述。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本申请所提供的一种工业缺陷图像生成方法、装置、设备及存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (8)
1.一种工业缺陷图像生成方法,其特征在于,包括:
采集实际工业生产中产生的缺陷图像,得到实际缺陷图像;
将所述实际缺陷图像输入至预先创建的目标生成对抗网络中,以便利用所述目标生成对抗网络中的生成器和判别器生成与所述实际缺陷图像相似的伪造缺陷图像;其中,所述生成器由多个上采样层、多个特征提取层和多个特征门控层组成,并通过结构重参数化的方式对模型参数进行重新表示,所述特征提取层采用非对称卷积结构;所述判别器采用全尺度跳跃连接方式的DenseNet网络;所述特征门控层采用门控的方法对特征进行重标定,具体采用了无sigmoid函数的特征门控的方法对特征进行重标定,并包括基于恒等映射的第一路径以及包含全局平均池化层、卷积层和权重归一化层的第二路径;
所述方法,还包括:采用2×2池化和4×4池化的下采样方式对所述判别器中尺度不一致且不同稠密块的特征图进行拼接;采用恒等映射的方式对所述判别器中尺度一致且不同稠密块的特征图进行拼接;
具体的,所述生成器由5个上采样层和4个阶段组成,且每个阶段均包含特征提取层和特征门控层,当输入的实际缺陷图像的像素为1×1时,经过前4个上采样层后输出的图像像素依次为4×4、16×16、64×64、256×256,最终再经过1个上采样层后输出的图像像素为512×512;所述结构重参数化的方式分为训练阶段和推理阶段,其中,训练阶段在进行训练的过程中,先将输入数据分别发送至4条路径,分别为路径_1、路径_2、路径_3和路径_4,通过路径_1时使用1×1卷积对输入数据进行特征提取得到第一特征提取结果,接着第一特征提取结果又进入两条路径,一条路径直接通往Add层,另一条路径_5则与路径_2的数据进行相加,相加后的结果使用1×3卷积进行特征提取得到第二特征提取结果,第二特征提取结果又进入两条路径,一条路径直接通往Add层,另一条路径_6则与路径_3的数据进行相加,相加后的结果使用3×1卷积进行特征提取得到第三特征提取结果,第三特征提取结果又进入两条路径,一条路径直接通往Add层,另一条路径_7则与路径_4的数据进行相加,相加后的结果直接进入Add层;其中,1×3和3×1卷积是非对称卷积;在推理阶段,特征提取层中的卷积核权重将会全部融合到3×3卷积上,所述结构重参数化是由多条路径组成的单分支结构。
2.根据权利要求1所述的工业缺陷图像生成方法,其特征在于,还包括:
将随机生成的噪点数据依次经过所述生成器中的所述上采样层、所述特征提取层和所述特征门控层中,以生成预设分辨率的图像;
将所述预设分辨率的图像输入至所述判别器中,以对所述预设分辨率的图像进行特征提取得到特征提取结果,并根据所述特征提取结果以及先验知识对所述预设分辨率的图像的真伪进行判别得到判别结果,再将所述判别结果返回至所述生成器,以通过反向传播更新所述生成器的权重参数。
3.根据权利要求1所述的工业缺陷图像生成方法,其特征在于,所述利用所述目标生成对抗网络中的生成器和判别器生成与所述实际缺陷图像相似的伪造缺陷图像,包括:
利用所述实际缺陷图像对所述目标生成对抗网络中的判别器进行训练,得到训练后的判别器;
通过所述训练后的判别器指导所述目标生成对抗网络中的生成器生成与所述实际缺陷图像相似的伪造缺陷图像。
4.根据权利要求1所述的工业缺陷图像生成方法,其特征在于,所述生成器和所述判别器的对抗目标为价值函数最小化最大值。
5.根据权利要求1至4任一项所述的工业缺陷图像生成方法,其特征在于,所述生成器中的各个所述上采样层均采用双线性插值法进行上采样。
6.一种工业缺陷图像生成装置,其特征在于,包括:
缺陷图像采集模块,用于采集实际工业生产中产生的缺陷图像,得到实际缺陷图像;
缺陷图像生成模块,用于将所述实际缺陷图像输入至预先创建的目标生成对抗网络中,以便利用所述目标生成对抗网络中的生成器和判别器生成与所述实际缺陷图像相似的伪造缺陷图像;其中,所述生成器由多个上采样层、多个特征提取层和多个特征门控层组成,并通过结构重参数化的方式对模型参数进行重新表示,所述特征提取层采用非对称卷积结构;所述判别器采用全尺度跳跃连接方式的DenseNet网络;所述特征门控层采用门控的方法对特征进行重标定,具体采用了无sigmoid函数的特征门控的方法对特征进行重标定,并包括基于恒等映射的第一路径以及包含全局平均池化层、卷积层和权重归一化层的第二路径;
所述装置,还用于采用2×2池化和4×4池化的下采样方式对所述判别器中尺度不一致且不同稠密块的特征图进行拼接;采用恒等映射的方式对所述判别器中尺度一致且不同稠密块的特征图进行拼接;
具体的,所述生成器由5个上采样层和4个阶段组成,且每个阶段均包含特征提取层和特征门控层,当输入的实际缺陷图像的像素为1×1时,经过前4个上采样层后输出的图像像素依次为4×4、16×16、64×64、256×256,最终再经过1个上采样层后输出的图像像素为512×512;所述结构重参数化的方式分为训练阶段和推理阶段,其中,训练阶段在进行训练的过程中,先将输入数据分别发送至4条路径,分别为路径_1、路径_2、路径_3和路径_4,通过路径_1时使用1×1卷积对输入数据进行特征提取得到第一特征提取结果,接着第一特征提取结果又进入两条路径,一条路径直接通往Add层,另一条路径_5则与路径_2的数据进行相加,相加后的结果使用1×3卷积进行特征提取得到第二特征提取结果,第二特征提取结果又进入两条路径,一条路径直接通往Add层,另一条路径_6则与路径_3的数据进行相加,相加后的结果使用3×1卷积进行特征提取得到第三特征提取结果,第三特征提取结果又进入两条路径,一条路径直接通往Add层,另一条路径_7则与路径_4的数据进行相加,相加后的结果直接进入Add层;其中,1×3和3×1卷积是非对称卷积;在推理阶段,特征提取层中的卷积核权重将会全部融合到3×3卷积上,所述结构重参数化是由多条路径组成的单分支结构。
7.一种电子设备,其特征在于,包括处理器和存储器;其中,所述处理器执行所述存储器中保存的计算机程序时实现如权利要求1至5任一项所述的工业缺陷图像生成方法。
8.一种计算机可读存储介质,其特征在于,用于存储计算机程序;其中,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述的工业缺陷图像生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410114960.4A CN117671431B (zh) | 2024-01-29 | 2024-01-29 | 一种工业缺陷图像生成方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410114960.4A CN117671431B (zh) | 2024-01-29 | 2024-01-29 | 一种工业缺陷图像生成方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117671431A CN117671431A (zh) | 2024-03-08 |
CN117671431B true CN117671431B (zh) | 2024-05-07 |
Family
ID=90079124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410114960.4A Active CN117671431B (zh) | 2024-01-29 | 2024-01-29 | 一种工业缺陷图像生成方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117671431B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118521498B (zh) * | 2024-07-23 | 2024-10-18 | 南昌航空大学 | 一种工业缺陷图像生成方法、设备、介质及产品 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532897A (zh) * | 2019-08-07 | 2019-12-03 | 北京科技大学 | 零部件图像识别的方法和装置 |
CN111105352A (zh) * | 2019-12-16 | 2020-05-05 | 佛山科学技术学院 | 超分辨率图像重构方法、系统、计算机设备及存储介质 |
CN114065874A (zh) * | 2021-11-30 | 2022-02-18 | 河北省科学院应用数学研究所 | 医药玻璃瓶外观缺陷检测模型训练方法、装置及终端设备 |
WO2022121531A1 (zh) * | 2020-12-09 | 2022-06-16 | 歌尔股份有限公司 | 一种产品缺陷检测方法和装置 |
CN115272280A (zh) * | 2022-08-16 | 2022-11-01 | 杭州安脉盛智能技术有限公司 | 一种缺陷检测方法、装置、设备及存储介质 |
CN115661062A (zh) * | 2022-10-19 | 2023-01-31 | 浙大宁波理工学院 | 基于对抗生成网络的工业缺陷样本生成方法及系统 |
CN116543216A (zh) * | 2023-05-10 | 2023-08-04 | 北京建筑大学 | 细粒度图像分类优化方法及系统 |
CN116664839A (zh) * | 2023-05-31 | 2023-08-29 | 博衍科技(珠海)有限公司 | 一种弱监督半监督缺陷感知分割方法、装置及电子设备 |
-
2024
- 2024-01-29 CN CN202410114960.4A patent/CN117671431B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532897A (zh) * | 2019-08-07 | 2019-12-03 | 北京科技大学 | 零部件图像识别的方法和装置 |
CN111105352A (zh) * | 2019-12-16 | 2020-05-05 | 佛山科学技术学院 | 超分辨率图像重构方法、系统、计算机设备及存储介质 |
WO2022121531A1 (zh) * | 2020-12-09 | 2022-06-16 | 歌尔股份有限公司 | 一种产品缺陷检测方法和装置 |
CN114065874A (zh) * | 2021-11-30 | 2022-02-18 | 河北省科学院应用数学研究所 | 医药玻璃瓶外观缺陷检测模型训练方法、装置及终端设备 |
CN115272280A (zh) * | 2022-08-16 | 2022-11-01 | 杭州安脉盛智能技术有限公司 | 一种缺陷检测方法、装置、设备及存储介质 |
CN115661062A (zh) * | 2022-10-19 | 2023-01-31 | 浙大宁波理工学院 | 基于对抗生成网络的工业缺陷样本生成方法及系统 |
CN116543216A (zh) * | 2023-05-10 | 2023-08-04 | 北京建筑大学 | 细粒度图像分类优化方法及系统 |
CN116664839A (zh) * | 2023-05-31 | 2023-08-29 | 博衍科技(珠海)有限公司 | 一种弱监督半监督缺陷感知分割方法、装置及电子设备 |
Non-Patent Citations (2)
Title |
---|
An optimized method for variational autoencoders based on Gaussian cloud model;Jin Dai et al;Information Sciences;20231031;全文 * |
条件 GAN 去模糊算法在人脸识别中的应用;曾凡智 等;小型微型计算机系统;20211231;第42卷(第12期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117671431A (zh) | 2024-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108229526B (zh) | 网络训练、图像处理方法、装置、存储介质和电子设备 | |
CN106683048B (zh) | 一种图像超分辨率方法及设备 | |
CN117671431B (zh) | 一种工业缺陷图像生成方法、装置、设备及存储介质 | |
CN107273978B (zh) | 一种三模型博弈的产生式对抗网络模型的建立方法及装置 | |
CN108154222B (zh) | 深度神经网络训练方法和系统、电子设备 | |
CN110070115A (zh) | 一种单像素攻击样本生成方法、装置、设备及存储介质 | |
CN112818849B (zh) | 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法 | |
CN111723841A (zh) | 文本检测方法、装置、电子设备及存储介质 | |
JP2023531350A (ja) | サンプル画像を増分する方法、画像検出モデルの訓練方法及び画像検出方法 | |
CN113139906B (zh) | 一种生成器的训练方法、装置与存储介质 | |
CN110046622A (zh) | 一种有目标的攻击样本生成方法、装置、设备及存储介质 | |
CN111597845A (zh) | 一种二维码检测方法、装置、设备及可读存储介质 | |
CN111275126A (zh) | 样本数据集生成方法、装置、设备及存储介质 | |
CN117635418B (zh) | 生成对抗网络的训练方法、双向图像风格转换方法和装置 | |
CN111861867A (zh) | 图像背景虚化方法和装置 | |
CN116452950A (zh) | 一种基于改进YOLOv5模型的多目标垃圾检测方法 | |
CN115409755A (zh) | 贴图处理方法和装置、存储介质及电子设备 | |
KR20230073751A (ko) | 레이아웃 기반의 동일 화풍 영상 생성 시스템 및 방법 | |
CN113486925B (zh) | 模型训练方法、眼底图像生成方法、模型评估方法及装置 | |
CN113361567B (zh) | 图像处理方法、装置、电子设备和存储介质 | |
CN114463300A (zh) | 钢材表面缺陷检测方法、电子设备、存储介质 | |
CN112966815A (zh) | 基于脉冲神经网络的目标检测方法、系统及设备 | |
CN116071625B (zh) | 深度学习模型的训练方法、目标检测方法及装置 | |
US20230073175A1 (en) | Method and system for processing image based on weighted multiple kernels | |
CN116091893A (zh) | 一种基于U-net网络的地震图像反褶积方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |