CN115345872A - 一种基于自适应降噪的刀具损伤灰度图像智能分类方法 - Google Patents
一种基于自适应降噪的刀具损伤灰度图像智能分类方法 Download PDFInfo
- Publication number
- CN115345872A CN115345872A CN202211081229.3A CN202211081229A CN115345872A CN 115345872 A CN115345872 A CN 115345872A CN 202211081229 A CN202211081229 A CN 202211081229A CN 115345872 A CN115345872 A CN 115345872A
- Authority
- CN
- China
- Prior art keywords
- image
- noise reduction
- training
- model
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000009467 reduction Effects 0.000 title claims abstract description 58
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 67
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims abstract description 9
- 230000003044 adaptive effect Effects 0.000 claims description 20
- 230000004927 fusion Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000012795 verification Methods 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 claims 4
- 101100153586 Caenorhabditis elegans top-1 gene Proteins 0.000 claims 1
- 101100370075 Mus musculus Top1 gene Proteins 0.000 claims 1
- 238000003672 processing method Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 4
- 230000003321 amplification Effects 0.000 abstract 1
- 238000003199 nucleic acid amplification method Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 15
- 230000004913 activation Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 7
- 238000013145 classification model Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000011176 pooling Methods 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 235000002566 Capsicum Nutrition 0.000 description 2
- 239000006002 Pepper Substances 0.000 description 2
- 241000722363 Piper Species 0.000 description 2
- 235000016761 Piper aduncum Nutrition 0.000 description 2
- 235000017804 Piper guineense Nutrition 0.000 description 2
- 235000008184 Piper nigrum Nutrition 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003754 machining Methods 0.000 description 2
- 150000003839 salts Chemical class 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 229960001948 caffeine Drugs 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- RYYVLZVUVIJVGH-UHFFFAOYSA-N trimethylxanthine Natural products CN1C(=O)N(C)C(=O)C2=C1N=CN2C RYYVLZVUVIJVGH-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于自适应降噪的刀具损伤灰度图像智能分类方法,主要包括一个由自适应降噪模块和一个刀具损伤图像分类模块组成的网络;降噪模块与分类模块同时接受端到端联合训练,共享并优化网络参数,同时在损失函数中增加一个平衡参数,该参数根据反向传播算法反馈的分类结果自适应优化降噪等级,最终达到分类性能最优。本发明可自动识别图像是否含有噪声以及批量解决图像噪声对于刀具损伤灰度图像的分类问题,通过自适应降噪模式提升模型对于困难样本的预测能力,能够有效去除图像噪声,同时通过相应的损失函数降低对抗噪声的放大效应,最终从图像处理数量、图像质量以及预测效率上提升了刀具损伤灰度图像的智能分类能力。
Description
技术领域
本发明属于图像智能分类领域,具体为一种基于自适应降噪的刀具损伤灰度图像智能分类方法。
背景技术
图像分类是计算机视觉技术的一个重要应用,而图像识别原理主要是需处理具有一定复杂性的信息,主要是根据研究人员的实践,结合计算机程序对相关内容模拟并予以实现。该技术的计算机实现与人类对图像识别的基本原理基本类似,相较人类感知受外界因素干扰较大的问题,计算机不会受到任何因素的影响。人类不只是结合储存在脑海中的图像记忆进行识别,而是利用图像特征对其分类,再利用各类别特征识别出图片。计算机也采用同样的图像识别原理,采用对图像重要特征的分类和提取,并有效排除无用的多余特征,进而使图像识别得以实现。然而计算机对上述特征的提取能力不稳定,这将对图像识别的效率产生较大影响,通常需要借助各种软件对图片分别进行不同的处理,然后实现其内载图像特征的提取,再通过图像分类模型来实现,需要花费大量的时间成本,使得图像识别的主观性较强且人力成本较高。
中国专利公开号CN109635856A公开了一种产线缺陷图像智能分类系统及分类方法,其利用多层次智能分类模块进行图片分类,分类结果优秀,但在运行中占据大量运算性能,实际使用稳定性差,识别效率较低;中国专利公开号CN112418357A公开了一种基于人工智能的图像分类方法,通过Dssd_ResNet_coco模型和Bi-LSTM-Attention模型实现了图像的自动检测、识别和分类,但其需要手动设置参数,而刀具损伤图像因其部分损伤区域较小,损伤类型相似的特点在进行分类时对网络特征提取能力要求较高,同时所需参数量也较多,故实际应用难度大;中国专利公开号CN114331944A公开了一种人工智能瑕疵图像分类方法及其系统,能够针对瑕疵图片进行细致比对并分类,但其应用场景受限,仅适用于微机电麦克风产品,对于机床实际加工过程中油污粉尘的抗干扰能力差,分类结果极易受到影响。综上所述,目前的刀具损伤图像分类方法均存在一定局限性,亟需一套特征提取能力强且能够适用于多种机加工艺场景的可靠刀具图像分类方法。
发明内容
本发明的目的是提供一种基于自适应降噪的刀具损伤灰度图像智能分类方法,该方法能够自动识别输入图像是否含噪并进行刀具损伤类别预测,同时能够根据预测结果结合误差反向传播算法自适应调整降噪等级以提升模型分类精度,从而优化刀具损伤灰度图像智能分类性能。
实现本发明目的技术解决方案为:
一种基于自适应降噪的刀具损伤灰度图像智能分类方法,包括以下步骤,将干净图像与其成像素级对应的噪声图像进行灰度化处理并将其作为一个训练样本,噪声图像为输入、干净图像为输出,以此作为训练集;
建立图像降噪预训练模型,该模型包括用于判断输入图像是否含噪的步骤,对特征图进行特征通道级融合的模块M,该模块可对在不同卷积层下得到的特征图进行融合;从而得到噪声残差,通过损失函数将噪声图像减去噪声残差获得降噪图像,最终得到预训练模型;
利用该预训练模型与智能分类模块进行端到端联合训练,通过训练集、验证集、测试集进行网络模型构建,共同优化模型参数,同时为降噪模块增加一个α平衡参数,对于噪声图像进行降噪处理后得到初步分类结果,通过该α损失平衡参数,使用误差反向传播算法返回该初步预测结果并自适应地调整基于分类性能的降噪等级,最终达到分类性能最优。
该发明相较于现有的刀具损伤灰度图像智能分类方法,其显著优点在于:
(1)本发明网络结构简洁,网络层数较浅,模型训练时间也远低于主流的分类网络。
(2)本发明具备图像降噪与分类两种功能,对于实际加工环境下获得的刀具损伤图像也能取得一定的分类效果。
(3)本发明能够自动判别图像是否具有噪声,省去了无噪图像降噪的冗余处理,同时能够根据预测反馈的结果自适应调整降噪等级,以提升模型预测精度。
附图说明
图1为实施基于自适应降噪的刀具损伤图像智能分类方法总体示意图;
图2为图1中自适应降噪模块的具体流程示意图;
图3为图1中智能分类模块的具体流程示意图;
图4为图1中特征融合模块M的结构示意图;
图5为实施提供的利用自适应降噪的刀具损伤图像智能分类模型进行图像预测的流程图。
具体实施方式
下面结合附图及具体实施例对本发明做进一步的介绍。
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
为了实现对刀具损伤灰度图像的智能分类,本实施例提供一种基于自适应降噪的刀具损伤灰度图像智能分类方法,具体包括自适应图像降噪预训练模型建立以及使用该图模型与智能分类模型进行端到端联合训练得到最终模型两个部分。
自适应图像降噪模型预建立,如图2所示,包括以下过程:
首先准备训练集,即采用固定的噪声等级对干净图像加上不同类型的噪声组合,包括:1)高斯噪声;2)椒盐噪声,得到与清晰图像对应的噪声图像,并将干净图像和与清晰图像对应的噪声图像进行灰度化处理从而作为一个训练样本,噪声图像为输入、干净图像为输出,以此构建训练集。
为了适应预训练模型的输入图像尺寸,规定每组清晰图像和与清晰图像对应的噪声图像尺寸统一设置为224×224,并作为一个训练样本。
然后搭建自适应图像降噪模型,该模型包括用于对输入图像特征图进行通道数放大的前馈传播路径、用于对相邻特征图进行通道级拼接和特征映射对齐的反馈传播路径。
前馈传播路径包括5个依次连接的卷积核为3×3的卷积层,4个激活函数以及4个批归一化层,具体地,如图2所示,其中,卷积核大小设置为3×3、填充设置为padding=0,除卷积层C1输出仅由激活层Rclu连接外,其余连接卷积层输出的激活层Relu,连接激活层输出的归一化层BN。
反馈传播路径包括4个依次连接的卷积核为3×3的卷积层,4个激活函数、4个批归一化层,每两个卷积层之间穿插一个包括上采样以及特征通道级拼接的模块M。具体地,如图3所示,反馈传播路径中,在BN层与卷积层之间插入特征融合模块M,连接特征融合模块M的卷积层CONV,连接卷积层输出的激活层Rclu,连接激活层输出的批归一化层BN。
具体地,激活层的激活函数均采用Rclu激活函数,除第一与最后一个卷积层外,每个Relu激活函数后都使用一个批归一化层。
智能分类模型建立,如图3所示,包括以下过程:
首先准备至少两类训练集以满足降噪模块以及联合训练网络的训练使用,二者所用图像可以有重叠,两种网络至少需要两个优化算法以及两种迭代次数从而得到两个网络模型。
然后搭建智能分类模型,规定分类类别为崩刃、碎断、后刀面磨损以及裂纹四种类别,分类模块包括4个卷积层,每个卷积层后接1个池化层,最后一个池化层后接1个全连接层以及1个映射层,具体地,如图3所示,其中,激活函数均采用ReLU激活函数。
具体地,自适应降噪模块部分,有9个卷积层,其中前馈路径包含5个卷积层,反馈路径包含4个卷积层,每个卷积层后接一个激活层,激活函数均采用ReLU激活函数,前、反馈路径之间穿插特征融合模块M进行跨层连接,将卷积层C1-C9,C2-C8,C3-C7,C4-C6进行特征图通道级融合,以最大化提升融合效果。
训练时,利用训练集训练建立的图像降噪模型,获得训练好的图像降噪模型,即训练过程中,噪声图像经过前馈传播网络进行特征图尺寸的缩小以及通道数的增加,然后通过反馈传播网络进行特征图尺寸的放大,然后由特征融合模块M进行特征图通道级拼接,最终网络学习到噪声残差,与噪声图像相减,得到清晰图像,降噪原理如式(1)所示,再根据清晰图像计算网络损失,并对每个损失进行加权叠加得到最终损失,然后利用最终损失函数反向传播更新网络权重参数,得到最终的预测结果,原理如式(2)所示。
本实施例中,自适应降噪的预训练所使用的训练集为1000张拍摄的刀具损伤灰度图像,其中450张添加高斯噪声、450张添加椒盐噪声、剩下的100张图像则作为干净图像用来训练含噪图像识别,按照9∶1的比例划分为训练集与测试集,学习率为1e-4,动量设置为0.9,采用的训练优化器为SGD优化器;考虑到GPU性能及分类精度,要求每批次训练数据包括16个224×224的图像块,损失函数如式(3)所示,2000次迭代后保存得到的自适应降噪的预训练模型。
该模型训练好后,结合图像智能分类模块进行端到端的联合训练,分类模块包括4个卷积层,每个卷积层后接1个池化层,最后一个池化层后接1个全连接层以及1个映射层,分类模块损失函数如式(4)所示;在训练图像降噪模型时,输入图像的尺寸为图像原始尺寸,输入层大小统一设置为224×224,训练时采用的学习率为1e-1到1e-4,动量设置为0.9,采用的训练优化器为SGD优化器。考虑到不同计算机性能限制,防止训练失败,要求设置每批次训练数据包括16个224×224(2≤n≤128)的图像块,联合训练网络的损失函数如式(5)所示,训练数据通过前馈传播计算与去噪后图像的损失,然后通过该误差反向传播算法更新去噪程度。迭代次数为8000,将模型参数保存。
这里vi表示分类器输出的值,在0~1之间。
这里设置一个α平衡损失参数,通过该值,自动调整降噪等级来降低损失函数的值;
当联合训练模型训练好后,使用时,如图5所示,将噪声图像输入至自适应降噪的刀具损伤灰度图像智能分类模型中,加载预训练模型,通过噪声识别以及降噪处理,得到初步预测结果,通过网络的α损失平衡参数,使用误差反向传播算法返回该初步预测结果并自适应地调整降噪等级,待得到最优分类结果后将其输出,得到最终预测结果。
上述图像降噪模型的结构简洁,速度较快,对比同类分类网络,预测精度更高,同时兼顾图像去噪功能,对于困难样本的分类也有一定的效果,此外。自适应降噪模块也使得模型迁移性更强。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于自适应降噪的刀具损伤灰度图像智能分类方法,其特征在于,一个自适应降噪模块和一个图像智能分类模块;
所述自适应降噪模块步骤包括将干净灰度图像与其对应的噪声图像作为训练样本,噪声图像为输入、干净图像为输出,以此作为训练集进行训练,得到降噪模块的预训练模型;
将预训练模型结合分类模块进行端到端的联合训练;通过训练集、验证集、测试集进行网络模型构建;
使用时,将刀具损伤灰度图像输入,网络在处理前有一个先验步骤,即判别图像是否需要降噪处理,无噪图像直接进行分类预测输出结果以提升模型训练速度,节省训练占用的内存;有噪图像经过初步降噪与分类模块处理得到初步预测结果,通过网络的损失平衡参数,使用误差反向传播算法返回该初步预测结果并自适应地调整降噪等级,从而提升最终分类性能。
2.如权利要求1所述的基于自适应降噪的刀具损伤灰度图像分类方法,其特征在于:
根据所述模块,至少需要两类训练集以满足降噪预训练模块以及联合训练网络的使用,前者训练集中的图像均为有噪图像,后者训练集中包含无噪与有噪图像;二者所用图像可以有重叠,而根据网络特性的不同,选择不同的优化算法可以加快模型收敛速度;考虑到应用场景差异,故设置两种不同的迭代次数,针对降噪预训练模型图像数量较少的场景,不需要太多迭代次数就可以完成收敛,次数太多反而容易造成模型过拟合;而联合训练图像较多,且训练任务难度较大,需要大量的迭代次数。故两种网络至少需要两种优化算法以及两种迭代次数得到两个网络模型。
3.如权利要求1所述的自适应降噪模块预训练模型,其特征在于:
降噪模块具有a个卷积层,7≤a≤11,a为奇数,层数过多导致网络冗余,过少导致特征提取能力差,故综合选取中间值为最优解,每个卷积层步长相同,因刀具灰度图像边缘信息较少,对于预测结果干扰小,为提升训练效率以及减少计算冗余,设置图像边缘填充padding=0。
4.如权利要求3所述的自适应降噪模块预训练模型,其特征在于:
对于降噪预训练模型:针对不同情况设置迭代次数b,1000≤b≤3000,b∈N。根据训练集图像数量进行选择,一般不少于1000张图像,图像较少时不需要太多迭代次数即可完成模型收敛,次数过多易造成模型过拟合。
6.如权利要求1所述的图像智能分类模块,其特征在于∶
分类类别数量设置为c,c≥2,c∈N,c的设置基于刀具损伤类别。
7.如权利要求1所述的图像智能分类模块,其特征在于:
每个卷积层步长随机,但必须与池化层相对应,最终输入全连接层的特征图尺寸必须为1×1。
8.如权利要求1所述的基于自适应降噪的刀具损伤灰度图像智能分类方法,其特征在于:
使用国际公认的性能评估指标进行模型性能评价:其中自适应降噪模块的性能评估标准主要选用PSNR,峰值信噪比以及SSIM,结构相似度;分类结果评估标准主要选用Top-1精度。
9.如权利要求1所述的基于自适应降噪的刀具损伤灰度图像智能分类方法,其特征在于:
对于联合训练的网络模型:图像较多,且训练任务难度较大,因此需要大量的迭代次数,设置迭代次数为d,6000≤d≤10000,d∈N,迭代次数基于训练集数量,该区间为模型收敛所需迭代次数区间。
10.如权利要求1所述的基于自适应降噪的刀具损伤灰度图像智能分类方法,其特征在于:
自适应降噪模块以及联合训练网络在训练时仅输入图像原始尺寸,网络统一将训练尺寸设置为n×n,50≤n≤500,n∈N;n取值基于显卡性能,一般不低于50,否则特征提取难度较大,这里取n=224;两种网络在训练时批次设置为m,2≤m≤128,m∈N,m的取值同样基于显卡性能。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211081229.3A CN115345872A (zh) | 2022-09-05 | 2022-09-05 | 一种基于自适应降噪的刀具损伤灰度图像智能分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211081229.3A CN115345872A (zh) | 2022-09-05 | 2022-09-05 | 一种基于自适应降噪的刀具损伤灰度图像智能分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115345872A true CN115345872A (zh) | 2022-11-15 |
Family
ID=83956745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211081229.3A Pending CN115345872A (zh) | 2022-09-05 | 2022-09-05 | 一种基于自适应降噪的刀具损伤灰度图像智能分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115345872A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117743768A (zh) * | 2024-02-21 | 2024-03-22 | 山东大学 | 基于去噪生成对抗网络和扩散模型的信号去噪方法及系统 |
-
2022
- 2022-09-05 CN CN202211081229.3A patent/CN115345872A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117743768A (zh) * | 2024-02-21 | 2024-03-22 | 山东大学 | 基于去噪生成对抗网络和扩散模型的信号去噪方法及系统 |
CN117743768B (zh) * | 2024-02-21 | 2024-05-17 | 山东大学 | 基于去噪生成对抗网络和扩散模型的信号去噪方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110298321B (zh) | 基于深度学习图像分类的道路阻断信息提取方法 | |
CN109558811B (zh) | 一种基于运动前景关注及非监督的关键帧提取的动作识别方法 | |
CN112419184A (zh) | 一种综合局部信息和全局信息的空间注意力图像去噪方法 | |
CN110874590B (zh) | 基于适配器互学习模型的训练及可见光红外视觉跟踪方法 | |
CN111325166B (zh) | 基于投影重构和多输入多输出神经网络的坐姿识别方法 | |
CN112084934B (zh) | 基于骨骼数据双通道深度可分离卷积的行为识别方法 | |
CN115345872A (zh) | 一种基于自适应降噪的刀具损伤灰度图像智能分类方法 | |
CN111523483A (zh) | 中餐菜品图像识别方法及装置 | |
CN114581318B (zh) | 一种低照明度图像增强方法及系统 | |
CN116468995A (zh) | 一种联合slic超像素和图注意力网络的声呐图像分类方法 | |
CN109871790B (zh) | 一种基于混合神经网络模型的视频去色方法 | |
CN114639102A (zh) | 基于关键点与尺寸回归的细胞分割方法和装置 | |
CN113625336A (zh) | 一种基于全卷积神经网络的地震波阻抗薄层反演方法 | |
CN111860265B (zh) | 一种基于样本损失的多检测框损失均衡道路场景理解算法 | |
CN113159294A (zh) | 基于同伴学习的样本选择算法 | |
CN115860113B (zh) | 一种自对抗神经网络模型的训练方法及相关装置 | |
CN113554104B (zh) | 一种基于深度学习模型的图像分类方法 | |
CN113506259A (zh) | 一种基于融合网络的图像模糊判别方法及系统 | |
CN112330566B (zh) | 图像去噪的方法、装置及计算机存储介质 | |
CN114862699A (zh) | 基于生成对抗网络的人脸修复方法、装置及存储介质 | |
CN112036461A (zh) | 手写数字图像识别方法、装置、设备及计算机存储介质 | |
CN111325272A (zh) | 古画检测模型训练方法、古画检测方法、设备及存储介质 | |
CN113744156B (zh) | 一种基于可变形卷积神经网络的图像去噪方法 | |
CN111899161A (zh) | 一种超分辨率重建方法 | |
CN116523767B (zh) | 一种结合雾浓度分类的图像去雾方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |