CN113205491A - 一种基于深度学习的织物起毛起球评级方法 - Google Patents
一种基于深度学习的织物起毛起球评级方法 Download PDFInfo
- Publication number
- CN113205491A CN113205491A CN202110439663.3A CN202110439663A CN113205491A CN 113205491 A CN113205491 A CN 113205491A CN 202110439663 A CN202110439663 A CN 202110439663A CN 113205491 A CN113205491 A CN 113205491A
- Authority
- CN
- China
- Prior art keywords
- image
- deep learning
- fabric
- pilling
- energy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20064—Wavelet transform [DWT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30124—Fabrics; Textile; Paper
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的织物起毛起球评级方法,包括步骤:获取织物样本图像,采用傅里叶变换将织物样本图像变换至频域;指数高通滤波器进行滤波,然后再进行傅里叶反变换;采用小波变换法对毛球信息图像进行分解与重构;采用迭代阈值法获得二值化的毛球特征图像;由二值化的毛球特征图像及对应评级训练深度学习网络;待评级图像经过步骤一至四处理输入深度学习网络得到评级结果。本发明提高了起毛起球等级评定的准确率和泛化能力,克服了人为主观因素,更为客观、准确地评定起毛起球等级。
Description
技术领域
本发明涉及一种织物起毛起球评级方法,特别是一种基于深度学习的织物起毛起球评级方法。
背景技术
织物在穿着与洗涤过程中段受到外力或者水流的摩擦作用,使织物内的纤维不断迁移到织物表面形成毛茸,毛茸继续在摩擦力的作用下互相纠缠形成毛球,并固着在织物表面,这种现象称之为起毛起球。起毛起球现象影响织物的外观以及服用性能。科学客观地评价织物起毛起球性能是生产实际中经常要进行的一项检测。
目前织物起毛起球的评定方法主要靠有经验的工作人员与标准样照进行对比评定织物起毛起球等级。这种主观评定的方法不断对评定环境要求较高,而且人为因素较大,导致实验结果存在较大误差。
随着计算机技术在纺织领域的应用,国内外研究者开展了利用图像技术和分类技术对织物起毛起球进行客观评价的研究。织物起毛起球的客观评价包括两个方面,一方面是采用图像分析技术对织物起毛起球图像进行处理;另一方面利用处理后的织物图像数据进行起毛起球等级分类。目前大部分单一的图像处理技术如小波分析法等来获得织物表面毛球特征,以及利用神经网络算法对织物图像数据机型分析获得起毛起球等级。但是单一的图像处理技术不能完整有效地提取织物毛球特征,而神经网络算法的准确率和泛化能力较弱,难以满足实际工业要求。
发明内容
针对上述现有技术缺陷,本发明的任务在于提供一种基于深度学习的织物起毛起球评级方法,提高织物表面毛球特征提取的完整性,并提高起毛起球等级评定的准确率和泛化能力。
本发明技术方案为,一种基于深度学习的织物起毛起球评级方法,包括以下步骤:
步骤一、获取织物样本图像,采用傅里叶变换将织物样本图像变换至频域;
步骤二、将频域内的图像采用指数高通滤波器进行滤波,然后再进行傅里叶反变换,得到毛球信息图像;
步骤三、采用小波变换法对毛球信息图像进行分解与重构,得到带纹理信息的毛球特征图像;
步骤四、采用迭代阈值法剔除所述带纹理信息的毛球特征图像中的纹理信息,获得二值化的毛球特征图像;
步骤五、建立深度学习网络模型;
步骤六、由步骤四得到的所述毛球特征图像作为所述深度学习网络模型输入,由所述毛球特征图像对应的起毛起球等级作为所述深度学习网络模型输出训练所述深度学习网络模型;
步骤七、将待评级织物图像经过所述步骤一至步骤四处理得到相应的待评级毛球特征图像,并将所述待评级毛球特征图像输入训练后的所述深度学习网络模型得到起毛起球等级。
进一步地,所述指数高通滤波器的滤波半径由以下方法确定:计算候选滤波半径滤波后的频域内的图像的能量、能量差值和能量二次差值,将能量二次差值曲线突变点对应的候选滤波半径作为所述指数高通滤波器的滤波半径。
进一步地,所述候选滤波半径为0.1,0.3,0.5,0.7,0.9,1.1和1.3。
进一步地,所述频域内的图像的能量计算公式为
其中,f(i,j)为频域内的图像像素点在(i,j)处灰度,M为图像的高度,N为图像的宽度,能量差值公式为
其中,Ei-1为第i-1个滤波半径的能量,Ei为第i个滤波半径的能量,Ed为第i-1个滤波半径和第i个滤波半径之间的能量差值。
进一步地,所述小波变换法对毛球信息图像进行分解与重构时选取bior3.7小波进行图像的二维小波分解并采用wavedec2为小波基函数进行重构。
进一步地,所述迭代阈值法具体包括设定灰度阈值,将所述毛球特征图像根据像素点灰度与灰度阈值的大小分为两个图像区域并分别计算两个图像区域的灰度均值,由两个灰度均值的平均值作为新的设定灰度阈值重复,直至相邻计算得到的所述平均值与所述设定灰度阈值相等,所述毛球特征图像根据设定灰度阈值二值化处理得到二值化的毛球特征图像。
进一步地,所述深度学习网络模型包括输入层、四层隐藏层和输出层,所述四层隐藏层的激活函数为ReLU,所述输出层的激活函数为Softmax。
进一步地,所述深度学习网络模型的目标函数为交叉熵函数,所述深度学习网络模型的反向传播算法为梯度随机下降算法。
本发明与现有技术相比的优点在于:本发明剔除了织物的周期性纹理对于毛球特征的影响,克服了人为主观因素,更为客观、准确地评定起毛起球等级,提高了等级评定的准确率和泛化能力。
附图说明
图1为本发明基于深度学习的织物起毛起球评级方法的流程示意图。
图2为图像信号二维小波分解示意图。
图3为高频信息重构的七个分解层图像。
图4为第1层到第2层的高频信息叠加后的织物图像。
图5为第3层到第4层的高频信息叠加后的织物图像。
图6为起毛起球等级评级为1至5级的二值化的毛球特征图像。
图7为实施例的起毛起球等级评级为1至5级的斜纹织物图像。
图8为实施例的斜纹织物图像的二值化的毛球特征图像。
具体实施方式
下面结合实施例对本发明作进一步说明,但不作为对本发明的限定。
请结合图1所示,本发明实施例所涉及的一种基于深度学习的织物起毛起球评级方法,首先,采用综合的图像分析技术从织物样本图像中分割出毛球特征,然后通过深度学习算法对机织物起毛起球等级进行评估,具体的步骤如下:
步骤一、获取织物样本图像,采用傅里叶变换将织物样本图像变换至频域。为有效分离毛球,需要滤除织物纹理信息。在时域里很难直接分析图像中的周期性和非周期性成分,即织物纹理与毛球信息。为此,在对织物纹理滤除前需对织物样本图像进行傅里叶变换,将样本图像变换至频域。
步骤二、将频域内的图像采用指数高通滤波器进行滤波,从而可以将频域内的周期性成分信息滤出,然后再进行傅里叶反变换,得到滤除织物纹理后的毛球信息图像。
织物表面是由基本组织结构周期性排列而形成的,因此织物表面纹理主要特征便是其周期性和均匀性。表征织物纹理特征的能量在织物表面是均匀连续分布的,其能量应该是相对稳定的,而当这些均匀性遭到破坏时,则一般认为织物的表面结构发生了变化,即形成了毛球,此时织物的能量也发生了变化。因此,可以利用这一特性,对经不同滤波半径滤波后的织物能量进行计算,拟合其能量曲线、能量差值和能量二次差值曲线,由其能量差值和能量二次差值曲线即可分析毛球信息,在能量二次差值曲线发生突变的地方即认为是出现毛球的地方,由此便能得到最佳滤波半径。
每次滤波后织物的频域图像的能量为:
式中,E为每个滤波半径下的能量;f(i,j)为像素点在(i,j)处灰度;M为图像的高度;N为图像的宽度。
式中,Ei-1为第i-1个滤波半径的能量;Ei为第i个滤波半径的能量;Ed为第i-1个滤波半径和第i个滤波半径之间的能量差值。
根据公式(1)计算每个滤波半径的能量值,再采用公式(2)计算相邻两个滤波半径的能量差值,最后再采用公式(2)计算相邻两个能量差值之间的能量二次差值。根据能量二次插值曲线的拐点即可确定该点为突变点,突变点对应的滤波半径即为最佳滤波半径。由能量二次差值曲线的最大拐点即可获得纹理与毛球分离的最佳滤波半径值。滤波半径分别为0.1,0.3,0.5,0.7,0.9,1.1,1.3时,对比织物的能量拟合曲线。当滤波半径为0.9时,能量二次差值曲线出现突变点,所以最佳滤波半径为0.9。采用最佳滤波半径0.9的指数高通滤波器滤除纹理信息后,反傅里叶变换得到织物的毛球信息图像。
步骤三、采用小波变换法对反傅里叶变换后毛球信息图像进行分解与重构,获得带有少量纹理信息的毛球特征图像。小波变换能够同时在时域和频域内进行局部变换,因而能够有效地从信号中提取信息。小波变换使用小波函数族及其相应的尺度函数将原始信号分解成不同的频带,标准的分解过程采用金字塔算法,即递归分解信号的低频部分,以生成下一尺度的各频带输出,通常也称为金字塔结构小波变换。
二维小波分解就是首先将H(低通)和G(高通)滤波器同时作用于水平和垂直方向,然后对每个输出进行2取1的抽样,从而生成4个频带小波系数图像,即cA、cH、cD、cV。将一副图像信号s进行两层二维小波分解,如图2所示,中间一列为第一层分解,分解后变成4小幅,cA为近似细节系数,cH为水平高频细节系数,cV为垂直高频细节系数,cD为对角高频细节系数。可以对近似细节系数cAi图像重复下去,得到2,3,…n层分解。若反复对cAi频带进行递归二维小波分解,就构成了二维金字塔结构小波分解。为了保证最终毛球信息提取的准确性,选择了最大分解层数N=7。同时考虑小波的正交性和计算速度,选取bior3.7小波进行图像分解与重构。在纹理分割中,小波基函数的选取对结果影响很大,从小波变换是特征提取工具的角度出发,并着重考虑其正交性,选用了wavedec2函数对织物起毛起球图像重构,这样才可以使所提取的纹理特征之间不相关,从而提高特征的有效性和纹理分割性能。
对反傅里叶变换后的织物图像进行二维小波分解,计算函数如下式所示。
[c,s]=wavedec2(x,7,'bior3.7')
选用MATLAB小波工具箱的wrcoef2函数从二维小波分解系数中重构每一层的高频信号,计算函数如下式所示。
cH(i)=wrcoef2('h',c,s,'biro3.7',i)
cV(i)=wrcoef2('v',c,s,'bior3.7',i)
cD(i)=wrcoef2('d',c,s,'bior3.7',i)
HF(i)=cH(i)+cV(i)+cD(i)
依次重构每一层的高频信息HF(i),如图3所示,从a至g分别为第一层至第七层。从图3可以看出,第1层和第2层高频信息重构后,比较平稳均匀,说明表征的是织物纹理信息;第3层到第4层是织物的毛球信息。因此,通过二维小波变换的算法能将毛球信息从织物图像中分离出来。将第1层到第2层的高频信息进行叠加重构可以得到信息较完整的织物纹理图像,如图4所示。将第3层到第4层的高频信息进行叠加重构可以得到信息较完整的毛球图像,如图5所示。从图5可以看出,织物起毛起球图像经过最佳分割层次重构后得到较完整的毛球图像,但仍然存在少量的纹理信息。
步骤四、采用迭代阈值法剔除剩余的纹理信息,获得最终完整的二值化的毛球特征图像。为了得到更清晰的毛球特征图像,采用阈值分割法中的迭代阈值法。选择图像灰度中值作为初始阈值T0。利用阈值T0把图像分割成两个区域R1和R2。计算两个区域R1和R2的灰度均值μ1和μ2,如下式所示。
式中i是指阈值;ni是指阈值为i的像素个数;L是指全局阈值。
计算出μ1和μ2后,用下式计算出新的阈值Ti+1。
重复上述过程,直到Ti+1和Ti的差值为零时,迭代结束,得到二值化的毛球特征图像,如图6所示,其中a至e分别对应的起毛起球等级评级为1至5级。
步骤五、建立深度学习网络模型,深度学习是一种利用深度神经网络框架的机器学习技术,它是一种包含两层以上隐藏层的多层神经网络。在网络训练过程中,利用织物毛球特征信息(毛球特征图像及对应评级)建立数据库进行网络训练。在网络训练结束后,既可对织物起毛起球等级进行评定。隐藏层节点激活函数通过对比Sigmoid函数和整流线性单元(RectifiedLinearUnit,简称ReLU)函数的预测精度来确定。Sigmoid激活函数和ReLU激活函数如下式所示。
输出节点采用Softmax激活函数,Softmax函数保持输出值之和为1,并且将单个输出值的范围限制在0-1之间。因为Softmax函数考虑所有输出值的相对大小,所以它适合本文深度学习过程中的第二个部分对织物起毛起球等级进行分类。Softmax激活函数如下式所示。
依据上面的定义,Softmax函数满足下式。
φ(υ1)+φ(υ2)+φ(υ3)+…+φ(υM)=1
由于交叉熵函数使得学习过程高性能和简便性,本发明目标函数采用交叉熵函数,也即采用交叉熵函数来测量误差。交叉熵函数如下式所示。
E=dln(y)-(1-d)ln(1-y)
采用随机梯度下降(StochasticGradientDescent,简称SGD)算法来实现反向传播算法。SGD算法通过计算训练数据的误差并随机调整权重。权重的调整如下式所示。
激活函数、学习规则的确定有益于防止梯度消失以及过拟合等现象的产生,并采用随机梯度下降算法来实现训练输出值与实际值之间的误差值进行反向传播,直到网络模型达到理想结果。
步骤六:将标准样照提取的毛球特征图像数据作为模型的输入,每块织物的起毛起球等级作为输出进行网络训练。具体学习过程是这样的,用适当的值初始化神经网络的权重。采用深度学习算法对数据进行训练,并得到模型输出值。计算正确输出与模型输出之间的误差向量E,并确定输出节点的增量,如下式所示。
E=D-Y
δ=E
将输出层节点的增量进行反向传播,以便计算下一个隐藏层(左侧)节点的增量,如下式所示。
E(k)=WTδ
δ(k)=φ'(V(k))E(k)
重复上述的反向传播算法,直至计算到输入层右侧的那一个隐藏层为止。对权重进行调整,将所有的训练数据重复上述过程,直至神经网络得到合适的训练为止。
本实施例的深度学习网络结构如下
采用上述算法,通过1000次训练后,对起毛起球等级1级、2级、3级、4级、5级的等级分类准确率分别为100%、99.2%、99.9%、99.8%、99.9%。
步骤七:将测试织物的图像数据作为训练好的深度学习网络的输入,输出结果即为织物起毛起球等级。对斜纹织物的5级标准样照进行处理,原始图像如图7所示,对它们按照步骤一至四处理得到毛球特征图像,如图8所示。图8分别为起毛起球后的斜纹织物毛球提取图像。将图8中的5个图像数据输入到深度学习网络中进行验证,得到的准确率分别为86.2%、88.6%、98.3%、99.1%、99.9%,平均准确率为94.2%。
Claims (8)
1.一种基于深度学习的织物起毛起球评级方法,其特征在于,包括以下步骤:
步骤一、获取织物样本图像,采用傅里叶变换将织物样本图像变换至频域;
步骤二、将频域内的图像采用指数高通滤波器进行滤波,然后再进行傅里叶反变换,得到毛球信息图像;
步骤三、采用小波变换法对毛球信息图像进行分解与重构,得到带纹理信息的毛球特征图像;
步骤四、采用迭代阈值法剔除所述带纹理信息的毛球特征图像中的纹理信息,获得二值化的毛球特征图像;
步骤五、建立深度学习网络模型;
步骤六、由步骤四得到的所述毛球特征图像作为所述深度学习网络模型输入,由所述毛球特征图像对应的起毛起球等级作为所述深度学习网络模型输出训练所述深度学习网络模型;
步骤七、将待评级织物图像经过所述步骤一至步骤四处理得到相应的待评级毛球特征图像,并将所述待评级毛球特征图像输入训练后的所述深度学习网络模型得到起毛起球等级。
2.根据权利要求1所述的基于深度学习的织物起毛起球评级方法,其特征在于,所述指数高通滤波器的滤波半径由以下方法确定:计算候选滤波半径滤波后的频域内的图像的能量、能量差值和能量二次差值,将能量二次差值曲线突变点对应的候选滤波半径作为所述指数高通滤波器的滤波半径。
3.根据权利要求2所述的基于深度学习的织物起毛起球评级方法,其特征在于,所述候选滤波半径为0.1,0.3,0.5,0.7,0.9,1.1和1.3。
5.根据权利要求1所述的基于深度学习的织物起毛起球评级方法,其特征在于,所述小波变换法对毛球信息图像进行分解与重构时选取bior3.7小波进行图像的二维小波分解并采用wavedec2为小波基函数进行重构。
6.根据权利要求1所述的基于深度学习的织物起毛起球评级方法,其特征在于,所述迭代阈值法具体包括设定灰度阈值,将所述毛球特征图像根据像素点灰度与灰度阈值的大小分为两个图像区域并分别计算两个图像区域的灰度均值,由两个灰度均值的平均值作为新的设定灰度阈值重复,直至相邻计算得到的所述平均值与所述设定灰度阈值相等,所述毛球特征图像根据设定灰度阈值二值化处理得到二值化的毛球特征图像。
7.根据权利要求1所述的基于深度学习的织物起毛起球评级方法,其特征在于,所述深度学习网络模型包括输入层、四层隐藏层和输出层,所述四层隐藏层的激活函数为ReLU,所述输出层的激活函数为Softmax。
8.根据权利要求1所述的基于深度学习的织物起毛起球评级方法,其特征在于,所述深度学习网络模型的目标函数为交叉熵函数,所述深度学习网络模型的反向传播算法为梯度随机下降算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110439663.3A CN113205491A (zh) | 2021-04-23 | 2021-04-23 | 一种基于深度学习的织物起毛起球评级方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110439663.3A CN113205491A (zh) | 2021-04-23 | 2021-04-23 | 一种基于深度学习的织物起毛起球评级方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113205491A true CN113205491A (zh) | 2021-08-03 |
Family
ID=77028072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110439663.3A Withdrawn CN113205491A (zh) | 2021-04-23 | 2021-04-23 | 一种基于深度学习的织物起毛起球评级方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113205491A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117909665A (zh) * | 2024-03-18 | 2024-04-19 | 青岛哈尔滨工程大学创新发展中心 | 基于傅里叶滤波的船舶运动包络预报数据处理方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN203083943U (zh) * | 2013-02-01 | 2013-07-24 | 温州市质量技术监督检测院 | 纺织品起球自动评级装置 |
-
2021
- 2021-04-23 CN CN202110439663.3A patent/CN113205491A/zh not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN203083943U (zh) * | 2013-02-01 | 2013-07-24 | 温州市质量技术监督检测院 | 纺织品起球自动评级装置 |
Non-Patent Citations (1)
Title |
---|
肖琪等: "Objective evaluation of fabric pilling based on image analysis and deep learning algorithm", 《INTERANTIONAL JOURNAL OF CLOTHING SCIENCE AND TECHNOLOGY》, vol. 33, no. 4, pages 495 - 512 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117909665A (zh) * | 2024-03-18 | 2024-04-19 | 青岛哈尔滨工程大学创新发展中心 | 基于傅里叶滤波的船舶运动包络预报数据处理方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110992354B (zh) | 基于引入自动记忆机制对抗自编码器的异常区域检测方法 | |
CN109003240B (zh) | 一种基于多尺度并行cnn的图像去噪方法 | |
CN112818764B (zh) | 一种基于特征重建模型的低分辨率图像人脸表情识别方法 | |
CN109191418B (zh) | 一种基于收缩自编码器特征学习的遥感图像变化检测方法 | |
CN114266339B (zh) | 一种基于小样本和gaf-dcgan的滚动轴承故障诊断方法 | |
CN112488934B (zh) | 一种基于cs-tcgan的指静脉图像去噪方法 | |
CN111680785B (zh) | 基于稀疏特性与对抗神经网络相结合的ecg信号处理方法 | |
CN108615231A (zh) | 一种基于神经网络学习融合的全参考图像质量客观评价方法 | |
CN113837974A (zh) | 一种基于改进beeps滤波算法的nsst域电力设备红外图像增强方法 | |
CN110568483A (zh) | 基于卷积神经网络的地震线性噪声压制效果自动评估方法 | |
CN111667407B (zh) | 一种深度信息引导的图像超分辨率方法 | |
Xiao et al. | Objective evaluation of fabric pilling based on image analysis and deep learning algorithm | |
CN114565594A (zh) | 基于软掩膜对比损失的图像异常检测方法 | |
CN113205491A (zh) | 一种基于深度学习的织物起毛起球评级方法 | |
Abouelaziz et al. | Learning graph convolutional network for blind mesh visual quality assessment | |
CN117473414A (zh) | 一种基于少噪声时频图像的轴承故障位置识别方法 | |
CN116992217A (zh) | 基于多尺度动态加权多维残差卷积的机械信号降噪方法 | |
CN111862027A (zh) | 基于低秩稀疏矩阵分解的纺织品瑕疵检测方法 | |
CN111724331B (zh) | 一种基于生成网络的多孔介质图像重建方法 | |
CN111598822A (zh) | 一种基于gfrw与iscm的图像融合方法 | |
Jouini et al. | Texture segmentation of 3D x-ray micro-computed tomography images using U-NET | |
CN116610907B (zh) | 基于变分模态分解的齿轮振动信号特征提取方法 | |
CN105930878B (zh) | 一种基于差分切片能量图和稀疏编码的微表情识别方法 | |
CN116787227A (zh) | 小样本下数据增强与多特征融合的刀具磨损状态监测方法 | |
CN111709116A (zh) | 一种基于相似度度量的盲信号分解方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210803 |