CN111091134A - 一种基于多特征融合的色纺织物组织结构识别的方法 - Google Patents

一种基于多特征融合的色纺织物组织结构识别的方法 Download PDF

Info

Publication number
CN111091134A
CN111091134A CN201911116145.7A CN201911116145A CN111091134A CN 111091134 A CN111091134 A CN 111091134A CN 201911116145 A CN201911116145 A CN 201911116145A CN 111091134 A CN111091134 A CN 111091134A
Authority
CN
China
Prior art keywords
hsv
yuv
moment
color
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201911116145.7A
Other languages
English (en)
Inventor
袁理
龚雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Textile University
Original Assignee
Wuhan Textile University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Textile University filed Critical Wuhan Textile University
Priority to CN201911116145.7A priority Critical patent/CN111091134A/zh
Publication of CN111091134A publication Critical patent/CN111091134A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • G06T5/90
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Abstract

本发明属于图像处理技术领域,涉及一种基于多特征融合的色纺织物组织结构识别的方法,广泛应用于织物组织识别,瑕疵检测,图像检索等领域。本发明首先对采集到的织物图像进行滤波去噪预处理,再分别对HSV和YUV颜色空间的织物图像进行分割得到组织点并提取具有相同性质的通道分量特征加以融合,得到各个组织点的纹理特征和颜色特征,最后采用BP神经网络与朴素贝叶斯将纹理特征与颜色特征进行融合识别。本方法不仅能够有效地完成色纺织物的组织识别,并且具有广泛的适用性。

Description

一种基于多特征融合的色纺织物组织结构识别的方法
技术领域
本发明涉及一种织物组织结构识别方法,尤其是涉及一种基于多特征融合的色纺织物组织结构识别的方法。
背景技术
织物组织是描述织物结构特征的一个重要参数,对织物的外观起着重要的作用。传统的织物组织结构的识别主要是借助放大镜等工具来完成,这种方法时间长、效率低。随着计算机技术的发速发展,图像处理被广泛应用于纺织行业。色纺织物是由两种或多种不同颜色纤维混合的纱线编织而成,它具有丰富的颜色信息和复杂的纹理特征。从单一的颜色空间提取的特征具有一定的局限性,不同的颜色空间提取的特征能够更好地描述色纺织物的特征属性。YUV颜色空间是欧洲电视采用的一种颜色编码方法,它能很好地把亮度信号与色差信号分离。HSV颜色空间用来描述颜色比较自然,它是为了更好地数字化处理颜色信息而提出来的。色纺织物的组织结构识别主要分为特征参数的提取、特征融合以及组织识别。
特征参数的提取主要包括纹理特征和颜色信息。纹理特征的提取主要分为四大类:结构法、模型法、统计法和信号处理的方法。结构法是基于纹理基元进行分析的方法,常见的有数学形态分析,该方法只对规则的纹理具有较好的分类效果,而现实中的纹理都是非规则的,具有一定的局限性。模型法是通过计算模型的特定参数来提取纹理特征,但是参数的求解有一定的难度,运算量大而且效率低。统计法主要对纹理中像素及其领域的灰度属性进行描述,典型的有灰度共生矩阵,它统计的特征数据量很多,计算量大,存在数据冗余。常见的信号处理的方法有Gabor滤波和小波方法。Gabor滤波一般有8个方向,5个尺度,特征多,计算量大,小波分解能多分辨率提取纹理特征。颜色特征提取的方法主要有颜色直方图和颜色距。颜色直方图用来反映图像的颜色分布,因为它是属于全局的颜色统计,维度大,描述的是不同颜色占图像中的比例。颜色距是用一阶矩、二阶矩和三阶矩来描述颜色分布,维度较少,经常和其他特征综合使用。
模式识别主要分为监督学习和无监督学习。监督学习是将一些已知的数据通过学习得出一个函数模型,然后用来识别新的数据。而无监督学习不需要预先知道样本的标签。在模式识别中特征融合的算法主要包括基于贝叶斯决策理论的算法、基于稀疏表示理论的算法和基于深度学习理论算法。贝叶斯决策理论和稀疏表示理论主要是对样本的多特征进行处理得到融合后的特征,而深度学习理论主要是在神经网络模型中加入融合的过程,通过不断更新权值和偏置,得到一个优化的网络。
发明内容
一种基于多特征融合的色纺织物组织结构识别的方法,其特征在于,包括
步骤1:采集色纺织物样本的图像;
步骤2:基于MATLAB将采集的样本图像通过中值滤波进行降噪处理;
步骤3:将织物的RGB图像转为二维的灰度图像,再对灰度图像的直方图均衡化以增强纱线边界信息;
步骤4:计算完成步骤3后织物灰度图像中每个像素点灰度值的径向梯度值和纬向梯度值,公式如式4.1~4.2所示;然后取绝对值生成灰度径向梯度图和纬向梯度图,再对灰度径向梯度图计算径向梯度积分曲线,对灰度纬向梯度图计算纬向梯度积分曲线;最后分别对这两条曲线进行平滑处理,使曲线的波峰点为纱线的间隙,并提取经向和纬向梯度积分曲线的波峰点完成对织物组织点的定位;
dx(x,y)=f(x,y)-f(x+1,y) 式4.1
dy(x,y)=f(x,y)-f(x,y+1) 式4.2
式中,f(x,y)是织物灰度图像坐标为(x,y)的灰度值,dx(x,y)是径向梯度值,dy(x,y)是纬向梯度值;
步骤5:将步骤2的色纺织物图像从RGB颜色空间分别转换到HSV颜色空间和YUV颜色空间,分别在HSV颜色空间和YUV颜色空间下采用步骤4中组织点定位的结果从织物图像中分割出织物的组织点图像,组织点的个数至少包括一个组织循环,并对组织点按顺序进行编号;
步骤6:分别提取2个颜色空间下每个组织点的纹理特征;包括以下子步骤:
步骤6.1:首先提取HSV颜色空间的V通道的色纺织物组织点图像,运用半径为2、领域像素点为16的等价模式的局部二值模式算子提取织物组织点图像的局部纹理特征,记为LBPP,R,表示半径为R的圆形领域内有P个像素点,其公式如下:
Figure BDA0002273495860000031
Figure BDA0002273495860000032
式中,gp表示领域像素点灰度值,gc表示中心像素点灰度值;
步骤6.2:在步骤6.1中组织点图像的基础上提取Tamura纹理特征中最常用的3个特征作为组织点的全局纹理特征,分别为粗糙度、对比度和方向度;粗糙度Fcrs的定义如式6.3~6.7所示,首先计算组织点图像中2k×2k个像素活动窗口中像素的平均值Ak;其次,分别计算每个像素点在垂直和水平方向上不重叠窗口的平均灰度差值;然后,对每个像素点计算使E达到最大的最佳尺寸Sbest;最后,计算组织点图像中Sbest的平均值得到粗糙度Fcrs;对比度Fcon的定义如6.8所示,方向度Fdir的定义如式6.9~6.11所示:
Figure BDA0002273495860000041
Ek,h(x,y)=|Ak(x+2k-1,y)-Ak(x-2k-1,y)| 式6.4
Ek,v(x,y)=|Ak(x,y+2k-1)-Ak(x,y-2k-1)| 式6.5
Sbest(x,y)=2k 式6.6
Figure BDA0002273495860000042
Fcon=σ/(α4)n4=μ44 式6.8
θ=tan-1(ΔV/ΔH)+π/2 式6.9
Figure BDA0002273495860000043
Figure BDA0002273495860000044
式中,g(i,j)是位置(i,j)的灰度值,k=0,1,2,···,5,Ek,h代表像素点在水平方向的平均灰度差值,Ek,v代表像素点在垂直方向的灰度差值,σ是标准差,μ4是四次矩,θ表示每个像素的梯度向量的方向,ΔH表示图像与
Figure BDA0002273495860000045
进行卷积得到水平方向的变化量,ΔV表示图像与
Figure BDA0002273495860000046
进行卷积得到垂直方向的变化量,Nθ(k)是当|ΔG|≥t,(2k-1)π/2n≤θ≤(2k+1)π/2n时像素的数量,HD是梯度向量数量的直方图,p表示直方图中的峰值,np表示直方图中所有的峰值,wp表示峰值所包含的离散范围,φp表示波峰的中心位置;
通过步骤6.1和步骤6.2可以在V通道上构成一个21维的纹理特征向量并进行归一化,记为WHSV-V
步骤6.3:提取YUV颜色空间的Y通道的色纺织物组织点图像,再从图片中提取局部二值模式和Tamura纹理特征,由此可以在Y通道上构成一个21维的特征向量并进行归一化,记为WYUV-Y最后WHSV-V与WYUV-Y进行融合,公式如下:
Figure BDA0002273495860000051
步骤7:分别提取HSV和YUV颜色空间下每个组织点的颜色特征;包括以下子步骤:
步骤7.1:提取HSV颜色空间中的颜色距,颜色距是用一阶矩、二阶矩和三阶矩来描述颜色分布,一阶矩ui、二阶矩σi和三阶矩si的定义如下:
Figure BDA0002273495860000052
Figure BDA0002273495860000053
Figure BDA0002273495860000054
式中,P(i,j)是位置(i,j)处像素的颜色信息,N是色纺织物组织点图像的大小;
将H通道的一阶矩、二阶矩和三阶矩分别记为UHSV-H、σHSV-H、SHSV-H,归一化后的三阶矩对应为U'HSV-H、σ'HSV-H、S'HSV-H,将S通道的一阶矩、二阶矩和三阶矩分别记为UHSV-S,σHSV-S,SHSV-S,归一化后的三阶矩对应为U'HSV-S,σ'HSV-S,S'HSV-S,将V通道的一阶矩、二阶矩和三阶矩分别记为UHSV-V,σHSV-V,SHSV-V,归一化后的三阶矩对应为U'HSV-V,σ'HSV-V,S'HSV-V
步骤7.2:提取YUV颜色空间中的颜色距,将Y通道的一阶矩、二阶矩和三阶矩分别记为UYUV-Y、σYUV-Y、SYUV-Y,归一化后的三阶矩对应为U'YUV-Y、σ'YUV-Y、S'YUV-Y,将U通道的一阶矩、二阶矩和三阶矩分别记为UYUV-U,σYUV-U,SYUV-U,归一化后的三阶矩对应为U'YUV-U,σ'YUV-U,S'YUV-U,将V通道的一阶矩、二阶矩和三阶矩分别记为UYUV-V,σYUV-V,SYUV-V,归一化后的三阶矩对应为U'YUV-V,σ'YUV-V,S'YUV-V
步骤7.3:将HSV颜色空间中的颜色信息与YUV颜色空间中的颜色信息进行归一化后融合,如下所示:
Figure BDA0002273495860000061
Figure BDA0002273495860000062
Figure BDA0002273495860000063
Figure BDA0002273495860000064
Figure BDA0002273495860000065
Figure BDA0002273495860000066
Figure BDA0002273495860000067
Figure BDA0002273495860000068
Figure BDA0002273495860000069
式中,Gu、Gσ、Gs分别为融合后混合颜色空间亮度通道的一阶矩、二阶矩和三阶矩,Cu、Cσ、Cs分别为混合颜色空间色调通道的一阶矩、二阶矩和三阶矩,Ou、Oσ、Os分别为混合颜色空间饱和度通道的一阶矩、二阶矩和三阶矩;
将这9个特征值联合成一个9维的特征向量;
步骤8:将每个组织点的纹理和颜色的特征向量联合起来构成一个30维的特征向量,再对数据进行归一化处理;
步骤9:重复步骤1~步骤8,每种色纺织物样本采集5张大小相同的图片,且来自同一种织物的不同位置,其中4张作为训练样本,1张作为测试样本,得到训练样本与测试样本中组织点特征的数据集;
步骤10:将训练样本中组织点的特征值放入3层的BP神经网络进行训练(隐藏层的神经元的个数要小于输入层神经元的个数),得到一个优化的神经网络模型;其中,神经网络输入层神经元的个数由组织点特征维度决定,输出层神经元的个数由组织点的类别决定,输出为0、1代表经组织点,1、0代表纬组织点;然后重新将训练样本和测试样本中组织点的特征值导入神经网络,从隐藏层就可以输出新的训练样本和测试样本的组织点的数据集;最后将新的训练样本的数据集导入到朴素贝叶斯分类器进行学习,对新的测试样本的数据集进行分类。
因此,本发明具有如下优点:对于颜色丰富、纹理复杂的色纺织物来说,通过融合不同颜色空间下提取的的特征,能够更好地表征织物的特征属性,多分类器的融合能够有效地完成色纺织物组织结构的识别,具有广泛的适用性。
附图说明
附图1是本发明的方法流程示意图。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例:
本发明包括以下步骤:
步骤1:采集色纺织物样本的图像;
步骤2:基于MATLAB将采集的样本图像通过中值滤波进行降噪处理;
步骤3:将织物的RGB图像转为二维的灰度图像,再对灰度图像的直方图均衡化以增强纱线边界信息;
步骤4:计算完成步骤3后织物灰度图像中每个像素点灰度值的径向梯度值和纬向梯度值,其公式如式4.1~4.2所示;然后取绝对值生成灰度径向梯度图和纬向梯度图,再对灰度径向梯度图计算径向梯度积分曲线,对灰度纬向梯度图计算纬向梯度积分曲线;最后分别对这两条曲线进行平滑处理,使曲线的波峰点为纱线的间隙,并提取经向和纬向梯度积分曲线的波峰点完成对织物组织点的定位;
dx(x,y)=f(x,y)-f(x+1,y) 式4.1
dy(x,y)=f(x,y)-f(x,y+1) 式4.2
式中,f(x,y)是织物灰度图像坐标为(x,y)的灰度值,dx(x,y)是径向梯度值,dy(x,y)是纬向梯度值;
步骤5:将步骤2的色纺织物图像从RGB颜色空间分别转换到HSV颜色空间和YUV颜色空间,分别在HSV颜色空间和YUV颜色空间下采用步骤4中组织点定位的结果从织物图像中分割出织物的组织点图像,组织点的个数至少包括一个组织循环,并对组织点按顺序进行编号(实质上,步骤4是在步骤3的基础上进行的,采用的灰度图像;步骤4是步骤5需要用到,步骤4是用来计算出组织点的位置信息,步骤5是在HSV和YUV颜色空间下从织物图像分割出组织点,步骤5是步骤6需要用到);
步骤6:分别提取2个颜色空间下每个组织点的纹理特征;包括以下子步骤:
步骤6.1:首先提取HSV颜色空间的V通道的色纺织物组织点图像,运用半径为2、领域像素点为16的等价模式的局部二值模式算子提取织物组织点图像的局部纹理特征,记为LBPP,R,表示半径为R的圆形领域内有P个像素点,其公式如下:
Figure BDA0002273495860000091
Figure BDA0002273495860000092
式中,gp表示领域像素点灰度值,gc表示中心像素点灰度值;
步骤6.2:在步骤6.1中组织点图像的基础上提取Tamura纹理特征中最常用的3个特征作为组织点的全局纹理特征,分别为粗糙度、对比度和方向度。粗糙度Fcrs的定义如式6.3~6.7所示,首先计算组织点图像中2k×2k个像素活动窗口中像素的平均值Ak;其次,分别计算每个像素点在垂直和水平方向上不重叠窗口的平均灰度差值;然后,对每个像素点计算使E达到最大的最佳尺寸Sbest;最后,计算组织点图像中Sbest的平均值得到粗糙度Fcrs。对比度Fcon的定义如6.8所示,方向度Fdir的定义如式6.9~6.11所示:
Figure BDA0002273495860000093
Ek,h(x,y)=|Ak(x+2k-1,y)-Ak(x-2k-1,y)| 式6.4
Ek,v(x,y)=|Ak(x,y+2k-1)-Ak(x,y-2k-1)| 式6.5
Sbest(x,y)=2k 式6.6
Figure BDA0002273495860000094
Fcon=σ/(α4)n4=μ44 式6.8
θ=tan-1(ΔV/ΔH)+π/2 式6.9
Figure BDA0002273495860000095
Figure BDA0002273495860000101
式中,g(i,j)是位置(i,j)的灰度值,k=0,1,2,···,5,Ek,h代表像素点在水平方向的平均灰度差值,Ek,v代表像素点在垂直方向的灰度差值,σ是标准差,μ4是四次矩,θ表示每个像素的梯度向量的方向,ΔH表示图像与
Figure BDA0002273495860000102
进行卷积得到水平方向的变化量,ΔV表示图像与
Figure BDA0002273495860000103
进行卷积得到垂直方向的变化量,Nθ(k)是当|ΔG|≥t,(2k-1)π/2n≤θ≤(2k+1)π/2n时像素的数量,HD是梯度向量数量的直方图,p表示直方图中的峰值,np表示直方图中所有的峰值,wp表示峰值所包含的离散范围,φp表示波峰的中心位置;
通过步骤6.1和步骤6.2可以在V通道上构成一个21维的纹理特征向量并进行归一化,记为WHSV-V
步骤6.3:提取YUV颜色空间的Y通道的色纺织物组织点图像,再从图片中提取局部二值模式和Tamura纹理特征,由此可以在Y通道上构成一个21维的特征向量并进行归一化,记为WYUV-Y最后WHSV-V与WYUV-Y进行融合,公式如下:
Figure BDA0002273495860000105
步骤7:分别提取HSV和YUV颜色空间下每个组织点的颜色特征;包括以下子步骤:
步骤7.1:提取HSV颜色空间中的颜色距,颜色距是用一阶矩、二阶矩和三阶矩来描述颜色分布,一阶矩ui、二阶矩σi和三阶矩si的定义如下:
Figure BDA0002273495860000104
Figure BDA0002273495860000111
Figure BDA0002273495860000112
式中,P(i,j)是位置(i,j)处像素的颜色信息,N是色纺织物组织点图像的大小;
将H通道的一阶矩、二阶矩和三阶矩分别记为UHSV-H、σHSV-H、SHSV-H,归一化后的三阶矩对应为U'HSV-H、σ'HSV-H、S'HSV-H,将S通道的一阶矩、二阶矩和三阶矩分别记为UHSV-S,σHSV-S,SHSV-S,归一化后的三阶矩对应为U'HSV-S,σ'HSV-S,S'HSV-S,将V通道的一阶矩、二阶矩和三阶矩分别记为UHSV-V,σHSV-V,SHSV-V,归一化后的三阶矩对应为U'HSV-V,σ'HSV-V,S'HSV-V
步骤7.2:提取YUV颜色空间中的颜色距,将Y通道的一阶矩、二阶矩和三阶矩分别记为UYUV-Y、σYUV-Y、SYUV-Y,归一化后的三阶矩对应为U'YUV-Y、σ'YUV-Y、S'YUV-Y,将U通道的一阶矩、二阶矩和三阶矩分别记为UYUV-U,σYUV-U,SYUV-U,归一化后的三阶矩对应为U'YUV-U,σ'YUV-U,S'YUV-U,将V通道的一阶矩、二阶矩和三阶矩分别记为UYUV-V,σYUV-V,SYUV-V,归一化后的三阶矩对应为U'YUV-V,σ'YUV-V,S'YUV-V
步骤7.3:将HSV颜色空间中的颜色信息与YUV颜色空间中的颜色信息进行归一化后融合,如下所示:
Figure BDA0002273495860000113
Figure BDA0002273495860000114
Figure BDA0002273495860000115
Figure BDA0002273495860000121
Figure BDA0002273495860000122
Figure BDA0002273495860000123
Figure BDA0002273495860000124
Figure BDA0002273495860000125
Figure BDA0002273495860000126
式中,Gu、Gσ、Gs分别为融合后混合颜色空间亮度通道的一阶矩、二阶矩和三阶矩,Cu、Cσ、Cs分别为混合颜色空间色调通道的一阶矩、二阶矩和三阶矩,Ou、Oσ、Os分别为混合颜色空间饱和度通道的一阶矩、二阶矩和三阶矩;
将这9个特征值联合成一个9维的特征向量;
步骤8:将每个组织点的纹理和颜色的特征向量联合起来构成一个30维的特征向量,再对数据进行归一化处理;
步骤9:重复步骤1~步骤8,每种色纺织物样本采集5张大小相同的图片,且来自同一种织物的不同位置,其中4张作为训练样本,1张作为测试样本,得到训练样本与测试样本中组织点特征的数据集;
步骤10:将训练样本中组织点的特征值放入3层的BP神经网络进行训练(隐藏层的神经元的个数要小于输入层神经元的个数),得到一个优化的神经网络模型;其中,神经网络输入层神经元的个数由组织点特征维度决定,输出层神经元的个数由组织点的类别决定,输出为0、1代表经组织点,1、0代表纬组织点;然后重新将训练样本和测试样本中组织点的特征值导入神经网络,从隐藏层就可以输出新的训练样本和测试样本的组织点的数据集;最后将新的训练样本的数据集导入到朴素贝叶斯分类器进行学习,对新的测试样本的数据集进行分类;
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (1)

1.一种基于多特征融合的色纺织物组织结构识别的方法,其特征在于,包括
步骤1:采集色纺织物样本的图像;
步骤2:基于MATLAB将采集的样本图像通过中值滤波进行降噪处理;
步骤3:将织物的RGB图像转为二维的灰度图像,再对灰度图像的直方图均衡化以增强纱线边界信息;
步骤4:计算完成步骤3后织物灰度图像中每个像素点灰度值的径向梯度值和纬向梯度值,公式如式4.1~4.2所示;然后取绝对值生成灰度径向梯度图和纬向梯度图,再对灰度径向梯度图计算径向梯度积分曲线,对灰度纬向梯度图计算纬向梯度积分曲线;最后分别对这两条曲线进行平滑处理,使曲线的波峰点为纱线的间隙,并提取经向和纬向梯度积分曲线的波峰点完成对织物组织点的定位;
dx(x,y)=f(x,y)-f(x+1,y) 式4.1
dy(x,y)=f(x,y)-f(x,y+1) 式4.2
式中,f(x,y)是织物灰度图像坐标为(x,y)的灰度值,dx(x,y)是径向梯度值,dy(x,y)是纬向梯度值;
步骤5:将步骤2的色纺织物图像从RGB颜色空间分别转换到HSV颜色空间和YUV颜色空间,分别在HSV颜色空间和YUV颜色空间下采用步骤4中组织点定位的结果从织物图像中分割出织物的组织点图像,组织点的个数至少包括一个组织循环,并对组织点按顺序进行编号;
步骤6:分别提取2个颜色空间下每个组织点的纹理特征;包括以下子步骤:
步骤6.1:首先提取HSV颜色空间的V通道的色纺织物组织点图像,运用半径为2、领域像素点为16的等价模式的局部二值模式算子提取织物组织点图像的局部纹理特征,记为LBPP,R,表示半径为R的圆形领域内有P个像素点,其公式如下:
Figure FDA0002273495850000021
Figure FDA0002273495850000022
式中,gp表示领域像素点灰度值,gc表示中心像素点灰度值;
步骤6.2:在步骤6.1中组织点图像的基础上提取Tamura纹理特征中最常用的3个特征作为组织点的全局纹理特征,分别为粗糙度、对比度和方向度;粗糙度Fcrs的定义如式6.3~6.7所示,首先计算组织点图像中2k×2k个像素活动窗口中像素的平均值Ak;其次,分别计算每个像素点在垂直和水平方向上不重叠窗口的平均灰度差值;然后,对每个像素点计算使E达到最大的最佳尺寸Sbest;最后,计算组织点图像中Sbest的平均值得到粗糙度Fcrs;对比度Fcon的定义如6.8所示,方向度Fdir的定义如式6.9~6.11所示:
Figure FDA0002273495850000023
Ek,h(x,y)=|Ak(x+2k-1,y)-Ak(x-2k-1,y)| 式6.4
Ek,v(x,y)=|Ak(x,y+2k-1)-Ak(x,y-2k-1)| 式6.5
Sbest(x,y)=2k 式6.6
Figure FDA0002273495850000024
Fcon=σ/(α4)n4=μ44 式6.8
θ=tan-1(ΔV/ΔH)+π/2 式6.9
Figure FDA0002273495850000031
Figure FDA0002273495850000032
式中,g(i,j)是位置(i,j)的灰度值,k=0,1,2,···,5,Ek,h代表像素点在水平方向的平均灰度差值,Ek,v代表像素点在垂直方向的灰度差值,σ是标准差,μ4是四次矩,θ表示每个像素的梯度向量的方向,ΔH表示图像与
Figure FDA0002273495850000033
进行卷积得到水平方向的变化量,ΔV表示图像与
Figure FDA0002273495850000034
进行卷积得到垂直方向的变化量,Nθ(k)是当|ΔG|≥t,(2k-1)π/2n≤θ≤(2k+1)π/2n时像素的数量,HD是梯度向量数量的直方图,p表示直方图中的峰值,np表示直方图中所有的峰值,wp表示峰值所包含的离散范围,φp表示波峰的中心位置;
通过步骤6.1和步骤6.2可以在V通道上构成一个21维的纹理特征向量并进行归一化,记为WHSV-V
步骤6.3:提取YUV颜色空间的Y通道的色纺织物组织点图像,再从图片中提取局部二值模式和Tamura纹理特征,由此可以在Y通道上构成一个21维的特征向量并进行归一化,记为WYUV-Y最后WHSV-V与WYUV-Y进行融合,公式如下:
Figure FDA0002273495850000035
步骤7:分别提取HSV和YUV颜色空间下每个组织点的颜色特征;包括以下子步骤:
步骤7.1:提取HSV颜色空间中的颜色距,颜色距是用一阶矩、二阶矩和三阶矩来描述颜色分布,一阶矩ui、二阶矩σi和三阶矩si的定义如下:
Figure FDA0002273495850000041
Figure FDA0002273495850000042
Figure FDA0002273495850000043
式中,P(i,j)是位置(i,j)处像素的颜色信息,N是色纺织物组织点图像的大小;
将H通道的一阶矩、二阶矩和三阶矩分别记为UHSV-H、σHSV-H、SHSV-H,归一化后的三阶矩对应为U'HSV-H、σ'HSV-H、S'HSV-H,将S通道的一阶矩、二阶矩和三阶矩分别记为UHSV-S,σHSV-S,SHSV-S,归一化后的三阶矩对应为U'HSV-S,σ'HSV-S,S'HSV-S,将V通道的一阶矩、二阶矩和三阶矩分别记为UHSV-V,σHSV-V,SHSV-V,归一化后的三阶矩对应为U'HSV-V,σ'HSV-V,S'HSV-V
步骤7.2:提取YUV颜色空间中的颜色距,将Y通道的一阶矩、二阶矩和三阶矩分别记为UYUV-Y、σYUV-Y、SYUV-Y,归一化后的三阶矩对应为U'YUV-Y、σ'YUV-Y、S'YUV-Y,将U通道的一阶矩、二阶矩和三阶矩分别记为UYUV-U,σYUV-U,SYUV-U,归一化后的三阶矩对应为U'YUV-U,σ'YUV-U,S'YUV-U,将V通道的一阶矩、二阶矩和三阶矩分别记为UYUV-V,σYUV-V,SYUV-V,归一化后的三阶矩对应为U'YUV-V,σ'YUV-V,S'YUV-V
步骤7.3:将HSV颜色空间中的颜色信息与YUV颜色空间中的颜色信息进行归一化后融合,如下所示:
Figure FDA0002273495850000051
Figure FDA0002273495850000052
Figure FDA0002273495850000053
Figure FDA0002273495850000054
Figure FDA0002273495850000055
Figure FDA0002273495850000056
Figure FDA0002273495850000057
Figure FDA0002273495850000058
Figure FDA0002273495850000059
式中,Gu、Gσ、Gs分别为融合后混合颜色空间亮度通道的一阶矩、二阶矩和三阶矩,Cu、Cσ、Cs分别为混合颜色空间色调通道的一阶矩、二阶矩和三阶矩,Ou、Oσ、Os分别为混合颜色空间饱和度通道的一阶矩、二阶矩和三阶矩;
将这9个特征值联合成一个9维的特征向量;
步骤8:将每个组织点的纹理和颜色的特征向量联合起来构成一个30维的特征向量,再对数据进行归一化处理;
步骤9:重复步骤1~步骤8,每种色纺织物样本采集5张大小相同的图片,且来自同一种织物的不同位置,其中4张作为训练样本,1张作为测试样本,得到训练样本与测试样本中组织点特征的数据集;
步骤10:将训练样本中组织点的特征值放入3层的BP神经网络进行训练,得到一个优化的神经网络模型;其中,神经网络输入层神经元的个数由组织点特征维度决定,输出层神经元的个数由组织点的类别决定,输出为0、1代表经组织点,1、0代表纬组织点;然后重新将训练样本和测试样本中组织点的特征值导入神经网络,从隐藏层就可以输出新的训练样本和测试样本的组织点的数据集;最后将新的训练样本的数据集导入到朴素贝叶斯分类器进行学习,对新的测试样本的数据集进行分类。
CN201911116145.7A 2019-11-14 2019-11-14 一种基于多特征融合的色纺织物组织结构识别的方法 Withdrawn CN111091134A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911116145.7A CN111091134A (zh) 2019-11-14 2019-11-14 一种基于多特征融合的色纺织物组织结构识别的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911116145.7A CN111091134A (zh) 2019-11-14 2019-11-14 一种基于多特征融合的色纺织物组织结构识别的方法

Publications (1)

Publication Number Publication Date
CN111091134A true CN111091134A (zh) 2020-05-01

Family

ID=70393232

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911116145.7A Withdrawn CN111091134A (zh) 2019-11-14 2019-11-14 一种基于多特征融合的色纺织物组织结构识别的方法

Country Status (1)

Country Link
CN (1) CN111091134A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070158A (zh) * 2020-09-08 2020-12-11 哈尔滨工业大学(威海) 一种基于卷积神经网络和双边滤波的面部瑕疵检测方法
CN112580659A (zh) * 2020-11-10 2021-03-30 湘潭大学 一种基于机器视觉的矿石识别方法
CN112907483A (zh) * 2021-03-18 2021-06-04 武汉纺织大学 一种色纺织物计算机仿真方法
CN113781476A (zh) * 2021-10-27 2021-12-10 南通博纳纺织品有限公司 基于图像处理的纺织品染色质量评估方法与系统
US11948279B2 (en) 2020-11-23 2024-04-02 Samsung Electronics Co., Ltd. Method and device for joint denoising and demosaicing using neural network

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103106645A (zh) * 2013-03-15 2013-05-15 天津工业大学 一种机织物组织结构识别方法
CN108960255A (zh) * 2018-06-28 2018-12-07 西安工程大学 基于颜色相似性和位置聚集性的显著性织物疵点检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103106645A (zh) * 2013-03-15 2013-05-15 天津工业大学 一种机织物组织结构识别方法
CN108960255A (zh) * 2018-06-28 2018-12-07 西安工程大学 基于颜色相似性和位置聚集性的显著性织物疵点检测方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
SHENGQI GUAN: "Fabric defect delaminating detection based on visual saliency in HSV color space", 《THE JOURNAL OF THE TEXTILE INSTITUTE》 *
刘沐黎等: "基于混合色彩空间独立特征的色纺面料颜色表征模型", 《纺织学报》 *
景军锋等: "LBP和GLCM融合的织物组织结构分类", 《电子测量与仪器学报》 *
王国德等: "融合LBP和GLCM的纹理特征提取方法", 《计算机工程》 *
王民等: "基于混合色彩空间的分块颜色特征提取算法", 《激光与光电子学进展》 *
蔡强等: "结合局部特征及全局特征的显著性检测", 《光学 精密工程》 *
袁理等: "结合全局与局部多样性特征的色纺纱色度学指标测试与评价", 《纺织学报》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070158A (zh) * 2020-09-08 2020-12-11 哈尔滨工业大学(威海) 一种基于卷积神经网络和双边滤波的面部瑕疵检测方法
CN112070158B (zh) * 2020-09-08 2022-11-15 哈尔滨工业大学(威海) 一种基于卷积神经网络和双边滤波的面部瑕疵检测方法
CN112580659A (zh) * 2020-11-10 2021-03-30 湘潭大学 一种基于机器视觉的矿石识别方法
US11948279B2 (en) 2020-11-23 2024-04-02 Samsung Electronics Co., Ltd. Method and device for joint denoising and demosaicing using neural network
CN112907483A (zh) * 2021-03-18 2021-06-04 武汉纺织大学 一种色纺织物计算机仿真方法
CN112907483B (zh) * 2021-03-18 2022-06-14 武汉纺织大学 一种色纺织物计算机仿真方法
CN113781476A (zh) * 2021-10-27 2021-12-10 南通博纳纺织品有限公司 基于图像处理的纺织品染色质量评估方法与系统

Similar Documents

Publication Publication Date Title
CN112435221B (zh) 一种基于生成式对抗网络模型的图像异常检测方法
CN111091134A (zh) 一种基于多特征融合的色纺织物组织结构识别的方法
CN111340824B (zh) 一种基于数据挖掘的图像特征分割方法
CN110717896B (zh) 基于显著性标签信息传播模型的板带钢表面缺陷检测方法
CN111611874B (zh) 基于ResNet和Canny的人脸口罩佩戴检测方法
CN110728302A (zh) 一种基于HSV和Lab颜色空间的色纺织物组织识别的方法
CN107622280B (zh) 基于场景分类的模块化处方式图像显著性检测方法
CN110866879A (zh) 一种基于多密度雨纹感知的图像去雨方法
CN108416795B (zh) 基于排序池化融合空间特征的视频动作识别方法
CN111862027A (zh) 基于低秩稀疏矩阵分解的纺织品瑕疵检测方法
CN115731400A (zh) 基于自监督学习的x光图像异物检测方法
CN109241932B (zh) 一种基于运动方差图相位特征的热红外人体动作识别方法
CN112070116B (zh) 一种基于支持向量机的艺术画作自动分类系统及方法
Li et al. Yarn-dyed woven defect characterization and classification using combined features and support vector machine
CN109165551B (zh) 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法
CN111461002A (zh) 一种面向热成像行人检测的样本处理方法
CN116843611A (zh) 一种基于差分和图神经网络的五金表面瑕疵检测系统
Guo et al. Fault diagnosis of power equipment based on infrared image analysis
Akhmetshina et al. Improvement of Grayscale Images in Orthogonal Basis of the Type-2 Membership Function.
CN115995040A (zh) 一种基于多尺度网络的sar图像小样本目标识别方法
PL A study on various image processing techniques
Revathi et al. An emerging trend of feature extraction method in video processing
Aslam et al. A review on various clustering approaches for image segmentation
Serdaroglu et al. Defect detection in textile fabric images using subband domain subspace analysis
PAUL et al. A COMPARITIVE STUDY OF FABRIC DETECTION AND CLASSIFICATION USING EFFICIENT HYBRID LEARNING ALGORITHM

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20200501