CN108875777B - 基于双路神经网络的纺织面料中纤维种类及混纺比例识别方法 - Google Patents
基于双路神经网络的纺织面料中纤维种类及混纺比例识别方法 Download PDFInfo
- Publication number
- CN108875777B CN108875777B CN201810413037.5A CN201810413037A CN108875777B CN 108875777 B CN108875777 B CN 108875777B CN 201810413037 A CN201810413037 A CN 201810413037A CN 108875777 B CN108875777 B CN 108875777B
- Authority
- CN
- China
- Prior art keywords
- textile fabric
- fiber
- blending ratio
- network
- identifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
基于双路神经网络的纺织面料中纤维种类及混纺比例识别方法,首先利用手机装上专业光学放大摄像头采集纺织面料样本数据;其次,构建双路深度神经网络,以采集到纺织面料样本中部分图像块为输入,输出为纺织面料中纤维种类及混纺比例,对采集到的样本数据集预处理后,对构建的双路深度网络进行训练;实际使用中,利用手机配备的专业光学放大摄像头拍摄任意一种纺织面料,获得的图片远程传入训练好的深度网络,输出对应纺织面料中纤维种类以及对应混纺比例。通过上述3个步骤,可以识别出任意一种纺织面料中纤维种类以及对应混纺比例。
Description
技术领域
本发明属于纺织面料纤维混纺比例检测领域,针对已有纺织面料中纤维种类及混纺比例检测方法检验周期长、人为干扰因素多、检测门槛高、对检测纺织面料有损等情况,提出一种基于双路深度神经网络的纺织面料中纤维种类及混纺比例识别方法,用于解决纺织面料中纤维种类及混纺比例的无损、快速、精准识别。
背景技术
纺织面料中纤维种类及混纺比例的识别在纺织面料加工业、商品交易和国际贸易中有及其重要的地位。现有纺织面料中纤维种类及混纺比例识别方法主要有4大类:(1)显微镜观察法。利用纺织面料中纤维不同混纺比例纵横向形态特征以及显微镜放大镜等设备,分别计算样品中纤维的根数。测定纺织面料中纤维素类纤维混纺比的中心任务是判别纤维种类、准确计算纤维根数、测量纤维直径。在测试过程中,纤维类别判定、样本制备和直径的测量方法对测试结果产生较大的影响。(2)化学溶剂法。化学溶剂法根据纺织面料中纤维在不同溶剂中溶解性的差异来鉴别纤维的。(3)其他物理方法。通过纤维吸湿性、染色性及吸附性能的差异出发,通过分析其吸湿性、燃料对纤维的上染性能以及纤维对金属离子的吸附性能来检验纺织面料中不同纤维种类及混纺比例。(4)基于图像处理技术方法。现有基于计算机图像处理技术对纺织面料中纤维种类及混纺比例识别的方法有两类:将纤维切成短片断,通过纵向特征进行识别和计数求出混纺比,另一种是做纱线的横截面切片利用纤维横截面特征来识别和计数进而计算混纺比。
现有检测方法在检验时效、检验结果、检验方法适应性等均存在问题。(1)检验时效性方面。显微镜观察法采用人工观察与测量计数的方法,机械化程度不高、费时。化学溶剂法、其他物理方法以及现有图像处理方法,在进行纺织面料中种类和混纺比例的识别时都需要破损纺织面料,整个检验流程花费时间仍较多。(2)检测结果:显微镜法中检验人员需要经过专业培训,具有一定的实践经验和操作熟练度,但会受主观情绪和长时间工作视觉疲劳影响,影响检验结果的可靠性和再现性。化学溶剂法中,溶解后棉纤维破损严重,得到糊状物无法过滤且不同纤维其溶解性不同导致实验可操作性差、平衡性差、误差大。(3)检验方法的适用性。显微镜观察法不适用与经染色的纤维素类纤维混纺纺织面料和服装,以及层出不穷的新型纤维素类纤维;化学溶剂法主要是对混纺纱线的定量分析。
发明内容
本发明要克服现有技术的上述缺点,提供一种基于双路神经网络的纺织面料中纤维种类及混纺比例识别方法。
本发明研究纺织面料种类及混纺比例自动识别的相关技术,从而达到缩短检验识别周期,提高检验效率,降低检验门槛,排除人为因素的干扰,减少保证纺织面料种类及混纺比例识别的一致性和客观性。本发明要克服现有技术的不足,在不损坏检测纺织面料的情况下提供一种基于双路深度神经网络用于纺织面料中纤维种类及混纺比例识别的方法,可以实现纺织面料中纤维种类及混纺比例的精准识别。
一种基于双路神经网络的纺织面料中纤维种类及混纺比例识别方法,包括如下步骤:
1)纺织面料图片样本数据的采集;
对于常用纺织面料,利用定制的专业光学放大镜头,采集纺织面料数据集。使用光学放大镜头直径为30厘米,放大倍数为90倍,焦距为0.28cm。采集过程中,剔除模糊、过曝等成像较差的纺织面料样本图片,对已有不同混纺比例含量的纺织面料,每个类别采集500张以上图片。
2)双路神经网络框架的构建与训练;
为能够提高纺织面料种类及混纺比例识别率,构建了双路神经网络,双路神经网络主要分为两个支路;第一支路用于识别纺织面料中纤维类别,该网络将纺织面料图片映射到3个不同的特征表达,每个部分分别对应不同的纤维特征;第二支路用于识别纤维混纺比例,将第一支路获得三个不同纤维特征分别拼接到混纺比例识别子网络的三个子网络中,获得每个类纤维混纺比例;
用于纺织面料中纤维种类及混纺比例识别的框架可参见图一;输入纺织面料图片块为灰度图,大小为360*360。纤维种类识别子网络中,输入为灰度图,经过一个DenseBlock后,分成3路分支,每个分支经过2个Dense Block,获得每个纤维种类对应特征表达,每个分支的输出为单个纤维对应的类别;混纺比例识别子网络,输入为纺织面料图片块为灰度图,经过2个Dense Block,特征图拼接种类识别子网络中不同纤维种类对应特征图,再经过1个Dense Block后,获得纤维混纺比例;
双路神经网络在预训练种类识别分支后,固定种类识别网络参数,继续训练纤维混纺比例识别子网络;种类识别子网络,训练迭代次数为100次,梯度下降算法选用随机梯度下降算SGD,算法学习率为0.0001,冲量为0.9;纤维混纺比例识别子网络训练迭代次数为100次,梯度下降算法选用随机梯度下降算法SGD,算法学习率为0.00001,冲量为0.9;
3)纺织面料中纤维种类及混纺比例识别流程;
将专业光学放大摄像头安装到手机上,拍摄待识别纺织面料图片,将拍摄图片上传到云端服务器,训练好的用于纺织面料中纤维种类及混纺比例识别的双路神经网络识别出纺织面料纤维种类与混纺比例。服务器计算识别完成后,识别结果返回到用户手机端。
本发明是一种基于双路深度神经网络用于纺织面料中纤维种类及混纺比例识别的方法,用于解决纺织面料中纤维种类及混纺比例的精准识别。针对已有纺织面料中纤维种类及混纺比例检测方法检验周期长、人为干扰因素多、检测门槛高、对检测纺织面料有损等问题,本发明利用定制的专业光学放大摄像头采集纺织面料图像样本。采集到纺织面料图片样本后,通过灰度化、随机切割与旋转等一系列操作实现纺织面料训练集的样本增加。在大量训练数据集的基础上,构建双路深度网络,该网络分为两个大支路:类别识别子网络与混纺比例识别子网络。类别识别子网络输入为纺织面料灰度图像,输出为纺织面料中包含纤维对应类别;混纺比例识别子网络输入为纺织面料灰度图像与纤维对应类别组建特征图,输出为纺织面料中纤维混纺比例含量。训练好的双路深度网络,可实现手机远程识别纺织面料纤维种类及混纺比例。通过上述步骤,可以实现利用安装了专业光学摄像头的手机拍摄纺织面料产品图片,给出纺织面料中纤维种类及混纺比例。
本发明具有的有益的效果是:可以不损坏纺织面料的情况下,利用双路深度神经网络,实现快速纺织面料中纤维种类及混纺比例的精准识别。与已有纺织面料纤维种类及混纺比例识别方法相比,通过利用专业光学放大摄像头采集纺织面料图片,利用大量标注纺织面料训练数据集训练构建的双路深度神经网络,实现纺织面料中纤维种类及混纺比例的精准识别。
附图说明
图1是本发明方法的双路神经网络结构示意图。
具体实施方式
下面结合附图进一步说明本发明的技术方案。
本发明基于双路神经网络的纺织面料中纤维种类及混纺比例识别,包括如下步骤:
1)纺织面料图片样本数据的采集;
对于常用纺织面料,利用定制的专业光学放大摄像头,采集纺织面料数据集。使用光学放大镜头直径为30厘米,放大倍数为90倍,焦距为0.28cm。采集过程中,剔除模糊、过曝等成像较差的纺织面料样本图片,对已有不同纤维混纺比例含量的混合纺织面料(纺织面料中纤维主要包含全棉、氨纶、羊毛、涤、人棉、麻、蚕丝、粘胶、天丝、腈纶、尼龙等),每个类别采集500张图片。
2)采集纺织面料图片数据集预处理;
本发明在进行深度网络训练前,对采集到的纺织面料图片进行灰度化,去除纺织面料颜色对识别结果的影响。对灰度化后的图片,将整个图片包含纺织面料图像的部分缩小到500*500。对缩小后图片每10°进行旋转一次,每张缩小后图片获得对应36张旋转增加图片。对缩小与旋转后图片,每张随机切割出360*360部分图像块10张,增加纺织面料训练集数量级。
3)双路深度神经网络框架的构建与训练;
为能够提高纺织面料种类及混纺比例识别率,构建了双路深度网络,该网络主要分为两个支路。第一支路用于识别纺织面料中纤维类别。该网络将纺织面料图片映射到3个不同的特征表达,每个部分分别对应不同的纤维特征。第二支路用于识别纤维混纺比例,将第一支路获得三个不同纤维特征分别拼接到混纺比例识别子网络的三个子网络中,获得每个类纤维混纺比例。此次用于纺织面料中纤维种类及混纺比例识别的框架可参见图一。输入纺织面料图片块为灰度图,大小为360*360。纤维种类识别子网络中,输入为灰度图,经过一个Dense Block后,分成3路分支,每个分支经过2个Dense Block,获得每个纤维种类对应特征表达,每个分支的输出为单个纤维对应的类别;混纺比例识别子网络,输入为纺织面料图片块为灰度图,经过2个Dense Block,特征图拼接种类识别子网络中不同纤维种类对应特征图,再经过1个Dense Block后,获得纤维混纺比例。整个网络在预训练种类识别分支后,固定种类识别网络参数,继续训练纤维混纺比例识别子网络。两个分支网络中,卷积步长为2,卷积核大小为7x7,Pooling层pool size为3x3,Dense Block模块中包含4层卷积网络,卷积核数量分别为12、24、36与48。种类识别子网络前两个卷积核数量分别为24与32,种类识别子网络三个分支中卷积核数量分别为32与48,每个分支的线性层包含256个节点;混纺比例识别子网络中,前三个卷积层卷积核大小分别为16、32与48,后三个分支中卷积层卷积核数量为48,每个分支的线性层包含256个节点。种类识别子网络,训练迭代次数为100次,梯度下降算法选用随机梯度下降算SGD,算法学习率为0.0001,冲量为0.9;纤维混纺比例识别子网络训练迭代次数为100次,梯度下降算法选用随机梯度下降算法SGD,算法学习率为0.00001,冲量为0.9。
4)纺织面料中纤维种类及混纺比例识别整体流程
将专业光学放大摄像头安装到手机上,拍摄待纺织面料图片,将拍摄图片上传到云端服务器,训练好的用于纺织面料中纤维种类及混纺比例识别的双路神经网络识别出纺织面料纤维种类与混纺比例。服务器计算识别完成后,识别结果返回到用户手机端。
通过上述步骤,可以不损坏纺织面料的情况下,利用双路深度神经网络,快速实现纺织面料中纤维种类及混纺比例的精准识别。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围的不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
Claims (1)
1.一种基于双路神经网络的纺织面料中纤维种类及混纺比例识别方法,包括下列步骤:
1)纺织面料图片样本数据的采集;
利用定制的专业光学放大镜头,采集纺织面料数据集, 使用光学放大镜头直径为30厘米,放大倍数为90倍,焦距为0.28cm, 采集过程中,剔除模糊、过曝的纺织面料样本图片,对已有不同混纺比例含量的纺织面料,每个类别采集500张以上图片;
2)双路神经网络框架的构建与训练;
为能够提高纺织面料种类及混纺比例识别率,构建了双路神经网络,双路神经网络分为两个支路;第一支路用于识别纺织面料中纤维类别,将纺织面料图片映射到3个不同的特征表达,每个部分分别对应不同的纤维特征;第二支路用于识别纤维混纺比例,将第一支路获得三个不同纤维特征分别拼接到混纺比例识别子网络的三个子网络中,获得每个类纤维混纺比例;
用于纺织面料中纤维种类及混纺比例识别的框架中,输入纺织面料图片块为灰度图,大小为360*360;纤维种类识别子网络中,输入为灰度图,经过一个Dense Block后,分成3路分支,每个分支经过2个Dense Block,获得每个纤维种类对应特征表达,每个分支的输出为单个纤维对应的类别;混纺比例识别子网络,输入为纺织面料图片块为灰度图,经过2个Dense Block,特征图拼接种类识别子网络中不同纤维种类对应特征图,再经过1个DenseBlock后,获得纤维混纺比例;两个分支网络中,卷积步长为2,卷积核大小为7x7,Pooling层pool size为3x3,Dense Block模块中包含4层卷积网络,卷积核数量分别为12、24、36与48,种类识别子网络前两个卷积核数量分别为24与32,种类识别子网络三个分支中卷积核数量分别为32与48,每个分支的线性层包含256个节点;混纺比例识别子网络中,前三个卷积层卷积核大小分别为16、32与48,后三个分支中卷积层卷积核数量为48,每个分支的线性层包含256个节点;
双路神经网络在预训练种类识别分支后,固定种类识别网络参数,继续训练纤维混纺比例识别子网络;种类识别子网络,训练迭代次数为100次,梯度下降算法选用随机梯度下降算SGD,算法学习率为0.0001,冲量为0.9;纤维混纺比例识别子网络训练迭代次数为100次,梯度下降算法选用随机梯度下降算法SGD,算法学习率为0.00001,冲量为0.9;
3)纺织面料中纤维种类及混纺比例识别;
将专业光学放大摄像头安装到手机上,拍摄待识别纺织面料图片,将拍摄图片上传到云端服务器,训练好的用于纺织面料中纤维种类及混纺比例识别的双路神经网络识别出纺织面料纤维种类与混纺比例;服务器计算识别完成后,识别结果返回到用户手机端。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810413037.5A CN108875777B (zh) | 2018-05-03 | 2018-05-03 | 基于双路神经网络的纺织面料中纤维种类及混纺比例识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810413037.5A CN108875777B (zh) | 2018-05-03 | 2018-05-03 | 基于双路神经网络的纺织面料中纤维种类及混纺比例识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108875777A CN108875777A (zh) | 2018-11-23 |
CN108875777B true CN108875777B (zh) | 2022-03-15 |
Family
ID=64327520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810413037.5A Active CN108875777B (zh) | 2018-05-03 | 2018-05-03 | 基于双路神经网络的纺织面料中纤维种类及混纺比例识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108875777B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110047074A (zh) * | 2019-05-17 | 2019-07-23 | 广东工业大学 | 纺织品的纤维混和含量检测、逆向工程分析方法及设备 |
CN110321850A (zh) * | 2019-07-05 | 2019-10-11 | 杭州时趣信息技术有限公司 | 服装面料自动识别方法、装置、系统、设备及存储介质 |
CN111753849A (zh) * | 2020-06-29 | 2020-10-09 | 江南大学 | 基于紧密聚合特征和循环残差学习的检测方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845549A (zh) * | 2017-01-22 | 2017-06-13 | 珠海习悦信息技术有限公司 | 一种基于多任务学习的场景与目标识别的方法及装置 |
CN106909905A (zh) * | 2017-03-02 | 2017-06-30 | 中科视拓(北京)科技有限公司 | 一种基于深度学习的多模态人脸识别方法 |
CN107609009A (zh) * | 2017-07-26 | 2018-01-19 | 北京大学深圳研究院 | 文本情感分析方法、装置、存储介质和计算机设备 |
CN107622427A (zh) * | 2016-07-13 | 2018-01-23 | 阿里巴巴集团控股有限公司 | 深度学习的方法、装置及系统 |
CN107704866A (zh) * | 2017-06-15 | 2018-02-16 | 清华大学 | 基于新型神经网络的多任务场景语义理解模型及其应用 |
CN107704848A (zh) * | 2017-10-27 | 2018-02-16 | 深圳市唯特视科技有限公司 | 一种基于多约束条件卷积神经网络的密集人脸对齐方法 |
-
2018
- 2018-05-03 CN CN201810413037.5A patent/CN108875777B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107622427A (zh) * | 2016-07-13 | 2018-01-23 | 阿里巴巴集团控股有限公司 | 深度学习的方法、装置及系统 |
CN106845549A (zh) * | 2017-01-22 | 2017-06-13 | 珠海习悦信息技术有限公司 | 一种基于多任务学习的场景与目标识别的方法及装置 |
CN106909905A (zh) * | 2017-03-02 | 2017-06-30 | 中科视拓(北京)科技有限公司 | 一种基于深度学习的多模态人脸识别方法 |
CN107704866A (zh) * | 2017-06-15 | 2018-02-16 | 清华大学 | 基于新型神经网络的多任务场景语义理解模型及其应用 |
CN107609009A (zh) * | 2017-07-26 | 2018-01-19 | 北京大学深圳研究院 | 文本情感分析方法、装置、存储介质和计算机设备 |
CN107704848A (zh) * | 2017-10-27 | 2018-02-16 | 深圳市唯特视科技有限公司 | 一种基于多约束条件卷积神经网络的密集人脸对齐方法 |
Non-Patent Citations (5)
Title |
---|
A Multiscale Fusion Convolutional Neural Network for Plant Leaf Recognition;Jing Hu 等;《IEEE SIGNAL PROCESSING LETTERS》;20180227;第25卷(第6期);853-857 * |
Multispectral Deep Neural Networks for Pedestrian Detection;Jingjing Liu 等;《arXiv》;20161108;1-13 * |
基于深度学习的目标检测研究;付若楠;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180115;I138-1705 * |
基于深度局部特征的图像表示方法研究;陈仕江;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180415(第4期);I138-227 * |
基于视频深度学习的时空双流人物动作识别模型;杨天明 等;《计算机应用》;20180310;第38卷(第3期);895-899,915 * |
Also Published As
Publication number | Publication date |
---|---|
CN108875777A (zh) | 2018-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108875777B (zh) | 基于双路神经网络的纺织面料中纤维种类及混纺比例识别方法 | |
CN100561186C (zh) | 用于纺织品色牢度色差评级的测试方法和装置 | |
CN103528617B (zh) | 一种座舱仪表自动识别和检测方法及装置 | |
CN109871735A (zh) | 图像解析方法、装置、程序及学习完了深层学习算法的制造方法 | |
CN102177435A (zh) | 组织病理学诊断支持系统、组织病理学诊断支持程序以及组织病理学诊断支持方法 | |
JPH11506196A (ja) | 生物標本群用のスライド及び標本の準備を連続的に監視及び予測する方法及び装置 | |
CN110135271A (zh) | 一种细胞分类方法及装置 | |
CN105466921A (zh) | 一种多样品同时检测的方法 | |
CN110503623A (zh) | 一种基于卷积神经网络的识别输电线路上鸟巢缺陷的方法 | |
AU644164B2 (en) | Method for determining and controlling fiber luster properties | |
JP6246978B2 (ja) | 線維化を検出及び定量化する方法 | |
CN104778709B (zh) | 一种基于纱线序列图像的电子黑板的构建方法 | |
Bugao xu et al. | Evaluating maturity of cotton fibers using image analysis: definition and algorithm | |
Carvalho et al. | Yarn parameterization and fabrics prediction using image processing | |
Li et al. | A direct measurement method of yarn evenness based on machine vision | |
Zeyun et al. | Study on measuring microfiber diameter in melt-blown webbased on image analysis | |
CN108519382A (zh) | 纺织纤维识别结果的评判方法 | |
CN113418919A (zh) | 纺织纤维成分定性定量在线分析系统及方法 | |
Carvalho et al. | Yarn hairiness determination using image processing techniques | |
Ozkaya et al. | Simulation of photosensor-based hairiness measurement using digital image analysis | |
CN114187591A (zh) | 一种基于定量解剖的木材树种鉴定方法 | |
CN112798504A (zh) | 大视场高通量流式细胞分析系统及分析方法 | |
KR102613961B1 (ko) | 골수가 도말된 슬라이드 샘플 이미지의 셀 존 결정 방법 및 셀 존의 고배율 촬상 방법 | |
Shen et al. | A fiber diameter measurement algorithm based on image processing technology | |
Shi et al. | Identification of animal fiber based on scale shape |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |