一种纺织品纤维成分自动化分析方法及系统
技术领域
本发明创造涉及一种自动化纺织品纤维分析方法及系统,尤其涉及一种自动测量纺织品纤维直径,自动判别纺织品纤维组成成分,和自动计算纺织品纤维含量的人工智能化方法及系统。
背景技术
迄今基于织物纤维的平均直径测量和含量分析还只是停留在原始人工通过显微镜法来完成;面对高速发展的社会,对纺织行业织物产品需求也是日新月异,而这些织物产品在投向市场之前,织物规格成分等指标鉴定,都是通过显微镜法人工进行鉴定,传统的显微镜法,存在劳动强度大、效率低的问题,一个样品的测量操作就要集中精力在显微镜下进行数百上千次的对准/记数等操作,这种单调的大规模重复劳动极易引起眼部疲劳,由此引发的低效率及人为误差等问题也就在所难免;另一方面培养一名专业的技术员不仅周期长,而且由于工作性质决定枯燥乏味不容易招工,导致人工成本也不断攀升,并且由于检测标准严格,一但出错后果严重,所以对技术员的经验要求更加高;面对大量的纺织品急需检测,传统人工检测效率低下,检测标准高以及人工成本高等问题,目前的方式已不能满足市场的需求;近几年伴随着人工智能的高速发展和深度学习技术的成熟,结合纺织品市场目前存在的问题,一种纺织品纤维成分数据自动测量判别和分析技术应运而生。
发明内容
基于上述问题,本发明提供一种纺织品纤维成分自动化分析方法及系统,其特点操作简单、直观准确、快速高效,能支持对种类的纺织品纤维做细度分析,定性分析以及定量分析;根据需求可灵活配置实验,输出包括直径测量,定性分析和定量分析的结果;
本发明提供一种纺织品纤维成分自动化分析方法,包括,
A、实验预处理配置工作完成之后,由分析装置及控制单元控制XYZ高精度电动平台的Z轴聚焦,控制XYZ高精度电动平台沿X轴Y轴方向的移动,自动三轴扫描式采集清晰图像;
B、通过场景识别算法判定是否运动到场景终点,是则进入C,否则实验结束;
C、基于清晰图像自动提取目标,通过算法自动测量、识别、计数;
D、记录数据完成实验,并输出纤维成分分析结果。
进一步,所述的基于清晰图像自动提取目标,通过算法自动测量、识别、计数,包括:
C1、获取一个或多个数量清晰图像,通过实时生成待分析数据,直至当前场景取图完成;
C2、判别当前场景对应扫描采样中最清晰的图像,输出图像清晰度判别结果;
C3、判别场景是否有效,无效则直接返回无效结果;有效则进入C4;
C4、分析纤维目标位置信息,并输出有效场景上对应目标的结果和轮廓信息;
C5、判别当前场景对应扫描采样中局部最清晰的纤维目标,并输出局部清晰判别结果;
C6、进行清晰目标自动提取,并输出提取的清晰目标;
C7、进行直径自动测量,并输出直径测量结果;
C8、进行目标自动定性判别,输出目标定性结果。
进一步,所述的判别当前场景对应扫描采样中最清晰的图像,包括:通过图像梯度信息计算出对应被测图像清晰度值;
所述的判别场景是否有效,包括:通过深度学习网络模型进行分析判别场景是否有效,将得到的一个或多个最清晰的图像经过有效场景判别,分别得到三个类别,即简单、复杂、背景;
所述的分析纤维目标位置信息,包括:通过深度学习网络模型进行分析纤维目标位置信息;
所述的进行清晰目标提取,包括:通过自动返回对应坐标位置,进行清晰目标自动提取;
所述的进行直径测量,包括:通过获取目标中心点垂直投影与清晰目标轮廓形成交点,再通过空间坐标转换关系计算出两交点的直线距离,自动输出直径测量结果;
所述的进行目标定性判别,包括通过深度学习分类网络,同时获得预测的目标类别可以是一类或多类。
进一步,所述的类别至少包括:羊绒、山羊绒、山羊毛、羊驼毛、兔毛、粗兔毛、牦牛绒、牦牛毛、驼绒、驼毛、马海毛、蚕丝、棉、锦纶、腈纶、涤纶、粘胶、亚麻、苎麻、罗布麻、大麻、天丝、乙纶、丙纶、二醋酯、三醋酯、铜氨、骆驼绒、骆驼毛、粗山羊绒、粗牦牛绒、粗驼绒、粗腔毛、绵羊毛、莫代尔纤维、莱赛尔纤维等。
进一步,所述的通过深度学习网络模型进行分析判别场景是否有效还包括图像预处理的过程,其输入的图像像素要求为N*M,所述的N、M为大于1的自然数。
本发明还提供一种纺织品纤维成分全自动分析系统,该系统包括:光学显微镜、照明系统,含图像采集模块的相机、用于控制X轴Y轴和Z轴运动的控制单元、分析装置、与主机连接的显示单元、嵌入在光学显微镜的XYZ高精度电动平台;
其中,所述的相机与光学显微镜配合安装,与主机连接,用于实时采集纤维图像;
所述的控制单元连接XYZ高精度电动平台,并与主机连接,用于实现对三轴的控制;
所述的分析装置包括控制模块、算法模块、实验结果管理模块,通过控制模块采集相机输出的实时图像,通过控制单元控制XYZ高精度电动平台的Z轴聚焦,控制XYZ高精度电动平台沿X轴Y轴方向的移动,自动三轴扫描式采集清晰图像,并基于清晰图像由算法模块自动提取目标,通过算法自动测量、识别、计数,通过实验结果管理模块记录数据完成实验,并输出纤维成分分析结果。
进一步,所述的XYZ高精度电动平台主要包括高精度Z轴载物台及Z轴高精度电机、X轴和Y轴联动控制高精度载物台、X,Y轴高精度电机,高精度Z轴载物台由控制单元传送信号给Z轴高精度电机,控制高精度Z轴载物台进行Z轴定位及返回,X轴和Y轴联动控制的高精度载物台由控制单元传送信号给X,Y轴高精度电机,控制X轴和Y轴联动控制的高精度载物台进行X,Y轴定位及返回;
所述的控制模块包括图像采集单元、实时显示帧单元、待分析帧单元、电动平台控制单元、实验终点判定单元;
所述的算法模块包括全局清晰度判别算法单元、有效场景判别算法单元、目标定位算法单元、局部清晰度判别算法单元、目标提取算法单元、直径测量算法单元、目标定性算法单元;
所述的实验数据管理模块包括实时实验数据管理单元、数据库存储单元、实验数据查询单元、实验数据导出单元;
所述的控制模块的图像采集单元获取相机的纤维图像,并通过实时显示帧单元进行显示,通过电动平台控制单元发送控制指令给控制单元控制Z轴高精度电机扫描聚焦,图像采集单元获取一个或多个清晰图像,通过待分析帧单元向算法模块输入待分析的数据,直至当前场景取图完成,然后发送指令给X,Y轴电机,控制载物台移动;
所述取完的图像送入分析装置的算法模块,算法模块调用全局清晰度判别算法单元,进行判别当前场景对应扫描采样中最清晰的图像,输出图像清晰度判别结果;
清晰度判别算法单元输出的结果,输入有效场景判别算法单元,并输出判别结果;
所述有效场景判别算法单元,判别场景是否有效,无效则直接返回无效结果给分析装置的实验结果管理模块;有效则调用目标定位算法单元;
所述目标定位算法单元进行分析纤维目标位置信息,并输出有效场景上对应目标的结果和轮廓信息;
所述目标定位算法单元输出的结果输入局部清晰度判别算法单元,进行判别当前场景对应扫描采样中局部最清晰的纤维目标,并输出局部清晰判别结果;
所述局部清晰度判别算法单元输出的结果输入目标提取算法单元,处理返回的局部清晰目标定位结果,进行清晰目标提取,并输出提取的清晰目标;
所述目标提取算法单元返回的目标数据,输入直径测量算法单元,进行直径自动测量,输出直径测量结果;
所述目标提取算法单元返回的目标数据,输入目标定性算法单元进行目标自动定性判别,输出目标定性结果。
进一步,所述的全局清晰度判别算法单元,通过图像梯度信息计算出对应被测图像清晰度值;
所述的有效场景判别算法单元,通过深度学习网络模型进行分析判别场景是否有效,将得到的一个或多个最清晰的图像经过有效场景判别算法单元,分别得到三个类别,即简单、复杂、背景;
所述目标定位算法单元通过深度学习网络模型进行分析定位纤维目标位置信息;
所述局部清晰度判别算法单元,通过局部目标图像梯度信息计算出局部被测图像清晰度值;
所述目标提取算法单元,通过返回对应坐标位置,进行清晰目标提取;
所述直径测量算法单元,通过获取目标中心点垂直投影与清晰目标轮廓形成交点,再通过空间坐标转换关系计算出两交点的直线距离;
所述的目标定性算法单元通过深度学习分类网络,同时获得预测的目标类别可以是一类或多类。
进一步,所述的类别至少包括:羊绒、山羊绒、山羊毛、羊驼毛、兔毛、粗兔毛、牦牛绒、牦牛毛、驼绒、驼毛、马海毛、蚕丝、棉、锦纶、腈纶、涤纶、粘胶、亚麻、苎麻、罗布麻、大麻、天丝、乙纶、丙纶、二醋酯、三醋酯、铜氨、骆驼绒、骆驼毛、粗山羊绒、粗牦牛绒、粗驼绒、粗腔毛、绵羊毛、莫代尔纤维、莱赛尔纤维等。
进一步,所述的有效场景判别算法单元通过深度学习网络模型进行分析判别场景是否有效还包括图像预处理的过程,其输入的图像像素要求为N*M,所述的N、M为大于1的自然数。
与现有的技术相比,本发明有益的结果在于:
A.是一款带高精度XYZ三轴自动控制平台,可取代传统的通过手动控制聚焦,手动平移切换场景人工操作的方式,自动化完成实验过程中重复枯燥耗时的传统操作。
B.是一款自动提取有效目标,实现自动测量的系统,取代了传统的人工筛选和手动标注测量等重复操作,且规避了人工测量过程中,个人主观因素导致的测量误差。
C.是一款自动成分定性分析的系统,取代了传统的人脑主观判别成分定性,避免了个人经验上不足和身体疲劳或者不适状态下,导致的定性判别错误。
D.是一款完全意义上的高效准确自动化检测系统,不仅提供了检测效率,还解决了人工成本问题。
E.是一款首次将自动化、计算机软件、控制工程、图像信息处理等多种学科、多种技术融合为一体并综合运用到纺织品纤维检测的应用上,对促进纺织品纤维检测技术进步,全面实现纺织品纤维检测装备的自动化、提升纺织品纤维检测技术和水平、快速评定纺织品纤维品质奠定了技术基础。
F.同时对推动纺织品纤维检测系统的国产化、自动化,降低设备购置成本,提高检测效率,具有较大经济与社会效益。
附图说明
图1为传统纺织品纤维检测系统原理框图
图2为本发明一种纺织品纤维成分自动化分析系统架构图
图3为本发明一种纺织品纤维成分自动化分析系统原理框图
图4为本发明实施例提供的一种纺织品纤维成分自动化分析系统结构原理示意图
图5为本发明实施方式的一种高精度载物台移动过程示意图
图6为本发明实施方式的一种高精度载物台弓子形轨迹移动示意图
图7为本发明一种纺织品纤维成分自动化分析方法流程框图
图8为本发明一种纺织品纤维成分自动化分析方法配置流程图
图9为本发明实施例提供的一种纺织品纤维成分自动化分析方法流程图
图10为本发明一种纺织品纤维成分自动化分析方法实验结果输出流程图
具体实施方式
下面参照附图对上述发明内容的实施方式进行具体描述;
参照附图1可以看到,传统的纺织品纤维分析系统只是通过一些基础硬件拼接组成,没有任何自动化的设计和智能图像分析处理算法,工作过程全程依赖人工来手动操作移动、聚焦、测量,定性判定也完全依赖于检测研究员的经验主观分析;这种工作方式明显效率低下,而且还受人为主观因素干扰。对比附图2,增加XYZ高精度电动平台及相关控制技术之后,即解决了需要人工手动重复操作聚焦、移动等问题,首先从控制机械动作上实现取代了人工手动操作,这样的方式不仅实现了自动化控制,而且重复精度高,避免了长期重复枯燥疲劳的劳动。平台的整个移动过程,完全是模拟人工手动的操作方式,实现X、Y、Z三轴全局扫描采样,工作运行速度快,也减少了人工操作情况下不能保证样本全面扫描覆盖的问题。
参照附图3、附图4,该系统包括一台光学光学显微镜、一套照明系统,本实施例采用LED背景补光灯,一台含图像采集模块的高清相机、一个用于控制X轴Y轴和Z轴运动的控制单元、一台分析装置、一台与主机连接的显示单元、一台XYZ高精度电动平台;
其中,高清相机安装在光学生物显微镜的正上方位置,通过接口装置(USB或网络接口)连接主机,用于实时采集纤维图像;
控制单元通过串口连接XY轴Z轴高精度载物台,并通过USB口或串口或网口连接与主机连接,用于实现对三轴的控制;
分析装置包括控制模块、算法模块、实验结果管理模块,通过控制模块采集高清相机输出的实时图像,通过控制单元控制XYZ高精度电动平台的Z轴聚焦,控制XYZ高精度电动平台沿X轴Y轴方向的移动,三轴扫描式采集清晰图像,并基于清晰图像由算法模块提取目标,通过算法自动测量、识别、计数,通过实验结果管理模块记录数据完成实验,并从数据库输出纤维成分分析实验结果;
XYZ高精度电动平台主要包括高精度Z轴载物台及Z轴高精度电机、X轴和Y轴联动控制高精度载物台、X,Y轴高精度电机,高精度Z轴载物台由控制单元传送信号给Z轴高精度电机,控制高精度Z轴载物台进行Z轴定位及返回,X轴和Y轴联动控制的高精度载物台由控制单元传送信号给X,Y轴高精度电机,控制X轴和Y轴联动控制的高精度载物台进行X,Y轴定位及返回;
上述控制模块包括图像采集单元、实时显示帧单元、待分析帧单元、电动平台控制单元、实验终点判定单元;
上述算法模块包括全局清晰度判别算法单元、有效场景判别算法单元、目标定位算法单元、局部清晰度判别算法单元、目标提取算法单元、直径测量算法单元、目标定性算法单元;
上述实验数据管理模块包括实时实验数据管理单元、数据库存储单元、实验数据查询单元、实验数据导出单元;
参照图7、图8,系统自动化分析前的准备工作,步骤包括:
(1)切片的制作:利用专用的纤维切割器将纤维切成1mm~2mm长的纤维碎末,并分散放置有石蜡的载玻片上,轻微搅拌均匀,让纤维碎末尽量均匀散布在载玻片上,然后盖上盖玻片,最后把制作好的待测样品,放置在XY高精度载物台固定支架上;
(2)配置设置:分析装置连接控制单元,通过控制指令调整好初始位置;
(3)实验配置:参照图8的配置流程,开始展开实验配置,首先控制XY轴高精度电机根据载物台上的切片,配置实验的起始位置,设定后,再控制Z轴高精度电机初步聚焦,设定电机速度,完成实验位置配置项;然后利用标注标尺,进行定标配置,得出定标配置结果生成标尺文件,选择对应标尺文件,标尺配置即完成;最后实验类型选择,选择要进行的是直径实验还是含量实验,根据选择的实验类型,进入实验参数配置,配置实验人,实验名称,样品类型,实验标准等参数;至此整个实验的预处理配置工作完成,后续由系统自动完成纺织品纤维成分自动化分析,实验过程详见以下描述说明。
参照图4、图9,可以清楚的看到本发明实施例一种纺织品纤维成分自动化分析方法及系统的工作原理;基于上述实验开始,此时分析装置的控制模块充当整个实验过程中的管理者角色,主要负责控制高精度控制台移动和聚焦,然后取图送给算法模块分析,根据算法模块分析返回的结果,进行数据记录、管理和实时显示,直至试验完成,将数据结果录入数据库备份;流程中的算法模块的角色,相当于人的大脑分析,首先通过清晰度判别算法单元对采集数据,进行像素级扫描处理,分析计算出图像的梯度值信息,根据梯度值信息进行处理判别,并输出清晰度判别结果;然后再利用有效场景判别算法单元,通过深度学习的网络模型进行场景筛选判别,针对无效、复杂、有效等场景进行判别区分,当场景无效时则直接返回,复杂时保存并记录后再返回,有效时则通过目标定位算法单元进行下一步处理分析;目标定位算法单元,利用深度学习出的网络模型进行分析定位纤维目标位置信息,分析结果输出给局部清晰度判别算法单元;局部清晰度判别算法单元再通过输出的目标位置信息,提取局部梯度值信息进行比对,输出最终的清晰纤维目标的位置信息给目标提取算法单元;目标提取算法单元再根据返回的位置信息,利用空间坐标关系提取对应清晰纤维目标;提取的清晰纤维目标显示送给直径测量算法单元,通过中心点投影法的方式与两边的交点,再根据交点的空间坐标信息换算出目标纤维直径的长度;直径测量完成后,被测目标输入到定性算法单元,定性算法单元利用深度学习分类网络模型,对输入目标进行定性判别,最终输出目标定性结果;整个算法模块处理完成后,将获得的直径和定性结果返回给系统软件控制模块,进行显示和录入数据库;整个过程重复循环,直到运行至终点,控制模块提示实验完成。
上述具体实施系统及方法如下:
控制模块的图像采集单元通过USB3.0获取高清相机的纤维图像并解码成RGB或BGR通过实时显示帧单元进行显示,通过电动平台控制单元的串口发送控制指令给控制单元控制Z轴高精度电机扫描聚焦,图像采集单元获取一个或多个(通常情况下取15-30张,不会影响算法速度)清晰图像,解码成RGB或BGR通过待分析帧单元向算法模块输入待分析的数据,直至当前场景取图完成,然后发送指令给X轴步进电机,控制载物台水平方向移动;
上述同时取完的图像送入分析装置的后台算法模块开始处理,算法模块先是调用全局清晰度判别算法单元,通过图像梯度信息计算出对应被测图像清晰度值,进行判别当前场景对应扫描采样中最清晰的图像,输出图像清晰度判别结果;
清晰度判别算法如下:
步骤1、首先计算图像水平方向梯度,和垂直方向梯度;
步骤2、通过水平方向梯度和垂直方向梯度来计算得到梯度图,计算梯度方向;
步骤3、将得到的梯度图由彩色转为黑白图像,由于图像的梯度去掉了很多不必要的信息(比如不变的背景色),加重了轮廓,通过比较梯度图来得到轮廓最明显的图像也就是得到最清晰的图像xi;
然后,后台算法模块根据清晰度判别算法单元输出的结果,调用有效场景判别算法单元,通过残差18(或残差34,或残差50,或残差101……)深度学习网络模型进行分析判别场景是否有效,输出判别结果;
算法模块根据有效场景判别算法单元输出的结果,判断场景是否有效,无效则直接返回无效结果给分析装置的实验结果管理模块;有效则后台算法模块调用目标定位算法单元;
有效场景判别算法单元将得到的15张中最清晰的图像经过有效场景判别算法单元,分别得到三个类别(简单、复杂、背景),具体包括:
步骤1图像预处理;由于该判断使用的是残差-18网络,输入的图像像素要求为N*M,所以第一步将清晰度判别中最清晰的图像xi通过填充的方法得到训练样本,该处N、M为大于1的自然数,本实施例取200*200;
步骤2、图像识别,以步骤1预处理后的数据作为训练样本构建Resent-18的模型进行图像识别;网络层数的增加会带来超参数的增加,也促进了网络的非线性表达能力;
步骤3、模型训练;
步骤4、测试,将测试集数据经过与步骤1相同的数据预处理,输入到经过训练后的模型中,获得预测的目标类别即得到三类:简单样本、复杂样本、和背景样本,其中将复杂样本和背景样本留存,将得到的简单样本直接输入算法模块的目标定位算法单元。
算法模块的目标定位算法单元通过Mask rcnn深度学习网络模型进行分析定位纤维目标位置信息,并输出有效场景上对应目标的定位结果和轮廓信息;
目标定位算法单元进行分析定位纤维目标位置信息,具体包括:
步骤1、对清晰度判别得到的图像进行标注,将图像中纤维的轮廓标注出来并生成对应的标注文件,例如可以是CSV文件,或json文件;
步骤2、将标注的样本图像和对应的标签文件输入到Mask RCNN检测识别模型中,该模型首先利用权值共享阶段CNN(convolutional neural network卷积神经网络)网络模型进行训练,并在卷积层提取图像特征;在图像特征上进行像素点扫描,得到多个样本窗口,根据样本与真实标签之间重叠部分的IOU(Intersection-over-Union交并比)值训练RPN(Region Proposal Network区域生成网络)网络,得到多个候选窗口;将候选窗口输入到检测分类网络中得到图像的定位信息和识别结果,并生成Mask掩膜;
步骤3、将图像输入到Mask RCNN检测识别模型的网络结构中,检测到纤维的坐标并对识别的结果进行打分,使用非极大值抑制算法来选取分数最高的检测框;
步骤4、将待检测图像预处理后输入到训练好的Mask RCNN检测识别模型,识别出图像上可能是纤维的候选窗口,将候选窗口输入到网络模型中进行分割,得到准确的目标分类框和对应的目标状态以及实例分割的结果,输出掩膜图。
当后台算法模块得到纤维目标定位算法单元输出的结果后,调用局部清晰度判别算法单元,通过局部目标图像梯度信息计算出局部被测图像清晰度值,进行判断当前场景对应扫描采样中最清晰的纤维目标,并输出局部清晰判别结果。
局部清晰度判别算法如下:
步骤1、首先计算局部图像水平方向梯度,和垂直方向梯度;
步骤2、通过水平方向梯度和垂直方向梯度来计算得到梯度图,计算梯度方向;
步骤3、将得到的梯度图有彩色转为黑白图像,由于图像的梯度去掉了很多不必要的信息(比如不变的背景色),加重了轮廓,通过比较梯度图来得到轮廓最明显的图像也就是得到最清晰的图像yi。
后台算法模块根据局部清晰度判别算法单元输出结果,再调用目标提取算法单元处理返回的局部清晰目标定位结果,通过返回对应坐标位置,进行清晰目标提取,并输出提取的清晰目标。
目标提取算法:当得到纤维的目标区域后,由于纤维大小位置以及存在交叉问题,需要通过目标提取算法单元得到每根纤维。
方法一:
①首先由Mask RCNN得到每张图像上纤维的掩码轮廓;
②其次建立与原图相同大小的mask图像,每张图像中存在大小各异的不同纤维,甚至出现交叉,将图像转化为二值图,将其中一根纤维区域的像素值设置为1(白色),其他区域的纤维像素值设置为0(黑色);
③然后将原图与掩码图进行运算得到结果图,及将交叉部分分离,得到单根纤维的掩码图,同理其他位置的纤维依次进行得到每一根纤维的掩码图;
④最后用每根纤维的轮廓计算纤维的面积,通过先验值筛掉大小不合适的纤维。然后由于目标纤维位置的差异(横着、竖着、斜着等),对所有纤维进行旋转,统一位置。
方法二:利用骨架的方式来将交叉纤维分开:
骨架图像SK(X):
①将骨架连续细化,直到结果不再变化时,得到L骨架;
其中
表示二值图像X的序贯细化,∞表示连续作细化直至稳定;
②利用参数化修剪骨架,当修剪终止时,只会留下部分未被抑制的骨架,在离散图像中,修剪后剩余一些复合点即剩下多根纤维的交叉点;
③对复合点进行膨胀运算;
④将膨胀后图像与骨架图像运算,将骨架图中交叉点分开;
⑤计算影响区骨架,由于影响区骨架等同于影响区边界,数字化影响区骨架可以通过粗化循环终止时的结果加以估计;
⑥最后在原始图像中将交叉纤维分离,得到单根纤维的掩码图。
⑦用每根纤维的轮廓计算纤维的面积,通过先验值筛掉大小不合适的纤维。然后由于目标纤维位置的差异(横着、竖着、斜着等),对所有纤维进行旋转,统一位置。
后台算法模块根据目标提取算法单元返回的目标数据,再调用直径测量算法单元处理最终目标数据,通过获取目标中心点垂直投影与清晰目标轮廓形成交点,再通过空间坐标转换关系计算出两交点的直线距离,输出直径测量结果,具体如下:
①求目标中心点;
②在目标轮廓表面找到距离中心最近的点p0;
③求中心点到目标轮廓两侧的投影交点l1,l2;
④然后分别搜索点l1附近是否存在比l1到l2距离更小的值,同时搜索l2附近到l1的距离,判断距离更近的点及为两直径点p1,p2。
直径测量完成后,后台算法模块根据目标提取算法单元返回的目标数据,再调用目标定性算法单元,通过深度学习分类网络进行目标定性判别,输出目标定性结果;
目标定性算法单元进行目标定性判别包括:
方法一、细粒度图像分类方法
步骤1、根据纤维图像的特点,多为长方形,将图像输入设置为448*112*3大小;
步骤2、通过将图像输入到细粒度分类网络,构建纤维识别模型,本方案采用:双线性CNN模型(Bilinear CNN)构建纤维识别模型;Bilinear模型B由四元组组成:B=(f
A,f
B,p,c)。其中f
A,f
B代表特征提取函数,也就是表示网络中的A、B网络,p是一个池化函数(poolingfunction),c表示分类函数。特征特区函数f(·)的作用可以看作一个函数映射f:L×Ι→R
c ×D,将图像I与位置L映射为一个c×D维的特征。而两个特征提取函数的输出,可以通过双线性操作进行汇聚,得到最终bilinear特征:bilinear(l,I,f
A,f
B)=f
A(l,I)
Tf
B(l,I)。其中池化函数p的作用是将所有位置的bilinear特征汇聚成一个特征。采用的池化函数是将所有位置的bilinear特征累加起来:
Bilinear向量即可表示该细粒度图像,后面则为经典的全连接层进行图像分类。
步骤3、模型训练;
步骤4、测试数据,将测试集数据经过与步骤1相同的数据预处理,输入到经过训练后的模型中,同时获得预测的目标类别可以是两类或多类,区别在于训练过程中训练样本给的类别信息,需要多类时,则训练过程中输入为多个类别,一次完成多类处理,该实施例类别包括:羊绒、山羊绒、山羊毛、羊驼毛、兔毛、粗兔毛、牦牛绒、牦牛毛、驼绒、驼毛、马海毛、蚕丝、棉、锦纶、腈纶、涤纶、粘胶、亚麻、苎麻、罗布麻、大麻、天丝、乙纶、丙纶、二醋酯、三醋酯、铜氨、骆驼绒、骆驼毛、粗山羊绒、粗牦牛绒、粗驼绒、粗腔毛、绵羊毛、莫代尔纤维、莱赛尔纤维……等。
方法二、普通分类方法
步骤1、为了满足Inception_resent v2的图像输入要求299*299*3,现将输入尺寸通过填充转换为299*299*3;
步骤2、通过将生成的图像输入到网络Inception_resent v2模型构建纤维识别模型;Inception_resent v2是在inception模块中引入了残差连接,继承了inception v1中的多尺度叠加,融合了1*1和3*3多卷积的不同层特征,将不同层特征相互融合,而且1*1的卷积不仅在前一层的学习表示上添加了非线性激励、提升网络表达能力,在保持尺度不变的前提下大幅度增加非线性特性,加深网络;同时减少通道数,大大降低纬度。将3*3卷积核分解成一维的3*1卷积和1*3卷积,这样既可以进一步降低纬度,加快计算速度,同时进一步加深网络,增加网络性能。最后网络中加入残差模块,加速训练,同时性能得到提升,解决了网络加深带来的收敛问题;
步骤3、模型训练;
步骤4、测试数据,将测试集数据经过与步骤1相同的数据预处理,输入到经过训练后的模型中,同时获得预测的目标类别可以是一类或多类,区别在于训练过程中训练样本给的类别信息,需要多类时,则训练过程中输入为多个类别,一次完成多类处理,该实施例类别包括:羊绒、山羊绒、山羊毛、羊驼毛、兔毛、粗兔毛、牦牛绒、牦牛毛、驼绒、驼毛、马海毛、蚕丝、棉、锦纶、腈纶、涤纶、粘胶、亚麻、苎麻、罗布麻、大麻、天丝、乙纶、丙纶、二醋酯、三醋酯、铜氨、骆驼绒、骆驼毛、粗山羊绒、粗牦牛绒、粗驼绒、粗腔毛、绵羊毛、莫代尔纤维、莱赛尔纤维……等。
分析装置重复以上取图过程一直运动扫描到被测目标当前场景的边缘,再发送指令控制Y轴步进电机,沿着Y轴方向移动,整个取图路线轨迹形成一个“弓”字型,如附图6所示,循环往复直到取完整个切片场景,通过控制模块的实验终点判定单元进行判定,若到终点则实验完成。
如附图5、6所示,为了全覆盖场景的进行三轴扫描式采集清晰图像,高精度电动平台沿X轴Y轴方向的移动轨迹可以是图6所示的弓子形、也可以是一字形、三角形等。
参见图9,最后,实验完成结果录入实验结果管理模块系统数据库,通过实验结果管理模块,存储,查询,导出输出成检测报告,可以在数据查询页面下查询到对应的实验,实验查询可以按周,按月或者按时间精确查找,因此对实验结果管理起来十分方便,也避免了数据丢失或者实验报告损坏导致的困扰;随时可以根据查询结果,输出实验报告。
综上所述,本发明通过一种自动化加人工智能的创新方式,解决了该类传统工作的效率低下,且人工成本高;提供了一种方便、快速、精准实用的检测方式;最后申明该上述内容仅为该发明较佳实验方式,凡与本发明类似或在本发明基础上修改等同替换或者改进,均应包含在本发明的保护范围之内。