CN114170226B - 基于图像增强和卷积神经网络的布草检测方法、装置 - Google Patents
基于图像增强和卷积神经网络的布草检测方法、装置 Download PDFInfo
- Publication number
- CN114170226B CN114170226B CN202210080106.1A CN202210080106A CN114170226B CN 114170226 B CN114170226 B CN 114170226B CN 202210080106 A CN202210080106 A CN 202210080106A CN 114170226 B CN114170226 B CN 114170226B
- Authority
- CN
- China
- Prior art keywords
- linen
- neural network
- convolutional neural
- detection
- lamp tube
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30124—Fabrics; Textile; Paper
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Quality & Reliability (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
本发明公开了一种基于图像增强和卷积神经网络的布草检测方法,包括以下步骤,S1:提供一种布草检测装置,对连续输送的布草进行灯光照射,并对照射区域进行连续拍摄;S2:采集每一张布草的图像信息;S3:利用两个卷积神经网络模型对图像信息进行瑕疵检测;S4:将两个卷积神经网络模型的检测结果进行对比,识别出不合格布草、合格布草和目检布草;S5:对目检布草进行人工目检。本发明能够实现连续化检测,提高了检测效率,另一方面,不会发生漏检的情况,同时采用卷积神经网络模型进行机器学习检测,检测的准确率较高,从而提高了检测精度和检测效果。
Description
技术领域
本发明属于布草检测技术领域,具体涉及一种基于图像增强和卷积神经网络的布草检测方法、装置。
背景技术
酒店的床单被褥等布料用品通常需要布草洗涤设备进行全自动洗脱、烘干、熨平和折叠。由于布草的表面缺陷难以识别,布草在洗涤之后通常需要人工检验,而人工检验效率低,容易出现检验错误和漏检的情况。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一。
为此,本发明提出一种基于图像增强和卷积神经网络的布草检测方法、装置,该基于图像增强和卷积神经网络的布草检测方法具有对布料清洗后的表面进行连续、快速检测的优点。
根据本发明实施例的基于图像增强和卷积神经网络的布草检测方法,包括以下步骤,S1:提供一种布草检测装置,对连续输送的布草进行灯光照射,并对照射区域进行连续拍摄;S2:采集每一张布草的图像信息;S3:利用两个卷积神经网络模型对图像信息进行瑕疵检测;S4:将两个卷积神经网络模型的检测结果进行对比,将两个卷积神经网络模型均检测出瑕疵的布草判定为不合格布草,将两个卷积神经网络模型均未检测出瑕疵的布草判定为合格布草,将一个卷积神经网络模型检测出瑕疵、另一个卷积神经网络模型未检测出瑕疵的布草判定为目检布草;S5:将检测不合格布草和目检布草从合格布草中筛选出来,对目检布草上存在争议的瑕疵处进行人工目检,将通过人工目检的布草并入合格布草中,将未通过人工目检的布草并入不合格布草中;所述S4中,对布草上的瑕疵进行坐标标记,并对检测出瑕疵的图像信息进行存储,在连续五张布草检测出瑕疵的情况下,对五张布草图像进行对比,若五张布草上的瑕疵坐标相同,且图像信息一致,则判定布草检测装置存在污渍,若五张布草上的瑕疵坐标不同,但图像信息一致,则判定布草检测装置存在生物干扰。
本发明的有益效果是,本发明结构简单,利用布草检测装置对布草进行连续拍摄和检测,基于布草的图像信息,采用卷积神经网络模型对图像信息上的瑕疵进行识别,最后将不合格的布草进行识别和筛选,能够实现连续化检测,提高了检测效率,另一方面,不会发生漏检的情况,同时采用卷积神经网络模型进行机器学习检测,检测的准确率较高,从而提高了检测精度和检测效果。
根据本发明一个实施例,所述S2中,利用线扫相机对运动中的一张布草从一端到另一端进行连续拍摄,将拍摄到的多张局部图像整合成一张总图像,从而采集到该张布草的图像信息。
根据本发明一个实施例,所述S3包括,S31:对布草的图像信息中出现的瑕疵特征和正常特征进行取样和分类,从而建立布草图像的样本库;S32:将样本库复制为两份,将两份样本库分别划分训练集、验证集和测试集,对其中一份样本库中的样本图像进行增强处理;S33:对两份样本库分别构建并训练卷积神经网络模型;S34:对训练后的两个卷积神经网络模型进行测试,当测试的准确率满足要求时,将训练后的两个卷积神经网络模型同时运用到布草检测装置中。
根据本发明一个实施例,所述S31中,样本库中包括:脏污的样本图像、黄斑的样本图像、毛发的样本图像、破洞的样本图像、褶皱的样本图像、异物的样本图像和正常布草的样本图像。
根据本发明一个实施例,一种布草检测装置,用于实现上述的基于图像增强和卷积神经网络的布草检测方法,包括:龙门架,多个布草沿x向从所述龙门架内连续通过;第一照明装置,所述第一照明装置设于所述龙门架上,所述第一照明装置位于所述布草的下方,所述第一照明装置自下而上照射所述布草;第二照明装置,所述第二照明装置设于所述龙门架上,所述第二照明装置位于所述布草的上方,所述第二照明装置自上而下照射所述布草;多个视觉装置,多个所述视觉装置均设于所述龙门架上,多个所述视觉装置沿y向间隔开均匀布置,所述视觉装置位于所述布草的正上方,所述视觉装置用于对所述布草进行拍摄,多个所述视觉装置在y向的拍摄距离大于所述布草在y向的宽度;检测模块,多个所述视觉装置均与所述检测模块通讯连接,所述检测模块内存储有两个卷积神经网络模型,所述检测模块用于接收多个所述视觉装置拍摄的图像,并生成每一张布草对应的图像信息,利用两个卷积神经网络模型对图像信息进行瑕疵检测,并对检测出瑕疵的图像信息进行存储。
根据本发明一个实施例,所述第一照明装置包括:横梁,所述横梁左右两端均与所述龙门架相连;第一灯管组件,所述第一灯管组件设于所述横梁的正上方,所述第一灯管组件沿y向设置,所述第一灯管组件沿y向的长度大于所述布草在y向的宽度,所述第一灯管组件与所述横梁之间具有间隙;多个导向件,多个所述导向件均匀间隔开设置在所述横梁上,所述导向件位于所述横梁与所述布草输送方向相对的一侧,所述导向件用于引导所述布草输送至所述第一灯管组件的上方;多个垫块,多个所述垫块均匀间隔开设置在所述间隙内,所述垫块下端与所述横梁相连,所述垫块上端与所述第一灯管组件相连。
根据本发明一个实施例,所述第一灯管组件的截面为弓形,所述第一灯管组件的上表面为圆弧面,所述导向件的一部分与所述第一灯管组件的上表面相贴,以将所述布草导向输送至所述第一灯管组件的上表面,所述第一灯管组件的左右两端均具有限位凸起,以对所述布草进行限位输送。
根据本发明一个实施例,所述间隙内具有用于输送所述布草的多个传送带,多个所述传送带沿y向均匀间隔开设置,所述传送带上承载有所述布草,所述横梁的侧面开设有多个安装槽,所述导向件包括安装部和导向部,所述安装部通过螺钉与所述安装槽相连,所述导向部设于所述安装部的上方,所述导向部与所述第一灯管组件的上表面相切,所述导向部的上沿不高于所述第一灯管组件的上沿,所述导向部的下沿不高于所述传送带所在平面。
根据本发明一个实施例,所述第二照明装置包括:第一照明组件和第二照明组件,所述第一照明组件和所述第二照明组件结构相同,且关于所述第一灯管组件左右对称布置,所述第一照明组件包括:沿y向设置的第二灯管组件和多个用于连接所述龙门架和所述第二灯管组件的调节组件,多个所述调节组件沿y向间隔开均匀布置,所述调节组件用于调节所述第二灯管组件的位置和照射角度。
根据本发明一个实施例,所述视觉装置包括:安装板、位置调节部、相机和清洁件,所述安装板水平设在所述龙门架上,所述相机通过所述位置调节部与所述安装板的下端相连,所述位置调节部带动所述相机在三维空间内微调,所述清洁件设于所述安装板的下端,所述清洁件上具有吹气口,所述吹气口释放的气体吹向所述相机上的镜头。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
本发明的上述和/或附加的方面和优点从下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本发明的基于图像增强和卷积神经网络的布草检测方法的流程图;
图2是根据本发明的基于图像增强和卷积神经网络的布草检测方法中S3的流程图;
图3是未增强前的图像;
图4是增强后的图像;
图5是根据本发明的布草检测装置的立体结构示意图;
图6是图5中A处的结构示意图;
图7是根据本发明的布草检测装置中第一照明装置的局部示意图;
图8是图5中B处的结构示意图;
图9是根据本发明的布草检测装置中视觉装置的局部示意图;
图10是根据本发明的布草检测装置中视觉装置的局部示意图;
图11是根据本发明的布草检测装置中第二照明装置的局部示意图;
附图标记:
龙门架1、第一照明装置2、第二照明装置3、视觉装置4、排风扇5、横梁21、第一灯管组件22、导向件23、传送带24、垫块25、第一照明组件31、第二照明组件32、安装槽211、限位凸起221、安装部231、导向部232、安装板41、位置调节部42、相机43、清洁件44、上板421、第一肋板422、竖板423、z向调节板424、水平板425、y向调节板426、x向调节板427、锁紧块428、第二肋板429、第一安装块311、x向杆312、z向杆313、第一连接块314、第二连接块315、y向杆316、第二安装块317、第二灯管组件318。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
下面参考附图具体描述本发明实施例的基于图像增强和卷积神经网络的布草检测方法、装置。
如图1至图2所示,根据本发明实施例的基于图像增强和卷积神经网络的布草检测方法,包括以下步骤,S1:提供一种布草检测装置,对连续输送的布草进行灯光照射,并对照射区域进行连续拍摄;S2:采集每一张布草的图像信息;S3:利用两个卷积神经网络模型对图像信息进行瑕疵检测;S4:将两个卷积神经网络模型的检测结果进行对比,将两个卷积神经网络模型均检测出瑕疵的布草判定为不合格布草,将两个卷积神经网络模型均未检测出瑕疵的布草判定为合格布草,将一个卷积神经网络模型检测出瑕疵、另一个卷积神经网络模型未检测出瑕疵的布草判定为目检布草;S5:将检测不合格布草和目检布草从合格布草中筛选出来,对目检布草上存在争议的瑕疵处进行人工目检,将通过人工目检的布草并入合格布草中,将未通过人工目检的布草并入不合格布草中;所述S4中,对布草上的瑕疵进行坐标标记,并对检测出瑕疵的图像信息进行存储,在连续五张布草检测出瑕疵的情况下,对五张布草图像进行对比,若五张布草上的瑕疵坐标相同,且图像信息一致,则判定布草检测装置存在污渍,若五张布草上的瑕疵坐标不同,但图像信息一致,则判定布草检测装置存在生物干扰。
换言之,利用两个卷积神经网络模型分别对布草进行检测,当都检测出瑕疵时,则该布草不合格,当都未检测出瑕疵时,则该布草合格,若两个卷积神经网络模型出现了不同的检测结果,则将该布草进行人工目检;由于布草检测装置在采集图像信息时需要用到相机等拍摄设备,在连续五张布草都检测出瑕疵的情况下,对五张布草图像进行对比,若五张布草上的瑕疵坐标相同,且图像信息一致,那么布草检测装置的镜头上存在污渍,需要擦除,若五张布草上的瑕疵坐标不同,但图像信息一致,布草检测装置上存在爬行动物、飞蛾、苍蝇等影响拍摄的生物,需要对布草检测装置进行维护。
本申请采用的卷积神经网络模型为VGGNet模型,VGGNet把网络分成了5段,每段都把多个3*3的卷积网络串联在一起,每段卷积后面接一个最大池化层,最后面是3个全连接层和一个softmax层。VGGNet模型具有以下优点:全部使用3 * 3的卷积核和2 * 2的池化核,参数集中在全连接层。VGG使用多个较小卷积核(3x3)的卷积层代替一个卷积核较大的卷积层,一方面可以减少参数,另一方面相当于进行了更多的非线性映射,可以增加网络的拟合/表达能力。结构简洁,层数更深、特征图更宽。多个小卷积核比单个大卷积核性能好,随着深度增加,分类性能逐渐提高,LRN层无性能增益。同一段卷积层使用相同的卷积核数,每增加一段,卷积核数量增加一倍。通过Multi-Scale方法(训练和预测都使用)对数据进行数据增强处理,将原始图像缩放到不同尺寸S,然后再随机裁剪成224 * 224的图片,这样能增加很多数据量,对于防止过拟合有很不错的效果。
本发明的有益效果是,本发明结构简单,利用布草检测装置对布草进行连续拍摄和检测,基于布草的图像信息,采用卷积神经网络模型对图像信息上的瑕疵进行识别,最后将不合格的布草进行识别和筛选,能够实现连续化检测,提高了检测效率,另一方面,不会发生漏检的情况,同时采用卷积神经网络模型进行机器学习检测,检测的准确率较高,从而提高了检测精度和检测效果。
进一步地,S2中,利用线扫相机对运动中的一张布草从一端到另一端进行连续拍摄,将拍摄到的多张局部图像整合成一张总图像,从而采集到该张布草的图像信息。也就是说,对于面积较大的布草,在布草运动时,线扫相机每次只能拍摄到布草的一部分图像,进行多次拍摄组合后形成总图像,尽可能减少了线扫相机的设置,解决了对大面积布草拍摄不全的问题。其中,采用的线扫相机的像素为500W,拍摄到的布草图像大小为2560*1920DPI。
更进一步地,S3包括,S31:对布草的图像信息中出现的瑕疵特征和正常特征进行取样和分类,从而建立布草图像的样本库;S32:将样本库复制为两份,将两份样本库分别划分训练集、验证集和测试集,对其中一份样本库中的样本图像进行增强处理;S33:对两份样本库分别构建并训练卷积神经网络模型;S34:对训练后的两个卷积神经网络模型进行测试,当测试的准确率满足要求时,将训练后的两个卷积神经网络模型同时运用到布草检测装置中。
优选地,S32中,样本图像进行增强处理主要为:提高样本图像的明暗对比度,使样本图像上的细节得到增强;采用算数均值滤波器来降低样本图像的噪声,剔除掉样本图像上的部分干扰特征;增强灯光照射区域的边缘特征,对灯光照射区域以内的特征进行提取和检测,降低检测的工作量,提高检测效率。
图像增强的部分核心代码如下:
//ace 自适应对比度均衡研究
#include "stdafx.h"
#include <iostream>
#include "opencv2/core/core.hpp"
#include "opencv2/highgui/highgui.hpp"
#include "opencv2/imgproc/imgproc.hpp"
using namespace std;
using namespace cv;
//点乘法 elementWiseMultiplication
cv::Mat EWM(cv::Mat m1,cv::Mat m2){
Mat dst=m1.mul(m2);
return dst;
}
//图像局部对比度增强算法
cv::Mat ACE(cv::Mat src,int C = 4,int n=20,int MaxCG = 5){
Mat meanMask;
Mat varMask;
Mat meanGlobal;
Mat varGlobal;
Mat dst;
Mat tmp;
Mat tmp2;
blur(src.clone(),meanMask,Size(50,50));//meanMask为局部均值
tmp = src - meanMask;
varMask = EWM(tmp,tmp);
blur(varMask,varMask,Size(50,50)); //varMask为局部方差
//换算成局部标准差
varMask.convertTo(varMask,CV_32F);
for (int i=0;i<varMask.rows;i++){
for (int j=0;j<varMask.cols;j++){
varMask.at<float>(i,j) = (float)sqrt(varMask.at<float>(i,j));
}
}
meanStdDev(src,meanGlobal,varGlobal); //meanGlobal为全局均值varGlobal为全局标准差
tmp2 = varGlobal/varMask;
for (int i=0;i<tmp2.rows;i++){
for (int j=0;j<tmp2.cols;j++){
if (tmp2.at<float>(i,j)>MaxCG){
tmp2.at<float>(i,j) = MaxCG;
}
}
}
tmp2.convertTo(tmp2,CV_8U);
tmp2 = EWM(tmp2,tmp);
dst = meanMask + tmp2;
imshow("D方法",dst);
dst = meanMask + C*tmp;
imshow("C方法",dst);
return dst;
}
void main()
{
Mat src = imread("plant.bmp",0);
imshow("src",src);
ACE(src);
waitKey();
}
更为优选地,S31中,样本库中包括:脏污的样本图像、黄斑的样本图像、毛发的样本图像、破洞的样本图像、褶皱的样本图像、异物的样本图像和正常布草的样本图像。
如图3和图4所示,对于有花纹的布草,在清洗之后,图像未增强的布草上颜色较浅的缺陷能够被直观的观察到,图像增强后布草本身花纹对比度增强和边缘提取后布草上部分较浅瑕疵无法被识别。两个检测模型在检测时同时使用能够在特殊情况下对布草上缺陷进行识别。
也就是说,两个卷积神经网络模型中一个是针对图像增强的检测模型,另一个是针对未处理图像的检测模型,将两个检测模型在检测时同时使用,一方面两个检测结果可以相互对比以提高了检测精度,另一方面,当其中一个检测模型未检测中瑕疵时,由另一个检测模型进行复检,避免发生遗漏。
如图5至图11所示,本发明还公开了一种布草检测装置,用于实现上述的基于图像增强和卷积神经网络的布草检测方法,包括:龙门架1、第一照明装置2、第二照明装置3、多个视觉装置4和检测模块,多个布草沿x向从龙门架1内连续通过;第一照明装置2设于龙门架1上,第一照明装置2位于布草的下方,第一照明装置2自下而上照射布草;第二照明装置3设于龙门架1上,第二照明装置3位于布草的上方,第二照明装置3自上而下照射布草;多个视觉装置4均设于龙门架1上,多个视觉装置4沿y向间隔开均匀布置,视觉装置4位于布草的正上方,视觉装置4用于对布草进行拍摄,多个视觉装置4在y向的拍摄距离大于布草在y向的宽度;多个视觉装置4均与检测模块通讯连接,检测模块内存储有两个卷积神经网络模型,检测模块用于接收多个视觉装置4拍摄的图像,并生成每一张布草对应的图像信息,利用两个卷积神经网络模型对图像信息进行瑕疵检测,并对检测出瑕疵的图像信息进行存储。优选地,检测模块是电脑。
如图5所示,利用龙门架1可以方便的架设在布草折叠机的输送机构上,第一照明装置2两端分别与龙门架1两侧相连,布草位于第一照明装置2上,并从龙门架1中间穿过,第二照明装置3两端分别与龙门架1两侧相连,多个视觉装置4安装在龙门架1上部,多个视觉装置4组成的拍摄宽度大于布草的宽度,第二照明装置3位于视觉装置4拍摄方向的侧面,避免影响拍摄。
如图6和图7所示,第一照明装置2包括:横梁21、第一灯管组件22、多个导向件23和多个垫块25,横梁21左右两端均与龙门架1相连;第一灯管组件22设于横梁21的正上方,第一灯管组件22沿y向设置,第一灯管组件22沿y向的长度大于布草在y向的宽度,第一灯管组件22与横梁21之间具有间隙;多个导向件23均匀间隔开设置在横梁21上,导向件23位于横梁21与布草输送方向相对的一侧,导向件23用于引导布草输送至第一灯管组件22的上方;多个垫块25均匀间隔开设置在间隙内,垫块25下端与横梁21相连,垫块25上端与第一灯管组件22相连。
根据本发明一个实施例,第一灯管组件22的截面为弓形,第一灯管组件22的上表面为圆弧面,导向件23的一部分与第一灯管组件22的上表面相贴,以将布草导向输送至第一灯管组件22的上表面,第一灯管组件22的左右两端均具有限位凸起221,以对布草进行限位输送。第一灯管组件22从下向上照射,使得布草上有瑕疵的地方能够在视觉装置4上更加凸显出来,从而提高检测识别的精度。
进一步地,间隙内具有用于输送布草的多个传送带24,多个传送带24沿y向均匀间隔开设置,传送带24上承载有布草,横梁21的侧面开设有多个安装槽211,导向件23包括安装部231和导向部232,安装部231通过螺钉与安装槽211相连,导向部232设于安装部231的上方,导向部232与第一灯管组件22的上表面相切,导向部232的上沿不高于第一灯管组件22的上沿,导向部232的下沿不高于传送带24所在平面。也就是说,布草在传送带24上输送时,输送方向前端有倾斜的导向部232,布草会沿着导向部232从第一灯管组件22的上方越过,在布草从第一灯管组件22上方经过的同时进行拍摄检测,确保布草上拍摄区域下方能够被照射到。换言之,导向件23可以对输送过程中的布草进行导向,使布草抬起并从第一灯管组件22上方通过,然后重新落在传送带24上进行输送,导向部232为斜面,同时第一灯管组件22上表面为圆弧面,使得布草运动过程中不受阻碍,布草输送更加流畅,布草在第一灯管组件22上发生微微弯曲,布草得到了延展,避免了平面输送时发生部分褶皱的情况,同时在第一照明装置2和第二照明装置3的照射下,更加能凸显在视觉装置4中。
根据本发明一个实施例,第二照明装置3包括:第一照明组件31和第二照明组件32,第一照明组件31和第二照明组件32结构相同,且关于第一灯管组件22左右对称布置,第一照明组件31包括:沿y向设置的第二灯管组件318和多个用于连接龙门架1和第二灯管组件318的调节组件,多个调节组件沿y向间隔开均匀布置,调节组件用于调节第二灯管组件318的位置和照射角度。优选地,第二灯管组件318朝向第一灯管组件22,这样使得光线更加集中,左右对称照射,使得第一灯管组件22上表面的圆弧面都能被照亮。
如图11所示,调节组件包括:第一安装块311、x向杆312、z向杆313、第一连接块314、第二连接块315、y向杆316和第二安装块317,第一安装块311固设在龙门架1上,x向杆312沿x向设置,x向杆312的一端与第一安装块311相连,z向杆313沿z向设置,z向杆313的一端与x向杆312的另一端通过第一连接块314相连,y向杆316沿y向设置,y向杆316的一端与z向杆313的另一端通过第二连接块315相连,y向杆316的另一端与第二灯管组件318通过第二安装块317相连。
优选地,第一连接块314和第二连接块315都是通过螺钉进行锁紧固定的,也就是说,z向杆313可绕着x向杆312转动,而y向杆316可绕着z向杆313转动,第二安装块317可绕着y向杆316转动,这样实现了第二灯管组件318在多个方向可调。
如图8所示,视觉装置4包括:安装板41、位置调节部42、相机43和清洁件44,安装板41水平设在龙门架1上,相机43通过位置调节部42与安装板41的下端相连,位置调节部42带动相机43在三维空间内微调,清洁件44设于安装板41的下端,清洁件44上具有吹气口,吹气口释放的气体吹向相机43上的镜头。通过位置调节部42调整相机43与第一灯管组件22之间的相对位置,确保所有相机43拍摄到的画面能够组成一整张布草,避免有局部漏拍情况发生。清洁件44,可以对相机43的镜头进行清理,避免布草上的纤维对镜头造成阻挡。
如图9和图10所示,位置调节部42包括:上板421、第一肋板422、竖板423、z向调节板424、水平板425、y向调节板426、x向调节板427、锁紧块428和第二肋板429,上板421与安装板41相连,竖板423竖直设在上板421的下方,竖板423与上板421之间的夹角通过第一肋板422相连,z向调节板424平行设于竖板423的一侧,水平板425水平设在z向调节板424上,水平板425与z向调节板424之间的夹角通过第二肋板429相连,y向调节板426设在水平板425的上表面,x向调节板427设在y向调节板426的上表面,锁紧块428设在x向调节板427的侧面,相机43位于锁紧块428与x向调节板427之间。相机43的拍摄角度可通过位置调节部42进行调节,根据不同拍摄要求进行调整,提高了相机43的拍摄效果,其中相机43为线扫相机。
进一步地,竖板423上开设有z向导槽,z向调节板424上具有与z向导槽相配合的z向凸起,z向调节板424上开设有用于连接竖板423的z向腰型孔,以使z向调节板424相对于竖板423在z向可调节,水平板425上开设有y向导槽,y向调节板426上具有与y向导槽相配合的y向凸起,y向导槽内开设有用于连接y向调节板426的y向腰型孔,以使y向调节板426相对于水平板425在y向可调节,x向调节板427上开设有用于连接y向调节板426的x向腰型孔,以使x向调节板427相对于y向调节板426在x向可调节。也就是说,z向导槽和y向导槽均用于导向作用,z向腰型孔、y向腰型孔和x向腰型孔用于容纳螺钉,z向腰型孔的长度方向为z向,y向腰型孔的长度方向为y向,x向腰型孔的长度方向为x向,那么在锁紧固定时,相机43可实现xyz三个方向的微调节。
根据本发明一个实施例,龙门架1的两侧各设有一个排风扇5,排风扇5与视觉装置4位于同一水平高度。龙门架1上安装有外壳进行保护,设置排风扇5可以对内部视觉装置4进行通风和除尘。
在布草的输送路径上设置第一照明装置2、第二照明装置3和视觉装置4,从而对布草进行拍摄,利用视觉技术,自动识别出布草上是否存在缺陷,以便于对有缺陷的布草进行分选,提高了布草的检测效率,避免了发生漏检情况,将第二照明装置3和视觉装置4均设置为可调节,提高了适用范围,满足了特点角度检测的需求。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示意性实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
Claims (4)
1.一种基于图像增强和卷积神经网络的布草检测方法,其特征在于,包括以下步骤,
S1:提供一种布草检测装置,对连续输送的布草进行灯光照射,并对照射区域进行连续拍摄;
S2:采集每一张布草的图像信息;
S3:利用两个卷积神经网络模型对图像信息进行瑕疵检测;
S4:将两个卷积神经网络模型的检测结果进行对比,将两个卷积神经网络模型均检测出瑕疵的布草判定为不合格布草,将两个卷积神经网络模型均未检测出瑕疵的布草判定为合格布草,将一个卷积神经网络模型检测出瑕疵、另一个卷积神经网络模型未检测出瑕疵的布草判定为目检布草;
S5:将检测不合格布草和目检布草从合格布草中筛选出来,对目检布草上存在争议的瑕疵处进行人工目检,将通过人工目检的布草并入合格布草中,将未通过人工目检的布草并入不合格布草中;
所述S4中,对布草上的瑕疵进行坐标标记,并对检测出瑕疵的图像信息进行存储,在连续五张布草检测出瑕疵的情况下,对五张布草图像进行对比,若五张布草上的瑕疵坐标相同,且图像信息一致,则判定布草检测装置存在污渍,若五张布草上的瑕疵坐标不同,但图像信息一致,则判定布草检测装置存在生物干扰;
所述布草检测装置包括:
龙门架(1),多个布草沿x向从所述龙门架(1)内连续通过;
第一照明装置(2),所述第一照明装置(2)设于所述龙门架(1)上,所述第一照明装置(2)位于所述布草的下方,所述第一照明装置(2)自下而上照射所述布草;
第二照明装置(3),所述第二照明装置(3)设于所述龙门架(1)上,所述第二照明装置(3)位于所述布草的上方,所述第二照明装置(3)自上而下照射所述布草;
多个视觉装置(4),多个所述视觉装置(4)均设于所述龙门架(1)上,多个所述视觉装置(4)沿y向间隔开均匀布置,所述视觉装置(4)位于所述布草的正上方,所述视觉装置(4)用于对所述布草进行拍摄,多个所述视觉装置(4)在y向的拍摄距离大于所述布草在y向的宽度;
检测模块,多个所述视觉装置(4)均与所述检测模块通讯连接,所述检测模块内存储有两个卷积神经网络模型,所述检测模块用于接收多个所述视觉装置(4)拍摄的图像,并生成每一张布草对应的图像信息,利用两个卷积神经网络模型对图像信息进行瑕疵检测,并对检测出瑕疵的图像信息进行存储;
所述第一照明装置(2)包括:
横梁(21),所述横梁(21)左右两端均与所述龙门架(1)相连;
第一灯管组件(22),所述第一灯管组件(22)设于所述横梁(21)的正上方,所述第一灯管组件(22)沿y向设置,所述第一灯管组件(22)沿y向的长度大于所述布草在y向的宽度,所述第一灯管组件(22)与所述横梁(21)之间具有间隙;
多个导向件(23),多个所述导向件(23)均匀间隔开设置在所述横梁(21)上,所述导向件(23)位于所述横梁(21)与所述布草输送方向相对的一侧,所述导向件(23)用于引导所述布草输送至所述第一灯管组件(22)的上方;
多个垫块(25),多个所述垫块(25)均匀间隔开设置在所述间隙内,所述垫块(25)下端与所述横梁(21)相连,所述垫块(25)上端与所述第一灯管组件(22)相连;
所述第一灯管组件(22)的截面为弓形,所述第一灯管组件(22)的上表面为圆弧面,所述导向件(23)的一部分与所述第一灯管组件(22)的上表面相贴,以将所述布草导向输送至所述第一灯管组件(22)的上表面,所述第一灯管组件(22)的左右两端均具有限位凸起(221),以对所述布草进行限位输送;
所述间隙内具有用于输送所述布草的多个传送带(24),多个所述传送带(24)沿y向均匀间隔开设置,所述传送带(24)上承载有所述布草,所述横梁(21)的侧面开设有多个安装槽(211),所述导向件(23)包括安装部(231)和导向部(232),所述安装部(231)通过螺钉与所述安装槽(211)相连,所述导向部(232)设于所述安装部(231)的上方,所述导向部(232)与所述第一灯管组件(22)的上表面相切,所述导向部(232)的上沿不高于所述第一灯管组件(22)的上沿,所述导向部(232)的下沿不高于所述传送带(24)所在平面;
所述第二照明装置(3)包括:第一照明组件(31)和第二照明组件(32),所述第一照明组件(31)和所述第二照明组件(32)结构相同,且关于所述第一灯管组件(22)左右对称布置,所述第一照明组件(31)包括:沿y向设置的第二灯管组件(318)和多个用于连接所述龙门架(1)和所述第二灯管组件(318)的调节组件,多个所述调节组件沿y向间隔开均匀布置,所述调节组件用于调节所述第二灯管组件(318)的位置和照射角度;
所述视觉装置(4)包括:安装板(41)、位置调节部(42)、相机(43)和清洁件(44),所述安装板(41)水平设在所述龙门架(1)上,所述相机(43)通过所述位置调节部(42)与所述安装板(41)的下端相连,所述位置调节部(42)带动所述相机(43)在三维空间内微调,所述清洁件(44)设于所述安装板(41)的下端,所述清洁件(44)上具有吹气口,所述吹气口释放的气体吹向所述相机(43)上的镜头。
2.根据权利要求1所述的基于图像增强和卷积神经网络的布草检测方法,其特征在于,所述S2中,利用线扫相机对运动中的一张布草从一端到另一端进行连续拍摄,将拍摄到的多张局部图像整合成一张总图像,从而采集到该张布草的图像信息。
3.根据权利要求2所述的基于图像增强和卷积神经网络的布草检测方法,其特征在于,所述S3包括,
S31:对布草的图像信息中出现的瑕疵特征和正常特征进行取样和分类,从而建立布草图像的样本库;
S32:将样本库复制为两份,将两份样本库分别划分训练集、验证集和测试集,对其中一份样本库中的样本图像进行增强处理;
S33:对两份样本库分别构建并训练卷积神经网络模型;
S34:对训练后的两个卷积神经网络模型进行测试,当测试的准确率满足要求时,将训练后的两个卷积神经网络模型同时运用到布草检测装置中。
4.根据权利要求3所述的基于图像增强和卷积神经网络的布草检测方法,其特征在于,所述S31中,样本库中包括:脏污的样本图像、黄斑的样本图像、毛发的样本图像、破洞的样本图像、褶皱的样本图像、异物的样本图像和正常布草的样本图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210080106.1A CN114170226B (zh) | 2022-01-24 | 2022-01-24 | 基于图像增强和卷积神经网络的布草检测方法、装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210080106.1A CN114170226B (zh) | 2022-01-24 | 2022-01-24 | 基于图像增强和卷积神经网络的布草检测方法、装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114170226A CN114170226A (zh) | 2022-03-11 |
CN114170226B true CN114170226B (zh) | 2022-08-19 |
Family
ID=80489476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210080106.1A Active CN114170226B (zh) | 2022-01-24 | 2022-01-24 | 基于图像增强和卷积神经网络的布草检测方法、装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114170226B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN204825440U (zh) * | 2015-06-16 | 2015-12-02 | 上海鸿尔机械有限公司 | 便于检测布草缺陷的送布机 |
CN106556604A (zh) * | 2016-11-21 | 2017-04-05 | 电子科技大学中山学院 | 一种可检查并标记瑕疵的查布机及其使用方法 |
CN110544211A (zh) * | 2019-07-26 | 2019-12-06 | 纵目科技(上海)股份有限公司 | 一种镜头付着物的检测方法、系统、终端和存储介质 |
CN111047655A (zh) * | 2020-01-10 | 2020-04-21 | 北京盛开互动科技有限公司 | 基于卷积神经网络的高清摄像机布料疵点检测方法 |
CN111462051A (zh) * | 2020-03-14 | 2020-07-28 | 华中科技大学 | 一种基于深度神经网络的布匹疵点检测方法和系统 |
CN111505013A (zh) * | 2020-04-20 | 2020-08-07 | 刘金涛 | 基于深度学习的暖边间隔条机器视觉检测装置及方法 |
CN111862064A (zh) * | 2020-07-28 | 2020-10-30 | 桂林电子科技大学 | 一种基于深度学习的银质丝材表面瑕疵识别方法 |
CN111929327A (zh) * | 2020-09-09 | 2020-11-13 | 深兰人工智能芯片研究院(江苏)有限公司 | 布匹缺陷检测方法和装置 |
CN112505049A (zh) * | 2020-10-14 | 2021-03-16 | 上海互觉科技有限公司 | 基于蒙版抑制的精密零组件表面缺陷检测方法和系统 |
CN113689493A (zh) * | 2020-05-18 | 2021-11-23 | 杭州海康威视数字技术股份有限公司 | 镜头附着物检测方法、装置、电子设备和存储介质 |
CN113723325A (zh) * | 2021-09-03 | 2021-11-30 | 安徽大学绿色产业创新研究院 | 一种装配式预制构件的工装缺陷检测系统 |
CN113777030A (zh) * | 2021-07-08 | 2021-12-10 | 杭州信畅信息科技有限公司 | 一种基于机器视觉的布料表面缺陷检测装置及方法 |
CN216208628U (zh) * | 2021-10-28 | 2022-04-05 | 苏州史托格自动化设备制造有限公司 | 适用于电池移印的检测设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN208869852U (zh) * | 2018-09-30 | 2019-05-17 | 北京蓝天清科控股有限公司 | 布草折叠机和布草分拣系统 |
CN209815280U (zh) * | 2019-03-13 | 2019-12-20 | 昆山新井田智能设备有限公司 | 布匹卷料输送机及验布装置 |
CN208815329U (zh) * | 2019-03-28 | 2019-05-03 | 北京三快在线科技有限公司 | 一种布草检测系统 |
CN214749840U (zh) * | 2021-03-01 | 2021-11-16 | 湖北工程学院 | 一种基于2d探测和3d测量的视觉检测装置 |
CN215449014U (zh) * | 2021-05-19 | 2022-01-07 | 苏州意玛斯砂光设备有限公司 | 一种砂光机用带有调节机构的视觉检测装置 |
-
2022
- 2022-01-24 CN CN202210080106.1A patent/CN114170226B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN204825440U (zh) * | 2015-06-16 | 2015-12-02 | 上海鸿尔机械有限公司 | 便于检测布草缺陷的送布机 |
CN106556604A (zh) * | 2016-11-21 | 2017-04-05 | 电子科技大学中山学院 | 一种可检查并标记瑕疵的查布机及其使用方法 |
CN110544211A (zh) * | 2019-07-26 | 2019-12-06 | 纵目科技(上海)股份有限公司 | 一种镜头付着物的检测方法、系统、终端和存储介质 |
CN111047655A (zh) * | 2020-01-10 | 2020-04-21 | 北京盛开互动科技有限公司 | 基于卷积神经网络的高清摄像机布料疵点检测方法 |
CN111462051A (zh) * | 2020-03-14 | 2020-07-28 | 华中科技大学 | 一种基于深度神经网络的布匹疵点检测方法和系统 |
CN111505013A (zh) * | 2020-04-20 | 2020-08-07 | 刘金涛 | 基于深度学习的暖边间隔条机器视觉检测装置及方法 |
CN113689493A (zh) * | 2020-05-18 | 2021-11-23 | 杭州海康威视数字技术股份有限公司 | 镜头附着物检测方法、装置、电子设备和存储介质 |
CN111862064A (zh) * | 2020-07-28 | 2020-10-30 | 桂林电子科技大学 | 一种基于深度学习的银质丝材表面瑕疵识别方法 |
CN111929327A (zh) * | 2020-09-09 | 2020-11-13 | 深兰人工智能芯片研究院(江苏)有限公司 | 布匹缺陷检测方法和装置 |
CN112505049A (zh) * | 2020-10-14 | 2021-03-16 | 上海互觉科技有限公司 | 基于蒙版抑制的精密零组件表面缺陷检测方法和系统 |
CN113777030A (zh) * | 2021-07-08 | 2021-12-10 | 杭州信畅信息科技有限公司 | 一种基于机器视觉的布料表面缺陷检测装置及方法 |
CN113723325A (zh) * | 2021-09-03 | 2021-11-30 | 安徽大学绿色产业创新研究院 | 一种装配式预制构件的工装缺陷检测系统 |
CN216208628U (zh) * | 2021-10-28 | 2022-04-05 | 苏州史托格自动化设备制造有限公司 | 适用于电池移印的检测设备 |
Non-Patent Citations (2)
Title |
---|
Detection of Weft Knitting Fabric Defects Based on Windowed Texture Information And Threshold Segmentation by CNN;Y. Sun,H. Long;《International Conference on Digital Image Processing》;20091231;论文第35-52页 * |
基于深度神经网络的面料瑕疵检测识别;纪鹏;《中国优秀博硕士学位论文全文数据库(硕士)工程科技Ⅰ辑》;20210815;论文第292-296页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114170226A (zh) | 2022-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6867712B2 (ja) | Oledスタック膜の品質査定のためのシステム、デバイス、および方法 | |
US8254659B2 (en) | Method and apparatus for visually inspecting an object | |
JP4726983B2 (ja) | 欠陥検査システム、並びに、それに用いる、欠陥検査用撮影装置、欠陥検査用画像処理装置、欠陥検査用画像処理プログラム、記録媒体、および欠陥検査用画像処理方法 | |
CN105745523A (zh) | 用于检查缠绕的光纤的系统和方法 | |
CN102224412A (zh) | 成形片材的缺陷检查装置 | |
KR100938318B1 (ko) | 직물 검사방법과 그 장치 | |
KR20120109548A (ko) | 외관 검사 장치 | |
CN114486903A (zh) | 一种灰度自适应的卷材检测系统及装置、算法 | |
CN111458345A (zh) | 一种口罩缺陷视觉检测机构 | |
JP2010085166A (ja) | プリプレグ欠点検査方法 | |
JP2013160745A (ja) | 多孔質炭素繊維シート状物の検査方法および検査装置 | |
CN117054447A (zh) | 异形玻璃边部缺陷的检测方法及检测装置 | |
CN114740013A (zh) | 工件检测系统及方法 | |
CN114170226B (zh) | 基于图像增强和卷积神经网络的布草检测方法、装置 | |
JP6007639B2 (ja) | 疵検出方法および疵検出装置 | |
Öztürk et al. | Real-time product quality control system using optimized Gabor filter bank | |
TWI607212B (zh) | Image generation device, defect inspection device, and defect inspection method | |
CN111458344A (zh) | 一种口罩缺陷视觉检测方法、设备、存储介质 | |
JPWO2020170389A1 (ja) | 異物検査装置及び異物検査方法 | |
CN212180650U (zh) | 膏体表面气孔自动检测设备 | |
JP2005083906A (ja) | 欠陥検出装置 | |
KR102431960B1 (ko) | 계란 품질 선별기 | |
CN212180649U (zh) | 膏体外观缺陷检测设备 | |
KR20190027295A (ko) | 플렉서블 기판 찍힘 불량 검출 장치 | |
CN212658633U (zh) | 一种口罩缺陷视觉检测机构 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |