CN110580701A - 一种基于计算机视觉的成衣测量和缺陷检测的方法 - Google Patents
一种基于计算机视觉的成衣测量和缺陷检测的方法 Download PDFInfo
- Publication number
- CN110580701A CN110580701A CN201910744844.XA CN201910744844A CN110580701A CN 110580701 A CN110580701 A CN 110580701A CN 201910744844 A CN201910744844 A CN 201910744844A CN 110580701 A CN110580701 A CN 110580701A
- Authority
- CN
- China
- Prior art keywords
- defect detection
- branch
- measurement
- defect
- garment measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8887—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明公开了成衣测量与缺陷检测技术领域的一种基于计算机视觉的成衣测量和缺陷检测的方法,采用摄像头拍摄的图片作为输入,将图片直接输入到基于深度学习算法的网络模型,整个基于深度学习算法的网络模型包括三个部分:特征提取网络、成衣测量分支和缺陷监测分支,特征提取网络利用卷积神经网络提取图像特征;成衣测量分支提取图像关键点信息,通过关键点位置进行成衣测量,缺陷检测分支提取图像缺陷分割结果,通过分割结果输出缺陷检测结果,利用由特征提取网络、成衣测量分支和缺陷监测分支三部分组成的框架,可以直接利用原始拍摄图像作为输入,快速完成成衣测量和缺陷检测,准确度高、实时性好。
Description
技术领域
本发明涉及成衣测量与缺陷检测技术领域,具体为一种基于计算机视觉的成衣测量和缺陷检测的方法。
背景技术
在成衣质检领域,成衣测量和表面缺陷检测是很重要的部分。目前在这一部分,主要还是靠人工去检查,这种方式的效率低下,成本高,而且难以保证检测的准确性,为提升效率,目前基于深度学习技术实现的成衣测量与表面缺陷检测成为一种潜在的高效解决方案。
成衣测量和表面缺陷检测,具有几个明显的特点。一是衣服本身不是刚体,摆放过程中难免存在弯曲变形等问题,这就大大增加了难度。二是衣服尺寸不一,样式不同,尤其是Logo部分,每个品牌都不相同,同时,缺陷大小不一,变化很大,布疵、脏污、破洞等缺陷尺寸变化非常大,进一步加大检测难度。三是工业领域用户的要求非常严苛,因此准确率要求高,速度要求高。四是现有技术通常将成衣测量和缺陷检测分开进行,二者的输入虽然是同一图像,但在处理流程中通常分开进行。
基于此,本发明设计了一种基于计算机视觉的成衣测量和缺陷检测的方法,提升成衣测量和缺陷检测的准确性。
发明内容
本发明的目的在于提供一种基于计算机视觉的成衣测量和缺陷检测的方法,提升成衣测量和缺陷检测的准确性,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种基于计算机视觉的成衣测量和缺陷检测的方法,采用摄像头拍摄的图片作为输入,将图片直接输入到基于深度学习算法的网络模型,整个基于深度学习算法的网络模型包括三个部分:特征提取网络、成衣测量分支和缺陷监测分支,特征提取网络利用卷积神经网络提取图像特征;成衣测量分支提取图像关键点信息,通过关键点位置进行成衣测量,缺陷检测分支提取图像缺陷分割结果,通过分割结果输出缺陷检测结果。
优选的,在所述特征提取网络中,conv层提取特征,pooling层进行下采样,采用conv+pooling级联的方式,逐步提取高层语义特征,并输出多个层次的结果。
优选的,在所述成衣测量分支中,采用逐层特征累加的方式,将不同层级的特征累加起来,通过一个conv层,最终输出关键点坐标并进行成衣测量。
优选的,在所述缺陷监测分支中,采用逐层特征累加的方式,将不同层级的特征累加,并通过一个conv层,最终输出缺陷检测结果。
与现有技术相比,本发明的有益效果是:利用由特征提取网络、成衣测量分支和缺陷监测分支三部分组成的框架,可以直接利用原始拍摄图像作为输入,快速完成成衣测量和缺陷检测,准确度高、实时性好。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明工作流程框架图;
图2为本发明特征提取网络的示意图;
图3为本发明成衣测量分支的示意图;
图4为本发明缺陷检测分支的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,本发明提供一种技术方案:一种基于计算机视觉的成衣测量和缺陷检测的方法,采用摄像头拍摄的图片作为输入,将图片直接输入到基于深度学习算法的网络模型,整个基于深度学习算法的网络模型包括三个部分:特征提取网络、成衣测量分支和缺陷监测分支。
如图2所示,特征提取网络利用卷积神经网络提取图像特征,conv层提取特征,pooling层进行下采样,采用conv+pooling级联的方式,逐步提取高层语义特征,并输出多个层次的结果。
如图3所示,成衣测量分支提取图像关键点信息,采用逐层特征累加的方式,将特征提取网络提取的不同层级的特征累加起来,通过一个conv层,最终输出关键点坐标并进行成衣测量,通过关键点位置进行成衣测量。
如图4所示,缺陷检测分支提取图像缺陷分割结果,采用逐层特征累加的方式,将将特征提取网络提取的不同层级的特征累加,并通过一个conv层,最终输出缺陷检测结果,通过分割结果输出缺陷检测结果。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。
Claims (4)
1.一种基于计算机视觉的成衣测量和缺陷检测的方法,其特征在于:采用摄像头拍摄的图片作为输入,将图片直接输入到基于深度学习算法的网络模型,整个基于深度学习算法的网络模型包括三个部分:特征提取网络、成衣测量分支和缺陷监测分支,特征提取网络利用卷积神经网络提取图像特征;成衣测量分支提取图像关键点信息,通过关键点位置进行成衣测量,缺陷检测分支提取图像缺陷分割结果,通过分割结果输出缺陷检测结果。
2.根据权利要求1所述的一种基于计算机视觉的成衣测量和缺陷检测的方法,其特征在于:在所述特征提取网络中,conv层提取特征,pooling层进行下采样,采用conv+pooling级联的方式,逐步提取高层语义特征,并输出多个层次的结果。
3.根据权利要求1所述的一种基于计算机视觉的成衣测量和缺陷检测的方法,其特征在于:在所述成衣测量分支中,采用逐层特征累加的方式,将不同层级的特征累加起来,通过一个conv层,最终输出关键点坐标并进行成衣测量。
4.根据权利要求1所述的一种基于计算机视觉的成衣测量和缺陷检测的方法,其特征在于:在所述缺陷监测分支中,采用逐层特征累加的方式,将不同层级的特征累加,并通过一个conv层,最终输出缺陷检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910744844.XA CN110580701A (zh) | 2019-08-13 | 2019-08-13 | 一种基于计算机视觉的成衣测量和缺陷检测的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910744844.XA CN110580701A (zh) | 2019-08-13 | 2019-08-13 | 一种基于计算机视觉的成衣测量和缺陷检测的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110580701A true CN110580701A (zh) | 2019-12-17 |
Family
ID=68810645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910744844.XA Pending CN110580701A (zh) | 2019-08-13 | 2019-08-13 | 一种基于计算机视觉的成衣测量和缺陷检测的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110580701A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111210417A (zh) * | 2020-01-07 | 2020-05-29 | 创新奇智(北京)科技有限公司 | 基于卷积神经网络的布匹缺陷检测方法 |
CN111783799A (zh) * | 2020-06-30 | 2020-10-16 | 创新奇智(西安)科技有限公司 | 一种配置信息获得方法、装置、电子设备及存储介质 |
CN116536906A (zh) * | 2023-05-11 | 2023-08-04 | 杭州探观科技有限公司 | 一种用于内裤的立体裁剪方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140238577A1 (en) * | 2013-02-28 | 2014-08-28 | Kimberly-Clark Worldwide, Inc. | Adjustable Pant-Like Disposable Undergarment With Fully Severed Front Panel And Method Of Manufacture With Product Defect Detection System |
CN107833220A (zh) * | 2017-11-28 | 2018-03-23 | 河海大学常州校区 | 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法 |
CN109829940A (zh) * | 2018-12-28 | 2019-05-31 | 青岛红创众投科技发展有限公司 | 一种基于机器视觉的测量服装尺寸的方法和系统 |
-
2019
- 2019-08-13 CN CN201910744844.XA patent/CN110580701A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140238577A1 (en) * | 2013-02-28 | 2014-08-28 | Kimberly-Clark Worldwide, Inc. | Adjustable Pant-Like Disposable Undergarment With Fully Severed Front Panel And Method Of Manufacture With Product Defect Detection System |
CN107833220A (zh) * | 2017-11-28 | 2018-03-23 | 河海大学常州校区 | 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法 |
CN109829940A (zh) * | 2018-12-28 | 2019-05-31 | 青岛红创众投科技发展有限公司 | 一种基于机器视觉的测量服装尺寸的方法和系统 |
Non-Patent Citations (1)
Title |
---|
陈雯柏: "《人工神经网络原理与实践》", 31 January 2016, 西安电子科技大学出版社 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111210417A (zh) * | 2020-01-07 | 2020-05-29 | 创新奇智(北京)科技有限公司 | 基于卷积神经网络的布匹缺陷检测方法 |
CN111210417B (zh) * | 2020-01-07 | 2023-04-07 | 创新奇智(北京)科技有限公司 | 基于卷积神经网络的布匹缺陷检测方法 |
CN111783799A (zh) * | 2020-06-30 | 2020-10-16 | 创新奇智(西安)科技有限公司 | 一种配置信息获得方法、装置、电子设备及存储介质 |
CN116536906A (zh) * | 2023-05-11 | 2023-08-04 | 杭州探观科技有限公司 | 一种用于内裤的立体裁剪方法 |
CN116536906B (zh) * | 2023-05-11 | 2023-09-22 | 杭州探观科技有限公司 | 一种立体裁剪内裤的成型质量检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111223088B (zh) | 一种基于深层卷积神经网络的铸件表面缺陷识别方法 | |
CN110992317B (zh) | 一种基于语义分割的pcb板缺陷检测方法 | |
CN107808131B (zh) | 基于双通路深度卷积神经网络的动态手势识别方法 | |
CN108562589B (zh) | 一种对磁路材料表面缺陷进行检测的方法 | |
CN107228860B (zh) | 一种基于图像旋转周期特性的齿轮缺陷检测方法 | |
CN110580701A (zh) | 一种基于计算机视觉的成衣测量和缺陷检测的方法 | |
CN107478657A (zh) | 基于机器视觉的不锈钢表面缺陷检测方法 | |
CN111768388A (zh) | 一种基于正样本参考的产品表面缺陷检测方法及系统 | |
CN113628178B (zh) | 一种速度与精度平衡的钢铁产品表面缺陷检测方法 | |
CN109993091A (zh) | 一种基于背景消除的监控视频目标检测方法 | |
CN112819756B (zh) | Pcb板表面缺陷检测装置及方法 | |
CN114972312A (zh) | 基于YOLOv4-Tiny改进的绝缘子缺陷检测方法 | |
CN112508923B (zh) | 弱小目标检测方法 | |
CN111368825A (zh) | 一种基于语义分割的指针定位方法 | |
CN110660048B (zh) | 一种基于形状特征的皮革表面缺陷检测方法 | |
CN111401149A (zh) | 基于长短期时域建模算法的轻量级视频行为识别方法 | |
CN114820471A (zh) | 一种面向智能制造精微结构表面缺陷的视觉检测方法 | |
Lv et al. | A mobile phone screen cover glass defect detection model based on small samples learning | |
CN111667465A (zh) | 一种基于远红外图像的金属洗手盆缺陷检测方法 | |
CN110570397A (zh) | 一种基于深度学习模版匹配算法检测成衣印花缺陷的方法 | |
CN113723188A (zh) | 一种结合人脸与步态特征的着装一致人员身份核验方法 | |
CN113705564A (zh) | 一种指针式仪表识别读数方法 | |
CN115601357B (zh) | 一种基于小样本的冲压件表面缺陷检测方法 | |
CN110992361A (zh) | 基于代价平衡的发动机紧固件检测系统及检测方法 | |
CN114140828B (zh) | 一种实时轻量级2d人体姿态估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191217 |