CN109615610B - 一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法 - Google Patents

一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法 Download PDF

Info

Publication number
CN109615610B
CN109615610B CN201811373386.5A CN201811373386A CN109615610B CN 109615610 B CN109615610 B CN 109615610B CN 201811373386 A CN201811373386 A CN 201811373386A CN 109615610 B CN109615610 B CN 109615610B
Authority
CN
China
Prior art keywords
aid
tiny
yolo
band
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811373386.5A
Other languages
English (en)
Other versions
CN109615610A (zh
Inventor
张克华
田林晓
庄千洋
李春茂
朱苗苗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Normal University CJNU
Original Assignee
Zhejiang Normal University CJNU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Normal University CJNU filed Critical Zhejiang Normal University CJNU
Priority to CN201811373386.5A priority Critical patent/CN109615610B/zh
Publication of CN109615610A publication Critical patent/CN109615610A/zh
Application granted granted Critical
Publication of CN109615610B publication Critical patent/CN109615610B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于YOLO v2‑tiny的医用创可贴瑕疵检测方法,步骤包括:用摄像头采集创可贴图像数据,制作VOC格式数据集;用制作完成的数据集训练YOLO v2‑tiny模型至损失函数降为0.1~0.2之间并保存权重模型;运用训练完成的YOLO v2‑tiny模型回归出创可贴图像具体坐标位置并根据坐标裁剪出目标创可贴;取裁剪后创可贴中心处10*10~30*30之间像素大小,利用单通道颜色算法将裁剪后的目标与同等大小的白色区域计算相似度,相似度计算公式采用欧氏距离;根据环境设定一个阈值,阈值取值范围为3500~5000,如若欧氏距离计算结果大于该值则无药芯,小于等于该值设为带有药芯。本发明能有效地解决目前生产线上医用创可贴耗费大量人力财力的问题且瑕疵检测效率可达到40次/分。

Description

一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法
技术领域
本发明属于图像识别领域,具体涉及一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法。
背景技术
机器换人是推动产业升级的重要举措,目标瑕疵检测是提高工业效率的重要手段之一。用机器代替人实施分拣同时机器具有识别分类某一样目标的能力将大大提高产业效率。
在医用创可贴行业中,创可贴的瑕疵检测占有重要的地位,提高医用创可贴瑕疵检测的精度和效率将大大提高企业的生产效率。医用创可贴瑕疵检测主要是检测是否带有药芯。目前,瑕疵检测的方式主要是靠人工肉眼检测,此方法需要耗费大量的人力和财力同时人的视觉会有一定地疲劳,因此会出现一定的漏检。
发明内容
本发明实施例的目的在于提供一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法,目标识别网络结合OpenCV颜色匹配算法能够有效地提高瑕疵检测的精度和效率同时有效地解决上述人工检测的不足。
本发明实施例是这样实现的,一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法包括以下步骤:
步骤一:用摄像头采集创可贴图像数据,制作VOC格式数据集;
进一步,在步骤一中的用摄像头采集创可贴图像数据,制作VOC格式数据集,VOC格式数据集共有三个文件夹分别是train文件夹用于存放所有训练和验证的图片、Annotation文件夹存放对应图片的xml,xml由labeImg标注软件生成、ImageSets文件夹又细分了Layout,Main,Segmentation三个子文件夹,将训练图片的名称制成txt文件放于Main文件夹下。
步骤二:用制作完成的数据集训练YOLO v2-tiny模型至损失函数降为O.1~0.2之间并保存权重模型;
进一步,在步骤二中的训练YOLO v2-tiny模型至损失函数降为0.1~0.2之间,其中的训练损失函数为
Figure BSA0000174244640000021
其中λcoord代表坐标误差权值,λnoobj代表分类误差权值,S*S代表将图片分成S*S个栅格,B代表每个grid中bounding box的个数,/>
Figure BSA0000174244640000023
判断第i个栅格和第j个bounding box是否负责这个object,
Figure BSA0000174244640000024
判断是否有object的中心落入栅格中,xi,yi代表第i个栅格的bounding box的中心坐标,wi,hi代表第i个栅格的bounding box的宽和高,/>
Figure BSA0000174244640000022
分别代表第i个栅格的真实目标框的中心中心点坐标、宽度、长度、目标类别和置信度,Ci代表模型预测第i个栅格的类别,pi代表模型预测第i个栅格目标物体的置信度。
进一步,在步骤二中的训练YOLO v2-tiny模型至损失函数降为0.1~0.2之间,学习率learning rate取值为0.001~0.1,动量参数Momentum为0.9~1,decay取值为0.0005~0.001,将训练进行至损失函数降为0.1~0.2之间且损失函数变化值小于0.02。
步骤三:运用训练完成的YOLO v2-tiny模型回归出创可贴图像具体坐标位置并根据坐标裁剪出目标创可贴;
进一步,在步骤三中运用训练完成的YOLO v2-tiny模型回归出目标创可贴具体坐标,其具体实现过程如下:
a.给定一个输入医用创可贴图片,将图片划分成S*S的网格,S取值为7;
b.对于每个网格预测B个bounding box以及C个类别概率,总共输出S*S*B个bounding box以及S*S*(B*5+C)个维度的标签,其中5代表5维即每一个bounding box的中心点坐标、宽度、高度以及该bounding box的置信度;
c.用极大值抑制去掉冗余bounding box,其具体做法为先选个概率极大框加入最终结果,然后计算其他框和这个最大框的相交面积占两者总面积的比率IOU,之后把比率比较大的剔除,输出最后的候选框,IOU计算公式为
Figure BSA0000174244640000031
DetectionResult为检测的bounding box与,GroundTruth为真实的目标所在的框。
步骤四:取裁剪后创可贴中心处10*10~30*30之间像素大小,利用单通道颜色算法将裁剪后的目标与同等大小的白色区域计算相似度,相似度计算公式采用欧氏距离;
进一步,在步骤四中采用单通道颜色匹配算法,具体步骤如下:
a.提取裁剪后的目标创可贴中心10*10~30*30之间像素大小区域,并对该区域进行高斯滤波,滤波公式为G(x)=exp(-x2/(2sigma2)),其中sigma为高斯分布参数,x为裁剪后区域内的像素值;
b.提取经过滤波后的像素区域的单色通道,该单色为蓝色,黄色中带有蓝色成分较少,通过对比蓝色通道得出最大的颜色差异;
c.将该蓝色通道数值与255进行比对,计算欧式距离,计算公式如
Figure BSA0000174244640000041
其中n为提取像素区域的像素点个数,x为区域内每一个具体的像素值,y的值均为255。
步骤五:根据环境设定一个阈值,阈值取值范围为3500~5000,如若欧式距离计算结果大于该值则无药芯,小于等于该值设为带有药芯。
本发明提供的医用创可贴瑕疵检测技术,主要分为两步:第一步是利用卷积神经网络YOLO v2-tiny回归出创可贴的具体位置,位置包括四个数值,分别是中心点坐标(x,y),宽度(w)和高度(h);第二步,根据四个位置值裁剪创可贴,取裁剪后的创可贴中心处10*10~30*30像素区间范围内的某一个具体值,该范围内的像素均能落入创可贴贴有药芯部分并将提取该范围内像素的蓝色通道与255进行欧式距离的比对。该技术可在随意摆放医用创可贴位置的情况下获得较好的识别率和瑕疵检测准确率,同时采用了YOLO v2-tiny网络大大的提高了瑕疵检测的效率,目前在4G显存的GPU(Quadro K5000),Intel CPU E5-2630 v22.6GHz*24的台式工作站服务器上网络的处理速度为1.5秒/帧,分拣机构配合网络识别抓取效率高达40次/分,大大提升了企业的竞争力。
本发明公开了一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法,步骤包括:用摄像头采集创可贴图像数据,制作VOC格式数据集;用制作完成的数据集训练YOLO v2-tiny模型至损失函数降为0.1~0.2之间并保存权重模型;运用训练完成的YOLO v2-tiny模型回归出创可贴图像具体坐标位置并根据坐标裁剪出目标创可贴;取裁剪后创可贴中心处10*10~30*30之间像素大小,利用单通道颜色算法将裁剪后的目标与同等大小的白色区域计算相似度,相似度计算公式采用欧氏距离;根据环境设定一个阈值,阈值取值范围为3500~5000,如若欧氏距离计算结果大于该值则无药芯,小于等于该值设为带有药芯。
本发明能有效地解决目前生产线上医用创可贴耗费大量人力财力的问题且瑕疵检测效率可达到40次/分。
附图说明
图1为本发明实施例提供的创可贴瑕疵检测方法的流程示意图;
图2为采用本发明的算法的创可贴识别效果示意图;
图3为采用本发明方法的YOLO v2-tiny的网络结构图;
图4为本发明卷积神经网络YOLO v2-tiny的卷积运算操作示意图;
图5为本发明卷积神经网络YOLO v2-tiny的最大池化操作示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
以下是对本发明涉及的术语进行解释和说明。
Conv1代表YOLO v2-tiny中的第一层卷积层;
Max1代表YOLO v2-tiny中的第一层最大池化层;
Feature Map代表通过卷积层提取特征后最终形成的特征图。
参阅图1为本发明一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法的流程示意图:
S201:用摄像头采集创可贴图像数据,制作VOC格式数据集;
S202:用制作完成的数据集训练YOLO v2-tiny模型至损失函数降为0.1~0.2之间并保存权重模型;
S203:运用训练完成的YOLO v2-tiny模型回归出创可贴图像具体坐标位置并根据坐标裁剪出目标创可贴;
S204:取裁剪后创可贴中心处10*10~30*30之间像素大小,利用单通道颜色算法将裁剪后的目标与同等大小的白色区域计算相似度,相似度计算公式采用欧氏距离;
S205:根据环境设定一个阈值,阈值取值范围为3500~5000之间,如若欧氏距离计算结果大于该值则无药芯,小于等于该值设为带有药芯。
参阅图2为采用本发明方法的医用创可贴识别效果示意图。图2中创可贴的放置位置、角度以及光照环境均不同,YOLO v2-tiny均能准确的框出具体目标。
参阅图3为采用本发明方法的YOLO v2-tiny的网络结构图。该网络输入是640*480,经过9层卷积层和6层最大池化层输出特征图,再利用Anchor Box和非极大值抑制(NMS)输出最后的结果。
参阅图4为本发明卷积神经网络YOLO v2-tiny的卷积运算操作示意图。卷积操作计算为卷积核在图像上滑过,卷积核覆盖处对应两个数相乘最后结果相加。
参阅图5为本发明卷积神经网络YOLO v2-tiny的最大池化操作示意图。最大池化操作为卷积核在图像上滑过,卷积核覆盖区域求出图像的最大值并保留最大值。
本发明的实施例1:
用罗技摄像头随机拍摄生产线上的医用创可贴图片3000张,其中包括训练集2000张,测试集1000张,将该数据集制作成VOC格式并将该格式的数据集输入到YOLO v2-tiny网络模型中,模型训练至40K次时损失函数达到0.1~0.2之间且损失函数变化值小于0.02,训练完成的模型被自动保存,其中训练过程中学习率learning rate取值为0.001,动量参数Momentum为0.9,decay取值为0.0005;用罗技摄像头随机拍摄生产线上创可贴图片,将该图片输入到训练完成的模型中,该模型回归出创可贴的具体坐标位置,坐标位置一般用四维向量(x,y,w,h)表示,分别表示窗口的中心点坐标和窗口的宽高,根据四维坐标向量裁剪出创可贴目标;提取裁剪后的目标创可贴中心10*10~30*30之间像素大小区域,并对该区域进行高斯滤波,滤波公式为G(x)=exp(-x2/(2sigma2)),其中sigma为高斯分布参数;提取经过滤波后的像素区域的蓝色通道,将该蓝色通道数值与255进行比对,计算欧式距离,计算公式如
Figure BSA0000174244640000071
其中n为提取像素区域的像素点个数,x为区域内每一个具体的像素值,y的值均为255;根据环境设定一个阈值,阈值范围在3500~5000,如若欧氏距离计算结果大于阈值则不带有药芯,小于阈值则带有药芯。
以上所述仅为本发明的较佳实施例而已,但本发明的技术特征并不局限于此,任何本领域的技术人员在本发明的领域内,所作的变化或修饰皆涵盖在本发明的专利范围之中。

Claims (3)

1.一种基于YOLOv2-tiny的医用创可贴瑕疵检测方法,其特征在于,该方法包括以下步骤:
步骤一:用摄像头采集创可贴图像数据,制作VOC格式数据集;
步骤二:用制作完成的数据集训练YOLOv2-tiny模型至损失函数降为0.1~0.2之间并保存权重模型;
步骤三:运用训练完成的YOLOv2-tiny模型回归出创可贴图像具体坐标位置并根据坐标裁剪出目标创可贴,其具体实现过程如下:
a.给定一个输入医用创可贴图片,将图片划分成S*S的网格,S取值为7;
b.对于每个网格预测B个boundingbox以及C个类别概率,总共输出S*S*B个boundingbox以及S*S*(B*5+C)个维度的标签,其中5代表5维即每一个boundingbox的中心点坐标、宽度、高度以及该boundingbox的置信度;
c.用极大值抑制去掉冗余boundingbox,其具体做法为先选个概率极大框加入最终结果,然后计算其他框和这个最大框的相交面积占两者总面积的比率IOU,之后把比率比较大的剔除,输出最后的候选框,IOU计算公式为
Figure FDA0004045824340000011
DetectionResult为检测的boundingbox与,GroundTruth为真实的目标所在的框;
步骤四:取裁剪后创可贴中心处10*10~30*30之间像素大小,利用单通道颜色算法将裁剪后的目标与同等大小的白色区域计算相似度,相似度计算公式采用欧氏距离,具体步骤如下:
a.提取裁剪后的目标创可贴中心10*10~30*30之间像素大小区域,并对该区域进行高斯滤波,滤波公式为G(x)=exp(-x2/(2sigma2)),其中sigma为高斯分布参数,x为裁剪后区域内的像素值;
b.提取经过滤波后的像素区域的单色通道,该单色为蓝色,黄色中带有蓝色成分较少,通过对比蓝色通道得出最大的颜色差异;
c.将该蓝色通道数值与255进行比对,计算欧式距离,计算公式如
Figure FDA0004045824340000012
其中n为提取像素区域的像素点个数,x为区域内每一个具体的像素值,y的值均为255;
步骤五:根据环境设定一个阈值,阈值取值范围为3500~5000之间,如若欧式距离计算结果大于该值则无药芯,小于等于该值设为带有药芯。
2.如权利要求1所述的一种基于YOLOv2-tiny的医用创可贴瑕疵检测方法,其特征在于,在步骤二中的训练YOLOv2-tiny模型至损失函数降为0.1~0.2之间,其中的训练损失函数为
Figure FDA0004045824340000013
Figure FDA0004045824340000021
其中λcoord代表坐标误差权值,λnoobj代表分类误差权值,S*S代表将图片分成S*S个栅格,B代表每个grid中boundingbox的个数,
Figure FDA0004045824340000022
判断第i个栅格和第j个boundingbox是否负责这个object,/>
Figure FDA0004045824340000023
判断是否有object的中心落入栅格中,xi,yi代表第i个栅格的boundingbox的中心坐标,wi,hi代表第i个栅格的boundingbox的宽和高,
Figure FDA0004045824340000024
分别代表第i个栅格的真实目标框的中心中心点坐标、宽度、长度、目标类别和置信度,Ci代表模型预测第i个栅格的类别,pi代表模型预测第i个栅格目标物体的置信度。
3.如权利要求1所述的一种基于YOLOv2-tiny的医用创可贴瑕疵检测方法,其特征在于,在步骤二中的训练YOLOv2-tiny模型至损失函数降为0.1~0.2之间,学习率learningrate取值为0.001~0.1,动量参数Momentum为0.9~1,decay取值为0.0005~0.001,将训练进行至损失函数降为0.1~0.2之间且损失函数变化值小于0.02。
CN201811373386.5A 2018-11-13 2018-11-13 一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法 Active CN109615610B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811373386.5A CN109615610B (zh) 2018-11-13 2018-11-13 一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811373386.5A CN109615610B (zh) 2018-11-13 2018-11-13 一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法

Publications (2)

Publication Number Publication Date
CN109615610A CN109615610A (zh) 2019-04-12
CN109615610B true CN109615610B (zh) 2023-06-06

Family

ID=66003491

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811373386.5A Active CN109615610B (zh) 2018-11-13 2018-11-13 一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法

Country Status (1)

Country Link
CN (1) CN109615610B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110298307B (zh) * 2019-06-27 2021-07-20 浙江工业大学 一种基于深度学习的异常停车实时检测方法
CN110490874A (zh) * 2019-09-04 2019-11-22 河海大学常州校区 基于yolo神经网络的纺织布匹表面瑕疵检测方法
CN112906547B (zh) * 2021-02-09 2022-01-11 哈尔滨市科佳通用机电股份有限公司 一种基于e-yolo的铁路列车风挡破损故障检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157701A (ja) * 2007-12-27 2009-07-16 Shimadzu Corp 画像処理方法及び画像処理装置
CN104508681A (zh) * 2012-06-28 2015-04-08 派力肯影像公司 用于检测有缺陷的相机阵列、光学器件阵列和传感器的系统及方法
CN106326937A (zh) * 2016-08-31 2017-01-11 郑州金惠计算机系统工程有限公司 基于卷积神经网络的人群密度分布估计方法
CN108171705A (zh) * 2018-01-20 2018-06-15 南京理工大学 一种透明玻璃瓶内液体的异物检测算法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10057928C1 (de) * 2000-11-22 2002-02-21 Inb Vision Ag Verfahren zur Erkennung von Abweichungen der Oberflächenform von einer vorgegebenen Form
JP2006039689A (ja) * 2004-07-22 2006-02-09 Nara Institute Of Science & Technology 画像処理装置、画像処理方法、画像処理プログラムおよびそのプログラムを記録した記録媒体
BRPI0714902A2 (pt) * 2006-09-07 2013-05-28 Unilever Nv mÉtodos para a medida das manchas da pele, para rastrear o némero de manchas na pele, para rastrear o progresso das manchas e sistema para a realizaÇço dos mÉtodos
CN104764440B (zh) * 2015-03-12 2017-04-12 大连理工大学 基于彩色图像的滚转物单目位姿测量方法
CN105160685A (zh) * 2015-10-16 2015-12-16 南京大学(苏州)高新技术研究院 一种岩石孔隙和颗粒系统的计算机数字图像识别方法
CN106022458B (zh) * 2016-05-13 2018-04-03 中国人民解放军国防科学技术大学 面向校车安全的人数快速统计方法
US10482633B2 (en) * 2016-09-12 2019-11-19 Zebra Medical Vision Ltd. Systems and methods for automated detection of an indication of malignancy in a mammographic image
CN106934784A (zh) * 2017-03-16 2017-07-07 中国科学院遥感与数字地球研究所 一种基于遥感影像融合的冰川面积变化监测方法
CN107133567B (zh) * 2017-03-31 2020-01-31 北京奇艺世纪科技有限公司 一种创可贴广告点位选取方法及装置
CN107862694A (zh) * 2017-12-19 2018-03-30 济南大象信息技术有限公司 一种基于深度学习的手足口病检测系统
CN108492291B (zh) * 2018-03-12 2022-07-22 苏州天准科技股份有限公司 一种基于cnn分割的太阳能光伏硅片瑕疵检测系统及方法
CN108520114B (zh) * 2018-03-21 2020-05-19 华中科技大学 一种纺织布疵点检测模型及其训练方法和应用
CN108593660B (zh) * 2018-04-19 2021-08-17 浙江师范大学 一种冲压铝板缺陷自动检测装置及方法
CN108648182B (zh) * 2018-04-27 2022-02-11 南京信息工程大学 一种基于分子亚型的乳腺癌核磁共振图像肿瘤区域分割方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157701A (ja) * 2007-12-27 2009-07-16 Shimadzu Corp 画像処理方法及び画像処理装置
CN104508681A (zh) * 2012-06-28 2015-04-08 派力肯影像公司 用于检测有缺陷的相机阵列、光学器件阵列和传感器的系统及方法
CN106326937A (zh) * 2016-08-31 2017-01-11 郑州金惠计算机系统工程有限公司 基于卷积神经网络的人群密度分布估计方法
CN108171705A (zh) * 2018-01-20 2018-06-15 南京理工大学 一种透明玻璃瓶内液体的异物检测算法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Defect Detection on Patterned Fabrics Using Distance Matching Function and Regular Band;Junfeng Jing等;《Journal of Engineered Fibers and Fabrics》;第10卷(第2期);85-97 *
钮扣特征检测与分类识别算法研究;熊显阔;《中国优秀硕士学位论文全文数据库 工程科技Ⅰ辑》;第2018年卷(第01期);B024-896 *

Also Published As

Publication number Publication date
CN109615610A (zh) 2019-04-12

Similar Documents

Publication Publication Date Title
CN109344701B (zh) 一种基于Kinect的动态手势识别方法
CN110310259B (zh) 一种基于改进YOLOv3算法的木结瑕疵检测方法
CN110175982B (zh) 一种基于目标检测的缺陷检测方法
CN107833213B (zh) 一种基于伪真值自适应法的弱监督物体检测方法
CN110929756B (zh) 基于深度学习的钢材尺寸和数量的识别方法、智能设备和存储介质
CN111080693A (zh) 一种基于YOLOv3的机器人自主分类抓取方法
CN110770752A (zh) 多尺度特征融合网络结合定位模型的害虫自动计数方法
CN105574550A (zh) 一种车辆识别方法及装置
CN109615610B (zh) 一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法
CN111967313B (zh) 一种深度学习目标检测算法辅助的无人机图像标注方法
CN110298227B (zh) 一种基于深度学习的无人机航拍图像中的车辆检测方法
CN111815564B (zh) 一种检测丝锭的方法、装置及丝锭分拣系统
CN106897681A (zh) 一种遥感图像对比分析方法及系统
CN113221956B (zh) 基于改进的多尺度深度模型的目标识别方法及装置
CN108133235A (zh) 一种基于神经网络多尺度特征图的行人检测方法
CN111429448A (zh) 一种基于弱分割信息的生物荧光目标计数方法
CN115439458A (zh) 基于深度图注意力的工业图像缺陷目标检测算法
CN111753682A (zh) 一种基于目标检测算法的吊装区域动态监控方法
CN111027538A (zh) 一种基于实例分割模型的集装箱检测方法
CN114140665A (zh) 一种基于改进YOLOv5的密集小目标检测方法
CN115272204A (zh) 一种基于机器视觉的轴承表面划痕检测方法
CN110599463A (zh) 一种基于轻量级联神经网络的舌像检测及定位算法
CN111178405A (zh) 一种融合多种神经网络的相似物体识别方法
CN109145770B (zh) 一种基于多尺度特征融合网络与定位模型相结合的麦蜘蛛自动计数方法
CN111597939B (zh) 一种基于深度学习的高铁线路鸟窝缺陷检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant