CN110334760A - 一种基于resUnet的光学元器件损伤检测方法及系统 - Google Patents

一种基于resUnet的光学元器件损伤检测方法及系统 Download PDF

Info

Publication number
CN110334760A
CN110334760A CN201910584766.1A CN201910584766A CN110334760A CN 110334760 A CN110334760 A CN 110334760A CN 201910584766 A CN201910584766 A CN 201910584766A CN 110334760 A CN110334760 A CN 110334760A
Authority
CN
China
Prior art keywords
image
resunet
optical component
model
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910584766.1A
Other languages
English (en)
Other versions
CN110334760B (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Shuzhilian Technology Co Ltd
Original Assignee
Chengdu Shuzhilian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Shuzhilian Technology Co Ltd filed Critical Chengdu Shuzhilian Technology Co Ltd
Priority to CN201910584766.1A priority Critical patent/CN110334760B/zh
Publication of CN110334760A publication Critical patent/CN110334760A/zh
Application granted granted Critical
Publication of CN110334760B publication Critical patent/CN110334760B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于resUnet的光学元器件损伤检测方法及系统,所述方法包括:采集同一光学元器件的两组图像,一组为高分辨率图像A,一组为低分辨率图像B;分别二值化处理图像A和图像B;基于二值化处理后的图像A和图像B,依据图像A和图像B的对应关系生成标签数据;将标签数据对应的图像B的二值化图像切割为若干大小相同的子图像,将切割生成的子图像作为训练数据集;利用训练数据集训练resUnet模型;将图像B输入训练后的resUnet模型,获得光学元器件损伤检测结果;利用高分辨率图像标注光学元器件损伤点位置,无须人工打标,即可完成图像信息量非常少、高噪声的条件下光学元器件损伤点位置检测。

Description

一种基于resUnet的光学元器件损伤检测方法及系统
技术领域
本发明涉及图像语义分割领域,具体地,涉及一种基于resUnet的光学元器件损伤检测方法及系统。
背景技术
图像语义分割是图像处理到图像分析的关键步骤,是把图像分成若干个特定的、具有独特性质的区域并提取感兴趣目标的技术和过程。从数学角度来看,图像分割是将图像划分成互不相交的区域的过程。图像分割过程也是一个标记过程,即把属于同一区域的像素赋予相同的类别。
传统的图像分割方法主要分以下几类:基于阈值的分割方法、基于区域的分割方法、基于边缘的分割方法以及基于特定理论的分割方法等。传统方法主要依赖人工检测光学元器件的损伤区域,不仅耗时费力,而且检测错误率高,易出现错检漏检,造成大量不必要的成本损耗。
利用深度学习方法的目标检测算法与语义分割算法能够检测损伤区域。目标检测算法侧重检测识别具有较强视觉特征的目标,而对特征不明显的小目标识别能力较弱。在无需区分目标实例的情况下常常使用语义分割算法识别小目标,主要分为基于解码器、信息融合和循环神经网络(RNN)等的不同语义分割算法。语义分割既要克服同类物体因光线、角度和状态等不同产生的差异性,还要解决不同类物体之间的高度相似性。此外,语义分割的实际场景往往是复杂多样的,物体间常伴随有遮挡、割裂现象,进一步增加了语义分割的难度。
发明内容
本发明采用resUnet深度学习方法,针对光学元器件损伤点成像的低分辨率图像和高分辨率图像,利用高分辨率图像标注光学元器件损伤点位置,无须人工打标,即可完成光学元器件图像信息量非常少、高噪声的条件下光学元器件损伤点位置的检测。
另外本方法和系统在resUnet模型中选择了32*2,32*2,32*4,32*16的特征层数,同时采用3*3的卷积使得模型能够较好区分纹理细节;在卷积层之后都加入了GN层,提高了数据学习效率和检测能力。
为实现上述发明目的,本发明一方面提供了一种基于resUnet的光学元器件损伤检测方法,所述方法包括:
采集同一光学元器件的两组图像,一组图像的分辨率高于另外一组,其中A组为高分辨率图像,B组为低分辨率图像;
分别二值化处理图像A和图像B;
基于二值化处理后的图像A和图像B,依据图像A和图像B的对应关系生成标签数据;
将标签数据对应的图像B的二值化图像切割为若干大小相同的子图像,将切割生成的子图像作为训练数据集;
利用训练数据集训练resUnet模型;
将图像B输入训练后的resUnet模型,获得光学元器件损伤检测结果。
其中,本方法使用resUnet模型检测光学元器件损伤点或其他标记区域,学习能力更强,识别效果也更精确;本方法在最终检测之前先对标签数据和预测图像进行膨胀操作,用于减小计算误差,提高模型识别能力;本方法采用光学元器件的高清图像作为标注数据,大大减少人工打标的工作量。
进一步的,所述分别二值化处理图像A和图像B,具体包括:将像素灰度值小于100的像素点灰度值置为0,将像素灰度值大于或等于100的像素点灰度值置为255,实现图像二值化。
进一步的,依据图像A和图像B的对应关系生成标签数据,具体包括:利用measure函数库的regionprops方法分别查找图像A与图像B的损伤连通区域,遍历图像B的损伤连通区域,保留与图像A的损伤连通区域有交集的损伤连通区域作为标签数据。
进一步的,本方法以预设像素为步长,将图像B切分为若干个patch作为训练数据集。
进一步的,本方法中的resUnet模型为改进的resUnet模型,其中:
resUnet模型使用Dice’s coefficient作为损失函数;
resUnet模型使用Group Normalization层使模型得以收敛,将通道划分成组,在每组计算用于归一化的均值和方差。
另一方面,本发明还提供了一种基于resUnet的光学元器件损伤检测系统,所述系统包括:
数据采集及处理单元,用于采集同一光学元器件的两组图像,一组为高分辨率图像A,一组为低分辨率图像B;
数据处理单元,用于分别二值化处理图像A和图像B;基于二值化处理后的图像A和图像B,依据图像A和图像B的对应关系生成标签数据;将标签数据对应的图像B的二值化图像切割为若干大小相同的子图像,将切割生成的子图像作为训练数据集;
训练单元,用于利用训练数据集训练resUnet模型;
检测单元,用于将图像B输入训练后的resUnet模型,获得光学元器件损伤检测结果。
其中,本系统使用resUnet模型检测光学元器件损伤点或其他标记区域,学习能力更强,识别效果也更精确;本系统在最终检测之前先对标签数据和预测图像进行膨胀操作,用于减小计算误差,提高模型识别能力;本系统采用光学元器件的高清图像作为标注数据,大大减少人工打标的工作量。
其中,所述分别二值化处理图像A和图像B,具体包括:将像素灰度值小于100的像素点灰度值置为0,将像素灰度值大于或等于100的像素点灰度值置为255,实现图像二值化。
其中,依据图像A和图像B的对应关系生成标签数据,具体包括:利用measure函数库的regionprops方法分别查找图像A与图像B的连通区域,遍历图像B的损伤连通区域,保留与图像A的损伤连通区域有交集的损伤连通区域作为标签数据。
其中,本系统以预设像素为步长,将图像B切分为若干个patch作为训练数据集。
其中,本系统中的采用的resUnet模型为改进的Unet模型,其中:
resUnet模型使用Dice’s coefficient作为损失函数;
resUnet模型使用Group Normalization层使模型得以收敛,将通道划分成组,在每组计算用于归一化的均值和方差。
本发明提供的一个或多个技术方案,至少具有如下技术效果或优点:
本方法及系统利用深度学习进行图像分割,可以实现在图像信息极少、高噪声情况下检测低分辨率图像的损伤点,最终检测率能够达到90%以上。
本方法及系统实现了对光学元器件上损伤点的精准检测。
本方法及系统解决了光学元器件上杂散光与重影对损伤点检测结果的干预和影响。
本方法及系统采用高分辨率图像作为标注数据,无须人工标注,解决了光学元器件人工标注困难的问题。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本发明的一部分,并不构成对本发明实施例的限定;
图1是本发明中基于resUnet的光学元器件损伤检测方法的流程示意图;
图2是本发明中基于resUnet的光学元器件损伤检测系统的组成示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在相互不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述范围内的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
实施例一
请参考图1-图2,本方法及系统无须人工打标,但是需要采集光学元器件的两组图像,一组为高分辨率图像,一组为低分辨率图像,两组图像都是拍摄的同一光学元器件,高分辨率图像的成像细节更加清晰,通过高分辨率图像基本可以知道损伤区域的位置。低分辨率图像作为模型训练的输入文件,高分辨率图像为光学元器件的标注数据。
损伤检测通过训练resUnet深度神经网络识别低分辨率图像的损伤目标点。该部分重点是收集训练样本,低分辨率图像和高分辨率图像在相同位置的成像形状、大小、明暗等大不相同,一般模型很难学到如此复杂的对应关系。本发明采用深度学习方法,判断二值化图像中的亮点为真实损伤点或噪音点,根据这些信息去掉二值化后的低分辨率图像中的噪音点区域,只留下在高分辨率图中同为亮点的对应区域。主要步骤如下:
(1)分别二值化处理高分辨率图像和低分辨率图像
由于高分辨率和低分辨率图像中像素点的亮度不一致,且检测损伤点不需要亮度信息,故将像素灰度值小于100的像素点灰度值置为0,大于等于100的像素点灰度值置为255,实现图像二值化。
(2)依据高分辨率图像和低分辨率图像的对应关系生成标签数据
利用measure函数库的regionprops方法分别查找高分辨率和低分辨率图像的损伤连通区域,遍历低分辨率图像的损伤连通区域,保留与高分辨率图像的损伤连通区域有交集的损伤连通区域作为标签数据。
(3)分割样本图像;
由于样本图像很少,因此将低分辨率图像裁剪为多张大小相同的patch作为训练数据集。本实验中原始图像大小为2500*2500,然后以100像素为步长,切分为256*256的patch作为训练图像。
(4)训练resUnet模型
模型采用Unet模型的改进模型resUnet,用残差卷积层代替了Unet模型中的卷积层,改进模型学习能力更强,识别效果也更精确。主要改进点包括:
1、使用戴斯相似性系数Dice’s coefficient作为损失函数,由于感兴趣的区域仅占扫描区域非常小的区域,使得学习过程陷入损失函数的局部最小值,Dice’scoefficient通过加大前景区域权重,可以在光学元器件损伤点相对于背景区域占比极小的情况下取得不错的效果。
2、使用组归一化(Group Normalization,GN)层使模型得以收敛,将通道划分成组,在每组计算用于归一化的均值和方差。GN的计算不依赖于batch size,其准确率在各种batch size下是稳定的。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种基于resUnet的光学元器件损伤检测方法,其特征在于,所述方法包括:
采集同一光学元器件的两组图像A和图像B,其中A组为高分辨率图像,B组为低分辨率图像;
分别二值化处理图像A和图像B;
基于二值化处理后的图像A和图像B,依据图像A和图像B的对应关系生成标签数据;
将标签数据对应的图像B的二值化图像切割为若干大小相同的子图像,将切割生成的子图像作为训练数据集;
利用训练数据集训练resUnet模型;
将图像B输入训练后的resUnet模型,获得光学元器件损伤检测结果。
2.根据权利要求1所述的一种基于resUnet的光学元器件损伤检测方法,其特征在于,所述分别二值化处理图像A和图像B,具体包括:将像素灰度值小于100的像素点灰度值置为0,将像素灰度值大于或等于100的像素点灰度值置为255,实现图像二值化。
3.根据权利要求1所述的一种基于resUnet的光学元器件损伤检测方法,其特征在于,依据图像A和图像B的对应关系生成标签数据,具体包括:利用measure函数库的regionprops方法分别查找图像A与图像B的损伤连通区域,遍历图像B的损伤连通区域,保留与图像A损伤连通区域有交集的损伤连通区域作为标签数据。
4.根据权利要求1所述的一种基于resUnet的光学元器件损伤检测方法,其特征在于,本方法以预设像素为步长,将图像B切分为若干个patch作为训练数据集。
5.根据权利要求1所述的一种基于resUnet的光学元器件损伤检测方法,其特征在于,本方法中的resUnet模型为改进的Unet模型,其中:
resUnet模型使用Dice’s coefficient作为损失函数;
resUnet模型使用Group Normalization层使模型得以收敛,将通道划分成组,在每组计算用于归一化的均值和方差。
6.一种基于resUnet的光学元器件损伤检测系统,其特征在于,所述系统包括:
数据采集及处理单元,用于采集同一光学元器件的两组图像,一组图像的分辨率高于另外一组,其中A组为高分辨率图像,B组为低分辨率图像;
数据处理单元,用于分别二值化处理图像A和图像B;基于二值化处理后的图像A和图像B,依据图像A和图像B的对应关系生成标签数据;将标签数据对应的图像B的二值化图像切割为若干大小相同的子图像,将切割生成的子图像作为训练数据集;
训练单元,用于利用训练数据集训练resUnet模型;
检测单元,用于将图像B输入训练后的resUnet模型,获得光学元器件损伤检测结果。
7.根据权利要求6所述的一种基于resUnet的光学元器件损伤检测系统,其特征在于,所述分别二值化处理图像A和图像B,具体包括:将像素灰度值小于100的像素点灰度值置为0,将像素灰度值大于或等于100的像素点灰度值置为255,实现图像二值化。
8.根据权利要求6所述的一种基于resUnet的光学元器件损伤检测系统,其特征在于,依据图像A和图像B的对应关系生成标签数据,具体包括:利用measure函数库的regionprops方法分别查找图像A与图像B的损伤连通区域,遍历图像B的损伤连通区域,保留与图像A损伤连通区域有交集的损伤连通区域,作为标签数据。
9.根据权利要求6所述的一种基于resUnet的光学元器件损伤检测系统,其特征在于,本系统以预设像素为步长,将图像B切分为若干个patch作为训练数据集。
10.根据权利要求6所述的一种基于resUnet的光学元器件损伤检测系统,其特征在于,本系统中的resUnet模型为改进的Unet模型,其中:
resUnet模型使用Dice’s coefficient作为损失函数;
resUnet模型使用Group Normalization层使模型得以收敛,将通道划分成组,在每组计算用于归一化的均值和方差。
CN201910584766.1A 2019-07-01 2019-07-01 一种基于resUnet的光学元器件损伤检测方法及系统 Active CN110334760B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910584766.1A CN110334760B (zh) 2019-07-01 2019-07-01 一种基于resUnet的光学元器件损伤检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910584766.1A CN110334760B (zh) 2019-07-01 2019-07-01 一种基于resUnet的光学元器件损伤检测方法及系统

Publications (2)

Publication Number Publication Date
CN110334760A true CN110334760A (zh) 2019-10-15
CN110334760B CN110334760B (zh) 2021-06-08

Family

ID=68143790

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910584766.1A Active CN110334760B (zh) 2019-07-01 2019-07-01 一种基于resUnet的光学元器件损伤检测方法及系统

Country Status (1)

Country Link
CN (1) CN110334760B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110737789A (zh) * 2019-10-23 2020-01-31 中国工程物理研究院激光聚变研究中心 一种损伤排查方法、装置、电子设备及存储介质
CN111223128A (zh) * 2020-01-17 2020-06-02 深圳大学 目标跟踪方法、装置、设备及存储介质
CN111292308A (zh) * 2020-02-11 2020-06-16 南京邮电大学 基于卷积神经网络的光伏太阳能板红外缺陷检测方法
CN113139553A (zh) * 2020-01-16 2021-07-20 中国科学院国家空间科学中心 一种基于U-net的紫外极光图像极光卵形态提取方法及系统
CN114120317A (zh) * 2021-11-29 2022-03-01 哈尔滨工业大学 基于深度学习和图像处理的光学元件表面损伤识别方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090074292A1 (en) * 2007-09-18 2009-03-19 Microsoft Corporation Optimization of Multi-Label Problems in Computer Vision
US20140285824A1 (en) * 2008-09-18 2014-09-25 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program
CN107389687A (zh) * 2017-06-27 2017-11-24 北京航空航天大学 一种电子元器件外观图像采集装置及其采集方法
US9886771B1 (en) * 2016-05-20 2018-02-06 Ccc Information Services Inc. Heat map of vehicle damage
CN107680090A (zh) * 2017-10-11 2018-02-09 电子科技大学 基于改进全卷积神经网络的输电线路绝缘子状态识别方法
CN108009637A (zh) * 2017-11-20 2018-05-08 天津大学 基于跨层特征提取的像素级台标识别网络的台标分割方法
US20180204111A1 (en) * 2013-02-28 2018-07-19 Z Advanced Computing, Inc. System and Method for Extremely Efficient Image and Pattern Recognition and Artificial Intelligence Platform
CN108734661A (zh) * 2018-05-25 2018-11-02 南京信息工程大学 基于图像纹理信息构建损失函数的高分辨率图像预测方法
US20180357756A1 (en) * 2017-06-13 2018-12-13 The Procter & Gamble Company Systems and Methods for Inspecting Absorbent Articles on A Converting Line
CN109785316A (zh) * 2019-01-22 2019-05-21 湖南大学 一种芯片表观缺陷检测方法
CN109815906A (zh) * 2019-01-25 2019-05-28 华中科技大学 基于分步深度学习的交通标志检测方法及系统
CN109840471A (zh) * 2018-12-14 2019-06-04 天津大学 一种基于改进Unet网络模型的可行道路分割方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090074292A1 (en) * 2007-09-18 2009-03-19 Microsoft Corporation Optimization of Multi-Label Problems in Computer Vision
US20140285824A1 (en) * 2008-09-18 2014-09-25 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program
US20180204111A1 (en) * 2013-02-28 2018-07-19 Z Advanced Computing, Inc. System and Method for Extremely Efficient Image and Pattern Recognition and Artificial Intelligence Platform
US9886771B1 (en) * 2016-05-20 2018-02-06 Ccc Information Services Inc. Heat map of vehicle damage
US20180357756A1 (en) * 2017-06-13 2018-12-13 The Procter & Gamble Company Systems and Methods for Inspecting Absorbent Articles on A Converting Line
CN107389687A (zh) * 2017-06-27 2017-11-24 北京航空航天大学 一种电子元器件外观图像采集装置及其采集方法
CN107680090A (zh) * 2017-10-11 2018-02-09 电子科技大学 基于改进全卷积神经网络的输电线路绝缘子状态识别方法
CN108009637A (zh) * 2017-11-20 2018-05-08 天津大学 基于跨层特征提取的像素级台标识别网络的台标分割方法
CN108734661A (zh) * 2018-05-25 2018-11-02 南京信息工程大学 基于图像纹理信息构建损失函数的高分辨率图像预测方法
CN109840471A (zh) * 2018-12-14 2019-06-04 天津大学 一种基于改进Unet网络模型的可行道路分割方法
CN109785316A (zh) * 2019-01-22 2019-05-21 湖南大学 一种芯片表观缺陷检测方法
CN109815906A (zh) * 2019-01-25 2019-05-28 华中科技大学 基于分步深度学习的交通标志检测方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AMY L.OLDENBURG 等: "Imaging and Elastometry of Blood Clots Using Magnetomotive Optical Coherence Tomography and Labeled Platelets", 《 IEEE JOURNAL OF SELECTED TOPICS IN QUANTUM ELECTRONICS》 *
李大胜 等: "基于ZigBee无线传感网络的数控机床刀具监测系统的设计", 《长春师范大学学报》 *
谭凯 等: "基于镜头分割与空域注意力模型的视频广告分类方法", 《计算机科学》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110737789A (zh) * 2019-10-23 2020-01-31 中国工程物理研究院激光聚变研究中心 一种损伤排查方法、装置、电子设备及存储介质
CN113139553A (zh) * 2020-01-16 2021-07-20 中国科学院国家空间科学中心 一种基于U-net的紫外极光图像极光卵形态提取方法及系统
CN111223128A (zh) * 2020-01-17 2020-06-02 深圳大学 目标跟踪方法、装置、设备及存储介质
CN111292308A (zh) * 2020-02-11 2020-06-16 南京邮电大学 基于卷积神经网络的光伏太阳能板红外缺陷检测方法
CN114120317A (zh) * 2021-11-29 2022-03-01 哈尔滨工业大学 基于深度学习和图像处理的光学元件表面损伤识别方法
CN114120317B (zh) * 2021-11-29 2024-04-16 哈尔滨工业大学 基于深度学习和图像处理的光学元件表面损伤识别方法

Also Published As

Publication number Publication date
CN110334760B (zh) 2021-06-08

Similar Documents

Publication Publication Date Title
CN108510467B (zh) 基于深度可变形卷积神经网络的sar图像目标识别方法
CN110334760A (zh) 一种基于resUnet的光学元器件损伤检测方法及系统
CN106780485B (zh) 基于超像素分割和特征学习的sar图像变化检测方法
WO2017148265A1 (zh) 一种单词的分割方法和装置
CN104978567B (zh) 基于场景分类的车辆检测方法
CN102609720B (zh) 一种基于位置校正模型的行人检测方法
CN105701448B (zh) 三维人脸点云鼻尖检测方法及应用其的数据处理装置
Lei et al. End-to-end change detection using a symmetric fully convolutional network for landslide mapping
Dhaya CCTV surveillance for unprecedented violence and traffic monitoring
CN108491498A (zh) 一种基于多特征检测的卡口图像目标搜索方法
CN109559324A (zh) 一种线阵图像中的目标轮廓检测方法
CN110008899B (zh) 一种可见光遥感图像候选目标提取与分类方法
CN109902576B (zh) 一种头肩图像分类器的训练方法及应用
CN108734200A (zh) 基于bing特征的人体目标视觉检测方法和装置
Ahmed et al. Traffic sign detection and recognition model using support vector machine and histogram of oriented gradient
US7630534B2 (en) Method for radiological image processing
CN108509950A (zh) 基于概率特征加权融合的铁路接触网支柱号牌检测识别法
CN112308156A (zh) 一种基于对抗学习的两阶段图像变化检测方法
CN110866931B (zh) 图像分割模型训练方法及基于分类的强化图像分割方法
WO2020119624A1 (zh) 一种基于深度学习的类别敏感型边缘检测方法
CN109543498A (zh) 一种基于多任务网络的车道线检测方法
Yu YOLO V5s-based deep learning approach for concrete cracks detection
CN104504162B (zh) 一种基于机器人视觉平台的视频检索方法
CN112347967B (zh) 一种复杂场景下融合运动信息的行人检测方法
CN111179278B (zh) 一种图像检测的方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 610000 No. 270, floor 2, No. 8, Jinxiu street, Wuhou District, Chengdu, Sichuan

Patentee after: Chengdu shuzhilian Technology Co.,Ltd.

Address before: 610000 No.2, 4th floor, building 1, Jule Road intersection, West 1st section of 1st ring road, Wuhou District, Chengdu City, Sichuan Province

Patentee before: CHENGDU SHUZHILIAN TECHNOLOGY Co.,Ltd.

CP03 Change of name, title or address