CN109191429B - 一种基于机器视觉的3d打印喷嘴检测方法 - Google Patents

一种基于机器视觉的3d打印喷嘴检测方法 Download PDF

Info

Publication number
CN109191429B
CN109191429B CN201810835271.7A CN201810835271A CN109191429B CN 109191429 B CN109191429 B CN 109191429B CN 201810835271 A CN201810835271 A CN 201810835271A CN 109191429 B CN109191429 B CN 109191429B
Authority
CN
China
Prior art keywords
network
training
printing
picture
rpn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810835271.7A
Other languages
English (en)
Other versions
CN109191429A (zh
Inventor
李俊
庄加福
林锦新
唐康来
高银
白成云
杨林杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian Institute of Research on the Structure of Matter of CAS
Original Assignee
Fujian Institute of Research on the Structure of Matter of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujian Institute of Research on the Structure of Matter of CAS filed Critical Fujian Institute of Research on the Structure of Matter of CAS
Priority to CN201810835271.7A priority Critical patent/CN109191429B/zh
Publication of CN109191429A publication Critical patent/CN109191429A/zh
Application granted granted Critical
Publication of CN109191429B publication Critical patent/CN109191429B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T5/90
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Abstract

本发明涉及一种基于及其视觉的3D打印喷嘴检测方法,其将深度学习技术引入到3D打印喷嘴测量,通过深度神经网络学习喷嘴的特征,避免了传统方法需要人工提取特征的缺陷,有效地提升了检测精度;而且本发明针对喷嘴的颜色信息,提出了一种改进的白平衡颜色增强算法,有效地提升了目标与背景的区分度,为后续的训练及学习创造了良好的条件,有效提升了检测精度。

Description

一种基于机器视觉的3D打印喷嘴检测方法
技术领域
本发明涉及图像识别检测领域,具体涉及一种基于机器视觉的3D打印喷嘴检测方法。
背景技术
一个检测流程通常包括几个部分:目标分割,特征表示,特征匹配。特征表示主要是提取的目标区域进行特征提取及表示。特征匹配则将提取目标的特征与检测目标的特征进行相似度度量,进而判别是否为要检测的目标。根据检测算法对于帧间信息的使用情况,分为静态检测及动态检测。
静态检测算法主要包括两大类:基于形状的检测算法以及基于颜色的检测算法。基于形状的检测算法的一般流程为:前景及背景分割、目标轮廓提取、模板匹配。由于背景的复杂性,前后景分割效果通常不能得到保障。基于颜色的算法则使用颜色信息来进行后续处理,可以通过颜色空间变换,颜色直方图统计或者微分特征提取等方式实现目标检测。颜色空间变换算法就是使用变换的方法将一个颜色空间变换到另外一个颜色空间,例如,将RGB空间转HSV空间。微分特征提取算法就是使用微分算子,例如,HOG,SIFT提取感兴趣目标的微分特征,然后通过匹配进行检测,这种方法可以不首先进行目标分割,而是通过点匹配实现目标检测。基于特征的检测算法要求特征具有独特性及不变性。在相对简单的场景下可以获得不错的检测性能,一旦场景变得复杂,检测性能会出现较大的下降。
动态检测算法主要利用帧间差异信息进行检测及跟踪。由于多帧图像能够产生更多的信息,很多算法都是基于运动的。帧间检测需要提取感兴趣区域(ROI)。动态检测算法主要包括帧间差分阈值技术,光流法,背景建模等;帧间分法的特点是动态性强,能够适应动态背景下的运动目标检测。但是,这类算法检测出的目标轮廓非常不理想,在目标内部会留有许多空洞,在目标运动较快时目标的轮廓会被扩大,在目标运动较慢时甚至有可能无法得到目标的边界。光流法的计算复杂度高,实时性不高,同时,光流场的计算非常容易受到噪声、光照变化和背景扰动的影响。背景建模通常需要缓冲若干帧频来学习背景,因此往往需要消耗大量的内存,这使其使用范围受到了限制。此外,对于大范围的背景扰动,此类算法的检测效果也不理想。此外,全局光照变化、阴影非常敏感,对于缓慢的运动目标检测效果也不理想。
3D打印喷头检测的场景非常复杂,主要存在光照波动,光照强度变化,阴影、遮挡、高光、颜色扩散等问题。光照波动会影响每个像素的颜色值,而光照强度、目标与光源的距离都会对物体的光照强度值有大的影响。在3D打印场景中,背景存在机械臂、支架、电机等干扰物,同时底盘可以喷涂多种颜色,例如,蓝色、白色、黑色。阴影、遮挡、高光对于检测造成了极大的干扰。当目标的高光过于强烈或者被遮挡部分太大时,就会对检测性能产生不利的影响。随着针管与相机的距离及角度发生变化,针管的姿态及大小也会随之变化受光照及相机设置的影响,针管的颜色会出现一定的失真。特别是存在高光时,针管的颜色扩散及失真现象更加显著。上述的这些问题使得背景变得非常复杂,无论是静态检测算法抑或是动态检测算法都无法很好的解决。
有鉴于此,本发明针对上述3D打印喷头存在的诸多问题,而深入构思,进而开发出本发明。
发明内容
本发明的额目的在于提供一种基于机器视觉的3D打印喷头检测方法,其能够有效提高喷嘴检测的准确度。
为实现上述目的,本发明采用的技术方案是:
一种基于机器视觉的3D打印喷嘴检测方法,其具体包括以下步骤:
步骤1、打印装置设置;
对3D打印设备的打印喷嘴喷涂了涂料,使打印喷嘴与整个场景相比具有明显的区分度;光源使用条形光源;3D打印暗箱采用吸光的黑色材料进行涂抹,同时将打印托盘喷漆为黑色;
步骤2、采集多张暗箱内部打印装置图片,形成训练图片集,然后对训练图片集中的图片进行图像增强以及图像标记处理;
步骤3、将处理后的训练图片集送入Faster RCNN网络中进行训练;
Faster-RCNN网络由两大部分组成:PRN网络以及Fast RCNN网络;其中,RPN候选框提取模块是全卷积神经网络,用于提取候选框;Fast RCNN基于RPN提取的候选框进行检测并识别候选框中的目标;RPN网络与Fast RCNN网络共享“卷积&池化”及“特征图”两个部分;
Faster RCNN网络的训练具体如下:
a.单独训练RPN网络,网络参数由预训练模型载入;
b.单独训练Fast-RCNN网络,将第一步RPN的输出候选区域作为检测网络的输入;
c.再次训练RPN网络,此时固定网络公共部分的参数,只更新RPN独有部分的参数;
d.根据RPN网络的结果再次微调Fast-RCNN网络,固定网络公共部分的参数,只更新Fast-RCNN独有部分的参数;
步骤4、获取暗箱内的图片作为待检测图片,对该待检测图片进行图像增强处理,然后将处理后的待检测图片输入训练后的FasterRCNN网络进行打印喷嘴检测,获取打印喷嘴的位置。
所述所述步骤1中,所述打印喷嘴的颜色喷涂为绿色、红色或蓝色。
所述步骤2中,对图片进行图像增强和图像标记的具体过程如下:
采用白平衡算法对训练图片集中的图片进行增强处理,获取白平衡处理过的图片;同时,将训练图片集中的图片进行标记处理,标记出打印喷嘴;然后在标记后的图片中提取打印喷嘴的标记框到白平衡处理过的图片中,即完成了训练图片集的图像增强处理及标记处理。
所述暗箱的四个纵向棱边上均放置了同型号同参数的相机进行图片采集。
采用上述方案后,本发明将深度学习技术引入到3D打印喷嘴测量,通过深度神经网络学习喷嘴的特征,避免了传统方法需要人工提取特征的缺陷,有效地提升了检测精度;而且本发明针对喷嘴的颜色信息,提出了一种改进的白平衡颜色增强算法,有效地提升了目标与背景的区分度,为后续的训练及学习创造了良好的条件,有效提升了检测精度。
附图说明
图1为本发明检测方法流程图;
图2为本发明打印装置结构示意图;
图3a为本发明训练图片集的原始图片;
图3b为对图3a进行白平衡处理后的图片;
图3c为在原始图片上通过人工标记打印喷嘴的图片;
图3d为提取原始图片标记框到白平衡处理后的图片上;
图4为Faster-RCNN网络的基本框架图;
图5为RPN网络提取的若干候选区域;
图6为训练后的Faster-RCNN网络检测结果图。
具体实施方式
如图1所示,本发明揭示了一种基于机器视觉的3D打印喷嘴检测方法,其具体包括以下步骤:
步骤1、打印装置设置
对3D打印设备的打印喷嘴2、光源装置4以及托盘3背景进行了特殊设计,即将打印喷嘴2喷涂了特殊颜色(如绿色、红色、蓝色)的涂料,与整个场景相比具有比较明显的区分度。
图2是本发明所使用的打印装置的部分场景,如图2所示,光源4使用了4个可调整亮度的条形光源。为了减少光反射对于图像造成的干扰,将3D打印暗箱1用吸光的黑色材料进行涂抹,同时将打印托盘3喷漆为黑色。为了增强检测算法对于位置、姿态的鲁棒性,在暗箱1的四个纵向棱边上均放置了同型号同参数的相机5进行图片采集。
步骤2、通过安装在暗箱1内的相机5采集多张暗箱内部打印装置图片,形成训练图片集,然后对训练图片集中的图片进行图像增强以及图像标记处理。
在影响图像质量的众多问题当中,光源是一项非常重要的因素。光源跟阴影、高光、颜色失真有密切的关系,而这些问题对于检测性能具有很大的影响。背景可以通过人工手法进行适当简化,噪声可以选用高信噪比相机或者选用合适的噪声滤波器进行抑制。因而,适当地对图像进行增强是可以提升检测效率地,图像增强有很多算法,本发明采用了改进的白平衡增强算法。
白平衡是描述显示器中红、绿、蓝三基色混合生成后白色精确度的一项指标。正常情况下,红绿蓝的比例是1:1:1。通过调整红绿蓝间的比例,可以实现对某些颜色的增强及抑制。关于白平衡的调整目前主要使用地是自动白平衡算法(AWB)。AWB算法通常分为两个步骤:场景光照估计以及比例调整。AWB对于光照强度比较适中的场景具有较好地效果。本文的场景具有一定的特殊性:欲跟踪的物体具有比较明显的颜色特征,例如,本例中的打印喷嘴2颜色接近于绿色,也可以使用其它与背景区分度较大的颜色,例如,红色,蓝色,但是,不同颜色的打印喷嘴2需要调整白平衡算法的参数。于是,我们的白平衡算法相对就比较简单:可以通过调整红绿蓝混合比例来增强针管的本征颜色进而实现对目标的增强。具体如下:
(1)、输入目标的本征颜色及输入图像;针管的本征颜色由厂家提供或者可以通过与色卡比较来获取。
(2)、估计场景的光照度;场景的光照度为图片中所有像素的平均亮度。
(3)、计算并估计颜色比例;
颜色比例可由下面公式进行调整:
Figure BDA0001744418290000071
其中,r0,g0,b0为喷嘴的本征颜色值,r,g,b为各个像素的颜色值,p0为初始的RGB比例系数,为一个三维列向量
Figure BDA0001744418290000072
p为调整后的RGB比例系数,为一个三维列向量(p1,p2,p3)T。k,a1,a2,a3为改进型白平衡的算法参数。
k,a1,a2,a3取值由以下最小化函数完成:
Figure BDA0001744418290000081
(2)其中,r(i,j),g(i,j),b(i,j)为某一个光照条件下采集的参考图片的第i行第j列的rgb像素值。通过调整k,a1,a2,a3使得(2)式取得最小值。可以通过凸优化方法对(2)进行求解。
(4)、颜色变换输出白平衡后的图片。
采用白平衡算法对训练图片集中的图片进行增强处理,获取白平衡处理过的图片;同时,将训练图片集中的图片进行标记处理,标记出打印喷嘴;然后在标记后的图片中提取打印喷嘴的标记框到白平衡处理过的图片中,即完成了训练图片集的图像增强处理及标记处理。具体如图3a至图3d所示,其中,图3a为训练图片集的原始图片,图3b为白平衡预处理后图片,图3c为在原始图片上通过人工标记打印喷嘴的图片,图3d为提取原始图片标记框到白平衡处理后的图片上。
步骤3、将处理后的训练图片集送入Faster RCNN网络中进行训练;
Faster-RCNN网络主要由RCNN,Fast-RCNN演进而来的一种基于深度学习的目标检测算法。基于RCNN的目标检测的通常有四个基本步骤:候选区域生成,特征提取,分类,位置精修。传统的RCNN及Fast-RCNN算法中,候选区域生成,特征提取,分类及位置精修这几个步骤往往需要分开处理。而Faster-RCNN网络通过将候选区域生成步骤网络化,进而将这几个步骤被统一到一个更大的深度网络框架之内。Faster-RCNN网络的基本框架如图4所示:
(1)卷积层
“卷积&池化”加上特征图构成了卷积层。卷积层包括一系列卷积(Conv+Relu)和池化(Pooling)操作,用于提取图像的特征图(feature maps),一般通过迁移学习的方式直接使用现有的经典网络模型,例如VGG16,AlexNet,GoogleNet等。卷积层的权值参数为RPN和Fast RCNN所共享,这也是能够加快训练过程、提升模型实时性的关键所在。
(2)区域生成网络RPN
区域生成网络RPN是一种生成检测物体候选框的深度神经网络,其主要功能就是从输入图片中提取若干潜在的矩形边框并给出该边框为目标的概率。RPN网络引入了多尺度Anchor(候选窗口),通过Softmax算法对anchors属于目标(foreground)还是背景(background)进行分类判决,并使用边框回归(Bounding BoxRegression)对anchors进行回归预测,获取候选区域(Proposal)的精确位置。这是一个由图像空间变换到矩形边框空间的过程
Figure BDA0001744418290000091
其中,m,n为图像的行列数,k为矩形框的个数,每个矩形框由(x,y,w,h,p)五个参数表示,其中,(x,y,w,h)为矩形框的左上角坐标以及宽度高度,p为该矩形框属于目标的概率。RCNN及Fast-RCNN通常采用SS(selective search)及EB(edge search)算法提取区域,而Faster-RCNN通过构建RPN网络实现候选框提取功能并将RPN集成到Faster-RCNN框架中。图5是RPN网络提取的若干候选区域。
(3)RoI池化层
RPN网络的输出中就包含了一系列的边框及边框属于目标的概率。但是,RPN网络中的边框数量太多,需要进一步筛选及优化处理。RoI池化层综合卷积层的特征图和RPN中候选框的信息,将候选框在输入图像中的坐标映射到最后一层特征图中,并对特征图中的对应区域进行池化操作,得到固定大小的池化结果,并与后面的全连接层相连。
(4)分类层及边框回归层
经过RoI Pooling及全连接之后,每个候选边框形成了一个高维度的特征(通常维度在1000维以上)。这些特征通过分类层(cls)和回归层(reg)实现分类及边框回归。其中,分类层用于判断候选框的类别,回归层则通过边框回归预测候选框的准确位置。
Faster-RCNN网络由两大部分组成:PRN(Region ProposalNetwork)网络以及FastRCNN网络。其中,RPN网络是全卷积神经网络,用于提取候选框;Fast RCNN网络基于RPN提取的候选框进行检测并识别候选框中的目标。Faster-RCNN网络的一大特点就是CNN网络权值共享,即RPN网络与Fast RCNN网络共享“卷积&池化”及“特征图”两个部分。
Faster-RCNN网络的训练具体如下:
a.输入训练图片集,单独训练RPN网络,网络参数由预训练模型载入;
b.单独训练Fast-RCNN网络,将第一步RPN的输出候选区域作为检测网络的输入。具体而言,RPN网络输出一个候选框,通过候选框截取原图像,并将截取后的图像通过几次卷积池化处理,然后再通过roi-pooling和fc再输出两条支路,一条是目标分类,另一条是边框回归。截止到现在,两个网络并没有共享参数,只是分开训练了。
c.输入训练图片集,再次训练RPN网络,此时固定网络公共部分的参数,只更新RPN独有部分的参数;
d.根据RPN的结果再次微调Fast-RCNN网络,固定网络公共部分的参数,只更新Fast-RCNN独有部分的参数。
步骤4、通过暗箱内的相机获取待检测图片,采用白平衡算法对该待检测图片进行图像增强处理,然后将处理后的待检测图片输入训练后的Faster RCNN网络进行打印喷嘴检测,获取打印喷嘴的位置。
检测结果如图6所示,边框为检测到的打印喷嘴,边框上的数值表示该边框内图像为打印喷嘴的置信度。置信度的取值范围为0到1,置信度越高说明该图像为打印喷嘴的概率越高。
本发明将深度学习技术引入到3D打印喷嘴测量,通过深度神经网络学习喷嘴的特征,避免了传统方法需要人工提取特征的缺陷,有效地提升了检测精度;而且本发明针对喷嘴的颜色信息,提出了一种改进的白平衡颜色增强算法,有效地提升了目标与背景的区分度,为后续的训练及学习创造了良好的条件。

Claims (4)

1.一种基于机器视觉的3D打印喷嘴检测方法,其特征在于:所述检测方法具体包括以下步骤:
步骤1、打印装置设置;
对3D打印设备的打印喷嘴喷涂了涂料,使打印喷嘴与整个场景相比具有明显的区分度;光源使用条形光源;3D打印暗箱采用吸光的黑色材料进行涂抹,同时将打印托盘喷漆为黑色;
步骤2、采集多张暗箱内部打印装置图片,形成训练图片集,然后对训练图片集中的图片进行图像增强以及图像标记处理;
步骤3、将处理后的训练图片集送入Faster RCNN网络中进行训练;
Faster-RCNN网络由两大部分组成:RPN网络以及Fast RCNN网络;其中,RPN网络是全卷积神经网络,用于提取候选框;Fast RCNN基于RPN网络提取的候选框进行检测并识别候选框中的目标;RPN网络与Fast RCNN网络共享“卷积&池化”及“特征图”两个部分;
Faster RCNN网络的训练具体如下:
a.单独训练RPN网络,网络参数由预训练模型载入;
b.单独训练Fast-RCNN网络,将第一步RPN网络的输出候选区域作为检测网络的输入;
c.再次训练RPN网络,此时固定网络公共部分的参数,只更新RPN独有部分的参数;
d.根据RPN网络的结果再次微调Fast-RCNN网络,固定网络公共部分的参数,只更新Fast-RCNN独有部分的参数;
步骤4、获取暗箱内的图片作为待检测图片,对该待检测图片进行图像增强处理,然后将处理后的待检测图片输入训练后的Faster RCNN网络进行打印喷嘴检测,获取打印喷嘴的位置。
2.根据权利要求1所述的一种基于机器视觉的3D打印喷嘴检测方法,其特征在于:所述步骤1中,所述打印喷嘴的颜色喷涂为绿色、红色或蓝色。
3.根据权利要求1所述的一种基于机器视觉的3D打印喷嘴检测方法,其特征在于:所述步骤2中,对图片进行图像增强和图像标记的具体过程如下:
采用白平衡算法对训练图片集中的图片进行增强处理,获取白平衡处理过的图片;同时,将训练图片集中的图片进行标记处理,标记出打印喷嘴;然后在标记后的图片中提取打印喷嘴的标记框,并将该标记框转移到白平衡处理过的图片中,即完成了训练图片集的图像增强处理及标记处理。
4.根据权利要求1所述的一种基于机器视觉的3D打印喷嘴检测方法,其特征在于:所述暗箱的四个纵向棱边上均放置了同型号同参数的相机进行图片采集。
CN201810835271.7A 2018-07-26 2018-07-26 一种基于机器视觉的3d打印喷嘴检测方法 Active CN109191429B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810835271.7A CN109191429B (zh) 2018-07-26 2018-07-26 一种基于机器视觉的3d打印喷嘴检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810835271.7A CN109191429B (zh) 2018-07-26 2018-07-26 一种基于机器视觉的3d打印喷嘴检测方法

Publications (2)

Publication Number Publication Date
CN109191429A CN109191429A (zh) 2019-01-11
CN109191429B true CN109191429B (zh) 2022-06-14

Family

ID=64936968

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810835271.7A Active CN109191429B (zh) 2018-07-26 2018-07-26 一种基于机器视觉的3d打印喷嘴检测方法

Country Status (1)

Country Link
CN (1) CN109191429B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110814342B (zh) * 2019-10-26 2021-10-29 浙江亚通焊材有限公司 一种计算机形式化3d打印金属材料制备方法
CN110756803B (zh) * 2019-10-27 2021-10-26 浙江亚通焊材有限公司 一种计算机形式化3d打印用模具钢粉末材料的制备方法
CN111674048B (zh) * 2020-05-13 2022-05-06 广东工业大学 一种基于机器视觉的3d打印机断丝报警装置及报警方法
CN112884753A (zh) * 2021-03-10 2021-06-01 杭州申昊科技股份有限公司 一种基于卷积神经网络的轨道扣件检测及分类方法
CN113435261A (zh) * 2021-06-07 2021-09-24 同济大学 一种基于视觉弱光环境的洞穴渗透缺陷识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101866431A (zh) * 2008-12-25 2010-10-20 佳能株式会社 图像处理设备、打印设备和图像处理方法
CN106022232A (zh) * 2016-05-12 2016-10-12 成都新舟锐视科技有限公司 基于深度学习的车牌检测方法
CN108045090A (zh) * 2017-12-05 2018-05-18 天津优省科技发展股份有限公司 一种喷墨打印清晰度测试方法
CN108312292A (zh) * 2018-02-09 2018-07-24 中国科学院福建物质结构研究所 一种3d打印喷头及包括该喷头的3d打印装置以及用于该3d打印装置的生物陶瓷浆料

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9290010B2 (en) * 2011-10-06 2016-03-22 AI Cure Technologies, Inc. Method and apparatus for fractal identification

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101866431A (zh) * 2008-12-25 2010-10-20 佳能株式会社 图像处理设备、打印设备和图像处理方法
CN106022232A (zh) * 2016-05-12 2016-10-12 成都新舟锐视科技有限公司 基于深度学习的车牌检测方法
CN108045090A (zh) * 2017-12-05 2018-05-18 天津优省科技发展股份有限公司 一种喷墨打印清晰度测试方法
CN108312292A (zh) * 2018-02-09 2018-07-24 中国科学院福建物质结构研究所 一种3d打印喷头及包括该喷头的3d打印装置以及用于该3d打印装置的生物陶瓷浆料

Also Published As

Publication number Publication date
CN109191429A (zh) 2019-01-11

Similar Documents

Publication Publication Date Title
CN109191429B (zh) 一种基于机器视觉的3d打印喷嘴检测方法
CN111640157B (zh) 一种基于神经网络的棋盘格角点检测方法及其应用
CN106960446B (zh) 一种面向无人艇应用的水面目标检测跟踪一体化方法
CN107016691B (zh) 基于超像素特征的运动目标检测方法
CN105631880B (zh) 车道线分割方法和装置
CN102567727B (zh) 一种背景目标替换方法和装置
CN106951870B (zh) 主动视觉注意的监控视频显著事件智能检测预警方法
CN105809716B (zh) 融合超像素与三维自组织背景减除法的前景提取方法
CN113592911B (zh) 表观增强深度目标跟踪方法
CN107481267A (zh) 一种基于双目视觉的摄像投影交互系统及方法
CN112364865B (zh) 一种复杂场景中运动小目标的检测方法
CN109754440A (zh) 一种基于全卷积网络和均值漂移的阴影区域检测方法
CN106101588A (zh) 全景图像渐晕现象的补偿方法
CN112561899A (zh) 电力巡检图像识别方法
CN112164117A (zh) 一种基于Kinect相机的V-SLAM位姿估算方法
CN105825168A (zh) 一种基于s-tld的川金丝猴面部检测和追踪算法
CN110268420A (zh) 在图像中检测背景物上的外来物的计算机实现的方法、在图像中检测背景物上的外来物的设备以及计算机程序产品
CN110390677A (zh) 一种基于滑动自匹配的缺陷定位方法及系统
CN108133471B (zh) 一种基于人工蜂群算法的机器人导航路径提取方法及装置
CN113223044A (zh) 一种结合特征聚合和注意力机制的红外视频目标检测方法
CN109242032A (zh) 一种基于深度学习的目标检测方法
CN112348018A (zh) 基于巡检机器人的数显式仪表读数识别方法
CN114241438B (zh) 一种基于先验信息的交通信号灯快速精确的识别方法
TWI383690B (zh) 影像處理的方法
Feng et al. Generating aligned pseudo-supervision from non-aligned data for image restoration in under-display camera

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant