CN109191429A - 一种基于机器视觉的3d打印喷嘴检测方法 - Google Patents
一种基于机器视觉的3d打印喷嘴检测方法 Download PDFInfo
- Publication number
- CN109191429A CN109191429A CN201810835271.7A CN201810835271A CN109191429A CN 109191429 A CN109191429 A CN 109191429A CN 201810835271 A CN201810835271 A CN 201810835271A CN 109191429 A CN109191429 A CN 109191429A
- Authority
- CN
- China
- Prior art keywords
- network
- picture
- printing nozzle
- rpn
- rcnn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 55
- 238000010146 3D printing Methods 0.000 title claims abstract description 23
- 238000012549 training Methods 0.000 claims abstract description 36
- 230000002708 enhancing effect Effects 0.000 claims abstract description 9
- 238000007639 printing Methods 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000009432 framing Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 230000008033 biological extinction Effects 0.000 claims description 3
- 239000011248 coating agent Substances 0.000 claims description 3
- 238000000576 coating method Methods 0.000 claims description 3
- 239000000463 material Substances 0.000 claims description 3
- 238000007592 spray painting technique Methods 0.000 claims description 2
- 238000005507 spraying Methods 0.000 claims description 2
- 238000004040 coloring Methods 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000013528 artificial neural network Methods 0.000 abstract description 3
- 238000007796 conventional method Methods 0.000 abstract description 3
- 230000007547 defect Effects 0.000 abstract description 3
- 238000005259 measurement Methods 0.000 abstract description 3
- 238000005286 illumination Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 7
- 239000007921 spray Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000005352 clarification Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 241000532370 Atla Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于机器视觉的3D打印喷嘴检测方法,其将深度学习技术引入到3D打印喷嘴测量,通过深度神经网络学习喷嘴的特征,避免了传统方法需要人工提取特征的缺陷,有效地提升了检测精度;而且本发明针对喷嘴的颜色信息,提出了一种改进的白平衡颜色增强算法,有效地提升了目标与背景的区分度,为后续的训练及学习创造了良好的条件,有效提升了检测精度。
Description
技术领域
本发明涉及图像识别检测领域,具体涉及一种基于机器视觉的3D打印喷嘴检测方法。
背景技术
一个检测流程通常包括几个部分:目标分割,特征表示,特征匹配。特征表示主要是提取的目标区域进行特征提取及表示。特征匹配则将提取目标的特征与检测目标的特征进行相似度度量,进而判别是否为要检测的目标。根据检测算法对于帧间信息的使用情况,分为静态检测及动态检测。
静态检测算法主要包括两大类:基于形状的检测算法以及基于颜色的检测算法。基于形状的检测算法的一般流程为:前景及背景分割、目标轮廓提取、模板匹配。由于背景的复杂性,前后景分割效果通常不能得到保障。基于颜色的算法则使用颜色信息来进行后续处理,可以通过颜色空间变换,颜色直方图统计或者微分特征提取等方式实现目标检测。颜色空间变换算法就是使用变换的方法将一个颜色空间变换到另外一个颜色空间,例如,将RGB空间转HSV空间。微分特征提取算法就是使用微分算子,例如,HOG,SIFT提取感兴趣目标的微分特征,然后通过匹配进行检测,这种方法可以不首先进行目标分割,而是通过点匹配实现目标检测。基于特征的检测算法要求特征具有独特性及不变性。在相对简单的场景下可以获得不错的检测性能,一旦场景变得复杂,检测性能会出现较大的下降。
动态检测算法主要利用帧间差异信息进行检测及跟踪。由于多帧图像能够产生更多的信息,很多算法都是基于运动的。帧间检测需要提取感兴趣区域(ROI)。动态检测算法主要包括帧间差分阈值技术,光流法,背景建模等;帧间分法的特点是动态性强,能够适应动态背景下的运动目标检测。但是,这类算法检测出的目标轮廓非常不理想,在目标内部会留有许多空洞,在目标运动较快时目标的轮廓会被扩大,在目标运动较慢时甚至有可能无法得到目标的边界。光流法的计算复杂度高,实时性不高,同时,光流场的计算非常容易受到噪声、光照变化和背景扰动的影响。背景建模通常需要缓冲若干帧频来学习背景,因此往往需要消耗大量的内存,这使其使用范围受到了限制。此外,对于大范围的背景扰动,此类算法的检测效果也不理想。此外,全局光照变化、阴影非常敏感,对于缓慢的运动目标检测效果也不理想。
3D打印喷头检测的场景非常复杂,主要存在光照波动,光照强度变化,阴影、遮挡、高光、颜色扩散等问题。光照波动会影响每个像素的颜色值,而光照强度、目标与光源的距离都会对物体的光照强度值有大的影响。在3D打印场景中,背景存在机械臂、支架、电机等干扰物,同时底盘可以喷涂多种颜色,例如,蓝色、白色、黑色。阴影、遮挡、高光对于检测造成了极大的干扰。当目标的高光过于强烈或者被遮挡部分太大时,就会对检测性能产生不利的影响。随着针管与相机的距离及角度发生变化,针管的姿态及大小也会随之变化受光照及相机设置的影响,针管的颜色会出现一定的失真。特别是存在高光时,针管的颜色扩散及失真现象更加显著。上述的这些问题使得背景变得非常复杂,无论是静态检测算法抑或是动态检测算法都无法很好的解决。
有鉴于此,本发明针对上述3D打印喷头存在的诸多问题,而深入构思,进而开发出本发明。
发明内容
本发明的额目的在于提供一种基于机器视觉的3D打印喷头检测方法,其能够有效提高喷嘴检测的准确度。
为实现上述目的,本发明采用的技术方案是:
一种基于机器视觉的3D打印喷嘴检测方法,其具体包括以下步骤:
步骤1、打印装置设置;
对3D打印设备的打印喷嘴喷涂了涂料,使打印喷嘴与整个场景相比具有明显的区分度;光源使用条形光源;3D打印暗箱采用吸光的黑色材料进行涂抹,同时将打印托盘喷漆为黑色;
步骤2、采集多张暗箱内部打印装置图片,形成训练图片集,然后对训练图片集中的图片进行图像增强以及图像标记处理;
步骤3、将处理后的训练图片集送入Faster RCNN网络中进行训练;
Faster-RCNN网络由两大部分组成:PRN网络以及Fast RCNN网络;其中,RPN候选框提取模块是全卷积神经网络,用于提取候选框;Fast RCNN基于RPN提取的候选框进行检测并识别候选框中的目标;RPN网络与Fast RCNN网络共享“卷积&池化”及“特征图”两个部分;
Faster RCNN网络的训练具体如下:
a.单独训练RPN网络,网络参数由预训练模型载入;
b.单独训练Fast-RCNN网络,将第一步RPN的输出候选区域作为检测网络的输入;
c.再次训练RPN网络,此时固定网络公共部分的参数,只更新RPN独有部分的参数;
d.根据RPN网络的结果再次微调Fast-RCNN网络,固定网络公共部分的参数,只更新Fast-RCNN独有部分的参数;
步骤4、获取暗箱内的图片作为待检测图片,对该待检测图片进行图像增强处理,然后将处理后的待检测图片输入训练后的FasterRCNN网络进行打印喷嘴检测,获取打印喷嘴的位置。
所述所述步骤1中,所述打印喷嘴的颜色喷涂为绿色、红色或蓝色。
所述步骤2中,对图片进行图像增强和图像标记的具体过程如下:
采用白平衡算法对训练图片集中的图片进行增强处理,获取白平衡处理过的图片;同时,将训练图片集中的图片进行标记处理,标记出打印喷嘴;然后在标记后的图片中提取打印喷嘴的标记框到白平衡处理过的图片中,即完成了训练图片集的图像增强处理及标记处理。
所述暗箱的四个纵向棱边上均放置了同型号同参数的相机进行图片采集。
采用上述方案后,本发明将深度学习技术引入到3D打印喷嘴测量,通过深度神经网络学习喷嘴的特征,避免了传统方法需要人工提取特征的缺陷,有效地提升了检测精度;而且本发明针对喷嘴的颜色信息,提出了一种改进的白平衡颜色增强算法,有效地提升了目标与背景的区分度,为后续的训练及学习创造了良好的条件,有效提升了检测精度。
附图说明
图1为本发明检测方法流程图;
图2为本发明打印装置结构示意图;
图3a为本发明训练图片集的原始图片;
图3b为对图3a进行白平衡处理后的图片;
图3c为在原始图片上通过人工标记打印喷嘴的图片;
图3d为提取原始图片标记框到白平衡处理后的图片上;
图4为Faster-RCNN网络的基本框架图;
图5为RPN网络提取的若干候选区域;
图6为训练后的Faster-RCNN网络检测结果图。
具体实施方式
如图1所示,本发明揭示了一种基于机器视觉的3D打印喷嘴检测方法,其具体包括以下步骤:
步骤1、打印装置设置
对3D打印设备的打印喷嘴2、光源装置4以及托盘3背景进行了特殊设计,即将打印喷嘴2喷涂了特殊颜色(如绿色、红色、蓝色)的涂料,与整个场景相比具有比较明显的区分度。
图2是本发明所使用的打印装置的部分场景,如图2所示,光源4使用了4个可调整亮度的条形光源。为了减少光反射对于图像造成的干扰,将3D打印暗箱1用吸光的黑色材料进行涂抹,同时将打印托盘3喷漆为黑色。为了增强检测算法对于位置、姿态的鲁棒性,在暗箱1的四个纵向棱边上均放置了同型号同参数的相机5进行图片采集。
步骤2、通过安装在暗箱1内的相机5采集多张暗箱内部打印装置图片,形成训练图片集,然后对训练图片集中的图片进行图像增强以及图像标记处理。
在影响图像质量的众多问题当中,光源是一项非常重要的因素。光源跟阴影、高光、颜色失真有密切的关系,而这些问题对于检测性能具有很大的影响。背景可以通过人工手法进行适当简化,噪声可以选用高信噪比相机或者选用合适的噪声滤波器进行抑制。因而,适当地对图像进行增强是可以提升检测效率地,图像增强有很多算法,本发明采用了改进的白平衡增强算法。
白平衡是描述显示器中红、绿、蓝三基色混合生成后白色精确度的一项指标。正常情况下,红绿蓝的比例是1:1:1。通过调整红绿蓝间的比例,可以实现对某些颜色的增强及抑制。关于白平衡的调整目前主要使用地是自动白平衡算法(AWB)。AWB算法通常分为两个步骤:场景光照估计以及比例调整。AWB对于光照强度比较适中的场景具有较好地效果。本文的场景具有一定的特殊性:欲跟踪的物体具有比较明显的颜色特征,例如,本例中的打印喷嘴2颜色接近于绿色,也可以使用其它与背景区分度较大的颜色,例如,红色,蓝色,但是,不同颜色的打印喷嘴2需要调整白平衡算法的参数。于是,我们的白平衡算法相对就比较简单:可以通过调整红绿蓝混合比例来增强针管的本征颜色进而实现对目标的增强。具体如下:
(1)、输入目标的本征颜色及输入图像;针管的本征颜色由厂家提供或者可以通过与色卡比较来获取。
(2)、估计场景的光照度;场景的光照度为图片中所有像素的平均亮度。
(3)、计算并估计颜色比例;
颜色比例可由下面公式进行调整:
其中,r0,g0,b0为喷嘴的本征颜色值,r,g,b为各个像素的颜色值,p0为初始的RGB比例系数,为一个三维列向量p为调整后的RGB比例系数,为一个三维列向量(p1,p2,p3)T。k,a1,a2,a3为改进型白平衡的算法参数。
k,a1,a2,a3取值由以下最小化函数完成:
(2)其中,r(i,j),g(i,j),b(i,j)为某一个光照条件下采集的参考图片的第i行第j列的rgb像素值。通过调整k,a1,a2,a3使得(2)式取得最小值。可以通过凸优化方法对(2)进行求解。
(4)、颜色变换输出白平衡后的图片。
采用白平衡算法对训练图片集中的图片进行增强处理,获取白平衡处理过的图片;同时,将训练图片集中的图片进行标记处理,标记出打印喷嘴;然后在标记后的图片中提取打印喷嘴的标记框到白平衡处理过的图片中,即完成了训练图片集的图像增强处理及标记处理。具体如图3a至图3d所示,其中,图3a为训练图片集的原始图片,图3b为白平衡预处理后图片,图3c为在原始图片上通过人工标记打印喷嘴的图片,图3d为提取原始图片标记框到白平衡处理后的图片上。
步骤3、将处理后的训练图片集送入Faster RCNN网络中进行训练;
Faster-RCNN网络主要由RCNN,Fast-RCNN演进而来的一种基于深度学习的目标检测算法。基于RCNN的目标检测的通常有四个基本步骤:候选区域生成,特征提取,分类,位置精修。传统的RCNN及Fast-RCNN算法中,候选区域生成,特征提取,分类及位置精修这几个步骤往往需要分开处理。而Faster-RCNN网络通过将候选区域生成步骤网络化,进而将这几个步骤被统一到一个更大的深度网络框架之内。Faster-RCNN网络的基本框架如图4所示:
(1)卷积层
“卷积&池化”加上特征图构成了卷积层。卷积层包括一系列卷积(Conv+Relu)和池化(Pooling)操作,用于提取图像的特征图(feature maps),一般通过迁移学习的方式直接使用现有的经典网络模型,例如VGG16,AlexNet,GoogleNet等。卷积层的权值参数为RPN和Fast RCNN所共享,这也是能够加快训练过程、提升模型实时性的关键所在。
(2)区域生成网络RPN
区域生成网络RPN是一种生成检测物体候选框的深度神经网络,其主要功能就是从输入图片中提取若干潜在的矩形边框并给出该边框为目标的概率。RPN网络引入了多尺度Anchor(候选窗口),通过Softmax算法对anchors属于目标(foreground)还是背景(background)进行分类判决,并使用边框回归(Bounding BoxRegression)对anchors进行回归预测,获取候选区域(Proposal)的精确位置。这是一个由图像空间变换到矩形边框空间的过程其中,m,n为图像的行列数,k为矩形框的个数,每个矩形框由(x,y,w,h,p)五个参数表示,其中,(x,y,w,h)为矩形框的左上角坐标以及宽度高度,p为该矩形框属于目标的概率。RCNN及Fast-RCNN通常采用SS(selective search)及EB(edge search)算法提取区域,而Faster-RCNN通过构建RPN网络实现候选框提取功能并将RPN集成到Faster-RCNN框架中。图5是RPN网络提取的若干候选区域。
(3)RoI池化层
RPN网络的输出中就包含了一系列的边框及边框属于目标的概率。但是,RPN网络中的边框数量太多,需要进一步筛选及优化处理。RoI池化层综合卷积层的特征图和RPN中候选框的信息,将候选框在输入图像中的坐标映射到最后一层特征图中,并对特征图中的对应区域进行池化操作,得到固定大小的池化结果,并与后面的全连接层相连。
(4)分类层及边框回归层
经过RoI Pooling及全连接之后,每个候选边框形成了一个高维度的特征(通常维度在1000维以上)。这些特征通过分类层(cls)和回归层(reg)实现分类及边框回归。其中,分类层用于判断候选框的类别,回归层则通过边框回归预测候选框的准确位置。
Faster-RCNN网络由两大部分组成:PRN(Region ProposalNetwork)网络以及FastRCNN网络。其中,RPN网络是全卷积神经网络,用于提取候选框;Fast RCNN网络基于RPN提取的候选框进行检测并识别候选框中的目标。Faster-RCNN网络的一大特点就是CNN网络权值共享,即RPN网络与Fast RCNN网络共享“卷积&池化”及“特征图”两个部分。
Faster-RCNN网络的训练具体如下:
a.输入训练图片集,单独训练RPN网络,网络参数由预训练模型载入;
b.单独训练Fast-RCNN网络,将第一步RPN的输出候选区域作为检测网络的输入。具体而言,RPN网络输出一个候选框,通过候选框截取原图像,并将截取后的图像通过几次卷积池化处理,然后再通过roi-pooling和fc再输出两条支路,一条是目标分类,另一条是边框回归。截止到现在,两个网络并没有共享参数,只是分开训练了。
c.输入训练图片集,再次训练RPN网络,此时固定网络公共部分的参数,只更新RPN独有部分的参数;
d.根据RPN的结果再次微调Fast-RCNN网络,固定网络公共部分的参数,只更新Fast-RCNN独有部分的参数。
步骤4、通过暗箱内的相机获取待检测图片,采用白平衡算法对该待检测图片进行图像增强处理,然后将处理后的待检测图片输入训练后的Faster RCNN网络进行打印喷嘴检测,获取打印喷嘴的位置。
检测结果如图6所示,边框为检测到的打印喷嘴,边框上的数值表示该边框内图像为打印喷嘴的置信度。置信度的取值范围为0到1,置信度越高说明该图像为打印喷嘴的概率越高。
本发明将深度学习技术引入到3D打印喷嘴测量,通过深度神经网络学习喷嘴的特征,避免了传统方法需要人工提取特征的缺陷,有效地提升了检测精度;而且本发明针对喷嘴的颜色信息,提出了一种改进的白平衡颜色增强算法,有效地提升了目标与背景的区分度,为后续的训练及学习创造了良好的条件。
Claims (4)
1.一种基于机器视觉的3D打印喷嘴检测方法,其特征在于:所述检测方法具体包括以下步骤:
步骤1、打印装置设置;
对3D打印设备的打印喷嘴喷涂了涂料,使打印喷嘴与整个场景相比具有明显的区分度;光源使用条形光源;3D打印暗箱采用吸光的黑色材料进行涂抹,同时将打印托盘喷漆为黑色;
步骤2、采集多张暗箱内部打印装置图片,形成训练图片集,然后对训练图片集中的图片进行图像增强以及图像标记处理;
步骤3、将处理后的训练图片集送入Faster RCNN网络中进行训练;
Faster-RCNN网络由两大部分组成:PRN网络以及Fast RCNN网络;其中,RPN候选框提取模块是全卷积神经网络,用于提取候选框;Fast RCNN基于RPN提取的候选框进行检测并识别候选框中的目标;RPN网络与Fast RCNN网络共享“卷积&池化”及“特征图”两个部分;
Faster RCNN网络的训练具体如下:
a.单独训练RPN网络,网络参数由预训练模型载入;
b.单独训练Fast-RCNN网络,将第一步RPN的输出候选区域作为检测网络的输入;
c.再次训练RPN网络,此时固定网络公共部分的参数,只更新RPN独有部分的参数;
d.根据RPN网络的结果再次微调Fast-RCNN网络,固定网络公共部分的参数,只更新Fast-RCNN独有部分的参数;
步骤4、获取暗箱内的图片作为待检测图片,对该待检测图片进行图像增强处理,然后将处理后的待检测图片输入训练后的FasterRCNN网络进行打印喷嘴检测,获取打印喷嘴的位置。
2.根据权利要求1所述的一种基于机器视觉的3D打印喷嘴检测方法,其特征在于:所述所述步骤1中,所述打印喷嘴的颜色喷涂为绿色、红色或蓝色。
3.根据权利要求1所述的一种基于机器视觉的3D打印喷嘴检测方法,其特征在于:所述步骤2中,对图片进行图像增强和图像标记的具体过程如下:
采用白平衡算法对训练图片集中的图片进行增强处理,获取白平衡处理过的图片;同时,将训练图片集中的图片进行标记处理,标记出打印喷嘴;然后在标记后的图片中提取打印喷嘴的标记框到白平衡处理过的图片中,即完成了训练图片集的图像增强处理及标记处理。
4.根据权利要求1所述的一种基于机器视觉的3D打印喷嘴检测方法,其特征在于:所述暗箱的四个纵向棱边上均放置了同型号同参数的相机进行图片采集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810835271.7A CN109191429B (zh) | 2018-07-26 | 2018-07-26 | 一种基于机器视觉的3d打印喷嘴检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810835271.7A CN109191429B (zh) | 2018-07-26 | 2018-07-26 | 一种基于机器视觉的3d打印喷嘴检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109191429A true CN109191429A (zh) | 2019-01-11 |
CN109191429B CN109191429B (zh) | 2022-06-14 |
Family
ID=64936968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810835271.7A Active CN109191429B (zh) | 2018-07-26 | 2018-07-26 | 一种基于机器视觉的3d打印喷嘴检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109191429B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110756803A (zh) * | 2019-10-27 | 2020-02-07 | 浙江亚通焊材有限公司 | 一种计算机形式化3d打印用模具钢粉末材料的制备方法 |
CN110814342A (zh) * | 2019-10-26 | 2020-02-21 | 浙江亚通焊材有限公司 | 一种计算机形式化3d打印金属材料制备方法 |
CN111674048A (zh) * | 2020-05-13 | 2020-09-18 | 广东工业大学 | 一种基于机器视觉的3d打印机断丝报警装置及报警方法 |
CN112884753A (zh) * | 2021-03-10 | 2021-06-01 | 杭州申昊科技股份有限公司 | 一种基于卷积神经网络的轨道扣件检测及分类方法 |
CN113435261A (zh) * | 2021-06-07 | 2021-09-24 | 同济大学 | 一种基于视觉弱光环境的洞穴渗透缺陷识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101866431A (zh) * | 2008-12-25 | 2010-10-20 | 佳能株式会社 | 图像处理设备、打印设备和图像处理方法 |
US20130088555A1 (en) * | 2011-10-06 | 2013-04-11 | AI Cure Technologies, Inc. | Method and Apparatus for Fractal Identification |
CN106022232A (zh) * | 2016-05-12 | 2016-10-12 | 成都新舟锐视科技有限公司 | 基于深度学习的车牌检测方法 |
CN108045090A (zh) * | 2017-12-05 | 2018-05-18 | 天津优省科技发展股份有限公司 | 一种喷墨打印清晰度测试方法 |
CN108312292A (zh) * | 2018-02-09 | 2018-07-24 | 中国科学院福建物质结构研究所 | 一种3d打印喷头及包括该喷头的3d打印装置以及用于该3d打印装置的生物陶瓷浆料 |
-
2018
- 2018-07-26 CN CN201810835271.7A patent/CN109191429B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101866431A (zh) * | 2008-12-25 | 2010-10-20 | 佳能株式会社 | 图像处理设备、打印设备和图像处理方法 |
US20130088555A1 (en) * | 2011-10-06 | 2013-04-11 | AI Cure Technologies, Inc. | Method and Apparatus for Fractal Identification |
CN106022232A (zh) * | 2016-05-12 | 2016-10-12 | 成都新舟锐视科技有限公司 | 基于深度学习的车牌检测方法 |
CN108045090A (zh) * | 2017-12-05 | 2018-05-18 | 天津优省科技发展股份有限公司 | 一种喷墨打印清晰度测试方法 |
CN108312292A (zh) * | 2018-02-09 | 2018-07-24 | 中国科学院福建物质结构研究所 | 一种3d打印喷头及包括该喷头的3d打印装置以及用于该3d打印装置的生物陶瓷浆料 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110814342A (zh) * | 2019-10-26 | 2020-02-21 | 浙江亚通焊材有限公司 | 一种计算机形式化3d打印金属材料制备方法 |
CN110814342B (zh) * | 2019-10-26 | 2021-10-29 | 浙江亚通焊材有限公司 | 一种计算机形式化3d打印金属材料制备方法 |
CN110756803A (zh) * | 2019-10-27 | 2020-02-07 | 浙江亚通焊材有限公司 | 一种计算机形式化3d打印用模具钢粉末材料的制备方法 |
CN110756803B (zh) * | 2019-10-27 | 2021-10-26 | 浙江亚通焊材有限公司 | 一种计算机形式化3d打印用模具钢粉末材料的制备方法 |
CN111674048A (zh) * | 2020-05-13 | 2020-09-18 | 广东工业大学 | 一种基于机器视觉的3d打印机断丝报警装置及报警方法 |
CN112884753A (zh) * | 2021-03-10 | 2021-06-01 | 杭州申昊科技股份有限公司 | 一种基于卷积神经网络的轨道扣件检测及分类方法 |
CN113435261A (zh) * | 2021-06-07 | 2021-09-24 | 同济大学 | 一种基于视觉弱光环境的洞穴渗透缺陷识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109191429B (zh) | 2022-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109191429A (zh) | 一种基于机器视觉的3d打印喷嘴检测方法 | |
CN108765371B (zh) | 一种病理切片中非常规细胞的分割方法 | |
CN108108761B (zh) | 一种基于深度特征学习的快速交通信号灯检测方法 | |
CN105469113B (zh) | 一种二维视频流中的人体骨骼点追踪方法及系统 | |
CN105740945B (zh) | 一种基于视频分析的人群计数方法 | |
CN109583425A (zh) | 一种基于深度学习的遥感图像船只集成识别方法 | |
CN103927741B (zh) | 增强目标特征的sar图像合成方法 | |
CN109584248A (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN109635875A (zh) | 一种基于深度学习的端到端网口检测方法 | |
CN103035013B (zh) | 一种基于多特征融合的精确运动阴影检测方法 | |
CN106934386B (zh) | 一种基于自启发式策略的自然场景文字检测方法及系统 | |
CN106022231A (zh) | 一种基于多特征融合的行人快速检测的技术方法 | |
CN107229929A (zh) | 一种基于r‑cnn的车牌定位方法 | |
CN110619327A (zh) | 一种复杂场景下基于深度学习的实时车牌识别方法 | |
CN104484645B (zh) | 一种面向人机交互的“1”手势识别方法与系统 | |
CN107066972B (zh) | 基于多通道极值区域的自然场景文本检测方法 | |
CN105825168B (zh) | 一种基于s-tld的川金丝猴面部检测和追踪方法 | |
CN108537239A (zh) | 一种图像显著性目标检测的方法 | |
CN109214336A (zh) | 一种车窗标志物检测方法及装置 | |
CN104657980A (zh) | 一种改进的基于Meanshift的多通道图像分割算法 | |
CN107038416A (zh) | 一种基于二值图像改进型hog特征的行人检测方法 | |
CN108804992A (zh) | 一种基于深度学习的人群统计方法 | |
CN106570885A (zh) | 基于亮度和纹理融合阈值的背景建模方法 | |
CN107423735A (zh) | 一种利用水平梯度和饱和度的车牌定位算法 | |
CN108133471A (zh) | 一种自然光照条件下基于人工蜂群算法的农业移动机器人导航路径提取方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |