CN104021546A - 基于图像处理的工件标签在线快速定位方法 - Google Patents
基于图像处理的工件标签在线快速定位方法 Download PDFInfo
- Publication number
- CN104021546A CN104021546A CN201410204071.3A CN201410204071A CN104021546A CN 104021546 A CN104021546 A CN 104021546A CN 201410204071 A CN201410204071 A CN 201410204071A CN 104021546 A CN104021546 A CN 104021546A
- Authority
- CN
- China
- Prior art keywords
- image
- value
- candidate region
- formula
- gray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
本发明涉及一种基于图像处理的工件标签在线快速定位方法,属于数字图像处理技术领域。本发明首先将原始图像的RGB颜色空间值转换为YUV空间的UU分量灰度值图像,再进一步转换为二值化图像,去噪后,标记连通区域,把连通区域作为候选区域,最后通过计算候选区域的长宽比和面积比来确定车牌区域。本发明能够实现在多种复杂条件下精确定位图像中底色为黄色和蓝色工件标签的区域,计算简单,可实时操作。
Description
技术领域
本发明涉及一种基于图像处理的工件标签在线快速定位方法,属于数字图像处理技术领域。
技术背景
工厂生产线上零部件在生产线的末端都贴有标签,以实现对所生产的零部件进行标记,方便对生产的工件数量进行统计、产品质量追踪、生产责任认定等。而在实际制造过程中,零部件(工件)到达生产线的末端前会贴上或者刻印多种标签,从不同侧面对零部件进行标示,以便生产管理。
面对众多的零部件以及每种零部件包含多个标签,使用人工方法来记录标签信息,不仅耗费大量人力,效率较低,无法与生产的节奏相匹配,而且容易引发操作疲劳而导致较高的识别错误率。在众多零部件标签中确定某个含有数字、字母等文字信息的标签,并同时要保证在一定的识别速度要求下记录相关信息,这就要求要高的识别准确度和识别速度。
基于机器视觉的产品编号标签定位存在的难点主要有:
(1)标签位置的不确定。
标签都是由人工粘贴上去,因此每个标签的位置在零部件上的一定范围内具有随机性,从而造成产品编号标签在生产线末端的空间位置很大的不确定性。因此相机需要与工件表面保持较大的距离,获得较大的拍摄范围,保证采集到完整的产品编号标签。这样做同时会引入很多干扰,导致图像背景复杂,对后续的处理算法提出了更高的要求。
(2)拍摄环境复杂。
工厂拍摄环境受到来自多方面的影响:各种光线变化以及加工粉尘的散布均影响成像质量,使图像噪声增加,亮度变化幅度增大,降低了图像质量,增加了处理难度。
发明内容
本发明的目的是克服工件标签人工识别存在的不足,提供一种基于图像处 理的工件标签在线快速定位方法。
本发明的目的是通过以下技术方案实现的。
一种基于图像处理的工件标签在线快速定位方法,其具体操作步骤为:
步骤1:判断工件标签底色,对于包含有底色为蓝色的工件标签的原始图像进行步骤2的操作,对于包含有底色为黄色的工件标签的原始图像进行步骤3的操作。
步骤2:获取原始图像的红、绿、蓝(RGB)颜色空间值,并使用公式(1)将该原始图像的红绿蓝颜色空间值转换为明亮度、色调和饱和度(YUV)颜色空间值中的U分量灰度值。
其中,(x,y)表示原始图像中像素点的位置坐标;F(x,y)表示原始图像中(x,y)像素点U分量的灰度值;k1∈(0,3),k2∈(0,2);d1(x,y)=b(x,y)-r(x,y),b(x,y)表示(x,y)像素点RGB颜色空间中的B分量值,r(x,y)表示(x,y)像素点RGB颜色空间中的R分量值;d2(x,y)=b(x,y)-g(x,y),g(x,y)表示(x,y)像素点RGB颜色空间中的G分量值。
步骤3:获取原始图像的红、绿、蓝(RGB)颜色空间值,并使用公式(2)将该原始图像的红绿蓝颜色空间值转换为明亮度、色调和饱和度(YUV)颜色空间值中的U分量灰度值。
步骤4:对于步骤2或步骤3得到的图像U分量的灰度值,通过公式(4)计算灰度值的累加和,并得到一条横坐标为图像U分量的灰度值,纵坐标为灰度值的累加和S(j)的曲线,将其称为S(j)曲线。
其中,S(j)为灰度值从0到j所有的像素点的数目;F(i)为灰度值为i的像素点的个数。
步骤5:通过公式(5)对S(j)做差分运算,用D(j′)记录差分运算的结果。
D(j′)=S(j′)-S(j′-1) j′=1,2…255 (5)
然后用Dmax记录D(j′)中的最大值,用Dmin记录D(j′)中的最小值;进一步找到步骤4得到的S(j)曲线上第一个满足公式(6)的j′值,用J记录该j′值。
步骤6:在步骤五的基础上,使用公式(7)对步骤2或步骤3得到的图像U分量的灰度值进行二值化处理,得到二值图像。
其中,F′(x,y)表示图像(x,y)像素点的二值化处理后的结果。
步骤7:对步骤6得到的二值图像进行去噪处理,具体过程为:
步骤7.1:使用公式(8)对步骤6得到的二值图像进行闭运算操作,所得图像用FB表示。
其中,为图像处理中的膨胀运算符;Θ为图像处理中的腐蚀运算符;F′为步骤6得到的二值图像;B为结构元素,是一个2行25列矩阵,矩阵元素均为1。
步骤7.2:使用公式(9)对步骤7.1得到的图像FB进行水平开运算操作,所得图像用FKH表示。
其中,C为结构元素,C为2行20列矩阵,矩阵元素均为1。
步骤7.3:使用公式(10)对步骤7.2得到的图像FKH进行垂直开运算操作,所得图像用FKV表示。
其中,D为结构元素,D为20行2列矩阵,矩阵元素均为1。
步骤8:确定候选区域,具体操作步骤为:
步骤8.1:在步骤7得到的去噪处理后的图像上标记连通区域。
步骤8.2:在步骤8.1的基础上,将每个连通区域作为候选区域。用Tk表示候选区域,1≤k≤K,K表示候选区域的数量
经过步骤8的操作,得到1个以上的候选区域。
步骤9:确定工件标签区域,具体操作步骤为:
步骤9.1:当步骤8操作后,得到1个候选区域,则将该候选区域作为工件标签区域;否则,进行步骤9.2的操作。
步骤9.2:通过公式(11)和公式(12)计算每个候选区域的长宽比和面积比。
R1=L/W (11)
R2=P/A (12)
其中,R1表示候选区域的长宽比;R2表示候选区域的面积比;L为包含候选区域Tk的最小矩形的长,W为包含候选区域Tk的最小矩形的宽;P为候选区域Tk的像素数目,A为包含候选区域Tk的最小矩形的面积。
通过公式(13)计算每个候选区域的值,并将结果为1的候选区域作为工件标签区域。
其中,r1、r2为正实数,其值根据待识别工件标签的长宽比人为设定。
经过上述步骤的操作,即可从图像中精确定位出底色为黄色和蓝色待识别工件标签所在区域。
有益效果
本发明提出的一种基于图像处理的工件标签在线快速定位方法,能够实现在多种复杂条件下精确定位图像中底色为黄色和蓝色工件标签的区域,计算简单,可实时操作。
附图说明
图1为本发明中具体实施方式中的原始图像;
图2为本发明中具体实施方式中原始图像转换为YUV颜色空间值中的U分量灰度值后的图像;
图3为本发明中具体实施方式中得到的S(j)曲线图;
图4为本发明中具体实施方式中得到的二值化图像;
图5为本发明中具体实施方式中对二值化图像去噪后的图像;
图6为本发明中具体实施方式中在去噪处理后的图像上标记连通区域并将 其作为候选区域示意图;其中,区域T1、T2和T3为3个候选区域。
图7为本发明中具体实施方式中确定的工件标签区域示意图。
具体实施方式
下面结合附图和实施例,对本发明作进一步的说明:
本实施例中的原始图像如图1所示,其底色为蓝色,使用本发明提出的一种基于图像处理的工件标签在线快速定位方法,从如图1所示的图像中定位工件标签区域,其具体操作步骤为:
步骤1:判断工件标签底色,对于包含底色为蓝色工件标签的原始图像进行步骤2的操作。
步骤2:获取原始图像的红、绿、蓝(RGB)颜色空间值,并使用公式(1)公式将该图像的红绿蓝颜色空间值转换为明亮度、色调和饱和度(YUV)颜色空间值中的U分量灰度值,公式(1)中k1=0.14713,k2=0.28886,其结果如图2所示。
步骤4:对于步骤2得到的图像U分量的灰度值,通过公式(4)计算灰度值的累加和,并得到一条横坐标为图像U分量的灰度值,纵坐标为灰度值的累加和S(j)的曲线,将其称为S(j)曲线,如图3所示。
步骤5:通过公式(5)对S(j)做差分运算,用D(j′)记录差分运算的结果。然后用Dmax记录D(j′)中的最大值,用Dmin记录D(j′)中的最小值;进一步找到步骤4得到的S(j)曲线上第一个满足公式(6)的j′值,用J记录该j′值。
步骤6:使用公式(7)对步骤2得到的图像U分量的灰度值进行二值化处理,得到二值图像,如图4所示。
步骤7:对步骤6得到的二值图像进行去噪处理,具体过程为:
步骤7.1:使用公式(8)对步骤6得到的二值图像进行闭运算操作,所得图像用FB表示。
步骤7.2:使用公式(9)对步骤7.1得到的图像FB进行水平开运算操作,所得图像用FKH表示。
步骤7.3:使用公式(10)对步骤7.2得到的图像FKH进行垂直开运算操作,所得图像用FKV表示,图像FKV如图5所示。
步骤8:确定候选区域,具体操作步骤为:
步骤8.1:在步骤7得到的去噪处理后的图像上标记连通区域,得到3个连通区域。
步骤8.2:在步骤8.1的基础上,将得到的3个连通区域作为候选区域T1、T2和T3,如图6所示。
步骤9:确定工件标签区域,具体操作步骤为:
步骤9.1:当步骤8操作后,得到2个候选区域,进行步骤9.2的操作。
步骤9.2:通过公式(11)和公式(12)计算每个候选区域的长宽比和面积比。
通过公式(13)计算每个候选区域的值,公式(13)中r1=1.5,r2=2,并将结果为1的候选区域T1作为工件标签区域,如图7所示。
经过上述步骤的操作,即可从图像中精确定位出底色为黄色和蓝色待识别工件标签所在区域。
Claims (1)
1.一种基于图像处理的工件标签在线快速定位方法,其特征在于:其具体操作步骤为:
步骤1:判断工件标签底色,对于包含有底色为蓝色的工件标签的原始图像进行步骤2的操作,对于包含有底色为黄色的工件标签的原始图像进行步骤3的操作;
步骤2:获取原始图像的红、绿、蓝颜色空间值,并使用公式(1)将该原始图像的红绿蓝颜色空间值转换为明亮度、色调和饱和度颜色空间值中的U分量灰度值;
其中,(x,y)表示原始图像中像素点的位置坐标;F(x,y)表示原始图像中(x,y)像素点U分量的灰度值;k1∈(0,3),k2∈(0,2);d1(x,y)=b(x,y)-r(x,y),b(x,y)表示(x,y)像素点RGB颜色空间中的B分量值,r(x,y)表示(x,y)像素点RGB颜色空间中的R分量值;d2(x,y)=b(x,y)-g(x,y),g(x,y)表示(x,y)像素点RGB颜色空间中的G分量值;
步骤3:获取原始图像的红、绿、蓝颜色空间值,并使用公式(2)将该原始图像的红绿蓝颜色空间值转换为明亮度、色调和饱和度颜色空间值中的U分量灰度值;
步骤4:对于步骤2或步骤3得到的图像U分量的灰度值,通过公式(4)计算灰度值的累加和,并得到一条横坐标为图像U分量的灰度值,纵坐标为灰度值的累加和S(j)的曲线,将其称为S(j)曲线;
其中,S(j)为灰度值从0到j所有的像素点的数目;F(i)为灰度值为i的像素点的个数;
步骤5:通过公式(5)对S(j)做差分运算,用D(j′)记录差分运算的结果;
D(j′)=S(j′)-S(j′-1) j′=1,2…255 (5)
然后用Dmax记录D(j′)中的最大值,用Dmin记录D(j′)中的最小值;进一步找到步骤4得到的S(j)曲线上第一个满足公式(6)的j′值,用J记录该j′值;
步骤6:在步骤五的基础上,使用公式(7)对步骤2或步骤3得到的图像U分量的灰度值进行二值化处理,得到二值图像;
其中,F′(x,y)表示图像(x,y)像素点的二值化处理后的结果;
步骤7:对步骤6得到的二值图像进行去噪处理,具体过程为:
步骤7.1:使用公式(8)对步骤6得到的二值图像进行闭运算操作,所得图像用FB表示;
其中,为图像处理中的膨胀运算符;Θ为图像处理中的腐蚀运算符;F′为步骤6得到的二值图像;B为结构元素,是一个2行25列矩阵,矩阵元素均为1;
步骤7.2:使用公式(9)对步骤7.1得到的图像FB进行水平开运算操作,所得图像用FKH表示;
其中,C为结构元素,C为2行20列矩阵,矩阵元素均为1;
步骤7.3:使用公式(10)对步骤7.2得到的图像FKH进行垂直开运算操作,所得图像用FKV表示;
其中,D为结构元素,D为20行2列矩阵,矩阵元素均为1;
步骤8:确定候选区域,具体操作步骤为:
步骤8.1:在步骤7得到的去噪处理后的图像上标记连通区域;
步骤8.2:在步骤8.1的基础上,将每个连通区域作为候选区域;用Tk表示候选区域,1≤k≤K,K表示候选区域的数量
经过步骤8的操作,得到1个以上的候选区域;
步骤9:确定工件标签区域,具体操作步骤为:
步骤9.1:当步骤8操作后,得到1个候选区域,则将该候选区域作为工件标签区域;否则,进行步骤9.2的操作;
步骤9.2:通过公式(11)和公式(12)计算每个候选区域的长宽比和面积比;
R1=L/W (11)
R2=P/A (12)
其中,R1表示候选区域的长宽比;R2表示候选区域的面积比;L为包含候选区域Tk的最小矩形的长,W为包含候选区域Tk的最小矩形的宽;P为候选区域Tk的像素数目,A为包含候选区域Tk的最小矩形的面积;
通过公式(13)计算每个候选区域的值,并将结果为1的候选区域作为工件标签区域;
其中,r1、r2为正实数,其值根据待识别工件标签的长宽比人为设定;
经过上述步骤的操作,即可从图像中精确定位出底色为黄色和蓝色待识别工件标签所在区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410204071.3A CN104021546B (zh) | 2014-05-14 | 2014-05-14 | 基于图像处理的工件标签在线快速定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410204071.3A CN104021546B (zh) | 2014-05-14 | 2014-05-14 | 基于图像处理的工件标签在线快速定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104021546A true CN104021546A (zh) | 2014-09-03 |
CN104021546B CN104021546B (zh) | 2016-11-23 |
Family
ID=51438284
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410204071.3A Expired - Fee Related CN104021546B (zh) | 2014-05-14 | 2014-05-14 | 基于图像处理的工件标签在线快速定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104021546B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107093181A (zh) * | 2016-12-30 | 2017-08-25 | 西安航天精密机电研究所 | 一种利用视觉系统识别存在冗余标签的多标签检测方法 |
CN107153969A (zh) * | 2017-04-20 | 2017-09-12 | 温州市鹿城区中津先进科技研究院 | 基于定位标签进行面料调度指导的大数据处理方法 |
CN109086643A (zh) * | 2018-06-05 | 2018-12-25 | 四川斐讯信息技术有限公司 | 一种基于机器视觉的彩盒标签检测方法及系统 |
CN110490861A (zh) * | 2019-08-22 | 2019-11-22 | 石河子大学 | 一种用于黄板上蚜虫的识别方法及系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3778229B2 (ja) * | 1996-05-13 | 2006-05-24 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、および画像処理システム |
CN101334837B (zh) * | 2008-07-31 | 2012-02-29 | 重庆大学 | 一种多方法融合的车牌图像定位方法 |
CN101739566B (zh) * | 2009-12-04 | 2012-01-04 | 重庆大学 | 基于自适应投影模板法的车牌定位方法 |
KR101292916B1 (ko) * | 2010-09-21 | 2013-08-02 | 가부시끼가이샤 킹 짐 | 화상 처리 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체, 휴대 단말, 및 화상 처리 방법 |
CN102426649B (zh) * | 2011-10-13 | 2013-08-21 | 石家庄开发区冀科双实科技有限公司 | 一种简单的高准确率的钢印数字自动识别方法 |
-
2014
- 2014-05-14 CN CN201410204071.3A patent/CN104021546B/zh not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107093181A (zh) * | 2016-12-30 | 2017-08-25 | 西安航天精密机电研究所 | 一种利用视觉系统识别存在冗余标签的多标签检测方法 |
CN107093181B (zh) * | 2016-12-30 | 2020-01-31 | 西安航天精密机电研究所 | 一种利用视觉系统识别存在冗余标签的多标签检测方法 |
CN107153969A (zh) * | 2017-04-20 | 2017-09-12 | 温州市鹿城区中津先进科技研究院 | 基于定位标签进行面料调度指导的大数据处理方法 |
CN109086643A (zh) * | 2018-06-05 | 2018-12-25 | 四川斐讯信息技术有限公司 | 一种基于机器视觉的彩盒标签检测方法及系统 |
CN109086643B (zh) * | 2018-06-05 | 2021-11-02 | 山东泰宝信息科技集团有限公司 | 一种基于机器视觉的彩盒标签检测方法及系统 |
CN110490861A (zh) * | 2019-08-22 | 2019-11-22 | 石河子大学 | 一种用于黄板上蚜虫的识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104021546B (zh) | 2016-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101358836B (zh) | 基于计算机视觉识别焊点中心位置的方法 | |
CN106251353A (zh) | 弱纹理工件及其三维位姿的识别检测方法及系统 | |
CN108614994A (zh) | 一种基于深度学习的人头部图像提取方法和装置 | |
CN107679502A (zh) | 一种基于深度学习图像语义分割的人数估计方法 | |
CN104021546A (zh) | 基于图像处理的工件标签在线快速定位方法 | |
CN104268538A (zh) | 一种易拉罐点阵喷码字符在线视觉检测方法 | |
CN104463851A (zh) | 一种基于机器人的鞋底边缘线自动跟踪方法 | |
CN106803257B (zh) | 一种作物病害叶片图像中病斑的分割方法 | |
CN103345755A (zh) | 一种基于Harris算子的棋盘格角点亚像素提取方法 | |
CN106952280B (zh) | 一种基于计算机视觉的喷枪喷漆量均匀度检测方法 | |
CN108334881A (zh) | 一种基于深度学习的车牌识别方法 | |
CN102819728A (zh) | 一种基于分类模板匹配的交通标志检测方法 | |
CN111340060B (zh) | 图像生成器的训练方法 | |
CN110473174B (zh) | 一种基于图像计算铅笔精确数目的方法 | |
CN110210316B (zh) | 基于灰度图像的交通信号灯数字识别方法 | |
CN104700417A (zh) | 木材节子瑕疵的计算机图像自动识别方法 | |
CN110472628A (zh) | 一种基于视频特征的改进Faster R-CNN网络检测漂浮物方法 | |
CN104021544A (zh) | 一种温室蔬菜病害监控视频关键帧提取方法即提取系统 | |
CN111160328A (zh) | 一种基于语义分割技术的交通标线自动提取的方法 | |
CN104143199A (zh) | 一种用于激光彩色打标的图像处理方法 | |
Ma et al. | Crlf: Automatic calibration and refinement based on line feature for lidar and camera in road scenes | |
CN103743750A (zh) | 一种大口径光学元件表面损伤分布图的生成方法 | |
CN112967271B (zh) | 一种基于改进DeepLabv3+网络模型的铸件表面缺陷识别方法 | |
CN106940804A (zh) | 建筑工程物料管理系统表单数据自动录入方法 | |
CN102938074A (zh) | 体育直播虚拟广告系统中羽毛球或网球场地的自适应提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20161123 Termination date: 20170514 |