CN110135430A - 一种基于深度神经网络的铝材模具id自动识别系统 - Google Patents
一种基于深度神经网络的铝材模具id自动识别系统 Download PDFInfo
- Publication number
- CN110135430A CN110135430A CN201910349541.8A CN201910349541A CN110135430A CN 110135430 A CN110135430 A CN 110135430A CN 201910349541 A CN201910349541 A CN 201910349541A CN 110135430 A CN110135430 A CN 110135430A
- Authority
- CN
- China
- Prior art keywords
- network
- candidate
- module
- image
- mold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度神经网络的铝材模具ID自动识别系统,包括手持移动终端及后台系统,所述手持移动终端包括图像采集模块、数据传输模块和逻辑控制模块;所述后台系统包括数据传输模块、图像处理模块、特征提取模块、字符识别模块和网络训练模块;所述逻辑控制模块调用图像采集模块,获取模具ID编码的图像并通过数据传输模块发送至图像处理模块处理提取图像特征,将图像特征传送至字符识别模块识别结果,将结果通过数据传输模块发送至手持移动终端。本申请采用深度神经网络方法自动识别图像中的模具ID编码,无需人工干预,同时解决了现有二维码标签不能耐高温、耐酸洗的问题,直接读取模具表面的ID编码,减少成本。
Description
技术领域
本发明涉及智能识别领域,具体涉及一种基于深度神经网络的铝材模具ID自动识别系统及方法。
背景技术
铝材包括工业型材及建筑型材在内的多种类型,不同类型的铝材生产工艺不同、难度不一。传统的铝材生产绩效评价以重量为单位,这种粗放的绩效评价方式导致底层员工和车间主管偏向于生产工艺较为简单的建筑型材,而不愿生产工艺难度大、利润水平高、成品率低的工业型材。因此,通过信息化的手段记录铝材生产过程中的工艺参数、能耗数据以及产品参数,计算单个产品成本和利润,从而实现以产品系数为单位的绩效考核,对于提升铝材企业的管理水平和生产质量,有着极其重要的作用。
铝材型号是生产过程的重要产品参数之一,通过读取挤压所使用的模具ID编码决定铝材型号,模具ID编码是激光机雕刻在模具表面一连串字符编码,常用的读取方法包括人工记录和二维码标签,人工读取方式受操作员素质影响,存在漏读、读取不及时的现象,从而导致产品成本估算不准确,无法进行精准的绩效考核;而二维码标签在铝材模具加工过程的高温、酸洗环境中无法二次使用,导致浪费大量标签,管理成本高。
因此需要对现有的铝材型号模具ID识别方法进行进一步的改进。
发明内容
为了解决上述技术问题,本发明的提供一种智能读取二维码标签,管理成本低的基于深度神经网络的铝材模具ID自动识别系统。
为实现上述目的,本发明采取的技术方案如下:一种基于深度神经网络的铝材模具ID自动识别系统,包括手持移动终端及后台系统,
所述手持移动终端包括图像采集模块、数据传输模块和逻辑控制模块;
所述图像采集模块用于采集模具ID编码的图像;所述逻辑控制模块用于对字符识别结果进行逻辑判断;所述数据传输模块用于在手持移动终端和后台系统之间传输数据;
所述后台系统包括数据传输模块、图像处理模块、特征提取模块、字符识别模块和网络训练模块;
其中所述图像处理模块、特征提取模块和字符识别模块配合形成模具ID识别网络;所述特征提取模块和字符识别模块又配合形成目标检测网络;所述图像处理模块又包括图片翻转检测网络和图像预处理模块;所述字符识别模块又包括区域候选网络和R-CNN网络;
所述图像处理模块用于对图像进行尺寸修正、亮度调整预处理;所述特征提取模块采用深度卷积残差网路对图像进行特征提取;所述字符识别模块采用深度神经网络决策模型对图像特征进行字符检测和识别;所述网络训练模块用于训练识别字符所用的深度神经网络决策模型;
所述逻辑控制模块调用图像采集模块,通过图像采集模块获取模具ID编码的图像并对对图像中的字符识别结果进行逻辑判断,然后将图像及逻辑判断结果通过数据传输模块发送至图像处理模块,实现对图像的预处理,将预处理后的图像传送特征提取模块,提取图像特征,将图像特征传送至字符识别模块,字符识别模块输出识别结果,将结果再通过数据传输模块发送至手持移动终端。
优选地,所述逻辑控制模块的逻辑判断流程如下:
逻辑判断S1:调用图像采集模块对模具ID进行拍照;
逻辑判断S2:将获取的图像送至数据传输模块,并等待后台系统识别结果;
逻辑判断S3:判断识别结果与实际字符是否一致;
逻辑判断S4:根据逻辑判断结果,如果一致则完成本次操作;否则跳转到逻辑判断S1重新开始。
优选地,所述图像处理模块、特征提取模块和字符识别模块配合组成的模具ID识别网络的模具ID识别流程如下:
模具ID识别S1:将采集图片作为网络输入;
模具ID识别S2:输入信息送入到图片翻转检测网络;
模具ID识别S3:所述图片翻转检测网络对图片预处理;
模具ID识别S4:将预处理后的处理图片送入到所述目标检测网络;
模具ID识别S5:输出检测结果并对结果进行处理;
模具ID识别S6:输出完整模具号。
进一步地,所述图片翻转检测网络包括13个隐藏层和3个全连接层。
进一步地,所述图像预处理模块的处理流程如下:
图像预处理S1:将图片及图片翻转检测网络输出结果作为输入;
图像预处理S2:对需要进行翻转图片进行上下及左右翻转;
图像预处理S3:获取翻转处理后图片的最长边及最短边;
图像预处理S4:使用双线性插值法将图片长边压缩或扩展为1024,短边压缩或拓展为600;
图像预处理S5:将预处理图片转换为TENSOR类型。
进一步地,所述目标检测网络的工作流程如下:
目标检测S1:以预处理图片作为输入,
目标检测S2:通过所述特征提取模块得到特征图,
目标检测S3:将特征图送入字符识别模块进行字符识别;
目标检测S3:输出识别检测结果。
进一步地,所述特征提取模块使用ResNet101网络结构进行图片的特征提取,ResNet101 网络结构包括输入层conv1,中间层conv2_x、conv3_x、conv4_x、conv5_x,和输出层fc。
进一步地,采用所述conv4_x输出作为特征输入到所述区域候选网络获取候选区域。
进一步地,所述区域候选网络处理信息流程如下:
区域候选处理S1:以特征提取模块的conv4_x输出作为输入送入所述区域候选网络;
区域候选处理S2:设定候选框基础尺寸为256,尺寸倍数为[0.25,0.5,1,2],长宽比例为[0.5,1,2];对维度为[60*40]的特征图进行滑窗,以像素点为中心,一个像素点可生成12 个候选区域,生成60*40*12个候选区域;
区域候选处理S3:将候选区域进行[1X1,3]卷积操作;
区域候选处理S4:将卷积结果送入softmax归一化函数判断候选区域为前景或者背景,损失函数为交叉熵函数;
区域候选处理S5:从28000个候选框中选择2000个候选框进行边界回归。
进一步地,所述候选框选择过程如下:
候选框选择S1:对于每一个前景,选择和目标边界框重叠度最高的一个候选框作为正样本;
候选框选择S2:对于剩下的候选框,从中选择和任意一个目标边界框重叠度超过0.5的候选框作为正样本,正样本的数量不超过1000个;
候选框选择S3:随机选择和目标边界框重叠度小于0.3的候选框作为负样本,负样本和正样本的总数为2000。
进一步地,所述边界框回归过程如下:
边界框回归S1:对于每一个经过softmax归一化函数进行前景后景判定的边界框,标识为背景或前景,每一个候选框有四个参数(x,y,w,h),四个参数分别表示左上角x值,左上角y值,宽度,高度;
边界框回归S2:使用Smooth_l1_loss进行边界框回归的损失函数,在计算回归损失的时,只计算正样本的损失,不计算负样本的位置损失,其中,Smooth_l1_loss损失函数如下:
其中λ,Nreg为给定参数;i为训练批量的候选区域索引;pi是目标的预测概率;当有物体是为1,否则为0;ti是预测坐标,是一个向量;是实际边界框坐标,是一个向量;
其中:
通过特征图获得边界框,将该边界宽映射到实际目标边界框过程如下:
给定当前候选框信息A=(x,y,w,h),其中x为边界框左上角x坐标,y为边界框左上角y坐标,w为边界框框,h为边界框高,得到映射结果候选框信息:B=(x1,y1,w1,h1),使得当前候选框信息A≈C=(tx,ty,tw,th),C为实际边界框信息,方法如下:
平移:
x1=w·dx(A)+x
y1=h·dy(A)+y
缩放:
w1=w·exp(dw(A))
h1=h·exp(dh(A))
学习dx(A),dy(A),dw(A),dh(A)四个变换,当输入的候选框与目标边界框相差较小时,则使用线性回归来建模对窗口进行微调,平移量(tx,ty)与尺度因子(tw,th)如下:
以1x1卷积得到特征图作为输入,目标边界框为(tx,ty,tw,th),输出是 d_x(A),d_y(A),d_w(A),d_h(A)四个变换,目标函数可以表示为:
其中是对应候选框的特征图组成的特征向量,w*是需要学习的参数,d*(A)是得到的预测值;为让预测值d*(A)与真实值t*最小,得到损失函数:
进一步地,所述区域候选网络最后综合所有的[dx(A),dy(A),dw(A),dh(A)]变换量和前景候选区域,计算出精准的候选区域作为后续输入,后续输入包括:候选框前景背景分类器结果概率,对应的边界框回归量[dx(A),dy(A),dw(A),dh(A)]变换量边界框,以及原始图像信息;对于任意大小PxQ图像,输入网络前,先将图片尺寸变换为MxN;使用数组IMG=[M,N,S]保存图片的缩放信息,其中S为下采样倍数,然后图片经过卷积层,经过池化变为W×H=(M/16)× (N/16)大小;
通过IMG数组将候选框映射回原图位置,进行候选区域选择,剔除超出边界图片。
进一步地,所述区域候选网络前向传播过程如下:
前向传播S1:生成候选区域,并对所有的候选区域做边界框位置回归;
前向传播S2:按照输入的前景softmax分数由大到小对前景候选区域排序,提取前12000 个候选区域;
前向传播S3:利用缩放比例和图像信息将候选映射回原图,判断前景候选区域是否大范围超过边界,剔除严重超出边界的前景候选区域;
前向传播S4:进行非极大值抑制进行框融合;
前向传播S5:再次按照非极大值抑制后的前景softmax分数由大到小对前景候选区域排序,提取前2000个候选区域输出;
前向传播S6:将通过区域候选网络获得的候选区域送入到RoI池化层。
进一步地,所述区域候选网络选择的候选区域送入Rol池化层,RoI池化过程如下:
RoI池化S1:由区域候选网络得到的候选区域=[x1,y1,x2,y2,]对应MxN尺度;
RoI池化S2:首先使用下采样倍数S将其映射回MxN大小的特征图尺度;
RoI池化S3:将每个候选区域水平和竖直都分为7份,对每一份都进行最大池化处理;
RoI池化S4:将不同尺寸的候选区域,输出结果都是7x7大小,实现了输出尺寸固定。
进一步地,所述R-CNN网络结构处理信息流程如下:
R-CNN网络处理S1:R-CNN网络将区域候选网络输出的候选区域作为输入特征图,输入维度为[7x7];
R-CNN网络处理S2:将输入通过全连接和softmax进行分类,网络输出一共有36个类别,包括10个阿拉伯数字及26个英文大写字母;
R-CNN网络处理S3:再次利用smooth_L1_loss获得每个候选框的位置偏移量预测值,用于回归更加精确的目标检测框。
进一步地,所述网络训练模块的训练流程如下:
网络训练S1:采用labelimg软件进行图片标记;
网络训练S2:训练数据分析,通过对图片进行预处理,增强稀有样本;
网络训练S3:设置网络训练参数,迭代次数为100,IOU为0.5,初始学习率为0.0003;
网络训练S4:将训练数据转换为Tfrecord格式;
网络训练S5:加载现有resnet101网络预测训练模型;
网络训练S6:训练Fast RCNN网络并可视化过程;
网络训练S7:保存训练模型并验证网络。
进一步地,网络训练S5中网络预测训练模型的网络预测的步骤如下:
网络预测S1:使用手持移动终端对准模具id,使得模具id被手持移动终端摄像包含,手持移动终端自动进行图像采集;
网络预测S2:手持移动终端将采集的图像发送至后台系统;
网络预测S3:后台系统对接收到的图像进行图片识别;
网络预测S4:识别成功返回完整的模具id结果,并将该id结果对应图片识别结果进行标记和显示;
网络预测S5:识别失败,手持移动终端重新自动采集图片进行识别。
本发明有益的技术效果:采用深度神经网络方法自动识别图像中的模具ID编码,无需人工干预,同时解决了现有二维码标签不能耐高温、耐酸洗的问题,直接读取模具表面的ID编码,减少成本。
附图说明
图1为本发明一种基于深度神经网络的铝材模具ID自动识别系统整体系统框架图。
图2为本发明一种基于深度神经网络的铝材模具ID自动识别系统逻辑控制模块流程图。
图3是本发明一种基于深度神经网络的铝材模具ID自动识别系统模具ID识别网络的整体流程图。
图4是本发明一种基于深度神经网络的铝材模具ID自动识别系统图片翻转网络结构图。
图5是本发明一种基于深度神经网络的铝材模具ID自动识别系统图片预处理模块流程图。
图6是本发明一种基于深度神经网络的铝材模具ID自动识别系统目标检测网络结构流程图。
图7是本发明一种基于深度神经网络的铝材模具ID自动识别系统特征提取网络结构框图。
图8是本发明一种基于深度神经网络的铝材模具ID自动识别系统区域候选网络结构框图。
图9是本发明一种基于深度神经网络的铝材模具ID自动识别系统候选区域生成示意图。
图10是本发明一种基于深度神经网络的铝材模具ID自动识别系统R-CNN网络结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例对本发明进行进一步详细说明,但本发明要求保护的范围并不局限于下述具体实施例。
如图1所示,本发明技术方案由手持移动终端及后台系统两部分组成。
其中手持移动终端包括图像采集模块、数据传输模块和逻辑控制模块;所述图像采集模块:用于采集模具ID编码的清晰、完整图像;所述逻辑控制模块:用于对字符识别结果进行逻辑判断;所述数据传输模块:用于在移动终端和后台系统之间传输数据。
上述单元的设置如下:逻辑控制模块调用图像采集模块,开启相机获取图像,并将图像发送至数据传输模块;数据传输模块将图像传送至后台系统,等待后台系统返回识别结果。
所述后台系统包括数据传输模块、图像处理模块、特征提取模块、字符识别模块和网络训练模块;
其中所述图像处理模块、特征提取模块、字符识别模块组成完整的模具ID识别网络;所述图像处理模块包括图片翻转网络和图片预处理模块;所述图片翻转网络:用于对图像进行翻转检测;所述图片预处理模块:用于对图片进行尺寸修正、亮度调整等预处理;所述特征提取模块:使用深度卷积残差网路对图像进行特征提取;所述字符识别模块:使用深度神经网络决策模型对图像特征进行字符检测和识别;所述特征提取模块、字符识别模块组成目标检测网络;所述网络训练模块:用于训练识别字符所用的深度神经网络决策模型。
上述单元的设置如下:数据传输模块收到图像后,发送至图像处理模块,实现对图像的预处理,将预处理后的图像传送特征提取模块,提取图像特征,将图像特征传送至字符识别模块,字符识别模块输出识别结果,将结果传送至数据传输模块;数据传输模块再将结果发送至手持移动终端。
进一步地,如图2所示,所述逻辑控制模块的逻辑判断流程如下:
逻辑判断S1:调用图像采集模块对模具ID进行拍照;
逻辑判断S2:将获取的图像送至数据传输模块,并等待后台系统识别结果;
逻辑判断S3:判断识别结果与实际字符是否一致;
逻辑判断S4:根据逻辑判断结果,如果一致则完成本次操作;否则跳转到逻辑判断S1重新开始。
优选地,如图3所示,所述图像处理模块、特征提取模块和字符识别模块配合组成的模具 ID识别网络的模具ID识别流程如下:
模具ID识别S1:将采集图片作为网络输入;
模具ID识别S2:输入信息送入到图片翻转检测网络;
模具ID识别S3:所述图片翻转检测网络对图片预处理;
模具ID识别S4:将预处理后的处理图片送入到所述目标检测网络;
模具ID识别S5:输出检测结果并对结果进行处理;
模具ID识别S6:输出完整模具号。
进一步地,图像处理模块包括图片翻转网络和图像预处理模块,如图4所示,图片翻转检测网络包括13个隐藏层和3个全连接层(全连接层全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来,以卷积层conv5输出作为输入,以[7X7]卷积核对输入进行逐个卷积运算并相加得到下一层输出,卷积核个数为512*4096)。
(1)对输入图片进行尺度变换,图片尺寸变换为224X224;
(2)conv1结构(conv1结构为一个卷积运算操作,其卷积参数)为[3X3,64]X2,即卷积核为[3X3],输出通道为64;
(3)网络池化层(池化层对经过卷积运算输出的特征进行缩减,减少参数,维度为[2X2],步长为2的最大池化实现将特征图参数缩减为原来的四分之一。池化操作过程为先进行水平方向最大池化,选择[2X2]被覆盖区域最大值最为输出,其他抛弃;完成一次操作,水平移动两个单位;完成水平操作以后垂直下移两个单位继续进行水平操作)均为最大池化,池化核为[2X2];
(4)conv2结构为[3X3,128]X2;
(5)conv3结构为[3X3,256]X3;
(6)conv4结构为[3X3,512]X3;
(7)conv5结构为[3X3,512]X3;
(8)全连接层1维度为4096;
(9)全连接层2维度为4096;
(10)全连接层3维度为1000;
(11)输出层维度为2,进行翻转判定。
如图5所示,所述图像预处理模块的处理流程如下:
图像预处理S1:将图片及图片翻转检测网络输出结果作为输入;
图像预处理S2:对需要进行翻转图片进行上下及左右翻转;
图像预处理S3:获取翻转处理后图片的最长边及最短边;
图像预处理S4:使用双线性插值法(双线性插值是有两个变量的插值函数的线性插值扩展,其核心思想是在两个方向分别进行一次线性插值;双线性插值通过图片水平垂直方向相邻四个已知像素值,依次进行水平垂直方向的线性插值,获得所求点像素值)将图片长边压缩或扩展为1024,短边压缩或拓展为600;
图像预处理S5:将预处理图片转换为TENSOR类型(Tensor类型为谷歌深度学习框架类型,包括数据类型和形状两个基本属性,数据类型记录原始数据,形状则记录数据维度信息)。
进一步地,如图6所示,所述目标检测网络的工作流程如下:
目标检测S1:以预处理图片作为输入,
目标检测S2:通过所述特征提取模块得到特征图,
目标检测S3:将特征图送入字符识别模块进行字符识别;
目标检测S3:输出识别检测结果。
进一步地,所述特征提取模块使用ResNet101网络结构(ResNet由微软研究院的kaiming He等4名华人提出,通过使用Residual Unit成功训练152层深的神经网络,在ILSVRC 2015 比赛中获得了冠军,取得3.57%的top5错误率,同时参数量却比VGGNet低,效果非常突出。 ResNet的结构可以极快地加速超深神经网络的训练,模型的准确率也有非常大的提升)进行图片的特征提取,ResNet101网络结构包括输入层conv1,中间层conv2_x、conv3_x、conv4_x、 conv5_x,和输出层fc。
ResNet101网络结构如图7所示:
(1)onv1结构为[7X7,64],即卷积核为7X7,输出通道为64;
(2)conv2_x结构为[[1x1,64],[3x3,64],[1x1,256]]x3,如图7所示,即网络结构分 conv2_1,conv2_2,conv2_3;其中conv2_1结构为 [[1x1,64],[3x3,64],[1x1,256]],即:卷积核为1x1,输出通道为64,激活函数为 relu(线性整流函数);卷积核为3x3,输出通道为64,激活函数为relu;卷积核为 1x1,输出通道为256,激活函数为relu,relu定义为:f(x)=max(0,x);
(3)conv3_x结构为[[1x1,128],[3x3,128],[1x1,512]]x4;
(4)conv4_x结构为[[1x1,256],[3x3,256],[1x1,1024]]x23;
(5)conv5_x结构为[[1x1,512],[3x3,512],[1x1,2048]]x3;
(6)网络池化层均为最大池化,池化核为[3X3]。
(7)网络使用conv4_x输出作为特征输入到区域候选网络获取候选区域。
进一步地,所述字符识别模块包括区域候选网络和R-CNN网络(R-CNN的全称是Region-CNN,是第一个成功将深度学习应用到目标检测上的算法。R-CNN基于卷积神经网络(CNN),线性回归和支持向量机(SVM)等算法,实现目标检测技术)。
如图8所示,所述区域候选网络处理信息流程如下:
区域候选处理S1:以特征提取模块的conv4_x输出作为输入送入所述区域候选网络;
区域候选处理S2:设定候选框基础尺寸为256,尺寸倍数为[0.25,0.5,1,2],长宽比例为[0.5,1,2];对维度为[60*40]的特征图进行滑窗,以像素点为中心,一个像素点可生成12 个候选区域,生成60*40*12个候选区域;
区域候选处理S3:将候选区域进行[1X1,3]卷积操作;
区域候选处理S4:将卷积结果送入softmax归一化函数(Softmax函数,或称归一化指数函数,是逻辑函数的一种推广,Softmax函数实际上是有限项离散概率分布的梯度对数归一化) 判断候选区域为前景或者背景,损失函数为交叉熵函数(交叉熵主要用于度量两个概率分布间的差异性信息;通过交叉熵函数获取实际结果与预测结果差异性,作为损失值用于优化网络),交叉熵函数定义如下:
其中N为类别数目,yi为预测值,为标签值;
区域候选处理S5:从28000个候选框中选择12000个候选框进行边界回归。
进一步地,所述候选框选择过程如下:
候选框选择S1:对于每一个前景,选择和目标边界框重叠度最高的一个候选框作为正样本;
候选框选择S2:对于剩下的候选框,从中选择和任意一个目标边界框重叠度超过0.5的候选框作为正样本,正样本的数量不超过1000个;
候选框选择S3:随机选择和目标边界框重叠度小于0.3的候选框作为负样本,负样本和正样本的总数为2000。
进一步地,所述边界框回归过程如下:
边界框回归S1:对于每一个经过softmax归一化函数进行前景后景判定的边界框,标识为背景或前景或者标签为0或1,每一个候选框有四个参数(x,y,w,h),四个参数分别表示左上角x 值,左上角y值,宽度,高度;
边界框回归S2:使用Smooth_l1_loss(smooth_L1_Loss是Faster RCNN提出来的计算距离损失函数)进行边界框回归的损失函数,在计算回归损失的时,只计算正样本的损失,不计算负样本的位置损失,其中,Smooth_l1_loss损失函数如下:
其中L即表示损失代价,λ,Nreg为给定参数;i为训练批量的候选区域索引;pi是目标的预测概率;当有物体是为1,否则为0;ti是预测坐标,是一个向量;是实际边界框坐标,是一个向量,Lreg(用于判断预测框与真实框之间四个参数[x,y,w,h]差别,其中x为左上角x坐标,y为左上角y坐标,w为边界框宽度,h为边界框高度)定义如下:
通过特征图获得边界框,将该边界宽映射到实际目标边界框过程如下:
给定当前候选框信息A=(x,y,w,h),其中x为边界框左上角x坐标,y为边界框左上角y坐标,w为边界框框,h为边界框高,得到映射结果候选框信息:B=(x1,y1,w1,h1),使得当前候选框信息A≈C=(tx,ty,tw,th),C为实际边界框信息,方法如下:
平移:
x1=w·dx(A)+x
y1=h·dy(A)+y
缩放:
w1=w·exp(dw(A))
h1=h·exp(dh(A))
学习dx(A),dy(A),dw(A),dh(A)四个变换,当输入的候选框与目标边界框相差较小时,则使用线性回归来建模对窗口进行微调,平移量(tx,ty)与尺度因子(tw,th)如下:
以1x1卷积得到特征图作为输入,目标边界框为(tx,ty,tw,th),输出是 d_x(A),d_y(A),d_w(A),d_h(A)四个变换,目标函数可以表示为:
其中是对应候选框的特征图组成的特征向量,w*是需要学习的参数,d*(A)是得到的预测值;为让预测值d*(A)与真实值t*最小,得到损失函数:
进一步地,所述区域候选网络最终将综合所有的[dx(A),dy(A),dw(A),dh(A)]变换量和前景候选区域,计算出精准的候选区域作为后续输入,后续输入包括:候选框前景背景分类器结果概率,对应的边界框回归量[dx(A),dy(A),dw(A),dh(A)]变换量边界框,以及原始图像信息;对于任意大小PxQ图像,输入网络前,先将图片尺寸变换为MxN;使用数组IMG=[M,N,S]保存图片的缩放信息,其中S为下采样倍数,然后图片经过卷积层,经过池化变为W×H= (M/16)×(N/16)大小;
通过IMG数组将候选框映射回原图位置,进行候选区域选择,剔除超出边界图片。
进一步地,所述区域候选网络前向传播过程如下:
前向传播S1:生成候选区域,并对所有的候选区域做边界框位置回归;
前向传播S2:按照输入的前景softmax分数由大到小对前景候选区域排序,提取前12000 个候选区域;
前向传播S3:利用缩放比例和图像信息将候选映射回原图,判断前景候选区域是否大范围超过边界,剔除严重超出边界的前景候选区域;
前向传播S4:进行非极大值抑制进行框融合;
前向传播S5:再次按照非极大值抑制后的前景softmax分数由大到小对前景候选区域排序,提取前2000个候选区域输出;
前向传播S6:通过区域候选网络得到候选区域,将候选区域送入到RoI池化层。
进一步地,所述区域候选网络选择的候选区域送入Rol池化层,RoI池化过程如下:
RoI池化S1:由候选层得到候选区域=[x1,y1,x2,y2,]对应MxN尺度;
RoI池化S2:首先使用下采样倍数S将其映射回MxN大小的特征图尺度;
RoI池化S3:将每个候选区域水平和竖直都分为7份,对每一份都进行最大池化处理;
RoI池化S4:将不同尺寸的候选区域,输出结果都是7x7大小,实现了输出尺寸固定。
进一步地,如图10所示,所述R-CNN网络结构处理信息流程如下:
R-CNN网络处理S1:R-CNN网络将区域候选网络输出的候选区域作为输入特征图,输入维度为[7x7];
R-CNN网络处理S2:将输入通过全连接和softmax进行分类,网络输出一共有36个类别,包括10个阿拉伯数字及26个英文字母;
R-CNN网络处理S3:再次利用smooth_L1_loss获得每个候选框的位置偏移量预测值,用于回归更加精确的目标检测框。
其中,图片翻转网络及目标检测网络损失函数均为交叉熵:
其中yi为预测值,为标签值。
则网络总体损失函数为:
进一步地,网络训练模块以resnet101作为预训练模型,并使用4000张图片作为训练样本,500张图片作为验证样本,所述网络训练模块的训练流程如下:
网络训练S1:采用labelimg软件进行图片标记;
网络训练S2:训练数据分析,通过对图片进行预处理,增强稀有样本;
网络训练S3:设置网络训练参数,迭代次数为100,IOU为0.5,初始学习率为0.0003;
网络训练S4:将训练数据转换为Tfrecord格式(Tfrecord格式为一种二进制文件格式);
网络训练S5:加载现有resnet101网络预测训练模型;
网络训练S6:训练Fast RCNN网络并可视化过程;
网络训练S7:保存训练模型并验证网络。
进一步地,网络训练S5中网络预测训练模型的网络预测的步骤如下:
网络预测S1:使用手持移动终端对准模具id,使得模具id被手持移动终端摄像包含,手持移动终端自动进行图像采集;
网络预测S2:手持移动终端将采集的图像发送至后台系统;
网络预测S3:后台系统对接收到的图像进行图片识别;
网络预测S4:识别成功返回完整的模具id结果,并将该id结果对应图片识别结果进行标记和显示;
网络预测S5:识别失败,手持移动终端重新自动采集图片进行识别。
根据上述说明书的揭示和教导,本发明所属领域的技术人员还可以对上述实施方式进行变更和修改。因此,本发明并不局限于上面揭示和描述的具体实施方式,对发明的一些修改和变更也应当落入本发明的权利要求的保护范围内。此外,尽管本说明书中使用了一些特定的术语,但这些术语只是为了方便说明,并不对发明构成任何限制。
Claims (17)
1.一种基于深度神经网络的铝材模具ID自动识别系统,包括手持移动终端及后台系统,其特征在:
所述手持移动终端包括图像采集模块、数据传输模块和逻辑控制模块;
所述图像采集模块用于采集模具ID编码的图像;所述逻辑控制模块用于对字符识别结果进行逻辑判断;所述数据传输模块用于在手持移动终端和后台系统之间传输数据;
所述后台系统包括数据传输模块、图像处理模块、特征提取模块、字符识别模块和网络训练模块;
其中所述图像处理模块、特征提取模块和字符识别模块配合形成模具ID识别网络;所述特征提取模块和字符识别模块又配合形成目标检测网络;所述图像处理模块又包括图片翻转检测网络和图像预处理模块;所述字符识别模块又包括区域候选网络和R-CNN网络;
所述图像处理模块用于对图像进行尺寸修正、亮度调整预处理;所述特征提取模块采用深度卷积残差网路对图像进行特征提取;所述字符识别模块采用深度神经网络决策模型对图像特征进行字符检测和识别;所述网络训练模块用于训练识别字符所用的深度神经网络决策模型;
所述逻辑控制模块调用图像采集模块,通过图像采集模块获取模具ID编码的图像并对对图像中的字符识别结果进行逻辑判断,然后将图像及逻辑判断结果通过数据传输模块发送至图像处理模块,实现对图像的预处理,将预处理后的图像传送特征提取模块,提取图像特征,将图像特征传送至字符识别模块,字符识别模块输出识别结果,将结果再通过数据传输模块发送至手持移动终端。
2.如权利要求1所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:所述逻辑控制模块的逻辑判断流程如下:
逻辑判断S1:调用图像采集模块对模具ID进行拍照;
逻辑判断S2:将获取的图像送至数据传输模块,并等待后台系统识别结果;
逻辑判断S3:判断识别结果与实际字符是否一致;
逻辑判断S4:根据逻辑判断结果,如果一致则完成本次操作;否则跳转到逻辑判断S1重新开始。
3.如权利要求1所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:所述图像处理模块、特征提取模块和字符识别模块配合组成的模具ID识别网络的模具ID识别流程如下:
模具ID识别S1:将采集图片作为网络输入;
模具ID识别S2:输入信息送入到图片翻转检测网络;
模具ID识别S3:所述图片翻转检测网络对图片预处理;
模具ID识别S4:将预处理后的处理图片送入到所述目标检测网络;
模具ID识别S5:输出检测结果并对结果进行处理;
模具ID识别S6:输出完整模具号。
4.如权利要求2所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:所述图片翻转检测网络包括13个隐藏层和3个全连接层。
5.如权利要求2所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:所述图像预处理模块的处理流程如下:
图像预处理S1:将图片及图片翻转检测网络输出结果作为输入;
图像预处理S2:对需要进行翻转图片进行上下及左右翻转;
图像预处理S3:获取翻转处理后图片的最长边及最短边;
图像预处理S4:使用双线性插值法将图片长边压缩或扩展为1024,短边压缩或拓展为600;
图像预处理S5:将预处理图片转换为TENSOR类型。
6.如权利要求5所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:所述目标检测网络的工作流程如下:
目标检测S1:以预处理图片作为输入,
目标检测S2:通过所述特征提取模块得到特征图,
目标检测S3:将特征图送入字符识别模块进行字符识别;
目标检测S3:输出识别检测结果。
7.如权利要求6所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:所述特征提取模块使用ResNet101网络结构进行图片的特征提取,ResNet101网络结构包括输入层conv1,中间层conv2_x、conv3_x、conv4_x、conv5_x,和输出层fc。
8.如权利要求7所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:采用所述conv4_x输出作为特征输入到所述域候选网络获取候选区域。
9.如权利要求8所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:所述区域候选网络处理信息流程如下:
区域候选处理S1:以特征提取模块的conv4_x输出作为输入送入所述区域候选网络;
区域候选处理S2:设定候选框基础尺寸为256,尺寸倍数为[0.25,0.5,1,2],长宽比例为[0.5,1,2];对维度为[60*40]的特征图进行滑窗,以像素点为中心,一个像素点可生成12个候选区域,生成60*40*12个候选区域;
区域候选处理S3:将候选区域进行[1X1,3]卷积操作;
区域候选处理S4:将卷积结果送入softmax归一化函数判断候选区域为前景或者背景,损失函数为交叉熵函数;
区域候选处理S5:从28000个候选框中选择2000个候选框进行边界回归。
10.如权利要求9所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:所述候选框选择过程如下:
候选框选择S1:对于每一个前景,选择和目标边界框重叠度最高的一个候选框作为正样本;
候选框选择S2:对于剩下的候选框,从中选择和任意一个目标边界框重叠度超过0.5的候选框作为正样本,正样本的数量不超过1000个;
候选框选择S3:随机选择和目标边界框重叠度小于0.3的候选框作为负样本,负样本和正样本的总数为2000。
11.如权利要求9所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:所述边界框回归过程如下:
边界框回归S1:对于每一个经过softmax归一化函数进行前景后景判定的边界框,标识为背景或前景,每一个候选框有四个参数(x,y,w,h),四个参数分别表示左上角x值,左上角y值,宽度,高度;
边界框回归S2:使用Smooth_l1_loss进行边界框回归的损失函数,在计算回归损失的时,只计算正样本的损失,不计算负样本的位置损失,其中,Smooth_l1_loss损失函数如下:
其中λ,Nreg为给定参数;i为训练批量的候选区域索引;pi是目标的预测概率;当有物体是为1,否则为0;ti是预测坐标,是一个向量;是实际边界框坐标,是一个向量;
其中:
通过特征图获得边界框,将该边界宽映射到实际目标边界框过程如下:
给定当前候选框信息A=(x,y,w,h),其中x为边界框左上角x坐标,y为边界框左上角y坐标,w为边界框框,h为边界框高,得到映射结果候选框信息:B=(x1,y1,w1,h1),使得当前候选框信息A≈C=(tx,ty,tw,th),C为实际边界框信息,方法如下:
平移:
x1=w·dx(A)+x
y1=h·dy(A)+y
缩放:
w1=w·exp(dw(A))
h1=h·exp(dh(A))
学习dx(A),dy(A),dw(A),dh(A)四个变换,当输入的候选框与目标边界框相差较小时,则使用线性回归来建模对窗口进行微调,平移量(tx,ty)与尺度因子(tw,th)如下:
以1x1卷积得到特征图作为输入,目标边界框为(tx,ty,tw,th),输出是d_x(A),d_y(A),d_w(A),d_h(A)四个变换,目标函数可以表示为:
其中是对应候选框的特征图组成的特征向量,w*是需要学习的参数,d*(A)是得到的预测值;为让预测值d*(A)与真实值t*最小,得到损失函数:
12.如权利要求11所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:所述区域候选网络综合所有的[dx(A),dy(A),dw(A),dh(A)]变换量和前景候选区域,计算出精准的候选区域作为后续输入,后续输入包括:候选框前景背景分类器结果概率,对应的边界框回归量[dx(A),dy(A),dw(A),dh(A)]变换量边界框,以及原始图像信息;对于任意大小PxQ图像,输入网络前,先将图片尺寸变换为MxN;使用数组IMG=[M,N,S]保存图片的缩放信息,其中S为下采样倍数,然后图片经过卷积层,经过池化变为W×H=(M/16)×(N/16)大小;
通过IMG数组将候选框映射回原图位置,进行候选区域选择,剔除超出边界图片。
13.如权利要求11所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:所述区域候选网络前向传播过程如下:
前向传播S1:生成候选区域,并对所有的候选区域做边界框位置回归;
前向传播S2:按照输入的前景softmax分数由大到小对前景候选区域排序,提取前12000个候选区域;
前向传播S3:利用缩放比例和图像信息将候选映射回原图,判断前景候选区域是否大范围超过边界,剔除严重超出边界的前景候选区域;
前向传播S4:进行非极大值抑制进行框融合;
前向传播S5:再次按照非极大值抑制后的前景softmax分数由大到小对前景候选区域排序,提取前2000个候选区域输出;
前向传播S6:通过区域候选网络得到候选区域,将候选区域送入到RoI池化层。
14.如权利要求12所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:所述区域候选网络选择的候选区域送入Rol池化层,RoI池化过程如下:
RoI池化S1:由区域候选网络得到候选区域=[x1,y1,x2,y2,]对应MxN尺度;
RoI池化S2:首先使用下采样倍数S将其映射回MxN大小的特征图尺度;
RoI池化S3:将每个候选区域水平和竖直都分为7份,对每一份都进行最大池化处理;
RoI池化S4:将不同尺寸的候选区域,输出结果都是7x7大小,实现了输出尺寸固定。
15.如权利要求1所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:所述R-CNN网络结构处理信息流程如下:
R-CNN网络处理S1:R-CNN网络将区域候选网络输出的候选区域作为输入特征图,输入维度为[7x7];
R-CNN网络处理S2:将输入通过全连接和softmax进行分类,网络输出一共有36个类别,包括10个阿拉伯数字及26个英文大写字母;
R-CNN网络处理S3:再次利用smooth_L1_loss获得每个候选框的位置偏移量预测值,用于回归更加精确的目标检测框。
16.如权利要求15所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:
所述网络训练模块的训练流程如下:
网络训练S1:采用labelimg软件进行图片标记;
网络训练S2:训练数据分析,通过对图片进行预处理,增强稀有样本;
网络训练S3:设置网络训练参数,迭代次数为100,IOU为0.5,初始学习率为0.0003;
网络训练S4:将训练数据转换为Tfrecord格式;
网络训练S5:加载现有resnet101网络预测训练模型;
网络训练S6:训练Fast RCNN网络并可视化过程;
网络训练S7:保存训练模型并验证网络。
17.如权利要求16所述的一种基于深度神经网络的铝材模具ID自动识别系统,其特征在于:网络训练S5中网络预测训练模型的网络预测的步骤如下:
网络预测S1:使用手持移动终端对准模具id,使得模具id被手持移动终端摄像包含,手持移动终端自动进行图像采集;
网络预测S2:手持移动终端将采集的图像发送至后台系统;
网络预测S3:后台系统对接收到的图像进行图片识别;
网络预测S4:识别成功返回完整的模具id结果,并将该id结果对应图片识别结果进行标记和显示;
网络预测S5:识别失败,手持移动终端重新自动采集图片进行识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910349541.8A CN110135430A (zh) | 2019-04-28 | 2019-04-28 | 一种基于深度神经网络的铝材模具id自动识别系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910349541.8A CN110135430A (zh) | 2019-04-28 | 2019-04-28 | 一种基于深度神经网络的铝材模具id自动识别系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110135430A true CN110135430A (zh) | 2019-08-16 |
Family
ID=67575434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910349541.8A Pending CN110135430A (zh) | 2019-04-28 | 2019-04-28 | 一种基于深度神经网络的铝材模具id自动识别系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110135430A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110555439A (zh) * | 2019-09-04 | 2019-12-10 | 北京迈格威科技有限公司 | 标识识别方法及其模型的训练方法、装置和电子系统 |
CN110598681A (zh) * | 2019-10-22 | 2019-12-20 | 广东技术师范大学 | 一种自然街景门牌号识别方法 |
CN111339927A (zh) * | 2020-02-25 | 2020-06-26 | 国网江苏省电力有限公司扬州供电分公司 | 一种电力营业厅人员工作状态智能识别系统 |
CN113052558A (zh) * | 2021-03-30 | 2021-06-29 | 浙江畅尔智能装备股份有限公司 | 输电铁塔零件加工自动计件系统及其自动计件方法 |
CN113392833A (zh) * | 2021-06-10 | 2021-09-14 | 沈阳派得林科技有限责任公司 | 一种工业射线底片图像铅字编号识别方法 |
CN113516110A (zh) * | 2021-09-13 | 2021-10-19 | 成都千嘉科技有限公司 | 基于图像分割的燃气表字轮坐标提取方法 |
CN113962231A (zh) * | 2021-10-13 | 2022-01-21 | 杭州胜铭纸业有限公司 | 包装箱信息码光学识别比对方法及系统 |
CN115294244A (zh) * | 2022-08-11 | 2022-11-04 | 北京理工大学 | 一种基于机器学习的蜂窝结构图案化自适应填充方法 |
CN117066313A (zh) * | 2023-08-11 | 2023-11-17 | 山东天衢铝业有限公司 | 边框铝材生产线的自动控制系统及其方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101706875A (zh) * | 2009-11-17 | 2010-05-12 | 北京航空航天大学 | 一种手持式的复杂背景下的激光喷码字符识别仪 |
CN107092913A (zh) * | 2017-03-20 | 2017-08-25 | 上海大学 | 一种喷印字符在线识别及交互式后处理系统及方法 |
KR101882743B1 (ko) * | 2017-04-17 | 2018-08-30 | 인하대학교 산학협력단 | 콘볼루션 신경망 기반-계층적 특징 모델링을 이용한 효율적인 객체 검출 방법 |
CN109584227A (zh) * | 2018-11-27 | 2019-04-05 | 山东大学 | 一种基于深度学习目标检测算法的焊点质量检测方法及其实现系统 |
-
2019
- 2019-04-28 CN CN201910349541.8A patent/CN110135430A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101706875A (zh) * | 2009-11-17 | 2010-05-12 | 北京航空航天大学 | 一种手持式的复杂背景下的激光喷码字符识别仪 |
CN107092913A (zh) * | 2017-03-20 | 2017-08-25 | 上海大学 | 一种喷印字符在线识别及交互式后处理系统及方法 |
KR101882743B1 (ko) * | 2017-04-17 | 2018-08-30 | 인하대학교 산학협력단 | 콘볼루션 신경망 기반-계층적 특징 모델링을 이용한 효율적인 객체 검출 방법 |
CN109584227A (zh) * | 2018-11-27 | 2019-04-05 | 山东大学 | 一种基于深度学习目标检测算法的焊点质量检测方法及其实现系统 |
Non-Patent Citations (1)
Title |
---|
BORISYUK: ""Rosetta: Large scale system for text detection and recognition in images"", 《KDD’2018》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110555439A (zh) * | 2019-09-04 | 2019-12-10 | 北京迈格威科技有限公司 | 标识识别方法及其模型的训练方法、装置和电子系统 |
CN110598681A (zh) * | 2019-10-22 | 2019-12-20 | 广东技术师范大学 | 一种自然街景门牌号识别方法 |
CN111339927B (zh) * | 2020-02-25 | 2023-07-18 | 国网江苏省电力有限公司扬州供电分公司 | 一种电力营业厅人员工作状态智能识别系统 |
CN111339927A (zh) * | 2020-02-25 | 2020-06-26 | 国网江苏省电力有限公司扬州供电分公司 | 一种电力营业厅人员工作状态智能识别系统 |
CN113052558A (zh) * | 2021-03-30 | 2021-06-29 | 浙江畅尔智能装备股份有限公司 | 输电铁塔零件加工自动计件系统及其自动计件方法 |
CN113392833A (zh) * | 2021-06-10 | 2021-09-14 | 沈阳派得林科技有限责任公司 | 一种工业射线底片图像铅字编号识别方法 |
CN113516110A (zh) * | 2021-09-13 | 2021-10-19 | 成都千嘉科技有限公司 | 基于图像分割的燃气表字轮坐标提取方法 |
CN113962231A (zh) * | 2021-10-13 | 2022-01-21 | 杭州胜铭纸业有限公司 | 包装箱信息码光学识别比对方法及系统 |
CN113962231B (zh) * | 2021-10-13 | 2024-03-26 | 杭州胜铭纸业有限公司 | 包装箱信息码光学识别比对方法及系统 |
CN115294244A (zh) * | 2022-08-11 | 2022-11-04 | 北京理工大学 | 一种基于机器学习的蜂窝结构图案化自适应填充方法 |
CN115294244B (zh) * | 2022-08-11 | 2023-10-31 | 北京理工大学 | 一种基于机器学习的蜂窝结构图案化自适应填充方法 |
CN117066313A (zh) * | 2023-08-11 | 2023-11-17 | 山东天衢铝业有限公司 | 边框铝材生产线的自动控制系统及其方法 |
CN117066313B (zh) * | 2023-08-11 | 2024-03-15 | 山东天衢铝业有限公司 | 边框铝材生产线的自动控制系统及其方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110135430A (zh) | 一种基于深度神经网络的铝材模具id自动识别系统 | |
CN110310259B (zh) | 一种基于改进YOLOv3算法的木结瑕疵检测方法 | |
CN109509187B (zh) | 一种针对大分辨率布匹图像中的小瑕疵的高效检验算法 | |
CN108960245B (zh) | 轮胎模具字符的检测与识别方法、装置、设备及存储介质 | |
CN109636772A (zh) | 基于深度学习的不规则形状金属加工表面的缺陷检测方法 | |
CN108509978A (zh) | 基于cnn的多级特征融合的多类目标检测方法及模型 | |
CN110298387A (zh) | 融入像素级attention机制的深度神经网络目标检测方法 | |
CN109829893A (zh) | 一种基于注意力机制的缺陷目标检测方法 | |
CN109800628A (zh) | 一种加强ssd小目标行人检测性能的网络结构及检测方法 | |
CN108805070A (zh) | 一种基于嵌入式终端的深度学习行人检测方法 | |
CN109523520A (zh) | 一种基于深度学习的染色体自动计数方法 | |
CN108280856A (zh) | 基于混合信息输入网络模型的未知物体抓取位姿估计方法 | |
CN110348376A (zh) | 一种基于神经网络的行人实时检测方法 | |
CN107871134A (zh) | 一种人脸检测方法及装置 | |
CN110163069B (zh) | 用于辅助驾驶的车道线检测方法 | |
CN112241679B (zh) | 一种垃圾自动分类的方法 | |
CN106469304A (zh) | 基于深度卷积神经网络的票据中手写签名位置定位方法 | |
CN111507357B (zh) | 一种缺陷检测语义分割模型建模方法、装置、介质及设备 | |
CN111611998A (zh) | 一种基于候选区域面积和宽高的自适应特征块提取方法 | |
CN111462120A (zh) | 一种基于语义分割模型缺陷检测方法、装置、介质及设备 | |
CN112862811A (zh) | 基于深度学习的材料显微图像缺陷识别方法、设备及装置 | |
CN110245545A (zh) | 一种文字识别方法及装置 | |
CN109272487A (zh) | 一种基于视频的公共区域内人群的数量统计方法 | |
CN113936195B (zh) | 敏感图像识别模型的训练方法、训练装置和电子设备 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190816 |
|
WD01 | Invention patent application deemed withdrawn after publication |