CN111488920A - 一种基于深度学习目标检测与识别的袋口位置检测方法 - Google Patents

一种基于深度学习目标检测与识别的袋口位置检测方法 Download PDF

Info

Publication number
CN111488920A
CN111488920A CN202010226864.0A CN202010226864A CN111488920A CN 111488920 A CN111488920 A CN 111488920A CN 202010226864 A CN202010226864 A CN 202010226864A CN 111488920 A CN111488920 A CN 111488920A
Authority
CN
China
Prior art keywords
neural network
image
rpn
pictures
rcnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010226864.0A
Other languages
English (en)
Inventor
王宪保
余皓鑫
段明明
周宝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202010226864.0A priority Critical patent/CN111488920A/zh
Publication of CN111488920A publication Critical patent/CN111488920A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于深度学习目标检测与识别的袋口位置检测方法,包括以下步骤:首先通过传送带上方的摄像头采集传送带上的包装袋的图片;并对所有获得的图片进行预处理,再把待训练的图片制作成标准格式的数据集,方便神经网络的训练。接着将数据集当中的图片送入卷积神经网络,提取出图像的特征图;然后将所得到的图像的特征图作为神经网络RPN的输入,采用K‑means聚类算法来设置初始的anchor方案,通过RPN网络优化检测框,最后通过回归计算得到检测框的精确位置。最后用训练好的Faster‑RCNN神经网络对实时获得的包装袋图像进行处理,识别包装袋袋口的精确位置。本发明检测速度快且准确率高,提高生产效率,并且提高了流水线的自动化程度,节约了人力、物力资源。

Description

一种基于深度学习目标检测与识别的袋口位置检测方法
技术领域
本发明涉及计算机视觉领域,具体涉及图像检测与识别领域,特别是涉及一种基于深度学习目标检测与识别的袋口位置检测方法。
背景技术
近年来,我国国内经济发展迅速,工业水平相较于过去有了巨大的变化,然而在保证生产效率的同时,产品的位置定位不准确影响着许多工业制造厂商。产品的位置定位不准确不仅会对产品质量产生影响,严重时可能还会导致生成事故,不仅会导致财产损失,还可能导致人员伤亡。目前国内的大多数包装袋厂商仍然采用的是人工手段来确定包装袋袋口的具体位置,这样做不仅不利于流水线的升级和改进,还可能会导致测量误差带来的位置的精度损失,浪费了企业大量的人力物力成本。因此需要一种有效的方法可以用来自动定位包装袋袋口的精确位置,提高工厂流水线的自动化程度。
然而,流水线上包装袋袋口位置的精确判定面临着许多困难和挑战:人工识别效率较低、袋口的大小不固定、其它障碍物遮挡等为包装袋袋口位置的精确确定带来了很大的挑战,因此仅仅依靠简单的数字图像处理技术并不能很好的达到预期期望。如何使人们更方便、快捷、准确的确定包装袋袋口位置成为一个技术难题。
发明内容
针对现有技术的不足,本发明提出一种基于深度学习目标检测与识别的袋口位置检测方法,具体技术方案如下:
一种基于深度学习目标检测与识别的袋口位置检测方法,该方法具体包括如下步骤:
S1:通过摄像头采集传送带上包装袋的图片,每个图片仅涵盖唯一一个包装袋;
S2:对上述所得到的所有图片进行预处理,得到预处理图像,并标记袋口位置,制作数据集;
S3:在预处理之后的数据集图片上采用K-means聚类算法,K-means聚类算法输出的代表点转化为Faster-RCNN神经网络的anchor方案初始的宽和高;
S4:将S2的数据集送入卷积神经网络,提取图像的特征图;
S5:将卷积神经网络提取出来的图像特征图作为Faster-RCNN神经网络中的RPN神经网络和分类回归网络的输入,开始训练Faster-RCNN神经网络;
S6:获取实时的包装袋的图片,并对其进行S2和S4的处理后,利用训练好的Faster-RCNN神经网络对包装袋袋口精确位置识别。
进一步地,所述S2中的预处理具体包括:
使用加权平均法来对图像进行灰度处理,计算公式为:
gray(i,j)=(R(i,j)+G(i,j)+B(i,j))/3,其中i,j为图像每个像素点坐标,R、G、B分别为该坐标处像素点的R、G、B值,gray(i,j)为最后所得到的灰度像素值。
进一步地,所述S4中的卷积神经网络为VGG16,其包含13个卷积层,3个全连接层,采用的是3*3大小的卷积核,卷积过程的计算公式为:
Figure BDA0002427979860000021
给定一个图像X∈RM*N,一个滤波器W∈Rm*n,m<<M,n<<N。
进一步地,所述S5中的Faster-RCNN神经网络训练的具体过程为:
S5.1:将S2中所得到的处理好的图片通入卷积神经网络,通过卷积层的卷积操作和池化操作之后,得到图像的特征图;
S5.2:将S4中所得到的图像的特征图作为RPN神经网络的输入,RPN快速生成大小不一的锚点窗口,并判断框内图像为目标或背景的概率用于初步提取RoI。采用K-means聚类算法输出的代表点转化为Faster-RCNN检测算法的anchor方案初始的宽和高,具体为:
S5.2.1:随机在数据集当中选取K个点,作为聚类中心,然后重复M次,得到MK个数据点;再对这MK个数据点进行聚类,得到K个初始的聚类中心;
S5.2.2:将数据集当中的各个点按照公式:
Figure BDA0002427979860000022
划分到距离它最近的聚类中心所在的类里,其中,(x,y)表示每个点的坐标;
S5.2.3:重新计算各个类的聚类中心,计算公式为:
Figure BDA0002427979860000023
其中|ci|为该类样本的数量,cx为当前类簇中第x个对象,ci为新的聚类中心;
S5.2.4:设置一个阈值,如果由公式
Figure BDA0002427979860000024
得到的新中心点与原来的中心点的距离小于该阈值,则聚类过程结束;否则继续执行S5.2.2和s5.2.3,直到新中心点与原来的中心点的距离小于设定的阈值。
S5.2.5:输出K个聚类和K个聚类中心,将聚类算法输出的代表点转化为Faster-RCNN检测算法的anchor方案;
S5.3:RPN在S5.1得到的特征图上进行滑窗生成区域建议框,滑动窗口在原始图像上的映射称为anchor,通过设置9种不同大小的anchor,得到期望的目标建议框,即候选框,再对每个候选框对应的区域进行Softmax分类,用非极大值抑制算法微调候选框和尺寸,批量生成候选框;
S5.4:采用端到端的方式,使用误差的反向传播和梯度下降的算法,RPN网络以任意大小的图像作为输入,输出若干候选框的位置,对RPN进行训练。
本发明的有益效果如下:
(1)本发明在初始anchor的选择方案上,引入了K-means聚类算法,将K-means聚类算法输出的代表点转化为Faster-RCNN检测算法的anchor方案,大幅度的减少了计算量,使检测得以更加符合实时情况下的检测速度;
(2)本发明有效地提高了工厂的生产效率,并且提高了流水线的自动化程度,节约了人力、物力资源。
附图说明
图1是本发明基于深度学习目标检测与识别的袋口位置检测方法的流程图。
图2为采用本发明的方法识别得到的结果图。
具体实施方式
下面根据附图和优选实例详细描述本发明,本发明的目的和效果将变得更加明白,以下结合附图和实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明的基于深度学习目标检测与识别的袋口位置检测方法,包括以下步骤:首先通过传送带上方的摄像头采集传送带上的包装袋的图片;并对所有获得的图片进行预处理,再把待训练的图片制作成标准格式的数据集,方便神经网络的训练。接着将数据集当中的图片送入卷积神经网络,提取出图像的特征图;然后将所得到的图像的特征图作为神经网络RPN的输入,采用K-means聚类算法来设置初始的anchor方案,通过RPN网络优化检测框,最后通过回归计算得到检测框的精确位置。最后用训练好的Faster-RCNN神经网络对实时获得的包装袋图像进行处理,识别包装袋袋口的精确位置。本发明检测速度较快并且准确率较高,具有较高的实际应用价值。
作为其中一种实例,本发明的基于深度学习目标检测与识别的袋口位置检测方法的具体步骤如下:
S1:利用传送带上方的摄像头采集含有包装袋的图片,每个拍摄的图片涵盖唯一一个包装袋;
S2:对上述所得到的所有图片进行预处理,得到预处理图像,并标记袋口位置,制作数据集。
所述预处理过程包括为:使用加权平均法来对图像进行灰度处理,平均法灰度化处理公式为:gray(i,j)=(R(i,j)+G(i,j)+B(i,j))/3,其中i,j为图像每个像素点坐标,R、G、B分别为该坐标处像素点的R、G、B值,gray(i,j)为最后所得到的灰度像素值。
S3:采用K-means聚类算法输出的代表点转化为Faster-RCNN检测算法的anchor方案初始的宽和高。
S3.1:随机在数据集当中选取K个点,作为聚类中心,然后重复M次,得到MK个数据点;再对这MK个数据点进行聚类,得到K个初始的聚类中心。本实施例中,M选10。
S3.2:将数据集当中的各个点按照公式:
Figure BDA0002427979860000041
划分到距离它最近的聚类中心所在的类里,其中,(x,y)表示每个点的坐标;
S3.3:重新计算各个类的聚类中心,计算公式为:
Figure BDA0002427979860000042
其中|ci|为该类样本的数量,cx为当前类簇中第x个对象,ci为新的聚类中心;
S3.4:设置一个阈值,如果由公式
Figure BDA0002427979860000043
得到的新中心点与原来的中心点的距离小于该阈值,则聚类过程结束;否则继续执行S3.2和s3.3,直到满足条件。
S3.5:输出K个聚类和K个聚类中心。将聚类算法输出的代表点转化为Faster-RCNN检测算法的anchor方案。
S4:将S2的数据集送入卷积神经网络(Convolutional Neural Network,CNN),提取图像的特征图。所述提取图像特征图过程包括为:将得到的预处理图像送入卷积神经网络,以VGG16为例,VGG16卷积神经网络包含13个卷积层,3个全连接层,采用的是3*3大小的卷积核。卷积过程的计算公式为:
Figure BDA0002427979860000044
给定一个图像X∈RM*N,一个滤波器W∈Rm*n,m<<M,n<<N。
S5:将卷积神经网络提取出来的图像特征图作为RPN(Region Proposal Network)和分类回归网络的输入,开始训练神经网络,所述的神经网络模型训练的具体过程为:
S5.1:将S2中所得到的处理好的图片通入卷积神经网络,通过卷积层的卷积操作和池化操作之后,得到图像的特征图。
S5.2:将S4中所得到的图像的特征图作为神经网络RPN的输入,RPN能快速生成大小不一的锚点窗口,并判断框内图像为目标或背景的概率用于初步提取RoI。
S5.3:RPN在特征提取网络输出的特征图上进行滑窗来生成区域建议框,滑动窗口在原始图像上的映射称为anchor,通过设置9种不同大小的anchor,能够得到期望的目标建议框。在对每个候选框对应的区域进行Softmax分类,用非极大值抑制算法微调候选框和尺寸,批量生成候选框。在通过感兴趣区池化操作将不同尺寸的候选区域对应的卷积特征统一为相同大小的尺寸,为全连接层的使用创造了有利条件。
S5.4:采用端到端的方式,使用误差的反向传播和梯度下降的算法,RPN网络以任意大小的图像作为输入,输出若干候选框的位置,对RPN进行训练。
S5.4.1:在误差反向传播过程当中,每张图像在训练时的损失函数为:
Figure BDA0002427979860000051
Figure BDA0002427979860000052
其中i是每批次中的anchor的索引;pi是anchor当中含有目标的概率;当窗口为正样本时pi *=1,当窗口为负样本时pi *=0。ti表示预测边框的4个坐标参数,ti *是含有目标的anchor对应的真实边界框的坐标参数。{pi}表示分类成的输出,{ti}表示回归层的输出。使用Ncls和Nreg以及权重λ是为了进行归一化处理anchor的位置。其中Lcls(pi,pi *)=-log[pi *pi+(1-pi)(1-pi *)]表示的是分类损失函数。回归损失损失函数为Lreg(ti,ti *)=-R(ti-ti *),其中参数R为smooth函数,其表达式为
Figure BDA0002427979860000053
Figure BDA0002427979860000054
原有网络和RPN一起训练,可以显著地降低网络参数的训练时间。
S5.4.2:梯度下降法是一种基于迭代思想的优化算法,根据当前点在每次迭代过程中的下降方向,修改模型的参数,向新的迭代点移动,直到找到最优解,迭代停止。先随机选择权值点w0,用于提取包装袋的特征像素点;选择梯度下降方向:
Figure BDA0002427979860000055
作为下降方向;选择步长λ用来调整权值;更新过程为:wi+1=wi+λ*di。直到满足预测结果和真实值相差小于ε条件为止。
S5.4.3:对于边框的回归计算,通常采用的算法为:
Figure BDA0002427979860000056
Figure BDA0002427979860000057
Figure BDA0002427979860000058
Figure BDA0002427979860000059
其中,x,y是边界框的中心坐标;w为边界框的宽;h为边界框的宽;xa是anchor边界框;x*是真实边界框(y,w,h同理),最终得到检测框的精确位置。
S6:利用训练好的神经网络模型来对摄像头获取的实时包装袋图片进行包装袋袋口精确位置识别。
所述神经网络模型识别的具体过程为:
获取实时的包装袋的图片,并对其进行S2和S4的处理后,利用训练好的Faster-RCNN神经网络对包装袋袋口精确位置识别,通过K-means算法确定初始的anchors的位置;在通过RPN网络优化检测框,最后通过回归计算得到检测框的精确位置。识别结果图如图2所示。
本发明克服了传统人工方法的不足,有效地提高了工厂的生产效率,并且提高了流水线的自动化程度,节约了许多人力、物力资源。
本领域普通技术人员可以理解,以上所述仅为发明的优选实例而已,并不用于限制发明,尽管参照前述实例对发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实例记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在发明的精神和原则之内,所做的修改、等同替换等均应包含在发明的保护范围之内。

Claims (4)

1.一种基于深度学习目标检测与识别的袋口位置检测方法,其特征在于,该方法具体包括如下步骤:
S1:通过摄像头采集传送带上包装袋的图片,每个图片仅涵盖唯一一个包装袋;
S2:对上述所得到的所有图片进行预处理,得到预处理图像,并标记袋口位置,制作数据集。
S3:在预处理之后的图片上采用K-means聚类算法,K-means聚类算法输出的代表点转化为Faster-RCNN神经网络的anchor方案初始的宽和高;
S4:将S2的数据集送入卷积神经网络,提取图像的特征图;
S5:将卷积神经网络提取出来的图像特征图作为Faster-RCNN神经网络中的RPN神经网络和分类回归网络的输入,开始训练Faster-RCNN神经网络;
S6:获取实时的包装袋的图片,并对其进行S2和S4的处理后,利用训练好的Faster-RCNN神经网络对包装袋袋口精确位置识别。
2.根据权利要求1所述的基于深度学习目标检测与识别的袋口位置检测方法,其特征在于,所述S2中的预处理具体包括:
使用加权平均法来对图像进行灰度处理,计算公式为:
gray(i,j)=(R(i,j)+G(i,j)+B(i,j))/3,其中i,j为图像每个像素点坐标,R、G、B分别为该坐标处像素点的R、G、B值,gary(i,j)为最后所得到的灰度像素值。
3.根据权利要求1所述的基于深度学习目标检测与识别的袋口位置检测方法,其特征在于,所述S4中的卷积神经网络为VGG16,其包含13个卷积层,3个全连接层,采用的是3*3大小的卷积核,卷积过程的计算公式为:
Figure FDA0002427979850000011
给定一个图像X∈RM*N,一个滤波器W∈Rm*n,m<<M,n<<N。
4.根据权利要求1所述的基于深度学习目标检测与识别的袋口位置检测方法,其特征在于,所述S5中的Faster-RCNN神经网络训练的具体过程为:
S5.1:将S2中所得到的处理好的图片通入卷积神经网络,通过卷积层的卷积操作和池化操作之后,得到图像的特征图;
S5.2:将S4中所得到的图像的特征图作为RPN神经网络的输入,RPN快速生成大小不一的锚点窗口,并判断框内图像为目标或背景的概率用于初步提取RoI。采用K-means聚类算法输出的代表点转化为Faster-RCNN检测算法的anchor方案初始的宽和高,具体为:
S5.2.1:随机在数据集当中选取K个点,作为聚类中心,然后重复M次,得到MK个数据点;再对这MK个数据点进行聚类,得到K个初始的聚类中心;
S5.2.2:将数据集当中的各个点按照公式:
Figure FDA0002427979850000021
划分到距离它最近的聚类中心所在的类里,其中,(x,y)表示每个点的坐标;
S5.2.3:重新计算各个类的聚类中心,计算公式为:
Figure FDA0002427979850000022
其中|ci|为该类样本的数量,cx为当前类簇中第x个对象,ci为新的聚类中心;
S5.2.4:设置一个阈值,如果由公式
Figure FDA0002427979850000023
得到的新中心点与原来的中心点的距离小于该阈值,则聚类过程结束;否则继续执行S5.2.2和s5.2.3,直到新中心点与原来的中心点的距离小于设定的阈值。
S5.2.5:输出K个聚类和K个聚类中心,将聚类算法输出的代表点转化为Faster-RCNN检测算法的anchor方案;
S5.3:RPN在S5.1得到的特征图上进行滑窗生成区域建议框,滑动窗口在原始图像上的映射称为anchor,通过设置9种不同大小的anchor,得到期望的目标建议框,即候选框,再对每个候选框对应的区域进行Softmax分类,用非极大值抑制算法微调候选框和尺寸,批量生成候选框;
S5.4:采用端到端的方式,使用误差的反向传播和梯度下降的算法,RPN网络以任意大小的图像作为输入,输出若干候选框的位置,对RPN进行训练。
CN202010226864.0A 2020-03-27 2020-03-27 一种基于深度学习目标检测与识别的袋口位置检测方法 Pending CN111488920A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010226864.0A CN111488920A (zh) 2020-03-27 2020-03-27 一种基于深度学习目标检测与识别的袋口位置检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010226864.0A CN111488920A (zh) 2020-03-27 2020-03-27 一种基于深度学习目标检测与识别的袋口位置检测方法

Publications (1)

Publication Number Publication Date
CN111488920A true CN111488920A (zh) 2020-08-04

Family

ID=71798017

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010226864.0A Pending CN111488920A (zh) 2020-03-27 2020-03-27 一种基于深度学习目标检测与识别的袋口位置检测方法

Country Status (1)

Country Link
CN (1) CN111488920A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112052883A (zh) * 2020-08-14 2020-12-08 五邑大学 一种衣物检测方法、装置及存储介质
CN112164070A (zh) * 2020-09-16 2021-01-01 电子科技大学 基于深度学习的双层箱箱口定位算法
CN112802005A (zh) * 2021-02-07 2021-05-14 安徽工业大学 一种基于改进Mask RCNN的汽车表面擦伤检测方法
CN112861800A (zh) * 2021-03-16 2021-05-28 南京邮电大学 基于改进的Faster R-CNN模型的快递识别方法
CN113569656A (zh) * 2021-07-02 2021-10-29 广州大学 一种基于深度学习的考场监控方法
CN114820585A (zh) * 2022-05-30 2022-07-29 福州大学 钢线圈头部检测识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109801265A (zh) * 2018-12-25 2019-05-24 国网河北省电力有限公司电力科学研究院 一种基于卷积神经网络的实时输电设备异物检测系统
CN110718282A (zh) * 2019-10-14 2020-01-21 杭州睿琪软件有限公司 一种包装类食品识别方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109801265A (zh) * 2018-12-25 2019-05-24 国网河北省电力有限公司电力科学研究院 一种基于卷积神经网络的实时输电设备异物检测系统
CN110718282A (zh) * 2019-10-14 2020-01-21 杭州睿琪软件有限公司 一种包装类食品识别方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHUANGZHUANG ZHOU等: "Detection of Micro-Defects on Irregular Reflective Surfaces Based on Improved Faster R-CNN" *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112052883A (zh) * 2020-08-14 2020-12-08 五邑大学 一种衣物检测方法、装置及存储介质
CN112052883B (zh) * 2020-08-14 2023-10-17 五邑大学 一种衣物检测方法、装置及存储介质
CN112164070A (zh) * 2020-09-16 2021-01-01 电子科技大学 基于深度学习的双层箱箱口定位算法
CN112802005A (zh) * 2021-02-07 2021-05-14 安徽工业大学 一种基于改进Mask RCNN的汽车表面擦伤检测方法
CN112861800A (zh) * 2021-03-16 2021-05-28 南京邮电大学 基于改进的Faster R-CNN模型的快递识别方法
CN112861800B (zh) * 2021-03-16 2022-08-05 南京邮电大学 基于改进的Faster R-CNN模型的快递识别方法
CN113569656A (zh) * 2021-07-02 2021-10-29 广州大学 一种基于深度学习的考场监控方法
CN113569656B (zh) * 2021-07-02 2023-08-29 广州大学 一种基于深度学习的考场监控方法
CN114820585A (zh) * 2022-05-30 2022-07-29 福州大学 钢线圈头部检测识别方法

Similar Documents

Publication Publication Date Title
CN111488920A (zh) 一种基于深度学习目标检测与识别的袋口位置检测方法
CN109977808B (zh) 一种晶圆表面缺陷模式检测与分析方法
CN108960245B (zh) 轮胎模具字符的检测与识别方法、装置、设备及存储介质
CN106875381B (zh) 一种基于深度学习的手机外壳缺陷检测方法
CN110853015A (zh) 基于改进Faster-RCNN的铝型材缺陷检测方法
CN111862119A (zh) 基于Mask-RCNN的语义信息提取方法
CN110490099B (zh) 一种基于机器视觉的地铁公共地点人流量分析方法
CN112907519A (zh) 一种基于深度学习的金属曲面缺陷分析系统及方法
CN109801305B (zh) 基于深度胶囊网络的sar图像变化检测方法
CN109685030A (zh) 一种基于卷积神经网络的马克杯杯口缺陷检测分类方法
CN113221956B (zh) 基于改进的多尺度深度模型的目标识别方法及装置
CN111161244B (zh) 基于FCN+FC-WXGBoost的工业产品表面缺陷检测方法
CN110288033B (zh) 一种基于卷积神经网络的甘蔗蔗节特征识别与定位方法
CN113298809B (zh) 基于深度学习和超像素分割的复材超声图像缺陷检测方法
CN111160389A (zh) 一种基于融合vgg的岩性识别方法
CN111274895A (zh) 基于空洞卷积的cnn微表情识别方法
CN116740758A (zh) 一种防止误判的鸟类图像识别方法及系统
CN117315376B (zh) 基于机器学习的机械零件工业质检方法
CN117910073A (zh) 基于3d打印技术的工艺品包装设计优化系统及方法
CN115841600B (zh) 基于深度学习的甘薯外观品质分类方法
CN113808079B (zh) 基于深度学习模型AGLNet的工业产品表面缺陷自适应检测方法
CN116645342A (zh) 一种基于改进的ConvNeXt V2和Faster-RCNN的焊点缺陷检测方法
CN116128800A (zh) 一种基于ViG的手机麦克风零件缺陷检测与分割方法
CN115937143A (zh) 一种织物缺陷检测方法
CN115496936A (zh) 一种基于图像切割和残差结构的蔬菜识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200804