CN113888528A - 基于改进CenterNet的瓶底模点识别方法及系统 - Google Patents
基于改进CenterNet的瓶底模点识别方法及系统 Download PDFInfo
- Publication number
- CN113888528A CN113888528A CN202111231196.1A CN202111231196A CN113888528A CN 113888528 A CN113888528 A CN 113888528A CN 202111231196 A CN202111231196 A CN 202111231196A CN 113888528 A CN113888528 A CN 113888528A
- Authority
- CN
- China
- Prior art keywords
- model
- bottle bottom
- training
- bottom die
- centernet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000001514 detection method Methods 0.000 claims abstract description 31
- 238000000605 extraction Methods 0.000 claims abstract description 15
- 238000012360 testing method Methods 0.000 claims abstract description 11
- 238000002372 labelling Methods 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims description 32
- 238000010586 diagram Methods 0.000 claims description 9
- 238000004519 manufacturing process Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 238000004321 preservation Methods 0.000 claims 2
- 238000013135 deep learning Methods 0.000 abstract description 7
- 239000011521 glass Substances 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000007246 mechanism Effects 0.000 description 7
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明采用基于改进CenterNet的瓶底模点识别系统来识别瓶底模点,涉及到基于深度学习目标检测的瓶底模点识别方法以及系统。主要包括以下内容:利用瓶底模点数据集进行分析标注,生成图片标签数据集,搭建ResNet‑CBAM主干特征提取网络模型,搭建CenterNet目标检测网络模型,通过反向传播以及Focal Loss和l1 loss计算损失以及更新模型、对构建好的模型进行测试。本发明具有鲁棒性高,泛化能力强,准确度高的特点。
Description
技术领域
本发明涉及到的领域主要为工业计算机视觉领域,涵盖了深度学习目标检测技术,主要是基于改进的CenterNet目标检测网络对瓶子底部模点进行识别。
背景技术
长期以来,玻璃容器被广泛应用于社会生活各个方面,玻璃容器的生产作为工业生产中的一大重要领域。玻璃容器的质量好坏决定了用户的安全,一个劣质的玻璃容器可能会在用户使用过程中炸裂,引发一系列安全问题。解决劣质玻璃容器生产的关键一环是对玻璃瓶进行溯源,找到其生产线来解决生产问题。对于玻璃容器的溯源指的是:通过对玻璃瓶底上的数字标记识别定位到玻璃容器批次,从而进一步定位到玻璃容器的生产线。
工业检测领域是机器视觉应用中比重最大的领域,主要用于产品质量检测、产品分类、产品溯源等。工业检测领域中的玻璃瓶溯源方向大量运用以机器学习统计分类为主导的分类方法,例如KNN以及朴素贝叶斯算法,前者是通过计算二者的相似度,找出k个训练样本,然后进行打分,按得分值排序,后者是计算概率,构建概率模型,选出条件下最大概率物体进行分类。这两种方法的缺点在于对噪声数据过于敏感,尤其是当瓶底模点打印不清晰时,识别效果会非常差。另外,机器学习方法的参数需要人工调整导致检测不准确,浪费了大量的人力物力,最高只能达到85%左右的准确率。
随着深度学习的发展,深度学习开始在工业计算机视觉应用。CenterNet是一种深度学习目标检测模型,常用于对图片中的物体进行分类并且标出物体的所在位置,在工业计算机视觉领域用于相关物体的识别以及定位。
CenterNet的原理是在物体的边界框中心用一个点表示对象,然后直接从位于中心位置的图像特征回归,继而判断物体类别以及物体位置。CenterNet是一种单阶段目标检测模型,在特征提取网络后进行图片的上采样,采用分辨率比较大的特征图,由于使用大分辨率图像对于物体有很好的识别能力,CenterNet很好地平衡了精度与速度的关系。
但上述所有深度学习模型对于实际操作都有一个问题:在卷积的过程中特征可能会被丢掉导致识别不准。
CBAM注意力机制可以解决上述的问题,CBAM模块是一种结合空间注意力机制以及通道注意力机制的模块,通过CBAM模块对生成的特征图进行加权运算后可以注意到物体的特征,使特征提取效果更好,从而提升检测准确性。
发明内容
本发明提出了一种新的关于瓶底模点识别的方法及系统,发明包括了ResNet-CBAM网络,CenterNet目标检测网络。
一、基于改进centernet的平底模点识别方法及系统主要有以下步骤:
步骤1:利用瓶底模点数据集进行分析标注,生成图片标签数据集:对生产线工业相机采集到的图像进行分析以及标注,将瓶底模点用矩形框标出,生成标签数据集以及真实图像数据集,根据标签数据集生成带有矩形框位置的训练数据集,用于后期模型的训练。
步骤2:搭建ResNet-CBAM主干特征提取网络模型:ResNet作为本发明的主干特征提取网络,主要是用来对瓶底模点的图片进行特征的提取,为了让图像特征更为清晰,采用CBAM模块嵌入其中,在加载图片时做数据增强处理。
步骤3:搭建CenterNet目标检测网络模型:CenterNet目标检测模型包括上采样获得高分辨率图像,生成热力图,对热力点进行回归分类,对回归分类结果进行解码等几个步骤,将CenterNet模型嵌入到整体模型中,CenterNet的输入为步骤2中的ResNet-CBAM模型的输出,CenterNet的输出为最终预测结果。
步骤4:通过反向传播以及Focal Loss计算损失以及更新模型,构建训练过程曲线图,对模型进行保存。
步骤5:对构建好的模型进行测试,通过输出的检测结果判断瓶子编号。
二、进一步的,根据一种基于改进CenterNet的瓶底模点识别方法及系统,其特征在于,所述的步骤1中,还包含以下步骤:
将数据集划分为训练集以及测试集,比例为9:1,模型标签中包含物体的中心点位置以及宽高。
三、进一步的,根据一种基于改进CenterNet的瓶底模点识别方法及系统,其特征在于,所述的步骤2中,还包含以下步骤:
1. 将瓶底模点目标识别模型的主干特征提取网络ResNet运用CBAM模块,特征提取网络的输入维度为512*512*3,输出维度为16*16*2048。
2. 为了在主干网络输出时有较多的正样本数量,采用一些对图片进行去噪和增强灰度值的操作,便于后期图片处理。
四、进一步的,根据一种基于改进CenterNet的瓶底模点识别方法及系统,其特征在于,所述的步骤3中,还包含以下步骤:
1. 将CenterNet用于特定的瓶底模点识别问题,CenterNet的输入维度为16*16*2048,输出维度由目标物体种类所决定。
2. 在进行物体位置以及种类的预测时,需要将8位灰度图变换为24位RGB图像。3.在进行预测框的解码后对其进行非极大值抑制处理,取出置信度最大的预测结果。
五、进一步的,根据一种基于改进CenterNet的瓶底模点识别方法及系统,其特征在于,所述的步骤4中,还包含以下步骤:
1. 采用了特定的对瓶底模点识别的模型的训练方法,首先加载预训练权重保存参数,随后进行训练,前50次迭代预训练权重不参与更新,对整体的模型进行建立。
2. 在完成前50次迭代后,预训练权重参与模型更新,进行完所有训练轮次保存模型参数,并构建模型损失曲线。
六、进一步的,根据一种基于改进CenterNet的瓶底模点识别方法及系统,其特征在于,所述的步骤5中,还包含以下步骤:
在对模型进行测试时,将原本8位灰度图转换为24位RGB图进行测试。
与现有的瓶底模点检测技术相比,本发明的创新与提升主要在以下几点:
1.与传统的模点检测算法不同,本发明将深度学习目标检测网络的无锚思想利用与瓶底模点检测,通过生成热力点以及对热力点的回归分类可以减少对候选框的生成以及卷积,提升了检测的速度,对网络训练的速度也有明显的提升,通过第一个反卷积网络生成高分辨率图像有利于特征的显现,对于大目标以及小目标的检测显现出很强的稳定性,增强了识别的精度,提升了模型的泛化力度。
2.与传统的瓶底模点检测算法卷积网络识别不同,由于在卷积的过程中一些关键特征可能会被忽略,这就会导致后继的目标检测网络丢失关键特征导致目标检测不准确甚至失效,本发明改进了深度学习CenterNet的主干特征提取网络模型,将通道以及空间的注意力机制融合到残差网络的捷径连接中,以此来提高对特征提取的精度,对后继的目标检测网络检测有很好的性能提升。
3.与传统的瓶底模点检测算法卷积网络识别不同,本发明运用深度学习目标检测技术,与原有的机器学习算法最大的不同是将机器学习的人工参数调节改为自动参数更新,通过Focalloss损失函数计算损失并更新保存模型,大大减少了人为调参主观性对检测性能的影响,使本发明的泛化能力和准确率有了明显的提升,可以在不同瓶底的模点识别中发挥更好的效果。
附图说明
图1是实验流程图。
图2是系统结构图。
图3是效果图。
图4是模型训练过程性能评价图。
具体实施方式
为使本发明的技术方案更加清晰,下面对技术方案具体实施方式做出具体描述,本发按照以下几个步骤依次具体实现:
1.对于原始瓶底模点图片生成图片数据集
本发明所用的数据集为现场采集的瓶底模点数据集,该数据集的图片为单个瓶底模点照片,包含了识别模点。
将上述的图片进行分析,剔除无效的图片,对图片进行图片数据标注,标注过程采用Labelimg标注软件生成多个xml图片标注信息文件,其中xml文件包括标注中心点,标注位置以及标注类型,与原图片文件一一对应。
2.搭建主干特征提取网络ResNet-CBAM
ResNet-CBAM输入图片尺度为[512,512,3],输出图片尺度为[16, 16, 2048]。ResNet是一种卷积神经网络,与传统的顺序结构的卷积网络不同,ResNet可以通过跳过一层或多层的卷积网络直接与输出层相连接,以此来解决多层卷积梯度消失的问题。对于搭建ResNet50网络首先需要建立残差块以及卷积块,残差块是一种包含多个卷积的模块,本发明所用的残差块卷积层个数为3层,在最后一层进行Relu函数的激活,以获得残差块输出,对其中的残差结构进行调整,将捷径连接中加入CBAM模块。
CBAM模块是一种结合空间注意力机制以及通道注意力机制的模块,通过CBAM模块对生成的特征图进行加权运算后可以注意到物体的特征,使特征提取更加明显,将CBAM模块嵌入到ResNet50的捷径连接(残差结构的残差边)中,先进行通道的注意力机制,为每个通道分配相应的权重参数,再进行空间注意力机制,将特征聚焦在最具有信息量的图上。CBAM模块应该在捷径连接和残差块相加前进行特征的重新标定,否则可能会出现梯度弥散的现象,使模型不能很好收敛。
3.搭建CenterNet目标识别网络
CenterNet是一种单阶段目标检测模型,由于使用大分辨率图像对于物体有很好的识别能力,很好地平衡了精度与速度的关系。CenterNet网络对ResNet50输出的特征层进行需反卷积来对ResNet50-CBAM输出的特征图进行上采样,在上采样之前需要对图像进行位变换,将8位灰度图变为24位RGB图,随后将[16, 16, 2048]图像上采样获得[128,128,64]高分辨率图像,这样可以放大图像分辨率,使图像包含到更多瓶底模点关键特征。
CenterNet的搭建主要由三个卷积层构成,分别对得到的高分辨率图像的特征点进行卷积,卷积核个数为64,大小为3x3,分别用来判断特征点物体种类,特征点的位置以及特征点物体的大小。
在对特征点进行卷积之后需要进行非极大值抑制,这里的非极大值抑制是在解码之前先进行,目的是为了在特征图上挑出合适的矩形框,防止同种矩形框的堆叠。
方法是用一个3x3的卷积核在热力图上搜索,进行最大池化寻找的分值最高的矩形框,筛选出合适的矩形框。
在非极大值抑制后,对筛选出的矩形框信息进行解码,解码过程是根据生成的三个预测结果进行生成预测框,方法是根据中心点的坐标位置以及物体的大小分别求出左上角以及右下角的坐标,代入原图中即可得到预测框。
4.加载图片,使用实时数据增强,方法是对数据图片进行灰度值以及锐度的变化,以此来增强图片的质量以及数量。
对瓶底模点的图片进行变换得到处理后的瓶底模点数据图片,加载3建立好的网络模型,首先加载预训练权重保存参数,随后进行训练,前50次迭代预训练权重不参与更新,对整体的模型进行建立。在完成前50次迭代后,预训练权重参与模型更新,进行完所有训练轮次保存模型参数,并构建模型损失曲线。通过反向传播计算损失以及更新模型。其中loss包括三个损失函数以及一个总的损失函数,分别为热力点预测loss,物体位置预测loss,以及物体尺寸预测loss,用来查看模型训练的效率。
其中,热力图用的损失函数为focalloss的损失函数,计算公式如下所示:
其中 α 和 β 是Focal Loss的超参数,N是正样本的数量,用于进行标准化。 α 和β分别是2和4。
对于物体回归中心点的loss和物体宽高的loss使用的是L1损失函数,其公式如下所示:
由于物体宽高的预测采用的是特征层坐标尺寸,loss比较大需要在前面乘以0.1的系数。
根据两个loss函数求得总loss函数:
开始训练以后对每个训练轮数的模型进行保存,生成记录文件保存模型。
5.查看记录文件保存模型的损失函数,找出总损失函数最小的模型,加载模型进行测试,测试前需要将8位灰度图转化为24位RGB图片进行测试。计算其map,map是一种对目标检测算法进行性能评价的指标,其衡量的是产生模型在所有模点类别上识别的好坏。通常的计算方法是由召回率以及查准率所围成的区域对其积分求面积,测试获得的检测效果对于传统机器学习方法以及原深度学习模型有明显的提升。
Claims (6)
1.基于改进CenterNet的瓶底模点识别方法及系统主要有以下步骤:
步骤1:利用瓶底模点数据集进行分析标注,生成图片标签数据集:对生产线工业相机采集到的图像进行分析以及标注,将瓶底模点用矩形框标出,生成标签数据集以及真实图像数据集,根据标签数据集生成带有矩形框位置的训练数据集,用于后期模型的训练;
步骤2:搭建ResNet-CBAM主干特征提取网络模型:ResNet作为本发明的主干特征提取网络,主要是用来对瓶底模点的图片进行特征的提取,为了让图像特征更为清晰,采用CBAM模块嵌入其中,在加载图片时做数据增强处理;
步骤3:搭建CenterNet目标检测网络模型:CenterNet目标检测模型包括上采样获得高分辨率图像,生成热力图,对热力点进行回归分类,对回归分类结果进行解码等几个步骤,将CenterNet模型嵌入到整体模型中,CenterNet的输入为步骤2中的ResNet-CBAM模型的输出,CenterNet的输出为最终预测结果;
步骤4:通过反向传播以及Focal Loss计算损失以及更新模型,构建模型训练图,对模型进行保存;
步骤5:对构建好的模型进行测试,通过输出的检测结果判断瓶子编号。
2.根据权利要求1所述的基于改进CenterNet的瓶底模点识别方法及系统,步骤1所述的图像数据集其特性在于:
将数据集划分为训练集以及测试集,比例为9:1,模型标签中包含物体的中心点位置以及宽高。
3.根据权利要求1所述的基于改进CenterNet的瓶底模点识别方法及系统,步骤2所述的ResNet-CBAM其特性在于:
将瓶底模点目标识别模型的主干特征提取网络ResNet运用CBAM模块,特征提取网络的输入维度为512*512*3,输出维度为16*16*2048;
为了在主干网络输出时有较多的正样本数量,采用一些对图片进行去噪和增强灰度值的操作,便于后期图片处理。
4.根据权利要求1所述的基于改进CenterNet的瓶底模点识别方法,步骤3所述的CenterNet模型其特性在于:
将CenterNet用于特定的瓶底模点识别问题,CenterNet的输入维度为16*16*2048,输出维度由目标物体种类所决定;
在进行物体位置以及种类的预测时,需要将8位灰度图变换为24位RGB图像;3.在进行预测框的解码后对其进行非极大值抑制处理,取出置信度最大的预测结果。
5.根据权利要求1所述的基于改进CenterNet的瓶底模点识别方法及系统,步骤4所述的模型保存方法其特性在于:
采用了特定的对瓶底模点识别的模型的训练方法,首先加载预训练权重保存参数,随后进行训练,前50次迭代预训练权重不参与更新,对整体的模型进行建立;
在完成前50次迭代后,预训练权重参与模型更新,进行完所有训练轮次保存模型参数,并构建模型训练过程曲线。
6.根据权利要求1所述的基于改进CenterNet的瓶底模点识别方法及系统,步骤5所述的模型保存方法其特性在于:
在对模型进行测试时,将原本8位灰度图转换为24位RGB图进行测试。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111231196.1A CN113888528A (zh) | 2021-10-22 | 2021-10-22 | 基于改进CenterNet的瓶底模点识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111231196.1A CN113888528A (zh) | 2021-10-22 | 2021-10-22 | 基于改进CenterNet的瓶底模点识别方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113888528A true CN113888528A (zh) | 2022-01-04 |
Family
ID=79004122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111231196.1A Pending CN113888528A (zh) | 2021-10-22 | 2021-10-22 | 基于改进CenterNet的瓶底模点识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113888528A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339858A (zh) * | 2020-02-17 | 2020-06-26 | 电子科技大学 | 一种基于神经网络的油气管道标志物识别方法 |
CN113034545A (zh) * | 2021-03-26 | 2021-06-25 | 河海大学 | 一种基于CenterNet多目标跟踪算法的车辆跟踪方法 |
WO2021139069A1 (zh) * | 2020-01-09 | 2021-07-15 | 南京信息工程大学 | 自适应注意力指导机制的一般性目标检测方法 |
CN113191334A (zh) * | 2021-05-31 | 2021-07-30 | 广西师范大学 | 一种基于改进CenterNet的植物冠层密集叶片计数方法 |
CN113255837A (zh) * | 2021-06-29 | 2021-08-13 | 南昌工程学院 | 工业环境下基于改进的CenterNet网络目标检测方法 |
CN113420819A (zh) * | 2021-06-25 | 2021-09-21 | 西北工业大学 | 一种基于CenterNet的轻量级水下目标检测方法 |
-
2021
- 2021-10-22 CN CN202111231196.1A patent/CN113888528A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021139069A1 (zh) * | 2020-01-09 | 2021-07-15 | 南京信息工程大学 | 自适应注意力指导机制的一般性目标检测方法 |
CN111339858A (zh) * | 2020-02-17 | 2020-06-26 | 电子科技大学 | 一种基于神经网络的油气管道标志物识别方法 |
CN113034545A (zh) * | 2021-03-26 | 2021-06-25 | 河海大学 | 一种基于CenterNet多目标跟踪算法的车辆跟踪方法 |
CN113191334A (zh) * | 2021-05-31 | 2021-07-30 | 广西师范大学 | 一种基于改进CenterNet的植物冠层密集叶片计数方法 |
CN113420819A (zh) * | 2021-06-25 | 2021-09-21 | 西北工业大学 | 一种基于CenterNet的轻量级水下目标检测方法 |
CN113255837A (zh) * | 2021-06-29 | 2021-08-13 | 南昌工程学院 | 工业环境下基于改进的CenterNet网络目标检测方法 |
Non-Patent Citations (2)
Title |
---|
张萌岩;何儒汉;詹伟;李敏;陈佳;: "基于改进的残差神经网络的服装标签属性识别", 计算机与数字工程, no. 04, 20 April 2019 (2019-04-20) * |
邱博;刘翔;石蕴玉;尚岩峰;: "一种轻量化的多目标实时检测模型", 北京航空航天大学学报, no. 09 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
US11657602B2 (en) | Font identification from imagery | |
CN112396002B (zh) | 一种基于SE-YOLOv3的轻量级遥感目标检测方法 | |
CN108830285B (zh) | 一种基于Faster-RCNN的加强学习的目标检测方法 | |
CN109886066B (zh) | 基于多尺度和多层特征融合的快速目标检测方法 | |
CN109509187B (zh) | 一种针对大分辨率布匹图像中的小瑕疵的高效检验算法 | |
CN109684922B (zh) | 一种基于卷积神经网络的多模型对成品菜的识别方法 | |
CN108647736B (zh) | 一种基于感知损失和匹配注意力机制的图像分类方法 | |
US20170032222A1 (en) | Cross-trained convolutional neural networks using multimodal images | |
CN111652321A (zh) | 一种基于改进yolov3算法的海上船舶检测方法 | |
CN107403130A (zh) | 一种字符识别方法及字符识别装置 | |
CN112070713A (zh) | 一种引入attention机制的多尺度目标检测方法 | |
US20210097344A1 (en) | Target identification in large image data | |
CN111461213A (zh) | 一种目标检测模型的训练方法、目标快速检测方法 | |
CN115829991A (zh) | 一种基于改进YOLOv5s的钢材表面缺陷检测方法 | |
CN108133235A (zh) | 一种基于神经网络多尺度特征图的行人检测方法 | |
CN115409797A (zh) | 一种基于改进深度学习算法的pcb缺陷图像检测方法 | |
CN114972316A (zh) | 基于改进YOLOv5的电池壳端面缺陷实时检测方法 | |
CN114821022A (zh) | 融合主观逻辑和不确定性分布建模的可信目标检测方法 | |
Fan et al. | A novel sonar target detection and classification algorithm | |
CN114863198A (zh) | 一种基于神经网络的小龙虾质量分级方法 | |
Burkapalli et al. | TRANSFER LEARNING: INCEPTION-V3 BASED CUSTOM CLASSIFICATION APPROACH FOR FOOD IMAGES. | |
CN113962980A (zh) | 基于改进yolov5x的玻璃容器瑕疵检测方法及系统 | |
CN108960005B (zh) | 一种智能视觉物联网中对象视觉标签的建立及显示方法、系统 | |
CN112270404A (zh) | 一种基于ResNet64网络的紧固件产品鼓包缺陷的检测结构及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |