CN111209907A - 一种复杂光污染环境下产品特征图像人工智能识别方法 - Google Patents

一种复杂光污染环境下产品特征图像人工智能识别方法 Download PDF

Info

Publication number
CN111209907A
CN111209907A CN201911330413.5A CN201911330413A CN111209907A CN 111209907 A CN111209907 A CN 111209907A CN 201911330413 A CN201911330413 A CN 201911330413A CN 111209907 A CN111209907 A CN 111209907A
Authority
CN
China
Prior art keywords
model
detection
training
data set
box
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911330413.5A
Other languages
English (en)
Other versions
CN111209907B (zh
Inventor
何智成
王振兴
宋凯
胡朝辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi Liuzhou United Farming Technology Co Ltd
Original Assignee
Guangxi Liuzhou United Farming Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi Liuzhou United Farming Technology Co Ltd filed Critical Guangxi Liuzhou United Farming Technology Co Ltd
Priority to CN201911330413.5A priority Critical patent/CN111209907B/zh
Publication of CN111209907A publication Critical patent/CN111209907A/zh
Application granted granted Critical
Publication of CN111209907B publication Critical patent/CN111209907B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种复杂光污染环境下产品特征图像人工智能识别方法,包括模型优化改进,数据集制作及锚点(anchor)聚类,模型训练和模型调用,采用深度学习的方法进行产品特征检测,针对深度学习目标检测方法模型参数多、运行速度慢的问题,提出了应用轻量卷积代替目标检测模型中的卷积,并且又对模型的损失函数进行改进使得模型的检测速度、精度都有所改善;另外建立产品特征的数据集,并且对数据集进行K‑Means++聚类得到了适合数据集的锚点,经过训练得到了产品特征检测模型,该模型受环境的影响更小,在光照过亮、过暗等光污染情况下都能取得很好的检测效果,而且改进后的模型能对车间工控机的硬件配置要求更低能够满足精度与速度要求。

Description

一种复杂光污染环境下产品特征图像人工智能识别方法
技术领域
本发明属于汽车生产技术领域,具体涉及一种复杂光污染环境下产品特征图像人工智能识别方法。
背景技术
汽车生产过程中有很多形状需要检测,有的是规则的形状、有的是不规则的形状。对于比较规则的形状我们可以采用图像处理、边缘检测、霍夫变换、曲线拟合来定位待检测目标的位置。但是对于不规则的形状,曲线拟合比较复杂。另外由于汽车生产车间的环境复杂,光照环境并不一定能够满足进行图像处理所需的要求,会出现光照过亮或者过暗的情况。即使用同一种亮度的光源进行照射,不同的材料表面对光照的反射情况也不同,同种材料在有污渍、锈斑的情况下也会反射不同。这就出现了在同样光源亮度的情况下,物体反射不一样表现出不同的成像效果,出现照片过亮过暗的情况,从而导致图像处理算法失效,目标检测失败。
近年来随着深度学习的快速发展,基于深度学习的目标检测方法迎来了快速进步。常见的目标检测方法有R-CNN,Fast R-CNN,Faster R-CNN,SSD,YOLO等等。这些目标检测方法相比于传统的图像处理方法检测效果更好。但是也存在着检测速度不理想的问题。本发明将采用综合考虑检测速度与精度,采用YOLOv3目标检测算法作为基础的目标检测方法。并且对YOLOv3目标检测算法进行改进。以满足生产车间的实时性要求。
发明内容
针对以上技术问题,本发明提供一种复杂光污染环境下产品特征图像人工智能识别方法,包括如下步骤:
1、一种复杂光污染环境下产品特征图像人工智能识别方法,包括如下步骤:
(1)模型优化改进
采用MobileNetV3-Small替换YOLOv3的Darknet53,将MobileNetV3-Small的第11个bneck输出特征进行一次卷积操作,卷积特征作为一层检测输出,之后将第11个bneck上采样,将第3个bneck输出特征重整与第八个bneck输出特征大小一致,然后将这两层特征与第8个bneck融合之后进行一次卷积操作,卷积特征作为第二层检测输出,最后采用Focalloss函数改进原YOLOv3的置信损失函数,采用GIoU loss函数改进原YOLOv3的位置损失函数;
(2)数据集制作及锚点(anchor)聚类
在生产车间拍摄待检测目标的照片10000张,然后对照片进行标注得到标准的数据集,将物体的类别、位置信息存储在XML文件中,YOLOv3采用了anchor的方法进行候选框的位置预测,将所建立的数据集的位置边框信息读取到txt文件中,对边框信息进行K-means++聚类得到适合的anchor的个数及大小;
(3)模型训练
用步骤(2)中制作的数据集进行训练,其中8000张是训练集、2000张是测试集,并且在训练之前采用了旋转、增加噪声、缩放、裁剪等方法进行了数据增强,采用Keras搭建目标检测模型,在训练时将训练图片大小设置为224*224,批次大小为16,训练论述为800轮,优化器为SGD优化器,学习率设为0.001,并且在训练过程中监测验证集损失的大小,若连续10轮损失函数没有下降则学习率降为原来的0.9倍,并且保存模型权重时,只保存验证集上损失函数最小时的模型权重;
(4)模型调用
将步骤(3)的检测模型移植到车间工控机,把车间相机拍摄照片后首先重整至大小为224×224,然后送入检测模型,对检测模型的输出结果进行非极大值抑制之得到待检测工件的位置及类别。
进一步的,步骤(1)中,Focal loss公式如下:
Focal_loss(p)=αy(1-p)γlog(p)-(1-α)(1-y)pγlog(1-p)
这里p是YOLOv3模型所预测的物体的置信值,y是真实的标签置信,有物体的置信为1,无物体的置信为0,α用来平衡正负样本,取α=0.25,γ是一个缩放参数,设置γ=2;
GIoU loss的公式如下:
Figure BDA0002329420940000021
其中A,B分别代表预测框与真实框,C为检测框A与预测框B的包围矩形框,A∩B表示预测框A与检测框B的交集面积,A∪B表示预测框A与检测框B的并集面积。
有益效果:
针对产品特征检测过程中的光污染问题,本发明提出了采用深度学习的方法进行产品特征检测,针对深度学习目标检测方法模型参数多、运行速度慢的问题,本发明提出了应用轻量卷积代替目标检测模型中的卷积,并且又对模型的损失函数进行改进使得模型的检测速度、精度都有所改善,满足生产车间需求;另外建立产品特征的数据集,并且对数据集进行K-Means++聚类得到了适合数据集的锚点,经过训练得到了产品特征检测模型,该模型相比于传统的图像处理检测方法受环境的影响更小,在光照过亮、过暗等光污染情况下都能取得很好的检测效果,而且改进后的模型能对车间工控机的硬件配置要求更低,不需要昂贵的GPU,在生产车间测试,该方法能够满足精度与速度要求。
附图说明
图1为本发明改进YOLOv3结构图。
具体实施方式
下面结合实施例及附图,对本发明作进一步地的详细说明,但本发明的实施方式不限于此。
本发明为了解决产品特征检测时受光照影响大,在光污染的情况下容易检测失败的问题,采用了基于深度学习的目标检测方法YOLOv3,并对深度学习目标检测方法YOLOv3进行改进得到满足车间生产要求,主要的技术方案如下:
1、YOLOv3卷积结构改进
YOLOv3的基础卷积层是Darknet53,虽然该网络结构的运行速度已经很快,但是在生产车间的工控机上硬件配置较差,一般没有配置GPU,该网络在工控机上仍然存在着模型参数多、计算量大、检测速度慢的问题,为了减少YOLOv3的模型参数,提高运行速度。本发明采用了MobileNetV3-Small作为特征提取的卷积层,代替了YOLOv3的Darknet53卷积层,并且也采用特征金字塔结构,做多层输出做预测,为了进一步加快检测速度,且考虑到车间检测工件的尺寸大小,本发明只采用了两层输出预测。如图1所示,本发明将MobileNetV3-Small的第11个bneck输出特征进行卷积之后作为一层检测输出,之后将第11个bneck上采样,将第3个bneck输出特征重整至与第8个bneck输出特征大小一致,然后将这两层特征与第8个bneck融合之后进行一次卷积,之后作为第二层检测输出。
2、损失函数改进
为了进一步提升模型的检测精度本发明在替换卷积层的同时又对损失函数进行了改进,首先我们采用了Focal Loss方法解决了单阶段目标检测方法YOLOv3正负样本不均衡的问题,然后采用新的边框回归方法广义交并比损失(generalized intersection overunion loss,GIoU loss)代替原来的边框回归损失,与原来的位置损失函数相比,GIoU直接把评定标准IoU作为损失函数进行优化。
优化损失函数的后的模型相比上一步于只替换卷积层的模型,检测精度提升了0.2%。与YOLOv3相比检测精度仅下降了0.3%。
Focal loss公式如下:
Focal_loss(p)=αy(1-p)γlog(p)-(1-α)(1-y)pγlog(1-p)
这里p是YOLOv3模型所预测的物体的置信值,y是真实的标签置信,有物体的置信为1,无物体的置信为0,α用来平衡正负样本,本发明使用α=0.25,γ是一个缩放参数,设置γ=2。
GIoU loss的公式如下:
Figure BDA0002329420940000041
其中A,B分别代表预测框与真实框,C为检测框A与预测框B的包围矩形框。A∩B表示预测框A与检测框B的交集面积,A∪B表示预测框A与检测框B的并集面积。
3、数据集制作及锚点(anchor)聚类
基于深度学习的目标检测方法需要专门的数据集。本发明在生产车间拍摄待检测目标的照片10000张,然后对照片进行标注得到标准的数据集,将物体的类别、位置信息存储在XML文件中。10000张数据中8000张作为训练集,2000张作为测试集。YOLOv3采用了anchor的方法进行候选框的位置预测,该方法相比于直接回归预测框检测效果更好。对于不同的数据集我们都要先进行聚类得到适合的锚点。这是因为,采用聚类后anchor的大小和真实的物体大小更一致。在训练的过程中更容易回归,模型训练更快。本发明将所建立的数据集的位置边框信息读取到txt文件中,由于K-means++聚类算法相比于K-means聚类更稳定,本发明对边框信息进行K-means++聚类得到适合的anchor的个数及大小。
4、模型训练
用3中制作的数据集进行训练。其中8000张是训练集、2000张是测试集。并且在训练之前采用了旋转、增加噪声、缩放、裁剪等方法进行了数据增强。目前常用的深度学习框架有TensorFlow,Keras,PyTorch等。由于Keras简单方便,本发明采用Keras搭建目标检测模型。在训练时,考虑到硬件配置,本发明将训练图片大小设置为224*224,批次大小为16,训练论述为800轮,优化器为SGD优化器,学习率设为0.001,并且在训练过程中监测验证集损失函数大小,若连续10轮损失函数没有下降则学习率降为原来的0.9倍,并且保存模型权重时,我们只保存验证集上损失函数最小时的模型权重。
5、模型调用
在生产线上我们将调用训练好的模型进行检测,由于在训练时我们设置的图片大小为224*224,因此在检测时我们需要将相机拍摄的照片先转换为224*224大小。然后将图片送入模型,检测出的结果先去除置信较低的检测框,然后经过非极大值抑制去除重合较多的检测框,最终得到置信得分高的检测结果。

Claims (2)

1.一种复杂光污染环境下产品特征图像人工智能识别方法,包括如下步骤:
(1)模型优化改进
采用MobileNetV3-Small替换YOLOv3的Darknet53,将MobileNetV3-Small的第11个bneck输出特征进行一次卷积操作,卷积特征作为一层检测输出,之后将第11个bneck上采样,将第3个bneck输出特征重整与第八个bneck输出特征大小一致,然后将这两层特征与第8个bneck融合之后进行一次卷积操作,卷积特征作为第二层检测输出,最后采用Focalloss函数改进原YOLOv3的置信损失函数,采用GIoU loss函数改进原YOLOv3的位置损失函数;
(2)数据集制作及锚点(anchor)聚类
在生产车间拍摄待检测目标的照片10000张,然后对照片进行标注得到标准的数据集,将物体的类别、位置信息存储在XML文件中,YOLOv3采用了anchor的方法进行候选框的位置预测,将所建立的数据集的位置边框信息读取到txt文件中,对边框信息进行K-means++聚类得到适合的anchor的个数及大小;
(3)模型训练
用步骤(2)中制作的数据集进行训练,其中8000张是训练集、2000张是验证集,并且在训练之前采用了旋转、增加噪声、缩放、裁剪等方法进行了数据增强,采用Keras搭建目标检测模型,在训练时将训练图片大小设置为224*224,批次大小为16,训练论述为800轮,优化器为SGD优化器,学习率设为0.001,并且在训练过程中监测验证集的损失大小,若连续10轮损失函数没有下降则学习率降为原来的0.9倍,并且保存模型权重时,只保存验证集上损失函数最小时的模型权重;
(4)模型调用
将步骤(3)的检测模型移植到车间工控机,把车间相机拍摄照片后首先重整至大小为224×224,然后送入检测模型,对检测模型的输出结果进行非极大值抑制之得到待检测工件的位置及类别。
2.根据权利要求1所述的一种复杂光污染环境下产品特征图像人工智能识别方法,其特征在于,步骤(1)中,Focal loss公式如下:
Focal_loss(p)=αy(1-p)γlog(p)-(1-α)(1-y)pγlog(1-p)
这里p是YOLOv3模型所预测的物体的置信值,y是真实的标签置信,有物体的置信为1,无物体的置信为0,α用来平衡正负样本,取α=0.25,γ是一个缩放参数,设置γ=2;
GIoU loss的公式如下:
Figure FDA0002329420930000021
其中A,B分别代表预测框与真实框,C为检测框A与预测框B的包围矩形框,A∩B表示预测框A与检测框B的交集面积,A∪B表示预测框A与检测框B的并集面积。
CN201911330413.5A 2019-12-20 2019-12-20 一种复杂光污染环境下产品特征图像人工智能识别方法 Active CN111209907B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911330413.5A CN111209907B (zh) 2019-12-20 2019-12-20 一种复杂光污染环境下产品特征图像人工智能识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911330413.5A CN111209907B (zh) 2019-12-20 2019-12-20 一种复杂光污染环境下产品特征图像人工智能识别方法

Publications (2)

Publication Number Publication Date
CN111209907A true CN111209907A (zh) 2020-05-29
CN111209907B CN111209907B (zh) 2023-04-07

Family

ID=70785080

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911330413.5A Active CN111209907B (zh) 2019-12-20 2019-12-20 一种复杂光污染环境下产品特征图像人工智能识别方法

Country Status (1)

Country Link
CN (1) CN111209907B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111723854A (zh) * 2020-06-08 2020-09-29 杭州像素元科技有限公司 一种高速公路交通拥堵检测方法、设备及可读存储介质
CN112101221A (zh) * 2020-09-15 2020-12-18 哈尔滨理工大学 一种用于交通信号灯实时检测与识别的方法
CN112699900A (zh) * 2021-01-05 2021-04-23 东北林业大学 一种改进YOLOv4的交通标志识别方法
CN112950605A (zh) * 2021-03-15 2021-06-11 西安电子科技大学 基于MYOLOv3网络的杆塔图像检测方法
CN113139476A (zh) * 2021-04-27 2021-07-20 山东英信计算机技术有限公司 一种面向数据中心的人体行为属性实时检测方法和系统
CN113327227A (zh) * 2021-05-10 2021-08-31 桂林理工大学 一种基于MobilenetV3的小麦头快速检测方法
CN117152027A (zh) * 2023-10-31 2023-12-01 广东中科凯泽信息科技有限公司 一种基于图像处理和人工智能识别的智能望远镜

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109711437A (zh) * 2018-12-06 2019-05-03 武汉三江中电科技有限责任公司 一种基于yolo网络模型的变压器部件识别方法
CN109934121A (zh) * 2019-02-21 2019-06-25 江苏大学 一种基于YOLOv3算法的果园行人检测方法
CN113705521A (zh) * 2021-09-05 2021-11-26 吉林大学第一医院 一种结合YOLO-MobilenetV3人脸检测的头部姿态估计方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109711437A (zh) * 2018-12-06 2019-05-03 武汉三江中电科技有限责任公司 一种基于yolo网络模型的变压器部件识别方法
CN109934121A (zh) * 2019-02-21 2019-06-25 江苏大学 一种基于YOLOv3算法的果园行人检测方法
CN113705521A (zh) * 2021-09-05 2021-11-26 吉林大学第一医院 一种结合YOLO-MobilenetV3人脸检测的头部姿态估计方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
XIAXIA ZHANG: "An Improved Lightweight Network MobleNetV3 Based YOLOv3 for Pedestrain Detection", 《2021 IEEE INTERNATIONAL CONFERENCE ON CONSUMER ELECTRONICS AND COMPUTER ENGINEERING》 *
周龙等: "基于深度学习的复杂背景雷达图像多目标检测", 《系统工程与电子技术》 *
孔方方等: "改进YOLOv3的全景交通监控目标检测", 《计算机工程与应用》 *
宋士奇等: "基于改进YOLOv3的复杂场景车辆分类与跟踪", 《山东大学学报(工学版)》 *
徐镪等: "改进的YOLOv3网络在钢板表面缺陷检测研究", 《计算机工程与应用》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111723854A (zh) * 2020-06-08 2020-09-29 杭州像素元科技有限公司 一种高速公路交通拥堵检测方法、设备及可读存储介质
CN111723854B (zh) * 2020-06-08 2023-08-29 杭州像素元科技有限公司 一种高速公路交通拥堵检测方法、设备及可读存储介质
CN112101221A (zh) * 2020-09-15 2020-12-18 哈尔滨理工大学 一种用于交通信号灯实时检测与识别的方法
CN112101221B (zh) * 2020-09-15 2022-06-21 哈尔滨理工大学 一种用于交通信号灯实时检测与识别的方法
CN112699900A (zh) * 2021-01-05 2021-04-23 东北林业大学 一种改进YOLOv4的交通标志识别方法
CN112950605A (zh) * 2021-03-15 2021-06-11 西安电子科技大学 基于MYOLOv3网络的杆塔图像检测方法
CN113139476A (zh) * 2021-04-27 2021-07-20 山东英信计算机技术有限公司 一种面向数据中心的人体行为属性实时检测方法和系统
CN113327227A (zh) * 2021-05-10 2021-08-31 桂林理工大学 一种基于MobilenetV3的小麦头快速检测方法
CN117152027A (zh) * 2023-10-31 2023-12-01 广东中科凯泽信息科技有限公司 一种基于图像处理和人工智能识别的智能望远镜
CN117152027B (zh) * 2023-10-31 2024-02-09 广东中科凯泽信息科技有限公司 一种基于图像处理和人工智能识别的智能望远镜

Also Published As

Publication number Publication date
CN111209907B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN111209907B (zh) 一种复杂光污染环境下产品特征图像人工智能识别方法
US11380232B2 (en) Display screen quality detection method, apparatus, electronic device and storage medium
Zhu et al. Modified densenet for automatic fabric defect detection with edge computing for minimizing latency
CN108537215B (zh) 一种基于图像目标检测的火焰检测方法
CN111754498B (zh) 一种基于YOLOv3的传送带托辊检测方法
CN110956126A (zh) 一种联合超分辨率重建的小目标检测方法
CN113361645B (zh) 基于元学习及知识记忆的目标检测模型构建方法及系统
CN111461212A (zh) 一种用于点云目标检测模型的压缩方法
CN110598698B (zh) 基于自适应区域建议网络的自然场景文本检测方法和系统
CN110321805B (zh) 一种基于时序关系推理的动态表情识别方法
CN112381788A (zh) 一种基于双分支匹配网络的零部件表面缺陷增量检测方法
CN111191546A (zh) 基于机器视觉识别的产品智能装配方法
CN110705412A (zh) 一种基于运动历史图像的视频目标检测方法
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
CN112233105A (zh) 一种基于改进fcn的道路裂缝检测方法
CN113763364B (zh) 一种基于卷积神经网络的图像缺陷检测方法
CN115861229A (zh) 一种基于YOLOv5s元器件封装缺陷X射线检测方法
CN114387553B (zh) 一种基于帧结构感知聚合的视频人脸识别方法
CN116129417A (zh) 一种基于低质量图像的数字仪表读数检测方法
CN115527089A (zh) 基于Yolo的目标检测模型训练方法及其应用和装置
CN112418208B (zh) 基于Tiny-YOLO v3的焊缝胶片字符识别方法
CN114283280A (zh) 一种基于改进卷积神经网络的水面漂浮垃圾识别方法
CN114758285A (zh) 基于锚自由和长时注意力感知的视频交互动作检测方法
Tan et al. An application of an improved FCOS algorithm in detection and recognition of industrial instruments
CN113378598A (zh) 一种基于深度学习的动态条码检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: No. 726, Building 1, Enterprise Innovation and Research Center, No. 10, Shuangren Road, Liuzhou, Guangxi Zhuang Autonomous Region, 545000

Applicant after: Guangxi Liuzhou United farming technology Co.,Ltd.

Address before: 545000 west of Xiangxing, Qingnian hui3-1, No.3, Tanzhong East Road, Liuzhou City, Guangxi Zhuang Autonomous Region

Applicant before: Guangxi Liuzhou United farming technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant