CN116597237A - 皮带启动检测方法、系统、存储介质及计算机 - Google Patents

皮带启动检测方法、系统、存储介质及计算机 Download PDF

Info

Publication number
CN116597237A
CN116597237A CN202310861567.7A CN202310861567A CN116597237A CN 116597237 A CN116597237 A CN 116597237A CN 202310861567 A CN202310861567 A CN 202310861567A CN 116597237 A CN116597237 A CN 116597237A
Authority
CN
China
Prior art keywords
classification
belt
image data
network model
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310861567.7A
Other languages
English (en)
Other versions
CN116597237B (zh
Inventor
冷坤
黄丽莉
陈源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangxi Xiaoma Robot Co ltd
Original Assignee
Jiangxi Xiaoma Robot Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangxi Xiaoma Robot Co ltd filed Critical Jiangxi Xiaoma Robot Co ltd
Priority to CN202310861567.7A priority Critical patent/CN116597237B/zh
Publication of CN116597237A publication Critical patent/CN116597237A/zh
Application granted granted Critical
Publication of CN116597237B publication Critical patent/CN116597237B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种皮带启动检测方法、系统、存储介质及计算机,该方法包括:根据实时采集皮带在启动及静止时的图像数据构建图像数据集;利用深度神经网络模型对图像数据进行分类识别得到分类结果;基于分类结果对深度神经网络模型进行误差设计得到分类网络模型;利用图像数据集对待检测图像进行特征匹配得到变换矩阵,并基于不同的场景调用不同的变换矩阵参数,利用变换矩阵参数和变换矩阵对分类网络模型进行模型训练得到分类识别模型;利用预录信息对待检测图像进行皮带区域截图处理,并将皮带区域截图输入分类识别模型得到识别结果。本发明利用深度神经网络模型的检测和皮带的状态识别,生成基于标准标注的增广标注数据,提高鲁棒性和准确性。

Description

皮带启动检测方法、系统、存储介质及计算机
技术领域
本发明涉及图像识别技术领域,特别涉及一种皮带启动检测方法、系统、存储介质及计算机。
背景技术
皮带启动的检测方法一直不被关注,通常都是通过人工的方式来判断皮带是否启动。但是通过摄像头等监控设备来自动识别皮带是否启动是更加简便的,它能够将皮带启动的信息与各项检测操作相互联动,构建智慧工厂系统。为了在实际情况下实现对皮带启动有效的检测,提高皮带启动算法的准确性,使用分类网络对皮带的运动状态进行检测,通过预设的区域直接识别图像中的皮带,判断皮带是否运动。使用基于深度学习的方法具有鲁棒性,准确性,简易性等优点。基于深度学习的网络模型训练,可以有效提高识别精度和速度。
皮带启动检测传统的检测方法可以采用帧差法来进行运动检测,但是该方法容易受到图像噪声的影响出现误检;现有的皮带启动识别技术大多采用传感器等方式识别,这些技术容易受到环境因素的影响,例如工厂灰尘过大等,从而导致识别不准确;现有的皮带启动识别技术存在可靠性不高,启动识别成功率并不高;现有的皮带启动识别技术成本较高,需要使用高精度的传感器进行识别。
发明内容
基于此,本发明的目的是提供一种皮带启动检测方法、系统、存储介质及计算机,以至少解决上述相关技术中的不足。
本发明提出一种皮带启动检测方法,包括:
实时采集皮带在启动及静止时的图像数据,并根据所述图像数据构建图像数据集;
构建深度神经网络模型,并利用所述深度神经网络模型对所述图像数据进行分类识别,以得到对应的分类结果;
基于所述分类结果对所述深度神经网络模型进行误差设计,以得到分类网络模型;
利用所述图像数据集对待检测图像进行特征匹配得到变换矩阵,并基于不同的场景调用不同的变换矩阵参数,利用所述变换矩阵参数和所述变换矩阵对所述分类网络模型进行模型训练,以得到分类识别模型;
读取预录信息,并利用所述预录信息对所述待检测图像进行皮带区域截图处理,并将所得到的皮带区域截图输入所述分类识别模型,以得到所述待检测图像对应的识别结果。
进一步的,实时采集皮带在启动及静止时的图像数据,并根据所述图像数据构建图像数据集的步骤包括:
实时获取图像传感器所采集的皮带在启动及静止时的图像数据,并将所述图像数据作为测试集;
基于所述图像传感器的位置信息和所述皮带的位置对所述皮带进行人工图像采集,并利用人工图像采集所得到的人工图像数据构建训练集;
对所述训练集进行数据增强,并根据数据增强后的训练集和所述测试集进行分类构建,以得到图像数据集。
进一步的,构建深度神经网络模型的步骤包括:
选用yolov3-tiny目标检测框架的主干网络,并在所述主干网络中添加全连接层以及分类层;
对所述主干网络进行训练,输出所述皮带在启动及静止的回归参数,并将所述回归参数重新参与到所述主干网络的训练过程,以生成所述深度神经网络模型。
进一步的,基于所述分类结果对所述深度神经网络模型进行误差设计,以得到分类网络模型的步骤包括:
利用所述深度神经网络模型输出所述分类结果的分类置信度;
将所述分类置信度小于预设阈值的分类结果进行反转,以得到所述分类网络模型。
本发明还提出一种皮带启动检测系统,包括:
图像采集模块,用于实时采集皮带在启动及静止时的图像数据,并根据所述图像数据构建图像数据集;
分类识别模块,用于构建深度神经网络模型,并利用所述深度神经网络模型对所述图像数据进行分类识别,以得到对应的分类结果;
误差设计模块,用于基于所述分类结果对所述深度神经网络模型进行误差设计,以得到分类网络模型;
模型训练模块,用于利用所述图像数据集对待检测图像进行特征匹配得到变换矩阵,并基于不同的场景调用不同的变换矩阵参数,利用所述变换矩阵参数和所述变换矩阵对所述分类网络模型进行模型训练,以得到分类识别模型;
识别检测模块,用于读取预录信息,并利用所述预录信息对所述待检测图像进行皮带区域截图处理,并将所得到的皮带区域截图输入所述分类识别模型,以得到所述待检测图像对应的识别结果。
进一步的,所述图像采集模块包括:
测试集构建单元,用于实时获取图像传感器所采集的皮带在启动及静止时的图像数据,并将所述图像数据作为测试集;
训练集构建单元,用于基于所述图像传感器的位置信息和所述皮带的位置对所述皮带进行人工图像采集,并利用人工图像采集所得到的人工图像数据构建训练集;
数据增强单元,用于对所述训练集进行数据增强,并根据数据增强后的训练集和所述测试集进行分类构建,以得到图像数据集。
进一步的,所述分类识别模块包括:
模型生成单元,用于选用yolov3-tiny目标检测框架的主干网络,并在所述主干网络中添加全连接层以及分类层;
模型训练单元,用于对所述主干网络进行训练,输出所述皮带在启动及静止的回归参数,并将所述回归参数重新参与到所述主干网络的训练过程,以生成所述深度神经网络模型。
进一步的,所述误差设计模块包括:
置信度计算单元,用于利用所述深度神经网络模型输出所述分类结果的分类置信度;
模型构建单元,用于将所述分类置信度小于预设阈值的分类结果进行反转,以得到所述分类网络模型。
本发明还提出一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述的皮带启动检测方法。
本发明还提出一种计算机,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述的皮带启动检测方法。
与现有技术相比,本发明的有益效果是:实时采集皮带在启动及静止时的图像数据构建图像数据集,极大的提高了检测速度与实时性,并运用深度神经网络对图像数据进行分类识别,根据所得到的分类结果构建分类网络模型;利用图像数据集对待检测图像进行特征匹配,基于不同的变换矩阵参数和变换矩阵对分类网络模型进行模型训练,利用训练后的模型和待检测图像进行处理,从而得到对应的识别结果,将传统的皮带启动问题转换为一个二分类问题,并利用深度网络模型的检测和皮带的状态识别,避免在皮带上安装各种高精度传感器,节约了成本让皮带运行更加安全稳定,同时生成基于标准标注的增广标注数据,提高鲁棒性、准确性和易用性。
附图说明
图1为本发明第一实施例中皮带启动检测方法的流程图;
图2为图1中步骤S101的详细流程图;
图3为图1中步骤S102的详细流程图;
图4为图1中步骤S103的详细流程图;
图5为本发明第二实施例中皮带启动检测系统的结构框图;
图6为本发明第三实施例中计算机的结构框图。
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的若干实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
实施例一
请参阅图1,所示为本发明第一实施例中的皮带启动检测方法,所述方法具体包括步骤S101至S105:
S101,实时采集皮带在启动及静止时的图像数据,并根据所述图像数据构建图像数据集;
进一步的,请参阅图2,所述步骤S101具体包括步骤S1011~S1013:
S1011,实时获取图像传感器所采集的皮带在启动及静止时的图像数据,并将所述图像数据作为测试集;
S1012,基于所述图像传感器的位置信息和所述皮带的位置对所述皮带进行人工图像采集,并利用人工图像采集所得到的人工图像数据构建训练集;
S1013,对所述训练集进行数据增强,并根据数据增强后的训练集和所述测试集进行分类构建,以得到图像数据集。
在具体实施时,本实施例中的皮带启动检测方法是一个端到端的皮带启动识别网络,实时获取图像传感器所采集的皮带在启动及静止时的图像数据,鉴于皮带位置具有不变性,并且识别拍摄图片的图像传感器为固定摄像头,图片的拍摄角度可以保持不变,即以拍摄图片作为测试集,将所述图像数据作为测试集,以人工拍摄图像和视频为基础构建训练集,并对训练集进行数据增强,采用数据增广和多尺度处理,之后对数据进行分类构建,以得到图像数据集。
S102,构建深度神经网络模型,并利用所述深度神经网络模型对所述图像数据进行分类识别,以得到对应的分类结果;
进一步的,请参阅图3,所述步骤S102具体包括步骤S1021~S1022:
S1021,选用yolov3-tiny目标检测框架的主干网络,并在所述主干网络中添加全连接层以及分类层;
S1022,对所述主干网络进行训练,输出所述皮带在启动及静止的回归参数,并将所述回归参数重新参与到所述主干网络的训练过程,以生成所述深度神经网络模型。
在具体实施时,分类网络需要兼顾准确度与实时性,对数据进行训练的过程中,用yolov3-tiny目标检测框架的主干网络,并为其添加全连接层与分类层,在训练过程中softmax函数会输出皮带启动与皮带静止的回归参数,回归参数重新参与到训练中对模型的训练方向进行调整优化。最终darknet-tiny深度网络输出得到皮带启动的参数特征。
S103,基于所述分类结果对所述深度神经网络模型进行误差设计,以得到分类网络模型;
进一步的,请参阅图4,所述步骤S103具体包括步骤S1031~S1032:
S1031,利用所述深度神经网络模型输出所述分类结果的分类置信度;
S1032,将所述分类置信度小于预设阈值的分类结果进行反转,以得到所述分类网络模型。
在具体实施时,由于将皮带启动识别转换为一个二分类问题,因此误差设计主要包括class分类误差。深度神经网络返回检测的分类结果与分类置信度,并且为了保证识别的准确度将置信度低于预设阈值(在本实施例中,该预设阈值为0.5)的结果进行反转,为了保证识别的准确度,将得到的分类结果中置信度低于0.5的结果丢弃,高于0.5的结果输出为最终结果。
S104,利用所述图像数据集对待检测图像进行特征匹配得到变换矩阵,并基于不同的场景调用不同的变换矩阵参数,利用所述变换矩阵参数和所述变换矩阵对所述分类网络模型进行模型训练,以得到分类识别模型;
在具体实施时,将上述得到的模板图片(图像数据集)和待检测图像进行特征匹配计算变换矩阵,通用的变换矩阵使用透视仿射变换矩阵。同时根据不同的场景使用不同变换矩阵参数(例如:在固定倍率视角使用欧式距离变换计算计算视角偏移和旋转角度,之后将皮带矩形框中的截图送入分类网络进行识别),利用变换矩阵参数和变换矩阵对所述分类网络模型进行模型训练,以得到分类识别模型。
S105,读取预录信息,并利用所述预录信息对所述待检测图像进行皮带区域截图处理,并将所得到的皮带区域截图输入所述分类识别模型,以得到所述待检测图像对应的识别结果。
在具体实施时,读取预录信息,预录点位信息包含皮带矩形框,截取皮带区域(皮带矩形框)的图片送入上述的分类识别模型进行识别,以得到所述待检测图像对应的识别结果。
综上,本发明上述实施例当中的皮带启动检测方法,实时采集皮带在启动及静止时的图像数据构建图像数据集,极大的提高了检测速度与实时性,并运用深度神经网络对图像数据进行分类识别,根据所得到的分类结果构建分类网络模型;利用图像数据集对待检测图像进行特征匹配,基于不同的变换矩阵参数和变换矩阵对分类网络模型进行模型训练,利用训练后的模型和待检测图像进行处理,从而得到对应的识别结果,将传统的皮带启动问题转换为一个二分类问题,并利用深度网络模型的检测和皮带的状态识别,避免在皮带上安装各种高精度传感器,节约了成本让皮带运行更加安全稳定,同时生成基于标准标注的增广标注数据,提高鲁棒性、准确性和易用性。
实施例二
本发明另一方面还提出一种皮带启动检测系统,请参阅图5,所示为本发明第二实施例中的皮带启动检测系统,包括:
图像采集模块11,用于实时采集皮带在启动及静止时的图像数据,并根据所述图像数据构建图像数据集;
进一步的,所述图像采集模块11包括:
测试集构建单元,用于实时获取图像传感器所采集的皮带在启动及静止时的图像数据,并将所述图像数据作为测试集;
训练集构建单元,用于基于所述图像传感器的位置信息和所述皮带的位置对所述皮带进行人工图像采集,并利用人工图像采集所得到的人工图像数据构建训练集;
数据增强单元,用于对所述训练集进行数据增强,并根据数据增强后的训练集和所述测试集进行分类构建,以得到图像数据集。
分类识别模块12,用于构建深度神经网络模型,并利用所述深度神经网络模型对所述图像数据进行分类识别,以得到对应的分类结果;
进一步的,所述分类识别模块12包括:
模型生成单元,用于选用yolov3-tiny目标检测框架的主干网络,并在所述主干网络中添加全连接层以及分类层;
模型训练单元,用于对所述主干网络进行训练,输出所述皮带在启动及静止的回归参数,并将所述回归参数重新参与到所述主干网络的训练过程,以生成所述深度神经网络模型。
误差设计模块13,用于基于所述分类结果对所述深度神经网络模型进行误差设计,以得到分类网络模型;
进一步的,所述误差设计模块13包括:
置信度计算单元,用于利用所述深度神经网络模型输出所述分类结果的分类置信度;
模型构建单元,用于将所述分类置信度小于预设阈值的分类结果进行反转,以得到所述分类网络模型。
模型训练模块14,用于利用所述图像数据集对待检测图像进行特征匹配得到变换矩阵,并基于不同的场景调用不同的变换矩阵参数,利用所述变换矩阵参数和所述变换矩阵对所述分类网络模型进行模型训练,以得到分类识别模型;
识别检测模块15,用于读取预录信息,并利用所述预录信息对所述待检测图像进行皮带区域截图处理,并将所得到的皮带区域截图输入所述分类识别模型,以得到所述待检测图像对应的识别结果。
上述各模块、单元被执行时所实现的功能或操作步骤与上述方法实施例大体相同,在此不再赘述。
本发明实施例所提供的皮带启动检测系统,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,系统实施例部分未提及之处,可参考前述方法实施例中相应内容。
实施例三
本发明还提出一种计算机,请参阅图6,所示为本发明第三实施例中的计算机,包括存储器10、处理器20以及存储在所述存储器10上并可在所述处理器20上运行的计算机程序30,所述处理器20执行所述计算机程序30时实现上述的皮带启动检测方法。
其中,存储器10至少包括一种类型的存储介质,所述存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器10在一些实施例中可以是计算机的内部存储单元,例如该计算机的硬盘。存储器10在另一些实施例中也可以是外部存储装置,例如插接式硬盘,智能存储卡(Smart Media Card, SMC),安全数字(Secure Digital, SD)卡,闪存卡(Flash Card)等。进一步地,存储器10还可以既包括计算机的内部存储单元也包括外部存储装置。存储器10不仅可以用于存储安装于计算机的应用软件及各类数据,还可以用于暂时地存储已经输出或者将要输出的数据。
其中,处理器20在一些实施例中可以是电子控制单元 (Electronic ControlUnit,简称ECU,又称行车电脑)、中央处理器(Central Processing Unit, CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器10中存储的程序代码或处理数据,例如执行访问限制程序等。
需要指出的是,图6示出的结构并不构成对计算机的限定,在其它实施例当中,该计算机可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
本发明实施例还提出一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述的皮带启动检测方法。
本领域技术人员可以理解,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机存储介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机存储介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
计算机存储介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机存储介质甚至可以是可在其上打印所述程序的纸或其他合适的存储介质,因为可以例如通过对纸或其他存储介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或它们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种皮带启动检测方法,其特征在于,包括:
实时采集皮带在启动及静止时的图像数据,并根据所述图像数据构建图像数据集;
构建深度神经网络模型,并利用所述深度神经网络模型对所述图像数据进行分类识别,以得到对应的分类结果;
基于所述分类结果对所述深度神经网络模型进行误差设计,以得到分类网络模型;
利用所述图像数据集对待检测图像进行特征匹配得到变换矩阵,并基于不同的场景调用不同的变换矩阵参数,利用所述变换矩阵参数和所述变换矩阵对所述分类网络模型进行模型训练,以得到分类识别模型;
读取预录信息,并利用所述预录信息对所述待检测图像进行皮带区域截图处理,并将所得到的皮带区域截图输入所述分类识别模型,以得到所述待检测图像对应的识别结果。
2.根据权利要求1所述的皮带启动检测方法,其特征在于,实时采集皮带在启动及静止时的图像数据,并根据所述图像数据构建图像数据集的步骤包括:
实时获取图像传感器所采集的皮带在启动及静止时的图像数据,并将所述图像数据作为测试集;
基于所述图像传感器的位置信息和所述皮带的位置对所述皮带进行人工图像采集,并利用人工图像采集所得到的人工图像数据构建训练集;
对所述训练集进行数据增强,并根据数据增强后的训练集和所述测试集进行分类构建,以得到图像数据集。
3.根据权利要求1所述的皮带启动检测方法,其特征在于,构建深度神经网络模型的步骤包括:
选用yolov3-tiny目标检测框架的主干网络,并在所述主干网络中添加全连接层以及分类层;
对所述主干网络进行训练,输出所述皮带在启动及静止的回归参数,并将所述回归参数重新参与到所述主干网络的训练过程,以生成所述深度神经网络模型。
4.根据权利要求1所述的皮带启动检测方法,其特征在于,基于所述分类结果对所述深度神经网络模型进行误差设计,以得到分类网络模型的步骤包括:
利用所述深度神经网络模型输出所述分类结果的分类置信度;
将所述分类置信度小于预设阈值的分类结果进行反转,以得到所述分类网络模型。
5.一种皮带启动检测系统,其特征在于,包括:
图像采集模块,用于实时采集皮带在启动及静止时的图像数据,并根据所述图像数据构建图像数据集;
分类识别模块,用于构建深度神经网络模型,并利用所述深度神经网络模型对所述图像数据进行分类识别,以得到对应的分类结果;
误差设计模块,用于基于所述分类结果对所述深度神经网络模型进行误差设计,以得到分类网络模型;
模型训练模块,用于利用所述图像数据集对待检测图像进行特征匹配得到变换矩阵,并基于不同的场景调用不同的变换矩阵参数,利用所述变换矩阵参数和所述变换矩阵对所述分类网络模型进行模型训练,以得到分类识别模型;
识别检测模块,用于读取预录信息,并利用所述预录信息对所述待检测图像进行皮带区域截图处理,并将所得到的皮带区域截图输入所述分类识别模型,以得到所述待检测图像对应的识别结果。
6.根据权利要求5所述的皮带启动检测系统,其特征在于,所述图像采集模块包括:
测试集构建单元,用于实时获取图像传感器所采集的皮带在启动及静止时的图像数据,并将所述图像数据作为测试集;
训练集构建单元,用于基于所述图像传感器的位置信息和所述皮带的位置对所述皮带进行人工图像采集,并利用人工图像采集所得到的人工图像数据构建训练集;
数据增强单元,用于对所述训练集进行数据增强,并根据数据增强后的训练集和所述测试集进行分类构建,以得到图像数据集。
7.根据权利要求5所述的皮带启动检测系统,其特征在于,所述分类识别模块包括:
模型生成单元,用于选用yolov3-tiny目标检测框架的主干网络,并在所述主干网络中添加全连接层以及分类层;
模型训练单元,用于对所述主干网络进行训练,输出所述皮带在启动及静止的回归参数,并将所述回归参数重新参与到所述主干网络的训练过程,以生成所述深度神经网络模型。
8.根据权利要求5所述的皮带启动检测系统,其特征在于,所述误差设计模块包括:
置信度计算单元,用于利用所述深度神经网络模型输出所述分类结果的分类置信度;
模型构建单元,用于将所述分类置信度小于预设阈值的分类结果进行反转,以得到所述分类网络模型。
9.一种存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至4任一所述的皮带启动检测方法。
10.一种计算机,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4任一所述的皮带启动检测方法。
CN202310861567.7A 2023-07-14 2023-07-14 皮带启动检测方法、系统、存储介质及计算机 Active CN116597237B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310861567.7A CN116597237B (zh) 2023-07-14 2023-07-14 皮带启动检测方法、系统、存储介质及计算机

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310861567.7A CN116597237B (zh) 2023-07-14 2023-07-14 皮带启动检测方法、系统、存储介质及计算机

Publications (2)

Publication Number Publication Date
CN116597237A true CN116597237A (zh) 2023-08-15
CN116597237B CN116597237B (zh) 2023-11-21

Family

ID=87608397

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310861567.7A Active CN116597237B (zh) 2023-07-14 2023-07-14 皮带启动检测方法、系统、存储介质及计算机

Country Status (1)

Country Link
CN (1) CN116597237B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107808132A (zh) * 2017-10-23 2018-03-16 重庆邮电大学 一种融合主题模型的场景图像分类方法
CN108154118A (zh) * 2017-12-25 2018-06-12 北京航空航天大学 一种基于自适应组合滤波与多级检测的目标探测系统及方法
EP3417311A1 (en) * 2016-04-29 2018-12-26 Aselsan Elektronik Sanayi ve Ticaret Anonim Sirketi A method for motion classification using a pulsed radar system
CN113515983A (zh) * 2020-06-19 2021-10-19 阿里巴巴集团控股有限公司 模型训练方法、移动对象识别方法、装置及设备
CN115685102A (zh) * 2022-09-21 2023-02-03 连云港杰瑞电子有限公司 一种基于目标跟踪的雷视自动标定方法
CN116229336A (zh) * 2023-05-10 2023-06-06 江西云眼视界科技股份有限公司 视频移动目标识别方法、系统、存储介质及计算机

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3417311A1 (en) * 2016-04-29 2018-12-26 Aselsan Elektronik Sanayi ve Ticaret Anonim Sirketi A method for motion classification using a pulsed radar system
CN107808132A (zh) * 2017-10-23 2018-03-16 重庆邮电大学 一种融合主题模型的场景图像分类方法
CN108154118A (zh) * 2017-12-25 2018-06-12 北京航空航天大学 一种基于自适应组合滤波与多级检测的目标探测系统及方法
CN113515983A (zh) * 2020-06-19 2021-10-19 阿里巴巴集团控股有限公司 模型训练方法、移动对象识别方法、装置及设备
CN115685102A (zh) * 2022-09-21 2023-02-03 连云港杰瑞电子有限公司 一种基于目标跟踪的雷视自动标定方法
CN116229336A (zh) * 2023-05-10 2023-06-06 江西云眼视界科技股份有限公司 视频移动目标识别方法、系统、存储介质及计算机

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DANIEL SILVA-PALACIOS ET AL.: "Improving Performance of Multiclass Classification by Inducing Class Hierarchies", PROCEDIA COMPUTER SCIENCE, pages 1692 - 1701 *
贺波涛: "全景视频生成及目标对象检索关键技术研究", 中国博士学位论文全文数据库信息科技辑, vol. 2019, no. 05, pages 138 - 50 *

Also Published As

Publication number Publication date
CN116597237B (zh) 2023-11-21

Similar Documents

Publication Publication Date Title
CN109727275B (zh) 目标检测方法、装置、系统和计算机可读存储介质
CN108875731B (zh) 目标识别方法、装置、系统及存储介质
US20040136592A1 (en) Human eye detection method, apparatus, system and storage medium
CN110287936B (zh) 图像检测方法、装置、设备及存储介质
EP2591460A1 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
CN110969045B (zh) 一种行为检测方法、装置、电子设备和存储介质
CN108830261B (zh) 基于图像识别的设备故障诊断方法和装置
JP2019075097A (ja) ドライバ支援システムの特徴に基づく周辺情報のデータ低減方法および装置
CN112052907A (zh) 基于图像边缘信息的目标检测方法、装置及存储介质
CN115294510A (zh) 一种网络训练及识别方法、装置、电子设备和介质
CN116597237B (zh) 皮带启动检测方法、系统、存储介质及计算机
CN112287905A (zh) 车辆损伤识别方法、装置、设备及存储介质
CN110648314B (zh) 一种识别翻拍图像的方法、装置及设备
CN113139924A (zh) 图像增强方法、电子设备及存储介质
CN113743434A (zh) 一种目标检测网络的训练方法、图像增广方法及装置
CN113592761A (zh) 存储介质、走线检测装置、走线检测模型训练装置及方法
US20220122341A1 (en) Target detection method and apparatus, electronic device, and computer storage medium
CN116189109A (zh) 模型训练方法、道路事件检测方法、装置及相关设备
US10977527B2 (en) Method and apparatus for detecting door image by using machine learning algorithm
CN115223173A (zh) 对象识别方法、装置、电子设备及存储介质
CN115271055A (zh) 一种神经网络软硬件协同检测方法、装置、设备及存储介质
CN116170682A (zh) 图像采集装置、方法及电子设备
CN115346143A (zh) 行为检测方法、电子设备、计算机可读介质
CN112270257A (zh) 一种运动轨迹确定方法、装置及计算机可读存储介质
CN112883973A (zh) 车牌识别方法、装置、电子设备和计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant