CN117710374B - 基于深度学习的跑冒滴漏检测方法、装置、设备及介质 - Google Patents

基于深度学习的跑冒滴漏检测方法、装置、设备及介质 Download PDF

Info

Publication number
CN117710374B
CN117710374B CN202410163694.4A CN202410163694A CN117710374B CN 117710374 B CN117710374 B CN 117710374B CN 202410163694 A CN202410163694 A CN 202410163694A CN 117710374 B CN117710374 B CN 117710374B
Authority
CN
China
Prior art keywords
data
running
video stream
target detection
leaking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410163694.4A
Other languages
English (en)
Other versions
CN117710374A (zh
Inventor
张绍营
颜波
杨志
刘洪波
李春
马俊
宋海鸿
仲莹
陈建军
陈松茂
王超
胡文俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Oilfield Services Ltd
Original Assignee
China Oilfield Services Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Oilfield Services Ltd filed Critical China Oilfield Services Ltd
Priority to CN202410163694.4A priority Critical patent/CN117710374B/zh
Publication of CN117710374A publication Critical patent/CN117710374A/zh
Application granted granted Critical
Publication of CN117710374B publication Critical patent/CN117710374B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的跑冒滴漏检测方法、装置、设备及介质,涉及计算机视觉领域,其中,该方法包括:采集油田作业现场的视频流数据,利用视频流数据中各个帧的图像数据构建跑冒滴漏数据集;依据跑冒滴漏数据集,对基于深度学习的初始跑冒滴漏目标检测模型进行训练和优化,得到经过训练的跑冒滴漏目标检测模型;将待检测视频流数据中各个帧的图像数据输入至经过训练的跑冒滴漏目标检测模型进行目标检测,得到其各个帧的检测数据;根据各个帧的检测数据,计算其相邻帧对应的阀门区域之间的汉明距离;依据汉明距离判断是否发生跑冒滴漏情况,并对判断结果进行存储。本发明有效地提高了跑冒滴漏检测的准确性和检测效率。

Description

基于深度学习的跑冒滴漏检测方法、装置、设备及介质
技术领域
本发明涉及计算机视觉领域,具体涉及基于深度学习的跑冒滴漏检测方法、装置、设备及介质。
背景技术
随着计算机硬件的不断升级和人工智能技术的发展,在油田安全生产领域,计算机视觉技术已经取得了令人瞩目的成果,使用目标检测、目标跟踪、姿态估计等计算机视觉技术对现场视频进行实时分析,对作业现场出现的异常违章行为、不安全行为等进行自动判别,有效代替了传统的人工监控方式,提高了现场的安全性和监管效率。
跑冒滴漏是海洋钻井平台存放、船舶和输油管道运输过程中,因管理不善及操作不当而产生跑气、冒水、滴液、漏液的现象。近年来,跑冒滴漏事故频繁,给海洋环境、生物及人类健康和海面活动带来了较大的危害。如何在发生跑冒滴漏事故后第一时间控制并解决,将造成的损失和污染降至最低是目前迫切需要解决的问题。
目前,目标检测和实例分割技术在漏油检测中已经取得了一定的成果。其中,目标检测技术可以用于检测跑冒滴漏的位置和大小,其通过分析图像或视频中的像素信息,识别出跑冒滴漏区域,并给出跑冒滴漏的位置和边界框。实例分割技术通过将跑冒滴漏区域与其他物体进行分割,能够更精准地检测跑冒滴漏,并给出每个像素属于跑冒滴漏的概率。工业环境下跑冒滴漏可能发生在复杂的背景和光照条件下,使得漏油检测具有场景复杂等特点。然而,现有的目标检测和实例分割技术针对复杂场景下的跑冒滴漏检测存在着准确性较差等问题。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的基于深度学习的跑冒滴漏检测方法、装置、设备及介质。
根据本申请实施例的一个方面,提供了一种基于深度学习的跑冒滴漏检测方法,该方法包括:
采集油田作业现场的视频流数据,利用视频流数据中各个帧的图像数据,构建跑冒滴漏数据集;
依据跑冒滴漏数据集,对预先构建的基于深度学习的初始跑冒滴漏目标检测模型进行训练和优化,得到经过训练的跑冒滴漏目标检测模型;
将油田作业现场的待检测视频流数据中各个帧的图像数据输入至经过训练的跑冒滴漏目标检测模型进行目标检测,得到待检测视频流数据的各个帧的检测数据;
根据待检测视频流数据的各个帧的检测数据,计算待检测视频流数据的相邻帧对应的阀门区域之间的汉明距离;
依据汉明距离,判断是否发生跑冒滴漏情况,并对判断结果进行存储。
进一步地,利用视频流数据中各个帧的图像数据,构建跑冒滴漏数据集进一步包括:
对视频流数据进行分帧处理,得到视频流数据中各个帧的图像数据;
对视频流数据中各个帧的图像数据中的阀门区域进行标定,得到各个图像数据对应的标签数据;
将各个图像数据以及各个图像数据对应的标签数据作为样本数据,添加至跑冒滴漏数据集。
进一步地,在依据跑冒滴漏数据集,对预先构建的基于深度学习的初始跑冒滴漏目标检测模型进行训练和优化,得到经过训练的跑冒滴漏目标检测模型之前,该方法还包括:
在PyTorch框架下,构建基于YOLOv5的初始跑冒滴漏目标检测模型;其中,初始跑冒滴漏目标检测模型包括:主干网络、颈部网络以及分类网络;
主干网络用于:提取输入的图像数据的多个维度的特征;
颈部网络用于:对多个维度的特征进行融合处理,得到图像融合特征;
分类网络用于:利用损失函数对图像融合特征进行分类和回归处理,得到对应的检测数据。
进一步地,依据跑冒滴漏数据集,对预先构建的基于深度学习的初始跑冒滴漏目标检测模型进行训练和优化,得到经过训练的跑冒滴漏目标检测模型进一步包括:
按照预设样本比例,将跑冒滴漏数据集划分为训练集和测试集;
设置初始跑冒滴漏目标检测模型的网络训练参数;其中,网络训练参数包括:最大迭代次数、学习率、动量以及权重衰减;
利用训练集中的样本数据,对初始跑冒滴漏目标检测模型进行训练,调整初始跑冒滴漏目标检测模型的模型参数,直至满足迭代结束条件,得到经过训练的跑冒滴漏目标检测模型;
利用测试集中的样本数据,对经过训练的跑冒滴漏目标检测模型进行测试。
进一步地,根据待检测视频流数据的各个帧的检测数据,计算待检测视频流数据的相邻帧对应的阀门区域之间的汉明距离进一步包括:
针对相邻的任两帧,根据该两帧的检测数据中的阀门区域检测数据,通过感知哈希算法计算该两帧对应的阀门区域之间的汉明距离。
进一步地,阀门区域检测数据包括:阀门的包围框以及阀门的坐标信息。
进一步地,依据汉明距离,判断是否发生跑冒滴漏情况进一步包括:
判断汉明距离是否大于预设判别阈值;
若是,则得到发生跑冒滴漏情况的判断结果;若否,则得到未发生跑冒滴漏情况的判断结果。
根据本申请实施例的另一方面,提供了一种基于深度学习的跑冒滴漏检测装置,该装置包括:
数据构建模块,适于采集油田作业现场的视频流数据,利用视频流数据中各个帧的图像数据,构建跑冒滴漏数据集;
训练优化模块,适于依据跑冒滴漏数据集,对预先构建的基于深度学习的初始跑冒滴漏目标检测模型进行训练和优化,得到经过训练的跑冒滴漏目标检测模型;
检测模块,适于将油田作业现场的待检测视频流数据中各个帧的图像数据输入至经过训练的跑冒滴漏目标检测模型进行目标检测,得到待检测视频流数据的各个帧的检测数据;
计算模块,适于根据待检测视频流数据的各个帧的检测数据,计算待检测视频流数据的相邻帧对应的阀门区域之间的汉明距离;
判断模块,适于依据汉明距离,判断是否发生跑冒滴漏情况,并对判断结果进行存储。
根据本申请实施例的又一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,处理器、存储器和通信接口通过通信总线完成相互间的通信;
存储器用于存放至少一可执行指令,可执行指令使处理器执行上述基于深度学习的跑冒滴漏检测方法对应的操作。
根据本申请实施例的再一方面,提供了一种计算机存储介质,计算机存储介质中存储有至少一可执行指令,可执行指令使处理器执行如上述基于深度学习的跑冒滴漏检测方法对应的操作。
根据本发明提供的技术方案,通过对采集到的油田作业现场的视频流数据中各个帧的图像数据进行处理,便捷地实现了跑冒滴漏数据集的构建;将深度学习方法引入至跑冒滴漏检测中,构建了基于深度学习的初始跑冒滴漏目标检测模型,并依据跑冒滴漏数据集对其进行训练和优化,具有任务统一、易于训练、便于优化等优势,且无需人工手动设计特征提取算法,不仅能够自动地进行特征提取,而且能够学习到更丰富的特征表示,更好地捕捉漏油的复杂特征,有效地提高了跑冒滴漏检测的准确性和召回率,另外,模型复杂度较高,可以更好地处理复杂的漏油情况;利用经过训练的跑冒滴漏目标检测模型对油田作业现场的待检测视频流数据中各个帧的图像数据进行目标检测,实现了对阀门区域情况的精准检测;依据检测数据计算待检测视频流数据的相邻帧对应的阀门区域之间的汉明距离,进而根据汉明距离能够精准、便捷地判断是否发生跑冒滴漏情况,有效地提高了跑冒滴漏检测的准确性和检测效率,极大地提升了油田作业现场管理效率,减少了人力物力成本,优化了油田作业现场管理方式。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本申请一个实施例的基于深度学习的跑冒滴漏检测方法的流程示意图;
图2示出了基于深度学习的初始跑冒滴漏目标检测模型的模型结构示意图;
图3示出了根据本申请一个实施例的基于深度学习的跑冒滴漏检测装置的结构框图;
图4示出了根据本申请一个实施例的一种计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
首先,对本申请一个或多个实施例涉及的名词术语进行解释。
跑冒滴漏:是指在工业生产过程中,液体或气体从管道或设备中泄漏或溢出的现象。跑冒滴漏检测是指通过分析图像或视频数据,检测出可能存在的跑冒滴漏情况,以便及时采取措施以防止事故发生。
目标检测:是计算机视觉领域的一项重要任务,其目标是在图像或视频中准确地定位和识别出感兴趣的物体。常用的目标检测算法包括基于深度学习的方法,如Faster R-CNN、YOLO等。
YOLOv5:是一种基于深度学习的物体检测模型,通过将图像分割成多个网格,并使用卷积神经网络来预测每个网格中是否存在物体,以及物体的位置和类别等。YOLOv5模型具有高效的实时目标检测能力,能够在图像中同时检测多个物体。
LabelImg:是一种图像标注工具,标签可用于分类和目标检测,方便进行深度学习训练。
PyTorch:是基于Torch开发的一个开源的Python机器学习库,其提供了强大的GPU加速的张量计算以及自动求导系统的深层神经网络。
YOLOv5l:是YOLOv5系列中一个较大的模型,其中,“l”代表“large”(大),它在模型尺寸和输入图像分辨率方面更大。YOLOv5l模型的准确度相对较高,适用于需要较高准确度,且具有较强计算能力的设备。
图1示出了根据本申请一个实施例的基于深度学习的跑冒滴漏检测方法的流程示意图,如图1所示,该方法包括如下步骤:
步骤S101,采集油田作业现场的视频流数据,利用视频流数据中各个帧的图像数据,构建跑冒滴漏数据集。
考虑到漏油检测具有场景复杂的特点,为了能够有效提高针对复杂场景下的跑冒滴漏检测的准确性,在本申请中使用基于深度学习的方法来进行跑冒滴漏检测。其中,使用深层神经网络模型(例如YOLOv5等)作为跑冒滴漏目标检测模型,能够自动学习特征,无需人工手动设计特征提取算法,例如提取颜色、纹理、形状等特征,与依赖于领域知识和经验而手动设计的特征提取算法相比,能够学习到更丰富的特征表示,更好地捕捉漏油的复杂特征,有效地提高了跑冒滴漏检测的准确性和召回率。并且,深层神经网络模型的模型复杂度较高,可以更好地处理复杂的漏油情况。
在本申请实施例中,可通过在油田作业现场安装的摄像头等采集设备对油田作业现场进行拍摄,采集形成油田作业现场的视频流数据,接着利用视频流数据中各个帧的图像数据来构建跑冒滴漏数据集,以便用于对基于深度学习的初始跑冒滴漏目标检测模型进行训练和优化。
具体地,对视频流数据进行分帧处理,得到视频流数据中各个帧的图像数据,接着对视频流数据中各个帧的图像数据中的阀门区域进行标定,得到各个图像数据对应的标签数据。考虑到跑冒滴漏情况一般发生在阀门附近,那么可将阀门作为目标,利用LabelImg工具对各个帧的图像数据中的阀门区域进行标定,从而得到各个图像数据对应的标签数据。在完成标定得到了各个图像数据对应的标签数据之后,可将各个图像数据以及各个图像数据对应的标签数据作为样本数据,添加至跑冒滴漏数据集,从而完成对跑冒滴漏数据集的构建。
步骤S102,依据跑冒滴漏数据集,对预先构建的基于深度学习的初始跑冒滴漏目标检测模型进行训练和优化,得到经过训练的跑冒滴漏目标检测模型。
可以在PyTorch框架下,构建基于YOLOv5的初始跑冒滴漏目标检测模型,具体地,可基于YOLOv5l来构建初始跑冒滴漏目标检测模型,有助于获得更高的检测准确性。在本申请中,为了便于区分,将未经过训练的用于检测跑冒滴漏目标的模型称为初始跑冒滴漏目标检测模型,将经过训练的用于检测跑冒滴漏目标的模型称为经过训练的跑冒滴漏目标检测模型。
图2示出了基于深度学习的初始跑冒滴漏目标检测模型的模型结构示意图,如图2所示,初始跑冒滴漏目标检测模型可包括:主干网络210、颈部网络220以及分类网络230。其中,主干网络210用于:提取输入的图像数据的多个维度的特征。颈部网络220用于:对多个维度的特征进行融合处理,得到图像融合特征。通过颈部网络220能够提高模型的准确性和鲁棒性。分类网络230用于:利用损失函数对图像融合特征进行分类和回归处理,得到对应的检测数据。分类网络230可以利用损失函数对图像融合特征和疑似阀门区域的聚合信息进行分类和回归,得到检测到的类别、坐标信息等检测数据。
在完成了跑冒滴漏数据集和初始跑冒滴漏目标检测模型的构建之后,即可依据跑冒滴漏数据集对初始跑冒滴漏目标检测模型进行训练和优化。其中,可按照预设样本比例,将跑冒滴漏数据集划分为训练集和测试集。本领域技术人员可根据实际需要设置预设样本比例,此处不做具体限定。例如可随机地将跑冒滴漏数据集中的80%的样本数据划分至训练集,将20%的样本数据划分至测试集。为了便于进行模型训练,还需设置初始跑冒滴漏目标检测模型的网络训练参数,其中,网络训练参数包括:最大迭代次数、学习率、动量以及权重衰减等。例如,可将最大迭代次数设置为200;学习率初始化为0.001,在第10轮迭代时将其降低到0.0001,在第50轮迭代时将其降低到0.00001;动量设置为0.9;权重衰减设置为0.0001;初始跑冒滴漏目标检测模型的模型文件可使用yolov5l.pt。
利用训练集中的样本数据,对初始跑冒滴漏目标检测模型进行训练,调整初始跑冒滴漏目标检测模型的模型参数,直至满足迭代结束条件,得到经过训练的跑冒滴漏目标检测模型。其中,可从训练集中选择样本数据,将样本数据中的图像数据输入至初始跑冒滴漏目标检测模型进行训练,得到该样本数据对应的初始检测数据;根据该样本数据对应的初始检测数据和该样本数据中的图像数据对应的标签数据,调整初始跑冒滴漏目标检测模型的模型参数;循环迭代执行上述步骤,直至满足迭代结束条件,得到经过训练的跑冒滴漏目标检测模型。具体地,可根据损失函数计算该样本数据对应的初始检测数据和该样本数据中的图像数据对应的标签数据之间的损失,而后进行反向传播(back propagation)运算,通过运算结果调整初始跑冒滴漏目标检测模型的模型参数。迭代结束条件可包括:迭代次数达到所设置的最大迭代次数;和/或,损失函数的输出值小于损失阈值。那么可以通过判断迭代次数是否达到所设置的最大迭代次数来判断是否满足迭代结束条件,也可以根据损失函数的输出值是否小于损失阈值来判断是否满足迭代结束条件。在满足迭代结束条件之后,停止迭代处理,从而得到经过训练的跑冒滴漏目标检测模型。
通常情况下,会进行多次训练,得到多个经过训练的跑冒滴漏目标检测模型,从多个经过训练的跑冒滴漏目标检测模型中选择训练结果最优的模型作为最终的经过训练的跑冒滴漏目标检测模型。例如,可利用测试集中的样本数据,对经过训练的跑冒滴漏目标检测模型进行测试,从中选择检测准确性等训练结果最优的跑冒滴漏目标检测模型作为最终的经过训练的跑冒滴漏目标检测模型。
步骤S103,将油田作业现场的待检测视频流数据中各个帧的图像数据输入至经过训练的跑冒滴漏目标检测模型进行目标检测,得到待检测视频流数据的各个帧的检测数据。
在完成模型训练之后,即可利用模型对油田作业现场的待检测视频流数据进行跑冒滴漏目标(例如阀门等)检测。对待检测视频流数据进行分帧处理,得到待检测视频流数据中各个帧的图像数据,然后将待检测视频流数据中各个帧的图像数据输入至经过训练的跑冒滴漏目标检测模型中进行目标检测,例如检测图像数据中是否包括阀门、阀门的位置等,从而得到待检测视频流数据的各个帧的检测数据。
步骤S104,根据待检测视频流数据的各个帧的检测数据,计算待检测视频流数据的相邻帧对应的阀门区域之间的汉明距离。
其中,检测数据可包括阀门区域检测数据,阀门区域检测数据可包括阀门的包围框以及阀门的坐标信息等。在步骤S104中,针对相邻的任两帧,可根据该两帧的检测数据中的阀门区域检测数据,通过感知哈希算法计算该两帧对应的阀门区域之间的汉明距离。具体地,根据该两帧的检测数据中的阀门区域检测数据定位该两帧的图像数据中的阀门区域的位置;接着依据感知哈希算法,通过图像数据中阀门区域中的每个像素的灰度值和均值,计算图像数据中阀门区域的哈希值,所得到的哈希值的位数可为64位等;然后通过比较相邻的两个帧的图像数据中阀门区域的哈希值中多少位不相同,得到该两帧对应的阀门区域之间的汉明距离,汉明距离表示两个等长字符串在对应位置上不同字符的数目。
步骤S105,依据汉明距离,判断是否发生跑冒滴漏情况,并对判断结果进行存储。
具体地,判断汉明距离是否大于预设判别阈值;若是,说明相邻帧在阀门区域发生了较大变化,则判定发生了跑冒滴漏情况,得到发生跑冒滴漏情况的判断结果;若否,说明相邻帧在阀门区域没有发生较大变化,则判定未发生跑冒滴漏情况,得到未发生跑冒滴漏情况的判断结果。
为了便于监管人员查看与处理,可以对待检测视频流数据的各个帧的检测数据以及判断结果进行存储并可视化展示,以便及时对油田作业现场的跑冒滴漏情况进行修复。
根据本申请实施例提供的基于深度学习的跑冒滴漏检测方法,通过对采集到的油田作业现场的视频流数据中各个帧的图像数据进行处理,便捷地实现了跑冒滴漏数据集的构建;将深度学习方法引入至跑冒滴漏检测中,构建了基于深度学习的初始跑冒滴漏目标检测模型,并依据跑冒滴漏数据集对其进行训练和优化,具有任务统一、易于训练、便于优化等优势,且无需人工手动设计特征提取算法,不仅能够自动地进行特征提取,而且能够学习到更丰富的特征表示,更好地捕捉漏油的复杂特征,有效地提高了跑冒滴漏检测的准确性和召回率,另外,模型复杂度较高,可以更好地处理复杂的漏油情况;利用经过训练的跑冒滴漏目标检测模型对油田作业现场的待检测视频流数据中各个帧的图像数据进行目标检测,实现了对阀门区域情况的精准检测;依据检测数据计算待检测视频流数据的相邻帧对应的阀门区域之间的汉明距离,进而根据汉明距离能够精准、便捷地判断是否发生跑冒滴漏情况,有效地提高了跑冒滴漏检测的准确性和检测效率,极大地提升了油田作业现场管理效率,减少了人力物力成本,优化了油田作业现场管理方式。
图3示出了根据本申请一个实施例的基于深度学习的跑冒滴漏检测装置的结构框图,如图3所示,该装置包括:数据构建模块310、训练优化模块320、检测模块330、计算模块340以及判断模块350。
数据构建模块310适于:采集油田作业现场的视频流数据,利用视频流数据中各个帧的图像数据,构建跑冒滴漏数据集。
训练优化模块320适于:依据跑冒滴漏数据集,对预先构建的基于深度学习的初始跑冒滴漏目标检测模型进行训练和优化,得到经过训练的跑冒滴漏目标检测模型。
检测模块330适于:将油田作业现场的待检测视频流数据中各个帧的图像数据输入至经过训练的跑冒滴漏目标检测模型进行目标检测,得到待检测视频流数据的各个帧的检测数据。
计算模块340适于:根据待检测视频流数据的各个帧的检测数据,计算待检测视频流数据的相邻帧对应的阀门区域之间的汉明距离。
判断模块350适于:依据汉明距离,判断是否发生跑冒滴漏情况,并对判断结果进行存储。
可选地,数据构建模块310进一步适于:对视频流数据进行分帧处理,得到视频流数据中各个帧的图像数据;对视频流数据中各个帧的图像数据中的阀门区域进行标定,得到各个图像数据对应的标签数据;将各个图像数据以及各个图像数据对应的标签数据作为样本数据,添加至跑冒滴漏数据集。
可选地,该装置还包括模型构建模块360。模型构建模块360适于:在PyTorch框架下,构建基于YOLOv5的初始跑冒滴漏目标检测模型;其中,初始跑冒滴漏目标检测模型包括:主干网络、颈部网络以及分类网络;主干网络用于:提取输入的图像数据的多个维度的特征;颈部网络用于:对多个维度的特征进行融合处理,得到图像融合特征;分类网络用于:利用损失函数对图像融合特征进行分类和回归处理,得到对应的检测数据。
可选地,训练优化模块320进一步适于:按照预设样本比例,将跑冒滴漏数据集划分为训练集和测试集;设置初始跑冒滴漏目标检测模型的网络训练参数;其中,网络训练参数包括:最大迭代次数、学习率、动量以及权重衰减;利用训练集中的样本数据,对初始跑冒滴漏目标检测模型进行训练,调整初始跑冒滴漏目标检测模型的模型参数,直至满足迭代结束条件,得到经过训练的跑冒滴漏目标检测模型;利用测试集中的样本数据,对经过训练的跑冒滴漏目标检测模型进行测试。
可选地,计算模块340进一步适于:针对相邻的任两帧,根据该两帧的检测数据中的阀门区域检测数据,通过感知哈希算法计算该两帧对应的阀门区域之间的汉明距离。
可选地,阀门区域检测数据包括:阀门的包围框以及阀门的坐标信息。
可选地,判断模块350进一步适于:判断汉明距离是否大于预设判别阈值;若是,则得到发生跑冒滴漏情况的判断结果;若否,则得到未发生跑冒滴漏情况的判断结果。
以上各模块的描述参照方法实施例中对应的描述,在此不再赘述。
根据本申请实施例提供的基于深度学习的跑冒滴漏检测装置,通过对采集到的油田作业现场的视频流数据中各个帧的图像数据进行处理,便捷地实现了跑冒滴漏数据集的构建;将深度学习方法引入至跑冒滴漏检测中,构建了基于深度学习的初始跑冒滴漏目标检测模型,并依据跑冒滴漏数据集对其进行训练和优化,具有任务统一、易于训练、便于优化等优势,且无需人工手动设计特征提取算法,不仅能够自动地进行特征提取,而且能够学习到更丰富的特征表示,更好地捕捉漏油的复杂特征,有效地提高了跑冒滴漏检测的准确性和召回率,另外,模型复杂度较高,可以更好地处理复杂的漏油情况;利用经过训练的跑冒滴漏目标检测模型对油田作业现场的待检测视频流数据中各个帧的图像数据进行目标检测,实现了对阀门区域情况的精准检测;依据检测数据计算待检测视频流数据的相邻帧对应的阀门区域之间的汉明距离,进而根据汉明距离能够精准、便捷地判断是否发生跑冒滴漏情况,有效地提高了跑冒滴漏检测的准确性和检测效率,极大地提升了油田作业现场管理效率,减少了人力物力成本,优化了油田作业现场管理方式。
本发明还提供了一种非易失性计算机存储介质,计算机存储介质存储有至少一个可执行指令,可执行指令可执行上述任意方法实施例中的基于深度学习的跑冒滴漏检测方法。
图4示出了根据本申请一个实施例的一种计算设备的结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图4所示,该计算设备可以包括:处理器402、通信接口404、存储器406、以及通信总线408。
其中:
处理器402、通信接口404、以及存储器406通过通信总线408完成相互间的通信。
通信接口404,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器402,用于执行程序410,具体可以执行上述基于深度学习的跑冒滴漏检测方法实施例中的相关步骤。
具体地,程序410可以包括程序代码,该程序代码包括计算机操作指令。
处理器402可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器406,用于存放程序410。存储器406可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序410具体可以用于使得处理器402执行上述任意方法实施例中的基于深度学习的跑冒滴漏检测方法。程序410中各步骤的具体实现可以参见上述基于深度学习的跑冒滴漏检测方法实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。

Claims (5)

1.一种基于深度学习的跑冒滴漏检测方法,其特征在于,所述方法包括:
采集油田作业现场的视频流数据,利用所述视频流数据中各个帧的图像数据,构建跑冒滴漏数据集;
依据所述跑冒滴漏数据集,对预先构建的基于深度学习的初始跑冒滴漏目标检测模型进行训练和优化,得到经过训练的跑冒滴漏目标检测模型;
将油田作业现场的待检测视频流数据中各个帧的图像数据输入至所述经过训练的跑冒滴漏目标检测模型进行目标检测,得到所述待检测视频流数据的各个帧的检测数据;
根据所述待检测视频流数据的各个帧的检测数据,计算所述待检测视频流数据的相邻帧对应的阀门区域之间的汉明距离;
依据所述汉明距离,判断是否发生跑冒滴漏情况,并对判断结果进行存储;
其中,所述根据所述待检测视频流数据的各个帧的检测数据,计算所述待检测视频流数据的相邻帧对应的阀门区域之间的汉明距离进一步包括:
针对相邻的任两帧,根据该两帧的检测数据中的阀门区域检测数据,定位该两帧的图像数据中的阀门区域的位置;所述阀门区域检测数据包括:阀门的包围框以及所述阀门的坐标信息;
依据感知哈希算法,通过图像数据中阀门区域中的每个像素的灰度值和均值,计算图像数据中阀门区域的哈希值,通过比较该两帧的图像数据中阀门区域的哈希值中不相同的位数,得到该两帧对应的阀门区域之间的汉明距离;
所述利用所述视频流数据中各个帧的图像数据,构建跑冒滴漏数据集进一步包括:
对所述视频流数据进行分帧处理,得到所述视频流数据中各个帧的图像数据;
将阀门作为目标,利用LabelImg工具对所述视频流数据中各个帧的图像数据中的阀门区域进行标定,得到各个图像数据对应的标签数据;
将各个图像数据以及各个图像数据对应的标签数据作为样本数据,添加至所述跑冒滴漏数据集;
所述依据所述汉明距离,判断是否发生跑冒滴漏情况进一步包括:
判断所述汉明距离是否大于预设判别阈值;
若是,则得到发生跑冒滴漏情况的判断结果;若否,则得到未发生跑冒滴漏情况的判断结果;
在所述依据所述跑冒滴漏数据集,对预先构建的基于深度学习的初始跑冒滴漏目标检测模型进行训练和优化,得到经过训练的跑冒滴漏目标检测模型之前,所述方法还包括:
在PyTorch框架下,构建基于YOLOv5的初始跑冒滴漏目标检测模型;其中,所述初始跑冒滴漏目标检测模型包括:主干网络、颈部网络以及分类网络;
所述主干网络用于:提取输入的图像数据的多个维度的特征;
所述颈部网络用于:对多个维度的特征进行融合处理,得到图像融合特征;
所述分类网络用于:利用损失函数对所述图像融合特征进行分类和回归处理,得到对应的检测数据。
2.根据权利要求1所述的方法,其特征在于,所述依据所述跑冒滴漏数据集,对预先构建的基于深度学习的初始跑冒滴漏目标检测模型进行训练和优化,得到经过训练的跑冒滴漏目标检测模型进一步包括:
按照预设样本比例,将所述跑冒滴漏数据集划分为训练集和测试集;
设置所述初始跑冒滴漏目标检测模型的网络训练参数;其中,所述网络训练参数包括:最大迭代次数、学习率、动量以及权重衰减;
利用所述训练集中的样本数据,对所述初始跑冒滴漏目标检测模型进行训练,调整所述初始跑冒滴漏目标检测模型的模型参数,直至满足迭代结束条件,得到经过训练的跑冒滴漏目标检测模型;
利用所述测试集中的样本数据,对经过训练的跑冒滴漏目标检测模型进行测试。
3.一种基于深度学习的跑冒滴漏检测装置,其特征在于,所述装置包括:
数据构建模块,适于采集油田作业现场的视频流数据,利用所述视频流数据中各个帧的图像数据,构建跑冒滴漏数据集;
训练优化模块,适于依据所述跑冒滴漏数据集,对预先构建的基于深度学习的初始跑冒滴漏目标检测模型进行训练和优化,得到经过训练的跑冒滴漏目标检测模型;
检测模块,适于将油田作业现场的待检测视频流数据中各个帧的图像数据输入至所述经过训练的跑冒滴漏目标检测模型进行目标检测,得到所述待检测视频流数据的各个帧的检测数据;
计算模块,适于根据所述待检测视频流数据的各个帧的检测数据,计算所述待检测视频流数据的相邻帧对应的阀门区域之间的汉明距离;
判断模块,适于依据所述汉明距离,判断是否发生跑冒滴漏情况,并对判断结果进行存储;
所述计算模块进一步适于:针对相邻的任两帧,根据该两帧的检测数据中的阀门区域检测数据,定位该两帧的图像数据中的阀门区域的位置;依据感知哈希算法,通过图像数据中阀门区域中的每个像素的灰度值和均值,计算图像数据中阀门区域的哈希值,通过比较该两帧的图像数据中阀门区域的哈希值中不相同的位数,得到该两帧对应的阀门区域之间的汉明距离;所述阀门区域检测数据包括:阀门的包围框以及所述阀门的坐标信息;
所述数据构建模块进一步适于:对所述视频流数据进行分帧处理,得到所述视频流数据中各个帧的图像数据;将阀门作为目标,利用LabelImg工具对所述视频流数据中各个帧的图像数据中的阀门区域进行标定,得到各个图像数据对应的标签数据;将各个图像数据以及各个图像数据对应的标签数据作为样本数据,添加至所述跑冒滴漏数据集;
所述判断模块进一步适于:判断所述汉明距离是否大于预设判别阈值;若是,则得到发生跑冒滴漏情况的判断结果;若否,则得到未发生跑冒滴漏情况的判断结果;
所述装置还包括模型构建模块;所述模型构建模块适于:在PyTorch框架下,构建基于YOLOv5的初始跑冒滴漏目标检测模型;其中,所述初始跑冒滴漏目标检测模型包括:主干网络、颈部网络以及分类网络;所述主干网络用于:提取输入的图像数据的多个维度的特征;所述颈部网络用于:对多个维度的特征进行融合处理,得到图像融合特征;所述分类网络用于:利用损失函数对所述图像融合特征进行分类和回归处理,得到对应的检测数据。
4.一种计算设备,其特征在于,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一个可执行指令,所述可执行指令使所述处理器执行如权利要求1-2中任一项所述的基于深度学习的跑冒滴漏检测方法对应的操作。
5.一种计算机存储介质,其特征在于,所述计算机存储介质中存储有至少一个可执行指令,可执行指令使处理器执行如权利要求1-2中任一项所述的基于深度学习的跑冒滴漏检测方法对应的操作。
CN202410163694.4A 2024-02-05 2024-02-05 基于深度学习的跑冒滴漏检测方法、装置、设备及介质 Active CN117710374B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410163694.4A CN117710374B (zh) 2024-02-05 2024-02-05 基于深度学习的跑冒滴漏检测方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410163694.4A CN117710374B (zh) 2024-02-05 2024-02-05 基于深度学习的跑冒滴漏检测方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN117710374A CN117710374A (zh) 2024-03-15
CN117710374B true CN117710374B (zh) 2024-05-24

Family

ID=90162863

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410163694.4A Active CN117710374B (zh) 2024-02-05 2024-02-05 基于深度学习的跑冒滴漏检测方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN117710374B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210530A (zh) * 2019-05-15 2019-09-06 杭州智尚云科信息技术有限公司 基于机器视觉的智能监控方法、装置、设备、系统和存储介质
CN111582235A (zh) * 2020-05-26 2020-08-25 瑞纳智能设备股份有限公司 用于实时监控站内异常事件的警报方法、系统及设备
CN113591752A (zh) * 2021-08-06 2021-11-02 深圳市莱达四维信息科技有限公司 基于卷积神经网络的设备漏油监控方法及相关设备
CN114155196A (zh) * 2021-11-06 2022-03-08 中山嘉明电力有限公司 一种基于机器人的跑冒滴漏检测方法
CN114170476A (zh) * 2021-11-15 2022-03-11 同盾科技有限公司 图像检索模型训练方法、装置、电子设备及存储介质
CN115457297A (zh) * 2022-08-23 2022-12-09 中国航空油料集团有限公司 航油油库漏油检测方法、装置及航油安全运维系统
CN116342538A (zh) * 2023-03-22 2023-06-27 深圳市朗驰欣创科技股份有限公司 一种跑冒滴漏检测方法、装置、智能设备和存储介质
CN116977904A (zh) * 2023-08-15 2023-10-31 山东鼎鸿安全科技有限公司 一种基于YOLOv5的快速识别大场景多人工衣检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210530A (zh) * 2019-05-15 2019-09-06 杭州智尚云科信息技术有限公司 基于机器视觉的智能监控方法、装置、设备、系统和存储介质
CN111582235A (zh) * 2020-05-26 2020-08-25 瑞纳智能设备股份有限公司 用于实时监控站内异常事件的警报方法、系统及设备
CN113591752A (zh) * 2021-08-06 2021-11-02 深圳市莱达四维信息科技有限公司 基于卷积神经网络的设备漏油监控方法及相关设备
CN114155196A (zh) * 2021-11-06 2022-03-08 中山嘉明电力有限公司 一种基于机器人的跑冒滴漏检测方法
CN114170476A (zh) * 2021-11-15 2022-03-11 同盾科技有限公司 图像检索模型训练方法、装置、电子设备及存储介质
CN115457297A (zh) * 2022-08-23 2022-12-09 中国航空油料集团有限公司 航油油库漏油检测方法、装置及航油安全运维系统
CN116342538A (zh) * 2023-03-22 2023-06-27 深圳市朗驰欣创科技股份有限公司 一种跑冒滴漏检测方法、装置、智能设备和存储介质
CN116977904A (zh) * 2023-08-15 2023-10-31 山东鼎鸿安全科技有限公司 一种基于YOLOv5的快速识别大场景多人工衣检测方法

Also Published As

Publication number Publication date
CN117710374A (zh) 2024-03-15

Similar Documents

Publication Publication Date Title
US20210319561A1 (en) Image segmentation method and system for pavement disease based on deep learning
US11488294B2 (en) Method for detecting display screen quality, apparatus, electronic device and storage medium
CN109858367B (zh) 工人通过支撑不安全行为的视觉自动化检测方法及系统
CN111401419A (zh) 基于改进RetinaNet的员工着装规范检测方法
CN110992349A (zh) 一种基于深度学习的地下管道异常自动化定位与识别方法
Kumar et al. A deep learning based automated structural defect detection system for sewer pipelines
CN115131283A (zh) 目标对象的缺陷检测、模型训练方法、装置、设备及介质
CN109543617A (zh) 基于yolo目标检测技术的智能车辆运动路况信息的检测方法
CN110660049A (zh) 一种基于深度学习的轮胎缺陷检测方法
CN115631132A (zh) 网络训练方法、缺陷检测方法、装置、存储介质和设备
CN117422695A (zh) 一种基于CR-Deeplab的异常检测方法
CN117372424B (zh) 一种缺陷检测方法、装置、设备及存储介质
CN110852318A (zh) 一种排水管道缺陷精准定位方法及系统
CN111091104A (zh) 一种目标物体的防护检测方法、装置、设备及存储介质
CN116152674A (zh) 一种基于改进U-Net模型的大坝无人机影像裂缝智能识别方法
CN109102486B (zh) 基于机器学习的表面缺陷检测方法及装置
CN113516652A (zh) 电池表面缺陷和粘合剂检测方法、装置、介质和电子设备
CN117710374B (zh) 基于深度学习的跑冒滴漏检测方法、装置、设备及介质
CN113762247A (zh) 一种基于显著实例分割算法的道路裂缝自动检测方法
CN115239733B (zh) 裂缝检测方法、装置、终端设备以及存储介质
CN117078585A (zh) 一种管道的缺陷损伤检测方法、装置、设备及介质
CN111415326A (zh) 一种用于铁路接触网螺栓异常状态的检测方法及系统
CN116432078A (zh) 建筑楼宇机电设备监测系统
CN115272898A (zh) 基于管网无人机巡检视频的识别方法、装置、介质和设备
CN112990350B (zh) 目标检测网络训练方法及基于目标检测网络煤矸识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant