CN117671510A - 一种基于目标检测和语义分割算法的船舶载重量计算方法 - Google Patents

一种基于目标检测和语义分割算法的船舶载重量计算方法 Download PDF

Info

Publication number
CN117671510A
CN117671510A CN202410147682.2A CN202410147682A CN117671510A CN 117671510 A CN117671510 A CN 117671510A CN 202410147682 A CN202410147682 A CN 202410147682A CN 117671510 A CN117671510 A CN 117671510A
Authority
CN
China
Prior art keywords
draft
ship
image
semantic segmentation
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410147682.2A
Other languages
English (en)
Inventor
杨沛豪
邓彪
柴琦
秦建柱
高欢欢
解非
赵俊博
孙梦瑶
朱光华
王青东
黄修喜
寿兵
陈耀明
蔡琼锋
邵兆东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Thermal Power Research Institute Co Ltd
Dongfang Power Plant of Huaneng Hainan Power Generation Co Ltd
Original Assignee
Xian Thermal Power Research Institute Co Ltd
Dongfang Power Plant of Huaneng Hainan Power Generation Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Thermal Power Research Institute Co Ltd, Dongfang Power Plant of Huaneng Hainan Power Generation Co Ltd filed Critical Xian Thermal Power Research Institute Co Ltd
Priority to CN202410147682.2A priority Critical patent/CN117671510A/zh
Publication of CN117671510A publication Critical patent/CN117671510A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0495Quantised networks; Sparse networks; Compressed networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请提出一种基于目标检测和语义分割算法的船舶载重量计算方法,包括:获取船舶的吃水视频流;获取吃水视频流中的其中一帧吃水图像,基于预设的目标检测算法从吃水图像中提取出水尺标志区域和刻度字符信息;基于预设的金字塔场景分析网络PSPNet语义分割算法和边缘检测算法从水尺标志区域中确定船舶的吃水线信息;基于吃水线信息和刻度字符信息确定吃水图像中船舶的吃水值;获取吃水视频流中每一帧吃水图像的吃水值,构建吃水值集合,对吃水值集合进行处理,获取船舶的目标吃水值;基于目标吃水值计算得到船舶的载重量。本申请能够获取船舶吃水线的精确位置,提高船舶吃水值计算的准确性,节省了时间和人力资源,从而获取船舶载货的精确重量。

Description

一种基于目标检测和语义分割算法的船舶载重量计算方法
技术领域
本申请涉及船舶载重量计算的技术领域,尤其涉及一种基于目标检测和语义分割算法的船舶载重量计算方法。
背景技术
使用船舶通过海上航道在不同国家和地区的港口之间运送货物是国际贸易中最主要的运输方式。海上运输的货物中避免不了大批的散装货物,而对于船舶的散货交易不同于陆地交易。国际通用散货船舶计重的方法是水尺计重,利用阿基米德原理,通过船舶的六面水尺的吃水值来计算船舶的散货载重量。
实际上,在各大港口获取船舶水尺读数最普遍的方法是人工目测,但人工目测船舶吃水时容易受到风浪、天气等外部环境因素以及人为的影响,也因为船舶停靠在码头,跟随海水无规则波动,使船舶的吃水值相应的呈现不同的值。此时会人为地根据目测给出船舶的吃水值,读数结果严重影响了船舶吃水值的准确性,进而不利于船舶载重量的计算。
发明内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本申请的第一个目的在于提出一种基于目标检测和语义分割算法的船舶载重量计算方法,以获取船舶吃水线的精确位置,提高船舶吃水值计算的准确性,节省了时间和人力资源,从而获取船舶载货的精确重量。
本申请的第二个目的在于提出一种基于目标检测和语义分割算法的船舶载重量计算装置。
本申请的第三个目的在于提出一种电子设备。
本申请的第四个目的在于提出一种计算机可读存储介质。
为达上述目的,本申请第一方面实施例提出了一种基于目标检测和语义分割算法的船舶载重量计算方法,其特征在于,包括以下步骤:
获取船舶的吃水视频流;
获取所述吃水视频流中的其中一帧吃水图像,基于预设的目标检测算法从所述吃水图像中提取出水尺标志区域和刻度字符信息;
基于预设的金字塔场景分析网络PSPNet语义分割算法和边缘检测算法从所述水尺标志区域中确定所述船舶的吃水线信息;
基于所述吃水线信息和所述刻度字符信息确定所述吃水图像中所述船舶的吃水值;
获取所述吃水视频流中每一帧所述吃水图像的吃水值,构建吃水值集合,对所述吃水值集合进行处理,获取所述船舶的目标吃水值;
基于所述目标吃水值计算得到所述船舶的载重量。
进一步地,所述基于预设的金字塔场景分析网络PSPNet语义分割算法和边缘检测算法从所述水尺标志区域中确定所述船舶的吃水线信息,包括:
基于预设的金字塔场景分析网络PSPNet语义分割算法对所述水尺标志区域进行图像分割,得到水体图像和船体图像;
基于所述边缘检测算法对所述水体图像和所述船体图像进行分析,确定所述船舶的吃水线信息。
进一步地,所述PSPNet语义分割算法包括卷积神经网络MobileNet、金字塔池化层、上采样层和卷积层,所述基于预设的金字塔场景分析网络PSPNet语义分割算法对所述水尺标志区域进行图像分割,得到水体图像和船体图像,包括:
基于所述MobileNet从所述水体图像和所述船体图像中提取原始特征图;
基于所述金字塔池化层从所述原始特征图中提取层级特征图;
基于所述上采样层对所述层级特征图进行上采样,得到全局特征;
将所述全局特征和所述原始特征图进行拼接,基于所述卷积层生成水体图像和船体图像。
进一步地,所述金字塔池化层包括金字塔池化模块、注意力机制模块ECA和卷积模块。
进一步地,所述目标检测算法包括数据增强模块和网络模型,基于预设的目标检测算法从所述吃水图像中提取出水尺标志区域和刻度字符信息,包括:
基于所述数据增强模块对所述吃水图像进行数据增强,构建训练集,以基于所述训练集对所述网络模型进行训练;
基于训练后的所述网络模型从所述吃水图像中提取水尺标志区域,并从所述水尺标志区域中提取刻度字符信息。
进一步地,所述基于所述吃水线信息和所述刻度字符信息确定所述吃水图像中所述船舶的吃水值,包括:
基于所述吃水线信息确定吃水线拟合结果;
基于所述刻度字符信息确定字符拟合结果;
基于所述吃水线拟合结果和所述字符拟合结果构建吃水值计算模型;
基于所述吃水值计算模型确定吃水值计算公式;
基于所述吃水值计算公式计算得到所述船舶的吃水值。
进一步地,所述对所述吃水值集合进行处理,获取所述船舶的目标吃水值,包括:
剔除所述吃水值集合中的离群值、最大值和最小值,得到有效吃水值集合;
对所述有效吃水值集合取平均值,将所述平均值作为所述船舶的目标吃水值。
为达上述目的,本申请第二方面实施例提出了一种基于目标检测和语义分割算法的船舶载重量计算装置,包括获取模块、提取模块、分析模块、计算模块和处理模块;
所述获取模块用于获取船舶的吃水视频流;
所述提取模块用于获取所述吃水视频流中的其中一帧吃水图像,基于预设的目标检测算法从所述吃水图像中提取出水尺标志区域和刻度字符信息;
所述分析模块用于基于预设的金字塔场景分析网络PSPNet语义分割算法和边缘检测算法从所述水尺标志区域中确定所述船舶的吃水线信息;
所述计算模块用于基于所述吃水线信息和所述刻度字符信息确定所述吃水图像中所述船舶的吃水值;
所述处理模块用于获取所述吃水视频流中每一帧所述吃水图像的吃水值,构建吃水值集合,对所述吃水值集合进行处理,获取所述船舶的目标吃水值,并基于所述目标吃水值计算得到所述船舶的载重量。
为达上述目的,本申请第三方面实施例提出了一种电子设备,包括:包括:处理器,以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现上述的方法。
为达上述目的,本申请第四方面实施例提出了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如上述的方法。
本申请提供的一种基于目标检测和语义分割算法的船舶载重量计算方法,通过从吃水视频流中分割多帧吃水图像,利用目标检测算法、金字塔场景分析网络PSPNet语义分割算法以及边缘检测方法确定船舶吃水线信息,从而根据吃水线信息和刻度字符信息确定船舶的吃水值,进而根据吃水值计算得到船舶的载重量,能够获取船舶吃水线的精确位置,提高船舶吃水值计算的准确性,节省了时间和人力资源,从而获取船舶载货的精确重量。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请实施例所提供的一种基于目标检测和语义分割算法的船舶载重量计算方法的流程示意图。
图2为本申请实施例所提供的一种基于目标检测和语义分割算法的船舶载重量计算方法中步骤S201-S202的流程示意图。
图3为本申请实施例所提供的一种基于目标检测和语义分割算法的船舶载重量计算方法中PSPNet的常见网络结构图和本实施例中改进后的网络结构图。
图4为本申请实施例所提供的一种基于目标检测和语义分割算法的船舶载重量计算方法中步骤S301-S304的流程示意图。
图5为本申请实施例所提供的一种基于目标检测和语义分割算法的船舶载重量计算方法中其中一种吃水线信息的定位图。
图6为本申请实施例所提供的一种基于目标检测和语义分割算法的船舶载重量计算方法中步骤S401-S405的流程示意图。
图7为本申请实施例所提供的一种基于目标检测和语义分割算法的船舶载重量计算方法中其中一种吃水计算模型的示意图。
图8为本申请实施例提供的一种基于目标检测和语义分割算法的船舶载重量计算装置的结构示意图。
附图标记说明:
1、获取模块;2、提取模块;3、分析模块;4、计算模块;5、处理模块。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的船舶载重量计算方法。
图1为本申请实施例所提供的一种基于目标检测和语义分割算法的船舶载重量计算方法的流程示意图。
如图1所示,该方法包括以下步骤:
S101、获取船舶的吃水视频流。
在本实施例中,远端设备通过无人机搭载的机载云台相机对现场视频流进行采集,作为船舶的吃水视频流。
在获取吃水视频流之后,通过5G/4G技术将处理结果实时传输到地面的云服务器中。
S102、获取吃水视频流中的其中一帧吃水图像,基于预设的目标检测算法从吃水图像中提取出水尺标志区域和刻度字符信息;
为了通过吃水视频流计算船舶的吃水值,需要从吃水视频流截取每一帧吃水图像进行分析,通过目标检测算法从吃水图像中提取水尺标志区域和刻度字符信息。
在本实施例中,采用的目标检测算法为Yolox,主要用于提取水尺标志区域,并获取刻度字符信息,其中,刻度字符信息包括字符数值和位置信息。
以下对Yolox目标检测算法进行介绍:
Yolox目标检测算法是一种基于YOLO v5的目标检测算法,其采用了“Backbone-Neck-Head”的模型结构。该算法的网络模型一共有4个版本,分别是Yolox-s、Yolox-m、Yolox-l、Yolo-x四个模型,模型的规模依次增大。它使用了YOLOv5中的CSPDarkNet作为骨干网络(即Backbone),并添加了轻量级的neck和head层,共同组成一个完整的目标检测模型。
在Yolox的neck层中,采用了常用于目标检测算法的FPN(Feature PyramidNetwork)结构,实现了对不同层次特征的融合和生成多尺度特征图的功能。这能够有效提升检测的精度和效率,同时减少了对GPU资源的需求。FPN生成的多尺度特征图用于head层对物体位置和类别的预测。
Yolox还采用了SPP(Spatial Pyramid Pooling)和PAN(Path AggregationNetwork)等结构来进一步提升检测精度。SPP利用各种大小和比例的池化核感知多尺度目标,以应对不同大小的物体检测需求。PAN通过自适应地聚合不同尺度上的信息,生成更高质量的特征图,并减少信息的损失。这些结构的使用大大提高了目标检测的准确性。因此,Yolox通过对骨干网络、neck和head层的精心构建,以及FPN、SPP和PAN等结构的应用,实现了高效率的多尺度目标检测。
Yolox目标检测算法对于(640,640,3)的输入图像,经过8倍、16倍、32倍下采样,即得到80*80,40*40,20*20的三个尺度,85的值即80类+4个坐标信息+1个分类置信度。通过Concat得到85*8400的结果,每一行即1*8400的结果中包含了不同尺度下预测框的结果。
在本实施例中,Yolox目标检测算法包括数据增强模块和网络模型,其中,数据增强模块在输入端对吃水图像采用了多种数据增强方法,构建训练集,例如随机的裁剪缩放,翻转;MixUp方法:在训练时,以一定的概率对输入图像进行MixUp,即将两个不同的图像混合在一起;Mosaic方法:在训练时,取四张不同的图像,并将它们合成一个大的图像输入模型。上述数据增强方法可以使模型更鲁棒性、减少过拟合的风险,同时增加了训练集的大小。
本实施例中Yolox目标检测算法选用较小的网络模型YOLOX-s,在获取的吃水图像经过数据增强后,通过得到的训练集对网络模型YOLOX-s进行训练,可以让网络模型YOLOX-s更好地学习到不同样本之间的关系,从而提高检测精度。同时,网络模型YOLOX-s主干网络的激活函数采用SiLu激活函数,SiLu函数相比于rule非线性能力更强,解决了rule当有负数输入输出为0,发生梯度弥散的缺点,同时继承了rule收敛更快的优点。
通过数据增强模块和网络模型YOLOX-s的设置,利用网络YOLOX-s从吃水图像中提取出水尺标志区域,并从水尺标志区域中提取出刻度字符信息。
S103、基于预设的金字塔场景分析网络PSPNet语义分割算法和边缘检测算法从水尺标志区域中确定船舶的吃水线信息。
在确定水尺标志区域后,即可通过水尺标志区域中确定船舶的吃水线信息。
在本实施例中,通过金字塔场景分析网络PSPNet语义分割算法来对水尺标志区域进行语义分割,从而得到水体图像和船体图像。参照图2,具体包括以下步骤:
S201、基于预设的金字塔场景分析网络PSPNet语义分割算法对水尺标志区域进行图像分割,得到水体图像和船体图像;
以下对本实施例中采用的金字塔场景分析网络PSPNet语义分割算法进行介绍:
PSPNet是一种金字塔场景分析的语义分割网络,其赋予图像中每个像素一个类别标签,主要用于图像的分割任务,本实施例采用此算法解决船体和水体的分割问题,从而定位吃水线。PSPNet算法主要解决FCN算法在处理图像时没有有效的考虑到图像上下文语义信息,在进行语义分割的时候容易“混淆”语义的问题。PSPNet采用金字塔池化层,引入更多的上下文信息,降低目标的误分割,同时融合深层和浅层的信息,对小目标的分割能力进一步提升,这对分割船体和水体这种特征较为单一的目标可以取得较好的效果。
参照图3,为PSPNet的常见网络结构图和本实施例中改进后的网络结构图。其中,PSPNet的常见网络结构图中,是通过首先输入图像,通过CNN模型进行提取特征图,得到原始特征图Feature Map,此处的CNN网络一般采用ResNet网络。原始特征图通过金字塔池化层采集上下文信息,金字塔池化层可分为4个层级,bin大小为1×1,2×2,3×3和6×6,接着将4个层级提取的层级特征图通过上采样层进行上采样UPSAMPLE,融合为全局特征,然后将融合全局特征与原始特征图进行拼接,最后通过卷积层生成预测图。
而本实施例中改进后的PSPNet网络结构与常见的网络结构图不同,本实施例中改进后的PSPNet语义分割算法包括卷积神经网络MobileNet、金字塔池化层、上采样层和卷积层。
参照图4,本实施例中基于改进后的PSPNet语义分割算法对水尺标志区域进行图像分割,得到水体图像和船体图像,包括以下步骤:
S301、基于MobileNet从水体图像和船体图像中提取原始特征图;
S302、基于金字塔池化层从原始特征图中提取层级特征图;
S303、基于上采样层对层级特征图进行上采样,得到全局特征;
S304、将全局特征和原始特征图进行拼接,基于卷积层生成水体图像和船体图像。
可知,本实施例中采用轻量化卷积神经网络MobileNet替换原网络ResNet网络,具体可为轻量化卷积神经网络MobileNet V2。
向PSPNet语义分割算法网络模型中输入图像,通过MobileNet V2模型进行提取特征图,得到原始特征图Feature Map。原始特征图通过金字塔池化层采集上下文信息,金字塔池化层可分为4个层级,bin大小为1×1,2×2,3×3和6×6,接着将4个层级提取的层级特征图通过上采样层进行上采样UPSAMPLE,融合为全局特征,然后将融合全局特征与原始特征图进行拼接,最后通过卷积层生成预测图。
以下对轻量化卷积神经网络MobileNet V2进行介绍:
MobileNet V2是一种轻量级的卷积神经网络,主要用于移动端设备上的图像分类和目标检测。主要是对输入的图像进行分类或检测,即将输入的图形映射为一组预定义的标签或边界框。
MobileNet V2的网络结构主要由两部分组成:基础网络和增量网络。
基础网络采用了深度可分离卷积来替代传统的卷积层。深度可分离卷积操作将标准卷积操作分解成两个步骤:深度卷积和逐点卷积。深度卷积只关注空间特征,这样可以以较小的计算量处理大量的特征图像;而逐点卷积则在通道维度上进行卷积操作,以实现每个通道之间的全连接。同时,在深度可分离卷积中还引入了线性瓶颈结构,通过将非线性激活函数移动到逐点卷积之前,进一步减少了模型参数,从而进一步降低了模型的计算复杂度。
增量网络主要包括两个模块:倒残差连接和扩张卷积。倒残差连接层使得原本只有恒等映射的残差块现在变成了有跨层连接的残差块,用于增强特征传播和提高模型鲁棒性,同时还能够有效缓解梯度消失问题。扩张卷积层则用于捕获更大的上下文信息,这是因为传统卷积在空间扩展时受限于卷积核大小。在扩张卷积中,卷积核采用稀疏的方式进行跳跃式连接,产生了更为广泛的感受野,从而获得了更全面的上下文信息。
采用轻量化网络MobileNet V2替换原网络ResNet作为特征提取网络,能够有效降低卷积运算参数量。
另外,继续参照图3,本实施例中对于金字塔池化层还进行了改进,在金字塔池化层PPM结构中添加了注意力机制模块ECA,以便捕捉不同分辨率的特征之间的关联性,从而进一步提高分割精度。
其中,ECA(Efficient Channel Attention)注意力机制是一种用于深度学习中的注意力机制,旨在提高计算效率,特别是在卷积神经网络(CNN)中。它与传统的自注意力机制(如Transformer中的注意力机制)不同,专注于建模通道之间的关系,而不是序列中的位置信息。
ECA注意力机制的主要思想是通过计算每个通道的注意力权重,以使有用的通道特征得到增强,从而减少无关的通道特征的影响。这有助于提高模型对输入数据的建模能力,并减少计算成本。
ECA注意力机制的计算过程包括以下几个步骤:
1.从输入特征图中计算每个通道的全局平均池化(Global Average Pooling)值,以获得每个通道的全局平均特征。
2.将全局平均特征通过一层全连接层,得到通道注意力权重,这些权重表示每个通道的重要性。
3.使用通道注意力权重对输入特征进行加权,得到加权特征表示。
4.将加权特征与原始输入特征相加,以获得最终的特征表示。
ECA注意力机制的主要优点在于它能够在不引入大量额外参数的情况下,有效地建模通道之间的关系,从而提高了模型的性能,特别是在计算资源有限的情况下。这使得ECA注意力机制在一些轻量级神经网络结构中得到广泛应用,以提高它们的性能。
总之,ECA注意力机制是一种用于增强深度学习模型的注意力机制,特别适用于CNN等结构,以提高计算效率和性能。
同时,在进行网络训练时,本实施例中还使用DSC损失函数替换原交叉熵损失函数以辅助优化分割网络模型,可以避免分割结果中出现类别混淆现象,提高网络模型对小目标的分割能力和分割结果的边沿精细度。
至此,已经采用本实施例改进的PSPNet语义分割算法实现了船体图像和水体图像的分割。
S202、基于边缘检测算法对水体图像和船体图像进行分析,确定船舶的吃水线信息。
在获取船体图像和水体图像后,本实施例中采用边缘检测算法找到水线位置,以获取船舶的吃水线信息。
具体地,本实施例中采用的边缘检测算法为Canny边缘检测算法,该算法能够尽可能多地标识出图像中的实际边缘,漏检真实边缘的概率和误检非边缘的概率都尽可能小,检测到的边缘点的位置距离实际边缘点的位置最近,或者是由于噪声影响引起检测出的边缘偏离物体的真实边缘的程度最小,因此边缘检测的结果更接近真实值。
为了尽可能减少噪声对边缘检测结果的影响,所以必须流除噪声以防上由噪声引起的错误检测。因此使用高斯滤波器与图像进行卷积,该步骤将平滑图像,以减少边缘检测器上明显的噪声影响。
Canny边缘检测算法步骤如下:
1.使用高斯滤波器降噪的公式如下:
式中,G(x,y)为离散化的二维高斯函数,和/>为其x向、y向的一阶偏导数矩阵,为高斯滤波器的标准差。2.计算梯度幅值以及梯度方向。3.对梯度幅值进行非极大值抑制。4.采用双阈值检测确定最终结果。
通过边缘检测算法进行检测后,还需要采用最小二乘法拟合方法对吃水线进行拟合求解,确定吃水线信息,即吃水线的位置信息。
采用的最小二乘法拟合公式如下:
其中,假设一组点为,一共有n个点,设拟合后的吃水线的表达式为y=kx+b,则上式为求得的斜率k与参数b,即吃水线拟合结果为y=kx+b,因此在水尺标志区域中,吃水线的位置信息即为y=kx+b。参照图5,为本实施例其中一种吃水线信息的定位图。
S104、基于吃水线信息和刻度字符信息确定吃水图像中船舶的吃水值。
在确定船舶吃水线信息后,可根据吃水线信息和刻度字符信息确定船舶的吃水值。参照图6,具体包括:
S401、基于吃水线信息确定吃水线拟合结果;
S402、基于刻度字符信息确定字符拟合结果;
S403、基于吃水线拟合结果和字符拟合结果构建吃水值计算模型;
S404、基于吃水值计算模型确定吃水值计算公式;
S405、基于吃水值计算公式计算得到船舶的吃水值。
具体地,在本实施例中,根据吃水线信息确定吃水线拟合结果,根据刻度字符信息确定字符拟合结果,根据吃水线拟合结果和字符拟合结果构建吃水值计算模型。
参照图7,为本实施例中其中一种吃水计算模型的示意图。吃水值拟合结果可以视为一条吃水线,字符拟合结果可以视为多个字符框右下角的点的连线。具体地,通过字符框右下角的点向吃水线做垂线,以1号线和2号线之间的像素距离与字符的真实距离为比例尺,通过比例尺换算得到3号线的真实距离,进而通过字符信息获得最终的吃水值读数。
在本实施例中,吃水值计算公式如下:
其中,,/>,/>分别为1号线,2号线,3号线吃水线的像素距离,M为靠近吃水线的最下方的大字符框内的数值,例如13m,n为大字符框下方的小字符框内的数值,例如12.8m,0.2为相邻两个字符框内数值之间的数值差(例如13m和12.8m相差0.2m),/>为最终计算的吃水值。
S105、获取吃水视频流中每一帧吃水图像的吃水值,构建吃水值集合,对吃水值集合进行处理,获取船舶的目标吃水值;
具体地,获取一段吃水视频流中每一帧吃水图像的吃水值作为吃水值集合,按照专业计量人员的读数经验,对吃水值集合进行处理得到最终的吃水值。
具体处理过程包括:首先剔除掉吃水值集合中的离群值,避免读数时出现不可控因素造成的影响;再去掉其中的最大值和最小值,得到有效吃水值;最后对剩下的有效吃水值取平均值得到最终的船舶吃水值。
S106、基于目标吃水值计算得到船舶的载重量。
具体地,利用阿基米德原理,即可通过船舶的吃水值来计算船舶的载重量。
为了实现上述实施例,本申请还提出一种基于目标检测和语义分割算法的船舶载重量计算装置。
图8为本申请实施例提供的一种基于目标检测和语义分割算法的船舶载重量计算装置的结构示意图。
如图8所示,该装置包括获取模块1、提取模块2、分析模块3、计算模块4和处理模块5,获取模块1用于获取船舶的吃水视频流;提取模块2用于获取吃水视频流中的其中一帧吃水图像,基于预设的目标检测算法从吃水图像中提取出水尺标志区域和刻度字符信息;分析模块3用于基于预设的金字塔场景分析网络PSPNet语义分割算法和边缘检测算法从水尺标志区域中确定船舶的吃水线信息;计算模块4用于基于吃水线信息和刻度字符信息确定吃水图像中船舶的吃水值;处理模块5用于获取吃水视频流中每一帧吃水图像的吃水值,构建吃水值集合,对吃水值集合进行处理,获取船舶的目标吃水值,并基于目标吃水值计算得到船舶的载重量。
需要说明的是,前述对一种基于目标检测和语义分割算法的船舶载重量计算方法实施例的解释说明也适用于该实施例的一种基于目标检测和语义分割算法的船舶载重量计算装置,此处不再赘述。
为了实现上述实施例,本申请还提出一种电子设备,包括:处理器,以及与所述处理器通信连接的存储器;所述存储器存储计算机执行指令;所述处理器执行所述存储器存储的计算机执行指令,以实现执行前述实施例所提供的方法。
为了实现上述实施例,本申请还提出一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现前述实施例所提供的方法。
本申请中所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
需要说明的是,来自用户的个人信息应当被收集用于合法且合理的用途,并且不在这些合法使用之外共享或出售。此外,应在收到用户知情同意后进行此类采集/共享,包括但不限于在用户使用该功能前,通知用户阅读用户协议/用户通知,并签署包括授权相关用户信息的协议/授权。此外,还需采取任何必要步骤,保卫和保障对此类个人信息数据的访问,并确保有权访问个人信息数据的其他人遵守其隐私政策和流程。
本申请预期可提供用户选择性阻止使用或访问个人信息数据的实施方案。即本公开预期可提供硬件和/或软件,以防止或阻止对此类个人信息数据的访问。一旦不再需要个人信息数据,通过限制数据收集和删除数据可最小化风险。此外,在适用时,对此类个人信息去除个人标识,以保护用户的隐私。
在前述各实施例描述中,参考术语“一个实施例”、“一些实施例”、 “示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于目标检测和语义分割算法的船舶载重量计算方法,其特征在于,包括以下步骤:
获取船舶的吃水视频流;
获取所述吃水视频流中的其中一帧吃水图像,基于预设的目标检测算法从所述吃水图像中提取出水尺标志区域和刻度字符信息;
基于预设的金字塔场景分析网络PSPNet语义分割算法和边缘检测算法从所述水尺标志区域中确定所述船舶的吃水线信息;
基于所述吃水线信息和所述刻度字符信息确定所述吃水图像中所述船舶的吃水值;
获取所述吃水视频流中每一帧所述吃水图像的吃水值,构建吃水值集合,对所述吃水值集合进行处理,获取所述船舶的目标吃水值;
基于所述目标吃水值计算得到所述船舶的载重量。
2.根据权利要求1所述的一种基于目标检测和语义分割算法的船舶载重量计算方法,其特征在于,所述基于预设的金字塔场景分析网络PSPNet语义分割算法和边缘检测算法从所述水尺标志区域中确定所述船舶的吃水线信息,包括:
基于预设的金字塔场景分析网络PSPNet语义分割算法对所述水尺标志区域进行图像分割,得到水体图像和船体图像;
基于所述边缘检测算法对所述水体图像和所述船体图像进行分析,确定所述船舶的吃水线信息。
3.根据权利要求2所述的一种基于目标检测和语义分割算法的船舶载重量计算方法,其特征在于,所述PSPNet语义分割算法包括卷积神经网络MobileNet、金字塔池化层、上采样层和卷积层,所述基于预设的金字塔场景分析网络PSPNet语义分割算法对所述水尺标志区域进行图像分割,得到水体图像和船体图像,包括:
基于所述MobileNet从所述水体图像和所述船体图像中提取原始特征图;
基于所述金字塔池化层从所述原始特征图中提取层级特征图;
基于所述上采样层对所述层级特征图进行上采样,得到全局特征;
将所述全局特征和所述原始特征图进行拼接,基于所述卷积层生成水体图像和船体图像。
4.根据权利要求3所述的一种基于目标检测和语义分割算法的船舶载重量计算方法,其特征在于,所述金字塔池化层包括金字塔池化模块、注意力机制模块ECA和卷积模块。
5.根据权利要求1所述的一种基于目标检测和语义分割算法的船舶载重量计算方法,其特征在于,所述目标检测算法包括数据增强模块和网络模型,基于预设的目标检测算法从所述吃水图像中提取出水尺标志区域和刻度字符信息,包括:
基于所述数据增强模块对所述吃水图像进行数据增强,构建训练集,以基于所述训练集对所述网络模型进行训练;
基于训练后的所述网络模型从所述吃水图像中提取水尺标志区域,并从所述水尺标志区域中提取刻度字符信息。
6.根据权利要求1所述的一种基于目标检测和语义分割算法的船舶载重量计算方法,其特征在于,所述基于所述吃水线信息和所述刻度字符信息确定所述吃水图像中所述船舶的吃水值,包括:
基于所述吃水线信息确定吃水线拟合结果;
基于所述刻度字符信息确定字符拟合结果;
基于所述吃水线拟合结果和所述字符拟合结果构建吃水值计算模型;
基于所述吃水值计算模型确定吃水值计算公式;
基于所述吃水值计算公式计算得到所述船舶的吃水值。
7.根据权利要求1所述的一种基于目标检测和语义分割算法的船舶载重量计算方法,其特征在于,所述对所述吃水值集合进行处理,获取所述船舶的目标吃水值,包括:
剔除所述吃水值集合中的离群值、最大值和最小值,得到有效吃水值集合;
对所述有效吃水值集合取平均值,将所述平均值作为所述船舶的目标吃水值。
8.一种基于目标检测和语义分割算法的船舶载重量计算装置,其特征在于,包括获取模块、提取模块、分析模块、计算模块和处理模块;
所述获取模块用于获取船舶的吃水视频流;
所述提取模块用于获取所述吃水视频流中的其中一帧吃水图像,基于预设的目标检测算法从所述吃水图像中提取出水尺标志区域和刻度字符信息;
所述分析模块用于基于预设的金字塔场景分析网络PSPNet语义分割算法和边缘检测算法从所述水尺标志区域中确定所述船舶的吃水线信息;
所述计算模块用于基于所述吃水线信息和所述刻度字符信息确定所述吃水图像中所述船舶的吃水值;
所述处理模块用于获取所述吃水视频流中每一帧所述吃水图像的吃水值,构建吃水值集合,对所述吃水值集合进行处理,获取所述船舶的目标吃水值,并基于所述目标吃水值计算得到所述船舶的载重量。
9.一种电子设备,其特征在于,包括:处理器,以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现如权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1-7中任一项所述的方法。
CN202410147682.2A 2024-02-02 2024-02-02 一种基于目标检测和语义分割算法的船舶载重量计算方法 Pending CN117671510A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410147682.2A CN117671510A (zh) 2024-02-02 2024-02-02 一种基于目标检测和语义分割算法的船舶载重量计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410147682.2A CN117671510A (zh) 2024-02-02 2024-02-02 一种基于目标检测和语义分割算法的船舶载重量计算方法

Publications (1)

Publication Number Publication Date
CN117671510A true CN117671510A (zh) 2024-03-08

Family

ID=90084809

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410147682.2A Pending CN117671510A (zh) 2024-02-02 2024-02-02 一种基于目标检测和语义分割算法的船舶载重量计算方法

Country Status (1)

Country Link
CN (1) CN117671510A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903303A (zh) * 2019-02-25 2019-06-18 秦皇岛燕大滨沅科技发展有限公司 一种基于卷积神经网络的船舶吃水线提取方法
CN112598001A (zh) * 2021-03-08 2021-04-02 中航金城无人系统有限公司 一种基于多模型融合的船舶水尺读数自动识别方法
CN113819974A (zh) * 2021-09-17 2021-12-21 河海大学 一种免水尺的河流水位视觉测量方法
CN116824570A (zh) * 2023-08-30 2023-09-29 江苏省泰州引江河管理处 一种基于深度学习的吃水检测方法
CN117333860A (zh) * 2023-10-26 2024-01-02 安拓博特机器人(上海)有限公司 一种基于深度学习的船舶水尺读数方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903303A (zh) * 2019-02-25 2019-06-18 秦皇岛燕大滨沅科技发展有限公司 一种基于卷积神经网络的船舶吃水线提取方法
CN112598001A (zh) * 2021-03-08 2021-04-02 中航金城无人系统有限公司 一种基于多模型融合的船舶水尺读数自动识别方法
CN113819974A (zh) * 2021-09-17 2021-12-21 河海大学 一种免水尺的河流水位视觉测量方法
CN116824570A (zh) * 2023-08-30 2023-09-29 江苏省泰州引江河管理处 一种基于深度学习的吃水检测方法
CN117333860A (zh) * 2023-10-26 2024-01-02 安拓博特机器人(上海)有限公司 一种基于深度学习的船舶水尺读数方法及装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
GUANGYU REN等: "Salient Object Detection Combining a Self-attention Module and a Feature Pyramid Network", 《ARXIV》, 30 April 2020 (2020-04-30), pages 1 - 11 *
YICHEN QIAO等: "A Diameter Measurement Method of Red Jujubes Trunk Based on Improved PSPNet", 《MDPI》, 1 August 2022 (2022-08-01), pages 1 - 22 *
彭金东: "面向船舶智能感知的航道水域及水上目标识别算法研究", 《万方》, 14 September 2023 (2023-09-14), pages 1 - 81 *
彭金东: "面向船舶智能感知的航道水域及水上目标识别算法研究", 《万方数据》, 14 September 2023 (2023-09-14), pages 1 - 81 *
郑凤仙: "基于深度学习的交通驾驶场景分类和道路检测方法研究", 《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》, no. 06, 15 June 2023 (2023-06-15), pages 035 - 105 *

Similar Documents

Publication Publication Date Title
CN110310264B (zh) 一种基于dcnn的大尺度目标检测方法、装置
CN109583369B (zh) 一种基于目标区域分割网络的目标识别方法及装置
CN113569667B (zh) 基于轻量级神经网络模型的内河船舶目标识别方法及系统
CN110796048B (zh) 一种基于深度神经网络的船舰目标实时检测方法
CN114359851A (zh) 无人驾驶目标检测方法、装置、设备及介质
CN111797829A (zh) 一种车牌检测方法、装置、电子设备和存储介质
CN112330593A (zh) 基于深度学习网络的建筑物表面裂缝检测方法
CN113052834A (zh) 一种基于卷积神经网络多尺度特征的管道缺陷检测方法
CN113076924A (zh) 基于无人船的河面垃圾实时检测方法、装置及存储介质
CN115019187B (zh) 针对sar图像船舶目标的检测方法、装置、设备及介质
CN116279592A (zh) 一种用于无人物流车的可行驶区域划分方法
CN115830004A (zh) 表面缺陷检测方法、装置、计算机设备和存储介质
CN116363037B (zh) 一种多模态图像融合方法、装置及设备
CN116452966A (zh) 一种水下图像的目标检测方法、装置、设备及存储介质
CN111429468B (zh) 细胞核分割方法、装置、设备及存储介质
CN115359064A (zh) 工业缺陷检测方法和装置
CN102750675A (zh) 一种斑点噪声污染图像的非局部均值滤波方法
CN114677349A (zh) 编解码端边缘信息增强和注意引导的图像分割方法及系统
CN117197048B (zh) 一种船舶水尺读数检测方法、装置及设备
CN117274740A (zh) 一种红外目标检测方法及装置
CN112818840A (zh) 无人机在线检测系统和方法
CN116229419B (zh) 一种行人检测方法及装置
CN116977895A (zh) 用于通用相机镜头的污渍检测方法、装置及计算机设备
CN116958780A (zh) 一种跨尺度的目标检测方法及系统
CN117671510A (zh) 一种基于目标检测和语义分割算法的船舶载重量计算方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination