CN117576165B - 船舶多目标追踪方法、装置、电子设备及存储介质 - Google Patents

船舶多目标追踪方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN117576165B
CN117576165B CN202410052660.8A CN202410052660A CN117576165B CN 117576165 B CN117576165 B CN 117576165B CN 202410052660 A CN202410052660 A CN 202410052660A CN 117576165 B CN117576165 B CN 117576165B
Authority
CN
China
Prior art keywords
ship
parameterized
convolution
target tracking
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410052660.8A
Other languages
English (en)
Other versions
CN117576165A (zh
Inventor
罗芳
王晓亮
王昊宇
吴云兰
宋龙
吴辰昊
姜鹏炬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN202410052660.8A priority Critical patent/CN117576165B/zh
Publication of CN117576165A publication Critical patent/CN117576165A/zh
Application granted granted Critical
Publication of CN117576165B publication Critical patent/CN117576165B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种船舶多目标追踪方法、装置、电子设备及存储介质,该方法包括:构建船舶多目标跟踪数据集;将船舶多目标跟踪数据集输入至预设的YOLOX‑S模型,以对YOLOX‑S模型进行训练,得到船舶多目标跟踪模型;获取待检测的船舶图像,将待检测的船舶图像输入至船舶多目标跟踪模型,得到多个船舶检测目标;确定相邻两帧船舶图像对应的相似度关系损失矩阵;基于相似度关系损失矩阵,将多个船舶检测目标对应的所有轨迹与当前帧船舶图像的高分边界框进行匹配,得到第一匹配轨迹;基于第一匹配轨迹确定船舶跟踪轨迹;YOLOX‑S模型包括依次连接的主干特征网络、RFB模块以及检测头。本发明可以实现满足实时性要求并且能在复杂场景下准确跟踪船舶的目的。

Description

船舶多目标追踪方法、装置、电子设备及存储介质
技术领域
本发明涉及目标追踪技术领域,具体涉及一种船舶多目标追踪方法、装置、电子设备及存储介质。
背景技术
多目标跟踪是计算机视觉领域中的一个重要任务,它旨在追踪视频帧中多个目标的位置。目前的多目标跟踪任务主要针对行人和车辆,船舶的多目标跟踪研究较少。随着国民经济增长和政策支持,中国航运业发展迅速,并且向着智能化无人化的方向发展,无人驾驶船舶在海面复杂环境航行时,为了能够实现其自主避障功能,需要实时地对海面上的船舶标进行感知、识别和追踪,特别是海上船舶的多目标跟踪对于实现船舶智能化,乃至于无人驾驶船舶至关重要。
当前多目标跟踪方法通常分为两大类:两阶段多目标跟踪、一阶段多目标跟踪。两阶段多目标跟踪使用两个单独的模型,首先用检测模型定位图像中目标的边界框位置,然后用关联模型对每个边界框提取重识别 (Re-identification,Re-ID)特征,并根据这些特征将边界框与现有的跟踪结果连接起来。一阶段多目标跟踪在进行目标检测的同时也进行ReID特征提取,核心思想是在单个网络中同时完成对象检测和特征提取,以通过共享大部分计算来减少推理时间。但是对于船舶跟踪而言,上述两种方法目前都存在问题,由于目标检测和外观特征提取需要两个深度学习网络,两阶段跟踪器不能满足实时性的需求,而一阶段目标跟踪器需要单个网络同时进行目标检测和重识别任务的推理,而这两个任务往往存在冲突,使得模型效果受到影响。除了上述的问题外,船舶跟踪的难点还在于海上视频摄像头安装位置、距离、方位以及复杂天气条件等导致视频质量不高,除此之外,船舶行驶过程中产生的尾浪、遮挡等问题也严重影响了船舶跟踪识别率。因此,如何设计一个能够满足实时性要求,并且能在复杂场景下准确跟踪船舶的多目标跟踪器仍是一个较为困难的问题。
发明内容
有鉴于此,有必要提供一种船舶多目标追踪方法、装置、电子设备及存储介质,用以实现满足实时性要求并且能在复杂场景下准确跟踪船舶的目的。
为了实现上述目的,本发明提供了一种船舶多目标追踪方法,包括:
构建船舶多目标跟踪数据集;
将所述船舶多目标跟踪数据集输入至预设的YOLOX-S模型,以对所述YOLOX-S模型进行训练,得到船舶多目标跟踪模型;
获取待检测的船舶图像,将所述待检测的船舶图像输入至所述船舶多目标跟踪模型,得到多个船舶检测目标;
确定相邻两帧船舶图像对应的相似度关系损失矩阵;
基于所述相似度关系损失矩阵,将所述多个船舶检测目标对应的所有轨迹与当前帧船舶图像的高分边界框进行匹配,得到第一匹配轨迹;
基于所述第一匹配轨迹确定船舶跟踪轨迹;
其中,所述YOLOX-S模型,包括依次连接的主干特征网络、RFB模块以及检测头;
所述主干特征网络,包括多层串联的特征提取层;每一特征提取层均包括基础层、第一常规卷积层、第二常规卷积层、第一重参数化卷积模块、第二重参数化卷积模块和转化层,所述第一重参数化卷积模块和所述第二重参数化卷积模块均包括多层重参数卷积层;
所述第一常规卷积层和所述第二常规卷积层的输入均与所述基础层的输出连接,所述第一常规卷积层和所述第二常规卷积层的输出均与所述转化层连接,所述第一重参数化卷积模块的输入与所述第二常规卷积层的输出连接,所述第一重参数化卷积模块的输出与所述转化层连接,所述第二重参数化卷积模块的输入与所述第一重参数化卷积模块的输出连接,所述第二重参数化卷积模块的输出与所述转化层连接。
进一步地,所述构建船舶多目标跟踪数据集,包括:
获取不同场景的船舶航行视频,并对所述船舶航行视频中的船舶进行标注,得到标注结果;
将所述标注结果转化为MOT格式,以构建船舶多目标跟踪数据集。
进一步地,所述重参数化卷积层,包括:第三常规卷积层、第四常规卷积层和识别层,所述第三常规卷积层为3×3卷积层,所述第四常规卷积层为1×1卷积层。
进一步地,所述检测头,用于基于所述RFB模块的输出确定多任务损失,以及基于所述RFB模块的输出确定重识别特征,并确定所述重识别特征对应的损失,且基于所述多任务损失和所述重识别特征对应的损失确定所述YOLOX-S模型的损失,所述YOLOX-S模型的损失用于所述YOLOX-S模型的训练;所述多任务损失包括交并比损失、置信度损失和回归损失。
进一步地,所述确定相邻两帧船舶图像对应的相似度关系损失矩阵,包括:
确定相邻两帧图像对应的高分边界框之间的交并比,以及重识别特征相似度;
基于所述交并比以及所述重识别特征相似度,确定相邻两帧船舶图像对应的相似度关系损失矩阵。
进一步地,船舶多目标追踪方法,还包括:
将所有轨迹中除所述第一匹配轨迹之外的轨迹,与当前帧船舶图像对应的中分边界框进行匹配,得到第二匹配轨迹;
将所有轨迹中除所述第一匹配轨迹和所述第二匹配轨迹之外的轨迹,与当前帧船舶图像的低分边界框进行匹配,得到第三匹配轨迹;
将所有轨迹中除所述第一匹配轨迹、所述第二匹配轨迹和所述第三匹配轨迹之外的轨迹确定为所述船舶跟踪轨迹对应的背景。
进一步地,所述对所述YOLOX-S模型进行训练,包括:
以含动量的随机梯度下降的方式、并以余弦衰减的学习率下降方式,对所述YOLOX-S模型进行训练。
本发明还提供一种船舶多目标追踪装置,包括:
构建模块,用于构建船舶多目标跟踪数据集;
训练模块,用于将所述船舶多目标跟踪数据集输入至预设的YOLOX-S模型,以对所述YOLOX-S模型进行训练,得到船舶多目标跟踪模型;
检测模块,用于获取待检测的船舶图像,将所述待检测的船舶图像输入至所述船舶多目标跟踪模型,得到多个船舶检测目标;
损失矩阵确定模块,用于确定相邻两帧船舶图像对应的相似度关系损失矩阵;
匹配模块,用于基于所述相似度关系损失矩阵,将所述多个船舶检测目标对应的所有轨迹与当前帧船舶图像的高分边界框进行匹配,得到第一匹配轨迹;
追踪模块,用于基于所述第一匹配轨迹确定船舶跟踪轨迹;
其中,所述YOLOX-S模型,包括依次连接的主干特征网络、RFB模块以及检测头;
所述主干特征网络,包括多层串联的特征提取层;每一特征提取层均包括基础层、第一常规卷积层、第二常规卷积层、第一重参数化卷积模块、第二重参数化卷积模块和转化层,所述第一重参数化卷积模块和所述第二重参数化卷积模块均包括多层重参数卷积层;
所述第一常规卷积层和所述第二常规卷积层的输入均与所述基础层的输出连接,所述第一常规卷积层和所述第二常规卷积层的输出均与所述转化层连接,所述第一重参数化卷积模块的输入与所述第二常规卷积层的输出连接,所述第一重参数化卷积模块的输出与所述转化层连接,所述第二重参数化卷积模块的输入与所述第一重参数化卷积模块的输出连接,所述第二重参数化卷积模块的输出与所述转化层连接。
本发明还提供一种电子设备,包括存储器和处理器,其中,
所述存储器,用于存储程序;
所述处理器,与所述存储器耦合,用于执行所述存储器中存储的所述程序,以实现如上述任意一项所述的船舶多目标追踪方法中的步骤。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述任一项所述的船舶多目标追踪方法。
采用上述实现方式的有益效果是:本发明提供的船舶多目标追踪方法、装置、电子设备及存储介质,通过标注船舶多目标跟踪数据集,使模型得到更好的训练和评估,利用RFB扩大感受野模块,使网络提取外观特征更加准确,增加了数据关联步骤算法的鲁棒性,在主干特征提取网络中使用重参数化卷积层,在扩大网络宽度的同时不增加推理速度,能够使网络更加充分的提取特征,提高目标检测和特征提取的准确性,满足了实时性的要求。而且,本发明还基于相似度关系损失矩阵,将多个船舶检测目标对应的所有轨迹与当前帧船舶图像的高分边界框进行匹配,进行船舶轨迹追踪,得到了更好的跟踪结果,能够实现在复杂场景下实现船舶跟踪。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的船舶多目标追踪方法的一实施例的流程图;
图2为本发明提供的主干特征网络的结构示意图;
图3为本发明提供的RFB模块的结构示意图;
图4为本发明提供的船舶多目标追踪方法的另一实施例的流程图;
图5为本发明提供的船舶多目标追踪方法的又一实施例的流程图;
图6为本发明提供的船舶多目标追踪装置的一实施例的原理框图;
图7为本发明提供的电子设备的一个实施例结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请实施例的描述中,除非另有说明, “多个”的含义是两个或两个以上。
本发明实施例中术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块的过程、方法、装置、产品或设备不必限于清楚地列出的那些步骤或模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块。
在本发明实施例中出现的对步骤进行的命名或者编号,并不意味着必须按照命名或者编号所指示的时间/逻辑先后顺序执行方法流程中的步骤,已经命名或者编号的流程步骤可以根据要实现的技术目的变更执行次序,只要能达到相同或者相似的技术效果即可。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其他实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其他实施例相结合。
本发明提供了一种船舶多目标追踪方法、装置、电子设备及存储介质,以下分别进行说明。
如图1所示,本发明提供一种船舶多目标追踪方法,包括:
步骤110、构建船舶多目标跟踪数据集;
步骤120、将所述船舶多目标跟踪数据集输入至预设的YOLOX-S模型,以对所述YOLOX-S模型进行训练,得到船舶多目标跟踪模型;
步骤130、获取待检测的船舶图像,将所述待检测的船舶图像输入至所述船舶多目标跟踪模型,得到多个船舶检测目标;
步骤140、确定相邻两帧船舶图像对应的相似度关系损失矩阵;
步骤150、基于所述相似度关系损失矩阵,将所述多个船舶检测目标对应的所有轨迹与当前帧船舶图像的高分边界框进行匹配,得到第一匹配轨迹;
步骤160、基于所述第一匹配轨迹确定船舶跟踪轨迹;
其中,所述YOLOX-S模型,包括依次连接的主干特征网络、RFB模块以及检测头;
如图2所示,所述主干特征网络,包括多层串联的特征提取层;每一特征提取层均包括基础层、第一常规卷积层、第二常规卷积层、第一重参数化卷积模块、第二重参数化卷积模块和转化层,所述第一重参数化卷积模块和所述第二重参数化卷积模块均包括多层重参数卷积层;
所述第一常规卷积层和所述第二常规卷积层的输入均与所述基础层的输出连接,所述第一常规卷积层和所述第二常规卷积层的输出均与所述转化层连接,所述第一重参数化卷积模块的输入与所述第二常规卷积层的输出连接,所述第一重参数化卷积模块的输出与所述转化层连接,所述第二重参数化卷积模块的输入与所述第一重参数化卷积模块的输出连接,所述第二重参数化卷积模块的输出与所述转化层连接。
可以理解的是,通过网络收集船舶视频资料,获取不同场景的船舶航行视频,对其进行准确标注,构建复杂场景下的船舶多目标跟踪数据集。
基于YOLOX-S模型进行改进,把主干特征网络CSPLayer替换RepLayer,使用重参数化卷积层,在不增加推理时间的情况下扩宽网络宽度,加入更多的跨层连接,提取更准确地外观特征和目标检测结果。
RFB模块的结构如图3所示,在检测头前加入RFB模块,使检测头得到更大的感受野,在获得准确目标检测的同时使网络的外观特征提取更能代表船舶,生成鲁棒性的船舶特征。
在检测头中,使用多任务损失函数,平衡网络定位,分类,回归以及外观特征提取等多个任务的训练,使模型满足多个任务的需求。
多目标跟踪步骤使用多级数据关联,如图4所示,把目标检测步骤得到的候选框分为高中低三类,为每一类设计对应的关联方法,使算法能够从置信度分数较低的检测框中挖掘到真正的物体,并且解决低置信度下外观特征与轨迹不匹配的问题。
基于上述构建的船舶多目标跟踪模型, 在公开的船舶目标检测数据集上进行预训练,得到准确的目标检测网络,然后使用上述步骤标注的多目标跟踪数据集进行进一步训练,得到训练完成的模型文件,即船舶多目标跟踪模型。
输入需要预测的船舶视频或图片文件夹,利用上述步骤训练好的模型对待检测的各种场景下的船舶视频进行处理,得到标注过的船舶视频,为每个船舶标注唯一身份识别号。
利用训练好的船舶多目标跟踪模型对待检测的船舶视频图像进行检测,具体为:
输入图片经过使用RepCSPLayer的主干特征提取网络,分别生成维度为(80,80,256)、(40,40,512)、(20,20,1024)的特征图。
将上述步骤的特征图送入特征融合金字塔网络,最终特征金字塔生成维度为20*20*1024、40*40*512、80*80*256的特征。
将生成的特征经过RFB模块扩大感受野,送入检测头网络, 得到8400个预选框。
将存在的轨迹使用训练好的LSTM模型进行位置预测,然后使用多级数据关联算法与候选框进行匹配,得到匹配后的结果,最终生成跟踪完成的视频。
本发明提供的方法,相较于传统多目标跟踪的模型,能够满足算法实时性的需求,并且得到了更好的跟踪结果,解决了单阶段多目标跟踪模型所带来的检测与跟踪算法之间的种种冲突。
在一些实施例中,所述构建船舶多目标跟踪数据集,包括:
获取不同场景的船舶航行视频,并对所述船舶航行视频中的船舶进行标注,得到标注结果;
将所述标注结果转化为MOT格式,以构建船舶多目标跟踪数据集。
可以理解的是,船舶多目标跟踪数据集,即公开的船舶目标检测数据集McShips数据集,具体地,采集不同场景下船舶航行视频,对每一帧进行标注,制作船舶跟踪数据集,包括以下步骤:
通过网络获取不同场景下的视频:获取包括光照条件弱、大雾、遮挡、正常等情况下船舶行驶视频信息。
使用DarkLable可视化的图像标注软件对船舶视频数据进行准确标注,为每艘船舶标注唯一身份识别号、真实框位置和类别。
将得到的DarkLable格式的标注结果转化为MOT格式,将视频1:1划分为训练集和测试集。
在一些实施例中,所述重参数化卷积层,包括:第三常规卷积层、第四常规卷积层和识别层,所述第三常规卷积层为3×3卷积层,所述第四常规卷积层为1×1卷积层。
可以理解的是,本发明在CSPDarkNet53主干网络的CSPLayer层间使用重参数化卷积,扩宽网络宽度并且不增加推理时间,使网络更好的收敛。并且在模块中加入更多的跨层连接,使特征更好的传播,具体步骤如下:
输入经过两个1×1卷积得到两个维度相同的特征/>通过n个重参数化卷积层得到维度相同的/>,进一步通过n个重参数化卷积层得到维度相同的/>,将/>特征图进行concat拼接,最后使用 1×1卷积将通道数为4×C的拼接特征进行维度压缩。接着进行下一步处理。
其次,网络中使用重参数化卷积层来帮助网络更好的训练。重参数化卷积层将卷积层和Bn层(正则化层)进行合并,卷积层公式为:
(1)
Bn层公式为:
(2)
将卷积层结果带入Bn层:
(3)
可以得到合并之后的结果仍是一个卷积层。
重参数化卷积有三个分支结构,3×3卷积,1×1卷积以及 identity层,将1×1卷积进行padding操作,可以扩张为一个3×3卷积, identity层是一个输入直接等于输出的网络层,把一个1×1卷积,令当前通道的卷积核参数为1,其余的卷积核参数为0就可以做到这一点,然后identity层就可以视为一个1×1卷积层,进而扩张为3×3卷积,在训练时重参数化卷积包含这三个分支结构,训练完成后可以将三个分支合并为一个3×3卷积,进而加快模型推理速度。
在一些实施例中,所述检测头,用于基于所述RFB模块的输出确定多任务损失,以及基于所述RFB模块的输出确定重识别特征,并确定所述重识别特征对应的损失,且基于所述多任务损失和所述重识别特征对应的损失确定所述YOLOX-S模型的损失,所述YOLOX-S模型的损失用于所述YOLOX-S模型的训练;所述多任务损失包括交并比损失、置信度损失和回归损失。
可以理解的是,RFB模块(扩大感受野模块)通过不同尺寸卷积核的卷积层构成的多分枝结构,加上空洞卷积层,获得更大的感受野,使网络在进行外观特征的提取时能够尽可能的包围整个物体,获得更加精确的外观特征。
具体地:
输入,经过两个1×1卷积得到两个维度相同的特征/>
Y 1分别经过1×1卷积和3×3卷积运算后,再经过空洞率为1和3的3×3空洞卷积再进行运算。得到Z 1Z 2Y 2经过5×5卷积和空洞率为5的3×3空洞卷积得到Z 3
Z 1Z 2Z 3通过1×1卷积进行维度压缩,再直接与Y 1相加,通过激活函数层输出。
模型原始的损失为交并比损失、置信度损失和回归损失,公式如下所示:
(4)
其中:Loss iou为交并比 (Intersection Over Union,IOU)损失,Loss obj为置信度损失,Loss cls为分类损失。
把每个目标作为一个类别,将重识别分支当作一个分类任务,经过卷积层之后的512个通道的特征图代表每个回归框的重识别特征,同时使用512维特征经过全连接层将其映射到1024维的向量上来代表预测的跟踪ID。其损失函数为:
(5)
引入不确定性加权损失函数,平衡多个任务的损失,损失函数修改为式(6)所示:
(6)
其中,σ 1 、σ 2 、σ 3 、σ 4为超参数。
在一些实施例中,所述确定相邻两帧船舶图像对应的相似度关系损失矩阵,包括:
确定相邻两帧图像对应的高分边界框之间的交并比,以及重识别特征相似度;
基于所述交并比以及所述重识别特征相似度,确定相邻两帧船舶图像对应的相似度关系损失矩阵。
进一步地,所述的船舶多目标追踪方法,还包括:
将所有轨迹中除所述第一匹配轨迹之外的轨迹,与当前帧船舶图像对应的中分边界框进行匹配,得到第二匹配轨迹;
将所有轨迹中除所述第一匹配轨迹和所述第二匹配轨迹之外的轨迹,与当前帧船舶图像的低分边界框进行匹配,得到第三匹配轨迹;
将所有轨迹中除所述第一匹配轨迹、所述第二匹配轨迹和所述第三匹配轨迹之外的轨迹确定为所述船舶跟踪轨迹对应的背景。
可以理解的是,本发明提出了多级数据关联算法,为了避免一些置信度不高的候选框被直接丢弃,该算法使用所有获选框,多级数据关联算法能够更好的从众多候选框中挖掘出真正的目标。
如图5所示,由检测器输出n个检测目标和他们的重识别特征,根据检测结果和阈值将其分类高分框、中分框及低分框三类。
由LSTM(Long Short-Term Memory,长短期记忆网络)模型预测m条轨迹(包括跟踪上的轨迹和上一帧未跟踪轨迹)在当前帧的位置,计算所有轨迹预测的下一帧边界框与当前帧高分边界框之间的交并比以及重识别特征相似度,获取一个两两之间的相似度关系损失矩阵。
根据损失矩阵,使用匈牙利算法对所有轨迹和当前帧高分边界框进行匹配,获得三个结果:已匹配的轨迹与边界框,未成功匹配的轨迹,未成功匹配的当前帧边界框。使用已成功匹配的当前帧边界框更新轨迹的位置和重识别特征。
找出第一次匹配中没匹配到的轨迹,使用匈牙利算法对上述追踪轨迹和当前帧中的中分边界框进行匹配,由于中分框的重识别特征可信度不足,在计算相似度时,减小重识别特征的权重。
将低分框与前两次未成功匹配的轨迹进行匹配,由于低分框有很大概率是背景,因此只将低分框与上一帧中成功跟踪的轨迹进行匹配,在相似度计算时也只使用低分框和上一帧跟踪上轨迹的交并比。
对于未匹配成功的低分框和中分框,则直接认为是背景,只将未匹配的高分框建立一个新的轨迹,由于视频中突然出现的目标可信度不高,因此将第一次建立的轨迹设置为未激活轨迹,只有连续两帧都匹配上的轨迹才会变为激活状态,否则直接删除。
将丢失超过设定值的轨迹删除,由于船舶遮挡时间较长,算法将该值设为100。
在一些实施例中,所述的船舶多目标追踪方法,所述对所述YOLOX-S模型进行训练,包括:
以含动量的随机梯度下降的方式、并以余弦衰减的学习率下降方式,对所述YOLOX-S模型进行训练。
可以理解的是,对构建的YOLOX-S模型进行训练,具体包括为:
模型的梯度下降方式为含动量的随机梯度下降;
模型的初始动量为0.9;
模型的学习率下降方式为余弦衰减;
模型的初始学习率为1E-2;
在McShips数据集上预训练本模型,获得较好检测结果的权值文件,再利用上述权值文件在标注的数据集中训练ReID(重识别)模型;
利用补充的数据集,将图片调整为640*640后,利用数据增强方法,例如Mixup、Mosaic等方法进行数据增强;
利用梯度下降算法,训练本模型的最优权值;
在标注的数据集上,使用船舶位置对LSTM模型进行训练,得到船舶位置预测模型。
综上所述,本发明提供的一种船舶多目标追踪方法,通过标注船舶多目标跟踪数据集,使模型得到更好的训练和评估,利用RFB扩大感受野模块,使网络提取外观特征更加准确,增加了数据关联步骤算法的鲁棒性,在主干特征提取网络中使用重参数化卷积层,在扩大网络宽度的同时不增加推理速度,能够使网络更加充分的提取特征,提高目标检测和特征提取的准确性,满足了实时性的要求。而且,本发明还基于相似度关系损失矩阵,将多个船舶检测目标对应的所有轨迹与当前帧船舶图像的高分边界框进行匹配,进行船舶轨迹追踪,得到了更好的跟踪结果,能够实现在复杂场景下实现船舶跟踪。
此外,本发明使用多任务损失函数,平衡了目标检测中分类,定位和回归任务以及重识别任务的学习,使网络能够更快的收敛,减少训练时间。
如图6所示,本发明还提供一种船舶多目标追踪装置600,包括:
构建模块610,用于构建船舶多目标跟踪数据集;
训练模块620,用于将所述船舶多目标跟踪数据集输入至预设的YOLOX-S模型,以对所述YOLOX-S模型进行训练,得到船舶多目标跟踪模型;
检测模块630,用于获取待检测的船舶图像,将所述待检测的船舶图像输入至所述船舶多目标跟踪模型,得到多个船舶检测目标;
损失矩阵确定模块640,用于确定相邻两帧船舶图像对应的相似度关系损失矩阵;
匹配模块650,用于基于所述相似度关系损失矩阵,将所述多个船舶检测目标对应的所有轨迹与当前帧船舶图像的高分边界框进行匹配,得到第一匹配轨迹;
追踪模块660,用于基于所述第一匹配轨迹确定船舶跟踪轨迹;
其中,所述YOLOX-S模型,包括依次连接的主干特征网络、RFB模块以及检测头;
所述主干特征网络,包括多层串联的特征提取层;每一特征提取层均包括基础层、第一常规卷积层、第二常规卷积层、第一重参数化卷积模块、第二重参数化卷积模块和转化层,所述第一重参数化卷积模块和所述第二重参数化卷积模块均包括多层重参数卷积层;
所述第一常规卷积层和所述第二常规卷积层的输入均与所述基础层的输出连接,所述第一常规卷积层和所述第二常规卷积层的输出均与所述转化层连接,所述第一重参数化卷积模块的输入与所述第二常规卷积层的输出连接,所述第一重参数化卷积模块的输出与所述转化层连接,所述第二重参数化卷积模块的输入与所述第一重参数化卷积模块的输出连接,所述第二重参数化卷积模块的输出与所述转化层连接。
上述实施例提供的船舶多目标追踪装置可实现上述船舶多目标追踪方法实施例中描述的技术方案,上述各模块或单元具体实现的原理可参见上述船舶多目标追踪方法实施例中的相应内容,此处不再赘述。
如图7所示,本发明还相应提供了一种电子设备700。该电子设备700包括处理器701、存储器702及显示器703。图7仅示出了电子设备700的部分组件,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
存储器702在一些实施例中可以是电子设备700的内部存储单元,例如电子设备700的硬盘或内存。存储器702在另一些实施例中也可以是电子设备700的外部存储设备,例如电子设备700上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
进一步地,存储器702还可既包括电子设备700的内部储存单元也包括外部存储设备。存储器702用于存储安装电子设备700的应用软件及各类数据。
处理器701在一些实施例中可以是一个中央处理器(Central Processing Unit,CPU),微处理器或其他数据处理芯片,用于运行存储器702中存储的程序代码或处理数据,例如本发明中的船舶多目标追踪方法。
显示器703在一些实施例中可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。显示器703用于显示在电子设备700的信息以及用于显示可视化的用户界面。电子设备700的部件701-703通过系统总线相互通信。
在本发明的一些实施例中,当处理器701执行存储器702中的船舶多目标追踪程序时,可实现以下步骤:
构建船舶多目标跟踪数据集;
将所述船舶多目标跟踪数据集输入至预设的YOLOX-S模型,以对所述YOLOX-S模型进行训练,得到船舶多目标跟踪模型;
获取待检测的船舶图像,将所述待检测的船舶图像输入至所述船舶多目标跟踪模型,得到多个船舶检测目标;
确定相邻两帧船舶图像对应的相似度关系损失矩阵;
基于所述相似度关系损失矩阵,将所述多个船舶检测目标对应的所有轨迹与当前帧船舶图像的高分边界框进行匹配,得到第一匹配轨迹;
基于所述第一匹配轨迹确定船舶跟踪轨迹;
其中,所述YOLOX-S模型,包括依次连接的主干特征网络、RFB模块以及检测头;
所述主干特征网络,包括多层串联的特征提取层;每一特征提取层均包括基础层、第一常规卷积层、第二常规卷积层、第一重参数化卷积模块、第二重参数化卷积模块和转化层,所述第一重参数化卷积模块和所述第二重参数化卷积模块均包括多层重参数卷积层;
所述第一常规卷积层和所述第二常规卷积层的输入均与所述基础层的输出连接,所述第一常规卷积层和所述第二常规卷积层的输出均与所述转化层连接,所述第一重参数化卷积模块的输入与所述第二常规卷积层的输出连接,所述第一重参数化卷积模块的输出与所述转化层连接,所述第二重参数化卷积模块的输入与所述第一重参数化卷积模块的输出连接,所述第二重参数化卷积模块的输出与所述转化层连接。
应当理解的是:处理器701在执行存储器702中的船舶多目标追踪程序时,除了上面的功能之外,还可实现其他功能,具体可参见前面相应方法实施例的描述。
进一步地,本发明实施例对提及的电子设备700的类型不作具体限定,电子设备700可以为手机、平板电脑、个人数字助理(personaldigitalassistant,PDA)、可穿戴设备、膝上型计算机(laptop)等便携式电子设备。便携式电子设备的示例性实施例包括但不限于搭载IOS、android、microsoft或者其他操作系统的便携式电子设备。上述便携式电子设备也可以是其他便携式电子设备,诸如具有触敏表面(例如触控面板)的膝上型计算机(laptop)等。还应当理解的是,在本发明其他一些实施例中,电子设备700也可以不是便携式电子设备,而是具有触敏表面(例如触控面板)的台式计算机。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的船舶多目标追踪方法,该方法包括:
构建船舶多目标跟踪数据集;
将所述船舶多目标跟踪数据集输入至预设的YOLOX-S模型,以对所述YOLOX-S模型进行训练,得到船舶多目标跟踪模型;
获取待检测的船舶图像,将所述待检测的船舶图像输入至所述船舶多目标跟踪模型,得到多个船舶检测目标;
确定相邻两帧船舶图像对应的相似度关系损失矩阵;
基于所述相似度关系损失矩阵,将所述多个船舶检测目标对应的所有轨迹与当前帧船舶图像的高分边界框进行匹配,得到第一匹配轨迹;
基于所述第一匹配轨迹确定船舶跟踪轨迹;
其中,所述YOLOX-S模型,包括依次连接的主干特征网络、RFB模块以及检测头;
所述主干特征网络,包括多层串联的特征提取层;每一特征提取层均包括基础层、第一常规卷积层、第二常规卷积层、第一重参数化卷积模块、第二重参数化卷积模块和转化层,所述第一重参数化卷积模块和所述第二重参数化卷积模块均包括多层重参数卷积层;
所述第一常规卷积层和所述第二常规卷积层的输入均与所述基础层的输出连接,所述第一常规卷积层和所述第二常规卷积层的输出均与所述转化层连接,所述第一重参数化卷积模块的输入与所述第二常规卷积层的输出连接,所述第一重参数化卷积模块的输出与所述转化层连接,所述第二重参数化卷积模块的输入与所述第一重参数化卷积模块的输出连接,所述第二重参数化卷积模块的输出与所述转化层连接。
本领域技术人员可以理解,实现上述实施例方法的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,程序可存储于计算机可读存储介质中。其中,计算机可读存储介质为磁盘、光盘、只读存储记忆体或随机存储记忆体等。
以上对本发明所提供的船舶多目标追踪方法、装置、电子设备及存储介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (9)

1.一种船舶多目标追踪方法,其特征在于,包括:
构建船舶多目标跟踪数据集;
将所述船舶多目标跟踪数据集输入至预设的YOLOX-S模型,以对所述YOLOX-S模型进行训练,得到船舶多目标跟踪模型;
获取待检测的船舶图像,将所述待检测的船舶图像输入至所述船舶多目标跟踪模型,得到多个船舶检测目标;
确定相邻两帧船舶图像对应的相似度关系损失矩阵;
基于所述相似度关系损失矩阵,将所述多个船舶检测目标对应的所有轨迹与当前帧船舶图像的高分边界框进行匹配,得到第一匹配轨迹;
基于所述第一匹配轨迹确定船舶跟踪轨迹;
其中,所述YOLOX-S模型,包括依次连接的主干特征网络、RFB模块以及检测头;
所述主干特征网络,包括多层串联的特征提取层;每一特征提取层均包括基础层、第一常规卷积层、第二常规卷积层、第一重参数化卷积模块、第二重参数化卷积模块和转化层,所述第一重参数化卷积模块和所述第二重参数化卷积模块均包括多层重参数化卷积层;
所述第一常规卷积层和所述第二常规卷积层的输入均与所述基础层的输出连接,所述第一常规卷积层和所述第二常规卷积层的输出均与所述转化层连接,所述第一重参数化卷积模块的输入与所述第二常规卷积层的输出连接,所述第一重参数化卷积模块的输出与所述转化层连接,所述第二重参数化卷积模块的输入与所述第一重参数化卷积模块的输出连接,所述第二重参数化卷积模块的输出与所述转化层连接;
所述确定相邻两帧船舶图像对应的相似度关系损失矩阵,包括:
确定相邻两帧图像对应的高分边界框之间的交并比,以及重识别特征相似度;
基于所述交并比以及所述重识别特征相似度,确定相邻两帧船舶图像对应的相似度关系损失矩阵。
2.根据权利要求1所述的船舶多目标追踪方法,其特征在于,所述构建船舶多目标跟踪数据集,包括:
获取不同场景的船舶航行视频,并对所述船舶航行视频中的船舶进行标注,得到标注结果;
将所述标注结果转化为MOT格式,以构建船舶多目标跟踪数据集。
3.根据权利要求1所述的船舶多目标追踪方法,其特征在于,所述重参数化卷积层,包括:第三常规卷积层、第四常规卷积层和识别层,所述第三常规卷积层为3×3卷积层,所述第四常规卷积层为1×1卷积层。
4.根据权利要求1所述的船舶多目标追踪方法,其特征在于,所述检测头,用于基于所述RFB模块的输出确定多任务损失,以及基于所述RFB模块的输出确定重识别特征,并确定所述重识别特征对应的损失,且基于所述多任务损失和所述重识别特征对应的损失确定所述YOLOX-S模型的损失,所述YOLOX-S模型的损失用于所述YOLOX-S模型的训练;所述多任务损失包括交并比损失、置信度损失和回归损失。
5.根据权利要求1所述的船舶多目标追踪方法,其特征在于,还包括:
将所有轨迹中除所述第一匹配轨迹之外的轨迹,与当前帧船舶图像对应的中分边界框进行匹配,得到第二匹配轨迹;
将所有轨迹中除所述第一匹配轨迹和所述第二匹配轨迹之外的轨迹,与当前帧船舶图像的低分边界框进行匹配,得到第三匹配轨迹;
将所有轨迹中除所述第一匹配轨迹、所述第二匹配轨迹和所述第三匹配轨迹之外的轨迹确定为所述船舶跟踪轨迹对应的背景。
6.根据权利要求1-5任一项所述的船舶多目标追踪方法,其特征在于,所述对所述YOLOX-S模型进行训练,包括:
以含动量的随机梯度下降的方式、并以余弦衰减的学习率下降方式,对所述YOLOX-S模型进行训练。
7.一种船舶多目标追踪装置,其特征在于,包括:
构建模块,用于构建船舶多目标跟踪数据集;
训练模块,用于将所述船舶多目标跟踪数据集输入至预设的YOLOX-S模型,以对所述YOLOX-S模型进行训练,得到船舶多目标跟踪模型;
检测模块,用于获取待检测的船舶图像,将所述待检测的船舶图像输入至所述船舶多目标跟踪模型,得到多个船舶检测目标;
损失矩阵确定模块,用于确定相邻两帧船舶图像对应的相似度关系损失矩阵;
匹配模块,用于基于所述相似度关系损失矩阵,将所述多个船舶检测目标对应的所有轨迹与当前帧船舶图像的高分边界框进行匹配,得到第一匹配轨迹;
追踪模块,用于基于所述第一匹配轨迹确定船舶跟踪轨迹;
其中,所述YOLOX-S模型,包括依次连接的主干特征网络、RFB模块以及检测头;
所述主干特征网络,包括多层串联的特征提取层;每一特征提取层均包括基础层、第一常规卷积层、第二常规卷积层、第一重参数化卷积模块、第二重参数化卷积模块和转化层,所述第一重参数化卷积模块和所述第二重参数化卷积模块均包括多层重参数化卷积层;
所述第一常规卷积层和所述第二常规卷积层的输入均与所述基础层的输出连接,所述第一常规卷积层和所述第二常规卷积层的输出均与所述转化层连接,所述第一重参数化卷积模块的输入与所述第二常规卷积层的输出连接,所述第一重参数化卷积模块的输出与所述转化层连接,所述第二重参数化卷积模块的输入与所述第一重参数化卷积模块的输出连接,所述第二重参数化卷积模块的输出与所述转化层连接;
所述确定相邻两帧船舶图像对应的相似度关系损失矩阵,包括:
确定相邻两帧图像对应的高分边界框之间的交并比,以及重识别特征相似度;
基于所述交并比以及所述重识别特征相似度,确定相邻两帧船舶图像对应的相似度关系损失矩阵。
8.一种电子设备,其特征在于,包括存储器和处理器,其中,
所述存储器,用于存储程序;
所述处理器,与所述存储器耦合,用于执行所述存储器中存储的所述程序,以实现如权利要求1至6中任意一项所述的船舶多目标追踪方法中的步骤。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述的船舶多目标追踪方法。
CN202410052660.8A 2024-01-15 2024-01-15 船舶多目标追踪方法、装置、电子设备及存储介质 Active CN117576165B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410052660.8A CN117576165B (zh) 2024-01-15 2024-01-15 船舶多目标追踪方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410052660.8A CN117576165B (zh) 2024-01-15 2024-01-15 船舶多目标追踪方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN117576165A CN117576165A (zh) 2024-02-20
CN117576165B true CN117576165B (zh) 2024-04-19

Family

ID=89888484

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410052660.8A Active CN117576165B (zh) 2024-01-15 2024-01-15 船舶多目标追踪方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN117576165B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110147807A (zh) * 2019-01-04 2019-08-20 上海海事大学 一种船舶智能识别跟踪方法
CN114820490A (zh) * 2022-04-18 2022-07-29 大连工业大学 一种基于yolox改进算法的聚集血小板检测方法
CN115082737A (zh) * 2022-06-27 2022-09-20 长沙理工大学 一种基于全通道空间定位注意力机制的实时目标检测方法
CN115578653A (zh) * 2022-09-27 2023-01-06 北京理工大学 一种基于深度学习的无人机重识别方法
CN115719450A (zh) * 2022-11-18 2023-02-28 西北工业大学 基于自适应感受野增强的航拍小目标检测方法
CN115797326A (zh) * 2022-12-26 2023-03-14 安徽大学 一种基于改进yolox-s算法的金属铸件表面缺陷检测方法
CN116051861A (zh) * 2022-11-30 2023-05-02 江南大学 一种基于重参数化的无锚框目标检测方法
CN116542912A (zh) * 2023-04-13 2023-08-04 昆明理工大学 一种多目标视觉跟踪的柔性体桥梁振动检测模型、应用
CN116645402A (zh) * 2023-03-30 2023-08-25 重庆邮电大学 一种基于改进目标检测网络的在线行人跟踪方法
EP4303813A1 (en) * 2022-07-07 2024-01-10 Fujitsu Limited Method, apparatus and storage medium for multi-target multi-camera tracking

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110147807A (zh) * 2019-01-04 2019-08-20 上海海事大学 一种船舶智能识别跟踪方法
CN114820490A (zh) * 2022-04-18 2022-07-29 大连工业大学 一种基于yolox改进算法的聚集血小板检测方法
CN115082737A (zh) * 2022-06-27 2022-09-20 长沙理工大学 一种基于全通道空间定位注意力机制的实时目标检测方法
EP4303813A1 (en) * 2022-07-07 2024-01-10 Fujitsu Limited Method, apparatus and storage medium for multi-target multi-camera tracking
CN115578653A (zh) * 2022-09-27 2023-01-06 北京理工大学 一种基于深度学习的无人机重识别方法
CN115719450A (zh) * 2022-11-18 2023-02-28 西北工业大学 基于自适应感受野增强的航拍小目标检测方法
CN116051861A (zh) * 2022-11-30 2023-05-02 江南大学 一种基于重参数化的无锚框目标检测方法
CN115797326A (zh) * 2022-12-26 2023-03-14 安徽大学 一种基于改进yolox-s算法的金属铸件表面缺陷检测方法
CN116645402A (zh) * 2023-03-30 2023-08-25 重庆邮电大学 一种基于改进目标检测网络的在线行人跟踪方法
CN116542912A (zh) * 2023-04-13 2023-08-04 昆明理工大学 一种多目标视觉跟踪的柔性体桥梁振动检测模型、应用

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ByteTrack: Multi-object Tracking by Associating Every Detection Box;Yifu Zhang 等;《ECCV 2022》;20221231;全文 *
Multi-Equipment DetectionMethod for Distribution Lines Based on Improved YOLOx-s;Lei Hu 等;《Computers, Materials & Continua》;20231226;全文 *
复杂场景下自适应特征融合的多尺度船舶;罗芳 等;《计算机应用》;20231231;第43卷(第11期);全文 *

Also Published As

Publication number Publication date
CN117576165A (zh) 2024-02-20

Similar Documents

Publication Publication Date Title
Liu et al. Seqlpd: Sequence matching enhanced loop-closure detection based on large-scale point cloud description for self-driving vehicles
Dewi et al. Robust detection method for improving small traffic sign recognition based on spatial pyramid pooling
Xia et al. An evaluation of deep learning in loop closure detection for visual SLAM
CN111862213A (zh) 定位方法及装置、电子设备、计算机可读存储介质
Sun et al. Global Mask R-CNN for marine ship instance segmentation
Li et al. Tracknet: Simultaneous object detection and tracking and its application in traffic video analysis
CN112861808B (zh) 动态手势识别方法、装置、计算机设备及可读存储介质
CN114898403A (zh) 一种基于Attention-JDE网络的行人多目标跟踪方法
Si et al. Maritime ship detection method for satellite images based on multiscale feature fusion
Sun et al. IRDCLNet: Instance segmentation of ship images based on interference reduction and dynamic contour learning in foggy scenes
Alcantarilla et al. Visibility learning in large-scale urban environment
Abdullah et al. Vehicle counting using deep learning models: a comparative study
Li et al. Real-time monocular joint perception network for autonomous driving
Zhang et al. An improved YOLO algorithm for rotated object detection in remote sensing images
CN112329830B (zh) 一种基于卷积神经网络和迁移学习的无源定位轨迹数据识别方法及系统
CN113269038A (zh) 一种基于多尺度的行人检测方法
CN117576165B (zh) 船舶多目标追踪方法、装置、电子设备及存储介质
CN113096104B (zh) 目标分割模型的训练方法及装置和目标分割方法及装置
CN112613472B (zh) 一种基于深度搜索匹配的行人检测方法及系统
Chai et al. 3D gesture recognition method based on faster R-CNN network
Wu et al. Joint learning of Siamese network with top-down modulation and hard example mining for visual tracking
Wang et al. A multi-information fusion correlation filters tracker
Liu et al. SVSDet: A Fine-Grained Recognition Method for Ship Target Using Satellite Video
CN116486203B (zh) 一种基于孪生网络和在线模板更新的单目标跟踪方法
Shao et al. Context feature fusion and enhanced non-maximum suppression for pedestrian detection in crowded scenes

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant