CN115719368B - 一种多目标船舶跟踪方法及系统 - Google Patents

一种多目标船舶跟踪方法及系统 Download PDF

Info

Publication number
CN115719368B
CN115719368B CN202211511427.9A CN202211511427A CN115719368B CN 115719368 B CN115719368 B CN 115719368B CN 202211511427 A CN202211511427 A CN 202211511427A CN 115719368 B CN115719368 B CN 115719368B
Authority
CN
China
Prior art keywords
ship
image
track
tracking
video image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211511427.9A
Other languages
English (en)
Other versions
CN115719368A (zh
Inventor
陈信强
韩冰
吴中岱
吴星宇
杨勇生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Maritime University
Cosco Shipping Technology Co Ltd
Shanghai Ship and Shipping Research Institute Co Ltd
Original Assignee
Shanghai Maritime University
Cosco Shipping Technology Co Ltd
Shanghai Ship and Shipping Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Maritime University, Cosco Shipping Technology Co Ltd, Shanghai Ship and Shipping Research Institute Co Ltd filed Critical Shanghai Maritime University
Priority to CN202211511427.9A priority Critical patent/CN115719368B/zh
Publication of CN115719368A publication Critical patent/CN115719368A/zh
Application granted granted Critical
Publication of CN115719368B publication Critical patent/CN115719368B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种多目标船舶跟踪方法及系统,该方法基于待测海事视频图像并进行分帧处理得到海事视频图像序列,采用特征金字塔网络对海事视频图像序列进行尺寸缩放和特征提取,并将提取出的海事视频图像特征作为训练集样本分别输入至预先建立的U‑Net语义分割模型和基于FairMOT算法以及BYTE数据关联算法的多目标跟踪网络中进行训练,得到船舶高精度像素图像和船舶跟踪轨迹图像,然后对船舶高精度像素图像中具有船舶像素点的区域进行图像分割得到高精度像素分割图像,再根据船舶跟踪轨迹图像获取具有时间序列的船舶位置点信息以绘制出船舶轨迹并对两者进行融合,得到具有船舶高精度像素分割图像和船舶轨迹的图像信息并进行展示,实现多目标船舶的跟踪。

Description

一种多目标船舶跟踪方法及系统
技术领域
本发明涉及视频监控技术领域,具体涉及一种多目标船舶跟踪方法及系统。
背景技术
随着物联网的广泛应用,考虑到自动收集交通数据、分析和预测一定时间内的船舶航行环境等优点,智能船舶被认为是一个未来的船舶发展方向。海事视觉感官数据(如监控视频)为水路交通参与者提供了丰富的运动学和静态数据。更具体地说,交通监管部门通过海事闭路电视数据的帮助监测现场交通情况,并对危险区域的交通情况给予额外关注。传统的监测方法是基于kalman、mean-shift、管道跟踪、光流法等跟踪和检测方法实现的。这类方法是将图像背景变化作为依据来进行建模研究,通过对连续几帧内的图像进行差分运算后,进行阈值判断,从而得到目标检测和跟踪的效果。然而这类算法在面临遮挡、成像角度差、复杂天气干扰等问题时,其鲁棒性较低,使得目标检测和跟踪的结果变得困难。
随着近年来计算机视觉的不断发展,基于深度学习的目标检测算法、多目标跟踪算法(MOT)、语义分割算法等不断为海上交通参与者提供准确的判断依据。更具体地说,船舶运动信息和轨迹信息等可以通过船舶检测和跟踪方法从海上视频中获得。然而面对愈发严峻的海上航行任务,船舶成像面积差异较大、检测结果中非船舶像素过多、船舶互相遮挡所导致的目标丢失等问题亟待解决。针对以上问题,亟需一种多目标船舶跟踪的可视化方法来应对目前海事图像中船舶跟踪、船舶分割的挑战。
发明内容
为解决目前海事图像监测中存在的船舶成像面积差异较大、检测结果中非船舶像素过多、以及船舶互相遮挡所导致的目标丢失等问题,本发明提供了一种多目标船舶跟踪方法,通过采用特征金字塔网络(FPN网络)和transformer模型的注意力机制进行特征提取,并采用U-Net语义分割模型和基于FairMOT算法以及BYTE数据关联算法的多目标跟踪网络得到船舶的高精度像素分割结果和船舶轨迹结果,解决了缺少船舶外形特征和由于遮挡所导致的船舶跟踪问题。本发明还涉及一种多目标船舶跟踪系统。
本发明的技术方案如下:
一种多目标船舶跟踪方法,其特征在于,包括以下步骤:
图像获取步骤:获取待测海事视频图像,并对待测海事视频图像进行分帧处理,得到海事视频图像序列;
特征提取步骤:采用特征金字塔网络对海事视频图像序列进行尺寸缩放和基于transformer模型的特征提取,得到不同尺寸并具有特征相关度的海事视频图像特征;
特征训练步骤:将海事视频图像特征作为训练集样本分别输入至预先建立的U-Net语义分割模型和基于FairMOT算法以及BYTE数据关联算法的多目标跟踪网络中进行训练,得到船舶高精度像素图像和船舶跟踪轨迹图像;
船舶跟踪步骤:对船舶高精度像素图像中具有船舶像素点的区域进行图像分割,得到高精度像素分割图像并进行高亮标识;再根据船舶跟踪轨迹图像获取具有时间序列的船舶位置点信息以绘制出船舶轨迹,将船舶轨迹与高亮标识的高精度像素分割图像进行融合,得到具有船舶高精度像素分割图像和船舶轨迹的图像信息并进行展示,以实现多目标船舶的跟踪。
优选地,所述特征提取步骤中,基于transformer模型的注意力机制中计算出图像特征间的相关度,并引入残差结构和前馈神经网络将特征融合后输出;所述注意力机制包括自注意力机制和多头自注意力机制。
优选地,所述特征训练步骤中,将海事视频图像特征输入至基于FairMOT算法以及BYTE数据关联算法的多目标跟踪网络中进行训练包括:
S1:将海事视频图像特征输入至FairMOT算法中,得到海事视频图像序列包含的多目标信息,所述多目标信息包括目标所在的检测框和ID特征,提取检测框中目标中心点的ID特征并按时序对所述ID特征进行连结,得到船舶的初始跟踪轨迹;
S2:将初始跟踪轨迹输入至BYTE数据关联算法,并将所有检测框分为高分框和低分框,使用高分框和初始跟踪轨迹进行匹配,使用低分框和未能与高分框匹配上的初始跟踪轨迹进行匹配,并对未能匹配初始跟踪轨迹的高分框进行新建轨迹,将未能匹配的初始跟踪轨迹重新分为高分框和低分框并保留一段时间后再进行匹配,得到船舶跟踪轨迹图像并进行保存。
优选地,所述特征训练步骤中,采用交叉熵损失函数作为U-Net语义分割模型训练中的损失函数,并采用adam优化器对U-Net语义分割模型的权重参数进行更新。
优选地,在U-Net语义分割模型训练过程中,得到损失函数值最小的权重文件,将海事视频图像放入U-Net语义分割模型中,调用所述权重文件,并通过softmax函数将海事视频图像中的每个像素点进行分类,得到船舶高精度像素图像并进行保存。
一种多目标船舶跟踪系统,其特征在于,包括依次连接的图像获取模块、特征提取模块、特征训练模块和船舶跟踪模块,
图像获取模块,获取待测海事视频图像,并对待测海事视频图像进行分帧处理,得到海事视频图像序列;
特征提取模块,采用特征金字塔网络对海事视频图像序列进行尺寸缩放和基于transformer模型的特征提取,得到不同尺寸并具有特征相关度的海事视频图像特征;
特征训练模块,将海事视频图像特征作为训练集样本分别输入至预先建立的U-Net语义分割模型和基于FairMOT算法以及BYTE数据关联算法的多目标跟踪网络中进行训练,得到船舶高精度像素图像和船舶跟踪轨迹图像;
船舶跟踪模块,对船舶高精度像素图像中具有船舶像素点的区域进行图像分割,得到高精度像素分割图像并进行高亮标识;再根据船舶跟踪轨迹图像获取具有时间序列的船舶位置点信息以绘制出船舶轨迹,将船舶轨迹与高亮标识的高精度像素分割图像进行融合,得到具有船舶高精度像素分割图像和船舶轨迹的图像信息并进行展示,以实现多目标船舶的跟踪。
优选地,所述特征提取模块中,基于transformer模型的注意力机制中计算出图像特征间的相关度,并引入残差结构和前馈神经网络将特征融合后输出;所述注意力机制包括自注意力机制和多头自注意力机制。
优选地,所述特征训练模块中,将海事视频图像特征输入至基于FairMOT算法以及BYTE数据关联算法的多目标跟踪网络中进行训练包括:
S1:将海事视频图像特征输入至FairMOT算法中,得到海事视频图像序列包含的多目标信息,所述多目标信息包括目标所在的检测框和ID特征,提取检测框中目标中心点的ID特征并按时序对所述ID特征进行连结,得到船舶的初始跟踪轨迹;
S2:将初始跟踪轨迹输入至BYTE数据关联算法,并将所有检测框分为高分框和低分框,使用高分框和初始跟踪轨迹进行匹配,使用低分框和未能与高分框匹配上的初始跟踪轨迹进行匹配,并对未能匹配初始跟踪轨迹的高分框进行新建轨迹,将未能匹配的初始跟踪轨迹重新分为高分框和低分框并保留一段时间后,再进行匹配,得到船舶跟踪轨迹图像并进行保存。
优选地,所述特征训练模块中,采用交叉熵损失函数作为U-Net语义分割模型训练中的损失函数,并采用adam优化器对U-Net语义分割模型的权重参数进行更新。
优选地,在U-Net语义分割模型训练过程中,得到损失函数值最小的权重文件,将海事视频图像放入U-Net语义分割模型中,调用所述权重文件,并通过softmax函数将海事视频图像中的每个像素点进行分类得到船舶高精度像素图像并进行保存。
本发明的有益效果为:
本发明提供的一种多目标船舶跟踪方法,基于待测海事视频图像,采用特征金字塔网络(Feature Pyramid Networks,FPN)对待测海事视频图像进行尺寸缩放,得到不同尺寸的图像特征金字塔,通过对不同尺寸的特征进行提取,得到包含船舶深层特征和浅层特征的图像特征(特征金字塔);同时基于transformer模型进行特征提取,优选引入基于transformer的自注意力机制与特征融合残差块,采用transformer模型中的多头自注意力机制模块计算特征间的相关度,引入残差结构和前馈神经网络将特征融合后输出,增强特征提取的能力,输出特征仍为金字塔结构;然后构建基于编码器—解码器结构的U-Net语义分割模型对输入的海事视频图像特征进行高精度像素分类,并构建基于FairMOT算法和BYTE数据关联算法的多目标跟踪网络对海事视频图像特征进行训练,有效解决了船舶多目标跟踪、轨迹提取和由于遮挡所导致的跟踪问题;最后分析船舶跟踪轨迹图像结果中的船舶位置信息和船舶高精度像素分割图像结果中的传播图像信息,将两种结果按照时序排列后叠加输出,实现动态可视化效果,在输出结果中既能得到包含船舶外形特征的高精度分割结果,也能够得到船舶的轨迹特征。本发明能够准确地分割和识别船舶,解决了目前存在的船舶图像分割精度低,遮挡所导致的跟踪效果差的实际问题。
本发明还涉及一种多目标船舶跟踪系统,该系统与上述的多目标船舶跟踪方法相对应,可理解为是一种实现上述多目标船舶跟踪方法的系统,包括依次连接的图像获取模块、特征提取模块、特征训练模块和船舶跟踪模块,各模块相互协同工作,通过采用特征金字塔网络(FPN网络)和transformer模型的注意力机制对待测海事视频图像中的船舶进行特征提取,并将提取出的船舶图像特征分别送入预先建立的U-Net语义分割模型和基于FairMOT算法以及BYTE数据关联算法的多目标跟踪网络,得到船舶的高精度像素分割结果和船舶轨迹结果,有效解决了传统识别和跟踪方法中出现的缺少船舶外形特征和由于遮挡所导致的船舶跟踪问题,为港航交通安全提供保障与技术支持。
附图说明
图1是本发明多目标船舶跟踪方法的流程图。
图2是本发明船舶特征提取图。
图3是本发明船舶分割图。
具体实施方式
下面结合附图对本发明进行说明。
本发明涉及一种多目标船舶跟踪方法,该方法的流程图如图1所示,依次包括以下步骤:
图像获取步骤:获取待测海事视频图像,并对待测海事视频图像进行分帧处理,得到海事视频图像序列;
具体地,在通航口岸附近或船舶上安装视频采集摄像头,通过对附近航行船舶进行拍摄,以获取不同场景下的临近水域海事视频图像,并对获取到的不同场景下的临近水域海事视频图像进行分帧处理,得到包含船舶航行运动的海事视频图像序列;其中,海事视频图像序列包括多帧视频图像。
特征提取步骤:采用特征金字塔网络FPN对海事视频图像序列进行尺寸缩放和基于transformer模型的特征提取,得到不同尺寸并具有特征相关度的海事视频图像特征;
具体地,如图2所示,首先引入FPN模型中的特征金字塔网络FPN,构建能够实现对不同尺寸船舶进行特征提取的多尺度特征金字塔网络,然后将包含不同场景的海事视频图像序列输入至FPN,FPN先对输入的海事视频图像进行不同尺度的缩放,利用卷积操作对海事视频图像中的特征进行提取,得到不同尺寸的海事视频图像特征并将其按照金字塔结构进行排列,得到图像特征金字塔。其中,特征金字塔网络中包含了卷积、池化、激活等深度网络中常见的操作,卷积操作和池化操作的计算公式分别如下:
上式中,为第c卷积层中第i个特征图,G()为激活函数,Ni为前一层特征图的集合,/>为卷积核的权重值,/>为偏置项;原始图像大小为Si×Si,输出图像大小为Si+1×Si+1,卷积核尺寸为K×K,P为padding操作,取值为0或1,D为步长stride的值。
将得到的图像特征金字塔输入到基于transformer的注意力机制中,该框架是由自注意力机制和多头自注意力机制组成,其过程包括以下几个步骤:
1)将输入分别映射到三个新的子空间,由A、B、C表示;
2)选取某一输入的A,与所有输入的B进行计算,得到相关度;
3)将此相关度,经过一个softmax函数进行归一化,并增加数据间的差异性;
4)将权重系数与C进行加权求和后,得到注意力分数,其计算公式如下:
其中,A、B、C为输入映射出的新的三个子空间向量,L为A、B的列数。
其中,多头自注意力机制是将上述多个自注意力机制结果进行拼接,再通过线性转换得到的结果;在多头自注意力机制框架中,每层结果都是用残差结构进行连接,随后经过前馈神经网络和归一化层,并将得到的特征依旧按照金字塔的格式进行排列输出。残差结构的公式如下:
Fi+1=Fi+G(Fi,Ki) (4)
其中,Fi为直接映射部分,G(Fi,Ki)为残差部分。
特征训练步骤:将海事视频图像特征作为训练集样本分别输入至预先建立的U-Net语义分割模型和基于FairMOT算法以及BYTE数据关联算法的多目标跟踪网络中进行训练,得到船舶高精度像素图像和船舶跟踪轨迹图像;
具体地,如图3所示,首先引入encoder-decoder结构,构建U-Net语义分割模型,使用浅层特征与深层特征叠加的结构,保证特征的细节输出的一致性。U-Net语义分割模型中使用了卷积操作、池化操作和批标准化操作等;
再将海事视频图像特征作为训练集样本输入至U-Net语义分割模型进行训练,训练过程中反复调整U-Net语义分割模型的超参数,并使用不同的优化器、损失函数以及抑制过拟合的方法,如L1、L2正则化等,对U-Net语义分割模型的权重参数进行更新以得到较好的权重参数。
同时选用拟合程度较好的U-Net权重作为预训练权重进行训练,以及选用交叉熵损失函数作为语义分割训练中的损失函数,其计算公式如下:
L9ss=-[ltlog lp+(1-lt)log (1-lp)] (5)
其中,lt和lp分别为真实值的标签(取值为0或1)和预测的概率值,其中,lt∈(0,1);
再调用adam优化器对U-Net语义分割模型的权重参数进行更新,其计算公式如下所示:
其中,pm为第m个节点的输出值,M为所有输出节点的个数,Softmax(pm)可以将输出结果转换为和为1的概率分布;
训练过程中,会得到Loss值最小的权重文件,可以将需要预测的海事视频图像放入U-Net语义分割模型中,调用此权重文件,并通过softmax函数将海事视频图像中的每个像素点进行分类,即分类的结果为:该像素点是船舶像素点,还是非船舶像素点;最后将分类结果进行输出,得到船舶高精度像素分类结果并进行保存。
然后,再将提取到的海事视频图像特征作为训练集样本输入至FairMOT算法的编码器、解码器网络,得到海事视频图像序列包含的多目标信息,所述多目标信息包括检测框和ID特征,提取检测框中目标中心点的ID特征并按时序对所述ID特征进行连结,得到初始跟踪轨迹;
再将FairMOT得到的初始跟踪轨迹输入至BYTE数据关联算法,首先将所有检测框分为高分框和低分框,使用高分框和初始跟踪轨迹进行匹配,使用低分框和未能与高分框匹配上的初始跟踪轨迹进行匹配,并对未能匹配初始跟踪轨迹的高分框进行新建轨迹,此外,考虑到船舶的运行速度较慢,且遮挡面积较大,因此将此未能匹配的初始跟踪轨迹重新分为高分框和低分框并保留5-10s后再进行匹配,得到船舶跟踪轨迹图像并进行保存。
船舶跟踪步骤:对船舶高精度像素图像中具有船舶像素点的区域(即船体外轮廓所涵盖住的所有像素点,例如船舶首部,尾部,甲板,驾驶台等区域)进行图像分割,得到高精度像素分割图像并进行高亮标识;再根据船舶跟踪轨迹图像获取具有时间序列的船舶位置点信息以绘制出船舶轨迹,将船舶轨迹与高亮标识的高精度像素分割图像进行融合,得到具有船舶高精度像素分割图像和船舶轨迹的图像信息并进行展示,以实现多目标船舶的跟踪。
具体地,将船舶跟踪轨迹图像中船舶在图像中的位置信息保存成具有时间序列的船舶位置点信息,并将船舶位置点信息绘制成船舶轨迹;再根据U-Net语义分割模型结果中的高精度像素分割图像结果,对包含船舶像素点的区域进行图像分割,并使用高亮颜色对分割结果进行标识;将具有时间序列的船舶位置点信息与船舶分割结果的时间序列图像进行融合输出,将具有时间序列的输出结果在船载导航设备上进行动态展示,实现了智能化的船舶动态轨迹与分割结果的双向输出,为智能航行提供精准的判断依据。
实施例:
先借助岸基图像采集平台和船载图像采集平台分别采集了海事图像视频片段,根据场景需要分别将视频片段进行截取,分别得到场景1和场景2两个视频片段,表1包含了两个视频片段的详细信息。场景1采集于船载图像采集平台,是一个多船的场景,包含了11-14条不同吨位的散货船、集装箱船等,并且在片段中包含了较多的船舶遮挡场景,便于验证方法的准确性。场景2采集于岸基图像采集平台,是一个雾天场景,包含远处的2-3艘集装箱船和近距离的一艘帆船,其中帆船的桅杆在图像上和远处的集装箱船形成了遮挡。
表1
首先,引入FPN模型中的特征金字塔网络对海事视频图像中不同尺寸的特征进行提取,得到包含船舶深层和浅层特征的特征金字塔,如图2左侧所示的特征图0、特征图1……特征图8等特征子图,再采用transformer模型中的注意力机制计算特征间的相关度,并引入残差结构和前馈神经网络将特征融合后输出,可以更准确辨别图像中的像素是属于船舶像素点,还是非船舶像素点,且输出特征仍为金字塔结构,如图2右侧所示的输出的特征图。其次将特征分别输入到基于编码器—解码器结构的U-Net船舶语义分割模型中,和基于FairMOT算法以及BYTE数据关联算法的多目标船舶跟踪模型中得到船舶图像高精度像素分割图像和船舶跟踪轨迹图像。如图3所示的船舶分割图。实验结果表明,本方法能够在不同的场景得到精度超过95%的分割精度,检测和跟踪的精度也达到了90%以上。
本发明还涉及了一种多目标船舶跟踪系统,该系统与上述多目标船舶跟踪系统方法相对应,可理解为是实现上述方法的系统,该系统包括依次连接的图像获取模块、特征提取模块、特征训练模块和船舶跟踪模块,具体地,
图像获取模块,获取待测海事视频图像,并对待测海事视频图像进行分帧处理,得到海事视频图像序列;
特征提取模块,采用特征金字塔网络FPN对海事视频图像序列进行尺寸缩放和基于transformer模型特征提取,得到不同尺寸并具有特征相关度的海事视频图像特征;
特征训练模块,将海事视频图像特征作为训练集样本分别输入至预先建立的U-Net语义分割模型和基于FairMOT算法以及BYTE数据关联算法的多目标跟踪网络中进行训练,得到船舶高精度像素图像和船舶跟踪轨迹图像;
船舶跟踪模块,对船舶高精度像素图像中具有船舶像素点的区域进行图像分割,得到高精度像素分割图像并进行高亮标识;再根据船舶跟踪轨迹图像获取具有时间序列的船舶位置点信息以绘制出船舶轨迹,将船舶轨迹与高亮标识的高精度像素分割图像进行融合,得到具有船舶高精度像素分割图像和船舶轨迹的图像信息并进行展示,以实现多目标船舶的跟踪。
优选地,特征提取模块中,基于transformer模型的注意力机制中计算出图像特征间的相关度,并引入残差结构和前馈神经网络将特征融合后输出;所述注意力机制包括自注意力机制和多头自注意力机制。
优选地,特征训练模块中,将海事视频图像特征输入至基于FairMOT算法以及BYTE数
据关联算法的多目标跟踪网络中进行训练包括:
S1:将海事视频图像特征输入至FairMOT算法中,得到海事视频图像序列包含的多目标信息,所述多目标信息包括目标所在的检测框和ID特征,提取检测框中目标中心点的ID特征并按时序对所述ID特征进行连结,得到船舶的初始跟踪轨迹;
S2:将初始跟踪轨迹输入至BYTE数据关联算法,并将所有检测框分为高分框和低分框,使用高分框和初始跟踪轨迹进行匹配,使用低分框和未能与高分框匹配上的初始跟踪轨迹进行匹配,并对未能匹配初始跟踪轨迹的高分框进行新建轨迹,将未能匹配的初始跟踪轨迹重新分为高分框和低分框并保留一段时间后,再进行匹配,得到船舶跟踪轨迹图像并进行保存。
优选地,特征训练模块中,采用交叉熵损失函数作为U-Net语义分割模型训练中的损失函数,并采用adam优化器对U-Net语义分割模型的权重参数进行更新。
优选地,在U-Net语义分割模型训练过程中,得到损失函数值最小的权重文件,将海事视频图像放入U-Net语义分割模型中,调用所述权重文件,并通过softmax函数将海事视频图像中的每个像素点进行分类得到船舶高精度像素图像并进行保存。
本发明提供了客观、科学的多目标船舶跟踪方法及系统,通过采用特征金字塔网络FPN和transformer模型的注意力机制进行特征提取,并采用U-Net语义分割模型和基于FairMOT算法以及BYTE数据关联算法的多目标跟踪网络得到船舶的高精度像素分割结果和船舶轨迹结果,解决了缺少船舶外形特征和由于遮挡所导致的船舶跟踪问题。
应当指出,以上所述具体实施方式可以使本领域的技术人员更全面地理解本发明创造,但不以任何方式限制本发明创造。因此,尽管本说明书参照附图和实施例对本发明创造已进行了详细的说明,但是,本领域技术人员应当理解,仍然可以对本发明创造进行修改或者等同替换,总之,一切不脱离本发明创造的精神和范围的技术方案及其改进,其均应涵盖在本发明创造专利的保护范围当中。

Claims (6)

1.一种多目标船舶跟踪方法,其特征在于,包括以下步骤:
图像获取步骤:获取待测海事视频图像,并对待测海事视频图像进行分帧处理,得到海事视频图像序列;
特征提取步骤:采用特征金字塔网络对海事视频图像序列进行尺寸缩放和基于transformer模型的特征提取,特征金字塔网络利用卷积操作对海事视频图像中的特征进行提取,得到不同尺寸的海事视频图像特征并将其按照金字塔结构进行排列,得到包含船舶深层和浅层特征的图像特征金字塔并输入到基于transformer模型的注意力机制中,基于transformer模型中的注意力机制计算出图像特征间的相关度,并引用残差结构和前馈神经网络将特征融合后输出,得到不同尺寸并具有特征相关度的海事视频图像特征;
特征训练步骤:将海事视频图像特征作为训练集样本分别输入至预先建立的U-Net语义分割模型和基于FairMOT算法以及BYTE数据关联算法的多目标跟踪网络中进行训练,在U-Net语义分割模型训练过程中,采用交叉熵损失函数作为U-Net语义分割模型训练中的损失函数,并采用adam优化器对U-Net语义分割模型的权重参数进行更新,得到损失函数值最小的权重文件,将海事视频图像放入U-Net语义分割模型中,调用所述权重文件,并通过softmax函数将海事视频图像中的每个像素点进行分类,得到船舶高精度像素图像和船舶跟踪轨迹图像;
船舶跟踪步骤:对船舶高精度像素图像中具有船舶像素点的区域进行图像分割,得到高精度像素分割图像并进行高亮标识;再根据船舶跟踪轨迹图像获取具有时间序列的船舶位置点信息以绘制出船舶轨迹,将船舶轨迹与高亮标识的高精度像素分割图像进行融合,将两种结果按照时序排列后叠加输出,得到具有船舶高精度像素分割图像和船舶轨迹的图像信息并进行展示,既得到包含船舶外形特征的高精度分割结果,也得到船舶的轨迹特征,实现智能化的船舶动态轨迹与分割结果的双向输出,以实现多目标船舶的跟踪。
2.根据权利要求1所述的多目标船舶跟踪方法,其特征在于,所述特征提取步骤中,所述注意力机制包括自注意力机制和多头自注意力机制,并包括以下步骤:
1)将输入分别映射到三个新的子空间,由A、B、C表示;
2)选取某一输入的A,与所有输入的B进行计算,得到相关度;
3)将此相关度,经过一个softmax函数进行归一化,并增加数据间的差异性;
4)将权重系数与C进行加权求和后,得到注意力分数,其计算公式如下:
其中,A、B、C为输入映射出的新的三个子空间向量,L为A、B的列数;
多头自注意力机制是将多个自注意力机制结果进行拼接,再通过线性转换得到的结果;在多头自注意力机制框架中,每层结果都是用残差结构进行连接,随后经过前馈神经网络和归一化层,并将得到的特征依旧按照金字塔的格式进行排列输出。
3.根据权利要求1所述的多目标船舶跟踪方法,其特征在于,所述特征训练步骤中,将海事视频图像特征输入至基于FairMOT算法以及BYTE数据关联算法的多目标跟踪网络中进行训练包括:
S1:将海事视频图像特征输入至FairMOT算法中,得到海事视频图像序列包含的多目标信息,所述多目标信息包括目标所在的检测框和ID特征,提取检测框中目标中心点的ID特征并按时序对所述ID特征进行连结,得到船舶的初始跟踪轨迹;
S2:将初始跟踪轨迹输入至BYTE数据关联算法,并将所有检测框分为高分框和低分框,使用高分框和初始跟踪轨迹进行匹配,使用低分框和未能与高分框匹配上的初始跟踪轨迹进行匹配,并对未能匹配初始跟踪轨迹的高分框进行新建轨迹,将未能匹配的初始跟踪轨迹重新分为高分框和低分框并保留一段时间后再进行匹配,得到船舶跟踪轨迹图像并进行保存。
4.一种多目标船舶跟踪系统,其特征在于,包括依次连接的图像获取模块、特征提取模块、特征训练模块和船舶跟踪模块,
图像获取模块,获取待测海事视频图像,并对待测海事视频图像进行分帧处理,得到海事视频图像序列;
特征提取模块,采用特征金字塔网络对海事视频图像序列进行尺寸缩放和基于transformer模型的特征提取,特征金字塔网络利用卷积操作对海事视频图像中的特征进行提取,得到不同尺寸的海事视频图像特征并将其按照金字塔结构进行排列,得到包含船舶深层和浅层特征的图像特征金字塔并输入到基于transformer模型的注意力机制中,基于transformer模型中的注意力机制计算出图像特征间的相关度,并引用残差结构和前馈神经网络将特征融合后输出,得到不同尺寸并具有特征相关度的海事视频图像特征;
特征训练模块,将海事视频图像特征作为训练集样本分别输入至预先建立的U-Net语义分割模型和基于FairMOT算法以及BYTE数据关联算法的多目标跟踪网络中进行训练,在U-Net语义分割模型训练过程中,采用交叉熵损失函数作为U-Net语义分割模型训练中的损失函数,并采用adam优化器对U-Net语义分割模型的权重参数进行更新,得到损失函数值最小的权重文件,将海事视频图像放入U-Net语义分割模型中,调用所述权重文件,并通过softmax函数将海事视频图像中的每个像素点进行分类,得到船舶高精度像素图像和船舶跟踪轨迹图像;
船舶跟踪模块,对船舶高精度像素图像中具有船舶像素点的区域进行图像分割,得到高精度像素分割图像并进行高亮标识;再根据船舶跟踪轨迹图像获取具有时间序列的船舶位置点信息以绘制出船舶轨迹,将船舶轨迹与高亮标识的高精度像素分割图像进行融合,将两种结果按照时序排列后叠加输出,得到具有船舶高精度像素分割图像和船舶轨迹的图像信息并进行展示,既得到包含船舶外形特征的高精度分割结果,也得到船舶的轨迹特征,实现智能化的船舶动态轨迹与分割结果的双向输出,以实现多目标船舶的跟踪。
5.根据权利要求4所述的多目标船舶跟踪系统,其特征在于,所述特征提取模块中,所述注意力机制包括自注意力机制和多头自注意力机制,并包括以下步骤:
1)将输入分别映射到三个新的子空间,由A、B、C表示;
2)选取某一输入的A,与所有输入的B进行计算,得到相关度;
3)将此相关度,经过一个softmax函数进行归一化,并增加数据间的差异性;
4)将权重系数与C进行加权求和后,得到注意力分数,其计算公式如下:
其中,A、B、C为输入映射出的新的三个子空间向量,L为A、B的列数;
多头自注意力机制是将多个自注意力机制结果进行拼接,再通过线性转换得到的结果;在多头自注意力机制框架中,每层结果都是用残差结构进行连接,随后经过前馈神经网络和归一化层,并将得到的特征依旧按照金字塔的格式进行排列输出。
6.根据权利要求4所述的多目标船舶跟踪系统,其特征在于,所述特征训练模块中,将海事视频图像特征输入至基于FairMOT算法以及BYTE数据关联算法的多目标跟踪网络中进行训练包括:
S1:将海事视频图像特征输入至FairMOT算法中,得到海事视频图像序列包含的多目标信息,所述多目标信息包括目标所在的检测框和ID特征,提取检测框中目标中心点的ID特征并按时序对所述ID特征进行连结,得到船舶的初始跟踪轨迹;
S2:将初始跟踪轨迹输入至BYTE数据关联算法,并将所有检测框分为高分框和低分框,使用高分框和初始跟踪轨迹进行匹配,使用低分框和未能与高分框匹配上的初始跟踪轨迹进行匹配,并对未能匹配初始跟踪轨迹的高分框进行新建轨迹,将未能匹配的初始跟踪轨迹重新分为高分框和低分框并保留一段时间后,再进行匹配,得到船舶跟踪轨迹图像并进行保存。
CN202211511427.9A 2022-11-29 2022-11-29 一种多目标船舶跟踪方法及系统 Active CN115719368B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211511427.9A CN115719368B (zh) 2022-11-29 2022-11-29 一种多目标船舶跟踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211511427.9A CN115719368B (zh) 2022-11-29 2022-11-29 一种多目标船舶跟踪方法及系统

Publications (2)

Publication Number Publication Date
CN115719368A CN115719368A (zh) 2023-02-28
CN115719368B true CN115719368B (zh) 2024-05-17

Family

ID=85257550

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211511427.9A Active CN115719368B (zh) 2022-11-29 2022-11-29 一种多目标船舶跟踪方法及系统

Country Status (1)

Country Link
CN (1) CN115719368B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110442846A (zh) * 2019-07-18 2019-11-12 北京航空航天大学 一种新型多尺度注意力机制的序列数据预测系统
CN110766632A (zh) * 2019-10-22 2020-02-07 广东启迪图卫科技股份有限公司 基于通道注意力机制和特征金字塔的图像去噪方法
CN111553159A (zh) * 2020-04-24 2020-08-18 中国科学院空天信息创新研究院 一种问句生成方法及系统
CN112801068A (zh) * 2021-04-14 2021-05-14 广东众聚人工智能科技有限公司 一种视频多目标跟踪与分割系统和方法
CN112949615A (zh) * 2021-05-13 2021-06-11 浙江力嘉电子科技有限公司 一种基于融合检测技术的多目标跟踪系统及跟踪方法
CN113610178A (zh) * 2021-08-17 2021-11-05 湖南工学院 一种基于视频监控图像的内河船舶目标检测方法和装置
CN114187331A (zh) * 2021-12-10 2022-03-15 哈尔滨工程大学 一种基于Transformer特征金字塔网络的无监督光流估计方法
CN114943888A (zh) * 2022-03-24 2022-08-26 中国人民解放军海军大连舰艇学院 基于多尺度信息融合的海面小目标检测方法、电子设备及计算机可读介质
CN115346155A (zh) * 2022-08-19 2022-11-15 上海海事大学 一种面向视觉特征非连续性干扰的船舶图像航迹提取方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11507800B2 (en) * 2018-03-06 2022-11-22 Adobe Inc. Semantic class localization digital environment

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110442846A (zh) * 2019-07-18 2019-11-12 北京航空航天大学 一种新型多尺度注意力机制的序列数据预测系统
CN110766632A (zh) * 2019-10-22 2020-02-07 广东启迪图卫科技股份有限公司 基于通道注意力机制和特征金字塔的图像去噪方法
CN111553159A (zh) * 2020-04-24 2020-08-18 中国科学院空天信息创新研究院 一种问句生成方法及系统
CN112801068A (zh) * 2021-04-14 2021-05-14 广东众聚人工智能科技有限公司 一种视频多目标跟踪与分割系统和方法
CN112949615A (zh) * 2021-05-13 2021-06-11 浙江力嘉电子科技有限公司 一种基于融合检测技术的多目标跟踪系统及跟踪方法
CN113610178A (zh) * 2021-08-17 2021-11-05 湖南工学院 一种基于视频监控图像的内河船舶目标检测方法和装置
CN114187331A (zh) * 2021-12-10 2022-03-15 哈尔滨工程大学 一种基于Transformer特征金字塔网络的无监督光流估计方法
CN114943888A (zh) * 2022-03-24 2022-08-26 中国人民解放军海军大连舰艇学院 基于多尺度信息融合的海面小目标检测方法、电子设备及计算机可读介质
CN115346155A (zh) * 2022-08-19 2022-11-15 上海海事大学 一种面向视觉特征非连续性干扰的船舶图像航迹提取方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
(保加利亚)伊凡·瓦西列夫.Python深度学习模型、方法与实现.2021,111-112. *
ByteTrack: Multi-Object Tracking by Associating Every Detection Box;Yifu Zhang,et al.;arXiv:2110.06864v3;1-14 *
Feature Pyramid Transformer;Dong Zhang,et al.;arXiv:2007.09451v1;1-26 *
Yifu Zhang,et al..ByteTrack: Multi-Object Tracking by Associating Every Detection Box.arXiv:2110.06864v3.2022,1-14. *
基于多变量多尺度熵的变压器励磁涌流识别方法;周念成;李春艳;王强钢;;电工技术学报;20171128(15);16-26 *

Also Published As

Publication number Publication date
CN115719368A (zh) 2023-02-28

Similar Documents

Publication Publication Date Title
CN112149547B (zh) 基于图像金字塔引导和像素对匹配的遥感影像水体识别方法
CN110232350B (zh) 一种基于在线学习的实时水面多运动目标检测跟踪方法
CN111368846B (zh) 一种基于边界语义分割的道路积水识别方法
CN110555420B (zh) 一种基于行人区域特征提取和重识别融合模型网络及方法
CN111985376A (zh) 一种基于深度学习的遥感影像舰船轮廓提取方法
CN109145747A (zh) 一种水面全景图像语义分割方法
CN111986240A (zh) 基于可见光和热成像数据融合的落水人员检测方法及系统
CN114565860B (zh) 一种多维度增强学习合成孔径雷达图像目标检测方法
CN112712052A (zh) 一种机场全景视频中微弱目标的检测识别方法
Sun et al. IRDCLNet: Instance segmentation of ship images based on interference reduction and dynamic contour learning in foggy scenes
CN114241003A (zh) 一种全天候轻量化高实时性海面船只检测与跟踪方法
CN112700476A (zh) 一种基于卷积神经网络的红外船视频跟踪方法
CN116994135A (zh) 一种基于视觉与雷达融合的船舶目标检测方法
CN114943888A (zh) 基于多尺度信息融合的海面小目标检测方法、电子设备及计算机可读介质
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN113936034A (zh) 一种结合帧间光流的表观运动联合弱小运动目标检测方法
He et al. A novel image recognition algorithm of target identification for unmanned surface vehicles based on deep learning
Li et al. CSF-Net: Color spectrum fusion network for semantic labeling of airborne laser scanning point cloud
CN115719368B (zh) 一种多目标船舶跟踪方法及系统
CN114782827B (zh) 一种基于图像的物体抓取点获取方法和装置
US20230222841A1 (en) Ensemble Deep Learning Method for Identifying Unsafe Behaviors of Operators in Maritime Working Environment
CN116310967A (zh) 一种基于改进YOLOv5的化工厂安全帽佩戴检测方法
CN116434230A (zh) 一种复杂环境下的船舶水尺读数方法
CN113537397B (zh) 基于多尺度特征融合的目标检测与图像清晰联合学习方法
CN112069997B (zh) 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant