CN119600552B - 一种多源信息的小目标船舶识别及异常研判方法及装置 - Google Patents

一种多源信息的小目标船舶识别及异常研判方法及装置

Info

Publication number
CN119600552B
CN119600552B CN202411649620.8A CN202411649620A CN119600552B CN 119600552 B CN119600552 B CN 119600552B CN 202411649620 A CN202411649620 A CN 202411649620A CN 119600552 B CN119600552 B CN 119600552B
Authority
CN
China
Prior art keywords
ship
small target
identification system
ships
remote sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202411649620.8A
Other languages
English (en)
Other versions
CN119600552A (zh
Inventor
胡祝华
陈立航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hainan University
Original Assignee
Hainan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hainan University filed Critical Hainan University
Priority to CN202411649620.8A priority Critical patent/CN119600552B/zh
Publication of CN119600552A publication Critical patent/CN119600552A/zh
Application granted granted Critical
Publication of CN119600552B publication Critical patent/CN119600552B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机视觉与深度学习技术领域,具体涉及一种多源信息的小目标船舶识别及异常研判方法及装置,通过引入一种基于光学遥感图像的小目标检测算法模型,提升在高分辨率遥感图像下的船舶检测性能。为解决光学遥感图像中小目标船舶像素较少、特征不明显的问题,本发明提出了改进的YOLOv8x‑CA‑CFAR模型,本发明还提出了一种新型的无监督域自适应分类模型Multi‑CDT,以增强不同源数据的迁移学习能力,提升在缺乏标注数据情况下的分类性能。最终,本发明通过构建完整的多源信息融合框架,不仅实现更加精确的小目标船舶检测和分类,还能够有效应对光学遥感图像和AIS数据匹配失败的情况,提供异常研判的支持。

Description

一种多源信息的小目标船舶识别及异常研判方法及装置
技术领域
本发明涉及计算机视觉与深度学习技术领域,尤其涉及一种多源信息的小目标船舶识别及异常研判方法及装置。
背景技术
传统的船舶识别依赖于船舶自动识别系统(AIS)数据,尽管AIS可以提供船舶的实时位置信息,但它存在一些明显的局限性。AIS设备可以被人为关闭或修改数据,导致部分船舶信息缺失,特别是在非法活动中。此外,部分小型船舶不安装AIS设备,进一步加剧了数据不完整性的问题。这导致仅依赖AIS的监控手段难以对所有船舶进行有效的覆盖。为了弥补AIS数据的不足,岸基雷达在近岸区域的监测中得到了广泛应用。尽管雷达系统可以为近海船舶提供补充检测,但它的有效范围仅限于近岸区域,而远海监测仍然依赖卫星遥感图像。此外,雷达信号容易受到天气、海况等外部条件的影响,数据质量可能不稳定,导致监测精度下降。这种不稳定性增加了实际操作中的复杂性,也限制了雷达技术在更广泛领域的应用。
基于光学遥感图像和AIS数据的多源信息融合方法为船舶检测提供了更强的能力。然而,这些方法高度依赖于图像和AIS数据的成功匹配,而在实际应用中,匹配失败的情况并不少见。现有研究对这种匹配失败的异常情况缺乏进一步的研判机制,这在潜在的非法或异常活动监测中是一大漏洞,导致一些异常船舶未能被及时发现。这是目前该领域中的一个关键难题。
在船舶分类方面,虽然SAR图像结合AIS数据的分类技术已经取得进展,但在光学遥感图像领域仍然存在不足。特别是在处理无标注数据的情况下,现有的监督学习方法难以应用。虽然无监督域自适应技术为这一问题提供了解决方案,但它在多源异构数据融合上的应用仍然面临挑战。传统的手工特征提取方法虽然可以处理多源数据,但其复杂性较高且适应性较差,难以应对实际操作中的多变情况。基于这些问题,如何在多源异构数据上有效应用迁移学习并提高模型的泛化能力,成为该领域的关键难点。
发明内容
有鉴于此,本发明的目的在于提出一种多源信息的小目标船舶识别及异常研判方法及装置,以解决AIS数据依赖性强、近岸雷达监测范围有限、多源信息匹配失败后缺乏有效异常研判机制的问题。
基于上述目的,本发明提供了一种多源信息的小目标船舶识别及异常研判方法,包括以下步骤:
S1、采集光学遥感图像和船舶自动识别系统数据,并进行预处理;
S2、将光学遥感图像输入构建的基于恒虚警率二次研判的小目标船舶检测模型YOLOv8x-CA-CFAR中,得到小目标船舶检测结果,所述小目标船舶检测模型YOLOv8x-CA-CFAR先使用深度学习算法检测出可疑物体进行切片,再对切片使用CA-CFAR进行判别,得到小目标船舶检测结果;
S3、将小目标船舶检测结果与经过预处理后的船舶自动识别系统数据进行匹配,若匹配成功,则输出匹配结果;
S4、匹配失败时判定存在异常情况,对异常情况进行判断,当判定为船舶自动识别系统数据周围没有船舶时,认为该船舶自动识别系统数据为异常数据,进行保留;
S5、若判定为船舶周围没有船舶自动识别系统数据时,则根据检测结果对对应的光学遥感图像进行切片,输入训练好的名为Multi-CDT的无监督域自适应分类模型中,得到异常船舶的预测类别;
S6、将匹配结果中的船舶信息与船舶自动识别系统数据进行保留,对于未匹配上的船舶,保留S4中得到的异常数据和S2和S5中得到的异常船舶的坐标及其预测类别。
优选的,预处理包括:
将光学遥感图像进行色彩深度转换和图像裁剪,处理为640×640的8bitRGB图像;
通过时间筛选,利用船舶自动识别系统数据中的updatetime字段,确保选择的船舶自动识别系统数据与光学遥感图像拍摄时间范围一致;
利用船舶自动识别系统数据中的偏移信息进行坐标矫正;
通过将时间筛选和坐标矫正后的多个船舶自动识别系统位置点进行均值处理,得到融合坐标。
优选的,小目标船舶检测模型YOLOv8x-CA-CFAR暂时保留置信度在0.05至0.25间的检测框,并使用CA-CFAR算法进一步分析可疑区域,如果CA-CFAR确认存在船舶,该检测框被保留,否则,将其丢弃。
优选的,在执行步骤S3的匹配前,本方法还包括:
将预处理后的船舶自动识别系统数据进行空间筛选,排除超出图像覆盖范围的船舶自动识别系统数据。
优选的,步骤S3中匹配过程采用匈牙利算法,匹配的公式为:
其中,M 表示符合条件的匹配对集合,其中包含了有效匹配的船舶和AIS信息对,表示一组需匹配的船舶,表示相应的AIS信息,公式顶部的 min 和箭头表示这是一个最小化问题,目的是使目标函数的值最小,subject to 是约束条件,表示问题必须满足的一些条件,∀i 表示每个i必须只分配给一个 j,∀j 表示每个j也必须只接收到一个i的分配,表示之间的距离,表示是否与匹配,表示距离阈值。
优选的,名为Multi-CDT的无监督域自适应分类模型的构建过程包括:
使用FUSAR数据集,提取数据集中的船舶自动识别系统数据特征,在Multi-CDT中使用这些船舶自动识别系统数据特征另外训练出一个基于船舶自动识别系统数据特征的分类器;
使用基于船舶自动识别系统数据特征的分类器作为教师模型,在对学生模型基于遥感图像的分类模型ViT预训练的时候通过蒸馏学习进行指导,预训练中使用的损失函数包括分类损失和蒸馏损失。
优选的,分类损失的计算公式为:
其中,N为批次中的样本数量,C为类别数,x为模型输出的对数几率,表示第i个样本对应于第j类的模型输出,log 表示自然对数,e是自然对数的底数,用于计算指数,表示平滑后的标签;
其中C为类别数,为独热编码的真实标签,标签平滑参数为表示平滑后的标签。
优选的,蒸馏损失的计算公式为:
其中,N为批次中的样本数量(即批次大小),K是类别的数量,表示由AIS 信息分类器给出的第i个样本在第k个类别的概率,表示由图像分类器给出的第 i个样本在第k个类别的概率分数,log表示取对数操作。
优选的,使用XGBoost来作为基于船舶自动识别系统数据特征的分类器模型。
本发明还提供一种多源信息的小目标船舶识别及异常研判装置,用于执行上述任意一项的多源信息的小目标船舶识别及异常研判方法。
本发明的有益效果:
本发明构建了一套基于光学遥感图像与AIS信息的小目标船舶识别及其异常研判框架,填补了相关研究的空白。框架总体上分为检测、分类两个步骤,对异常情况进行了深入的研究和判别。该框架通过系统性的方法提升了异常情况处理的科学性和可靠性。
在小目标船舶检测方面,本发明提出了YOLOv8x-CA-CFAR方法。首先使用YOLOv8x检测出可疑物体并进行切片处理,然后采用CA-CFAR对切片进行二次判别。该方法充分利用了深度学习和CFAR技术的优势,弥补了它们各自的局限性,提升了模型的性能。YOLOv8x-CA-CFAR的召回率和F1-score分别比YOLOv8x提升了2.9%和1.13%。
在小目标船舶分类方面,本研究针对光学遥感图像中小目标船舶分类的研究空白,利用SAR-AIS数据通过无监督域自适应学习方法迁移到光学遥感影像,构建了适用于光学遥感影像的小目标船舶分类模型。具体来说,提出了基于Transformer的多源异构域自适应算法Multi-CDT,有效整合SAR影像与AIS信息,克服了传统迁移学习的限制,提升了模型在复杂海洋环境中的准确性和适用性。与CDTrans相比,Multi-CDT不仅保留了更多分类类别,还在目标域的准确率上提升了0.32%,说明基于AIS特征的教师模型成功帮助学生模型提取更鲁棒的特征。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的为多源信息融合的小目标船舶识别及其异常研判框架图;
图2为发明实施例的矫正前后坐标融合可视化图;
图3为发明实施例的无监督域自适应情况对比图;
图4为发明实施例的Multi-CDT网络架构图;
图5为发明实施例的三种模型的检测结果对比图;
图6为发明实施例的源域预训练趋势图;
图7 为发明实施例的目标域无监督域自适应训练趋势图;
图8 为发明实施例的基于源域图像(SAR遥感图像)的注意力图;
图9 为发明实施例的基于目标域图像(光学遥感图像)的注意力图;
图10为发明实施例的基于目标域图像(光学遥感图像)的T-SNE图;
图11 为发明实施例的该区域没有AIS数据的情况展示图;
图12为发明实施例的该区域有AIS数据的情况展示图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,对本发明进一步详细说明。
需要说明的是,除非另外定义,本发明使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
如图1所示,本说明书实施例提供一种多源信息的小目标船舶识别及异常研判方法,包括以下步骤:
1.首先分别对图像和AIS数据进行预处理。
图像预处理:
由于常规的光学遥感图像分辨率较大,且通道数可能存在差异,需要对遥感图像进行预处理。一方面需要对色彩深度进行转换,另外一方面需要裁剪,最后所有输入的图像都会被预处理成640×640的8bitRGB图像。
AIS数据预处理:
在实际应用中,由于遥感图像和AIS信息的采样特点不同,遥感图像捕捉的是静态瞬时的船舶位置,而AIS信息则频繁更新,反映船舶的动态轨迹。这种差异导致同一艘船在两者中的位置可能不一致。
为了在匹配中提高准确性,本研究对AIS数据进行了多方面的预处理,包括时间筛选、坐标矫正、坐标融合。
首先,通过时间筛选,利用AIS数据中的updatetime字段,确保选择的AIS数据与图像拍摄时间范围一致,避免因时间跨度过大导致误匹配,时间筛选的公式如式1所示。
(1)
其中,设时间更新列为t,即,t(x)表示数据集中条目x对应的时间,表示图像开始时间,表示图像结束时间,表示为在给定时间区间 内的所有条目。
其次,利用AIS中的偏移信息进行坐标矫正,确保位置数据更精确,坐标矫正公式如式2和式3所示。
(2)
(3)
其中,OffsetA表示 AIS 报告的船舶位置的东-西方向偏移,以米为单位,正值表示船舶位于东侧,负值表示船舶位于西侧,OffsetB表示 AIS 报告的船舶位置的北-南方向偏移,以米为单位,正值表示船舶位于北侧,负值表示船舶位于南侧。Lon,Lat分别表示经度和纬度,分别表示经过坐标矫正后的经度和纬度。k是一个经验值或标定因子,它考虑了放大后的米数并将其转换为适合的度数单位,用以调整经纬度位置,在这里取值为60000。
然后,通过将筛选后的多个AIS位置点进行均值处理,得到更可靠的融合坐标,减少时间误差对匹配的影响,坐标融合公式如式4和式5所示。
(4)
(5)
其中,,即时间筛选后满足条件的数据条目数,分别表示第i个经过坐标矫正后的经度和纬度,分别表示融合后的经度和纬度。
在图2中,对矫正前后的融合坐标进行可视化评估,黄色点为检测到的船舶位置,绿色点为AIS信息位置,可以发现矫正后的AIS信息位置要比没矫正的位置更加接近图像上检测出来船舶的位置,因此可以认为使用矫正融合的预处理方式比单纯使用融合的预处理方式更加具有可靠性。
总的来说,经过这些预处理步骤,能够更准确地匹配遥感图像与AIS信息,使得后续分析更加可靠。这种处理方式不仅减少了误差,还在一定程度上解决了AIS数据异常或图像与AIS采样不一致带来的挑战,为船舶检测和分类提供了更为稳健的基础。
2. 基于恒虚警率二次研判的小目标船舶检测模型YOLOv8x-CA-CFAR。
在遥感图像小目标船舶检测任务上,在SAR图像领域已有研究将CFAR与深度学习相结合,提升了检测算法的准确性和适用性。CFAR可以根据像素的振幅来检测小尺寸目标,具有其独到的优势。
需要注意的是光学遥感图像和SAR(合成孔径雷达)遥感图像在成像原理、数据特性和天气依赖方面有很多不同之处,因此CFAR方法并不直接适用于光学遥感图像。
如果要将CFAR算法用于光学遥感图像,需要减小二者之间统计特性上的差异。
在光学遥感图像上,可以先使用深度学习算法检测出可疑物体进行切片,以减小SAR图像与光学遥感图像的差异,然后再对切片使用CA-CFAR进行判别,实现深度学习与CFAR局限性上的互补,提升模型性能。在本发明中,将YOLOv8x作为初步检测模型,并对检测结果进行二次研判,提出了YOLOv8x-CA-CFAR。
原始的YOLOv8x算法只保留置信度超过0.25的检测框,减少误检的同时也可能遗漏特征不明显的小型船舶,影响召回率和检测的准确性。为改进此问题,YOLOv8x-CA-CFAR算法暂时保留置信度在0.05至0.25间的检测框,并使用CA-CFAR算法进一步分析这些可疑区域。如果CA-CFAR确认存在船舶,该检测框被保留;否则,将其丢弃。这种方法提高了对小型船舶的识别能力并保持高检测精度,最终结果融合了高置信度和经CA-CFAR确认的检测框,实现了更全面、准确的检测输出。
3. 检测到的小目标船舶与AIS信息进行匹配。
接着将船舶检测结果同经过预处理后的AIS信息输入到匹配模块进行匹配。但是在正式进行匹配前,还需要基于图像的地理范围进行空间筛选,排除超出图像覆盖范围的AIS数据,从而避免引入冗余信息,提高匹配效率,空间筛选的公式如下:
(6)
表示最小经度,表示融合后的经度,表示最大经度,表示最小纬度,表示融合后的纬度,表示最大纬度,表示为在给定时间区间内的所有条目,S2表示经过空间筛选后剩下的条目。
匹配过程中采用匈牙利算法,因为它能在二分图匹配问题中找到全局最优解,确保总匹配距离最小化,避免早期决策影响后续匹配,从而提高匹配准确性和整体效率。如果使用贪心算法会导致次优匹配、资源浪费、增加错误匹配率、后期调整复杂的问题出现。另外,基于遥感图像与AIS数据的差异,不能期望融合后的AIS坐标与检测到的船舶坐标完全一致,因此需设置合理的匹配距离,推荐的最大容忍距离为2公里。若船舶与AIS信息的距离在2公里内,则视为匹配成功。最后,匹配部分的数学表示如下:
(7)
其中,M 表示符合条件的匹配对集合,其中包含了有效匹配的船舶和AIS信息对,表示一组需匹配的船舶,表示相应的AIS信息,公式顶部的 min 和箭头表示这是一个最小化问题,目的是使目标函数的值最小,subject to 是约束条件,表示问题必须满足的一些条件,∀i 表示每个i必须只分配给一个 j,∀j 表示每个j也必须只接收到一个i的分配。表示之间的距离,表示是否与匹配,表示距离阈值。
4. 基于匹配情况的研讨。
根据匹配情况进行研判。此时可以分成2大类,成功匹配时,即正常情况,输出匹配结果,而匹配失败时认为存在异常情况,此时可以细化成2小类,即船舶周围没有AIS信息或AIS信息周围没有船舶。当船舶周围没有AIS信息的时候,认为该船舶为异常船舶,则根据检测结果对其进行切片,然后输入到AIS-SAR训练出来的分类器中,对应第6步的模型Multi-CDT,最终输出异常船舶的坐标及其预测类别;当AIS信息周围没有船舶时,认为该AIS信息为异常数据,进行保留。
5. 基于无监督域自适应的小目标船舶分类模型Multi-CDT。
现有的无监督域自适应迁移学习研究主要集中在单源域的同构或异构迁移,即便涉及多源域的情况,也大多局限于多源同构数据的迁移。然而,实际应用中常常面临多源异构数据的挑战,缺乏在该领域的研究。在现有研究中,虽然也提到了多源异构数据的无监督域自适应,但是其指的是针对源域特征维度上的不同,在图3中,给出本发明提到的几种情况的形象化表示。
本发明将SAR影像和AIS信息这两个异构源迁移到光学遥感影像,提出了基于Transformer的多源异构无监督域自适应模型Multi-CDT,模型架构如图4所示。
具体来说,考虑到不同遥感图像的成像原理有所区别,会导致出现像素分布上的差异,本发明中源域数据使用的是FUSAR数据集,每个SAR遥感图像有其对应的AIS信息,上面包含了每张图像上的船舶对应的长、宽信息。在已有研究中,根据长、宽信息,设计了16种特征,例如周长、面积、纵横比等几何特征,考虑到这些特征不容易随着图像成像原理的不同而发生改变,因此在Multi-CDT中使用这些AIS特征另外训练出一个基于AIS特征的分类器,然后使用基于AIS特征的分类器作为教师模型,在ViT在预训练的时候通过蒸馏学习进行指导,提取到更具判别力和鲁棒性的特征,在提升ViT模型的性能的同时,还能够提高后面迁移到光学遥感图像上的模型的性能。在预训练环节中,使用的损失函数可以分别两部分,第一部分是分类损失,如式10所示,第二部分是蒸馏损失,如式12所示。
(10)
其中,N为批次中的样本数量,C为类别数,x为模型输出的对数几率(对数前的softmax 输出),表示第i个样本对应于第j类的模型输出,log 表示自然对数,e是自然对数的底数,用于计算指数,表示平滑后的标签,如式11所示。
(11)
其中C为类别数,为独热编码的真实标签,标签平滑参数为表示平滑后的标签。
通过减少对准确标签的依赖,增加模型对所有类别的小概率预测,从而帮助模型在面对不确定性时更加鲁棒,改善模型的泛化能力。
常见的多源信息融合往往需要是在特征级上进行对齐,但是不同数据源之间的数据类型、分布和特征表达方式可能差异很大,例如文本、图像数据等。这种异质性可能导致在对齐过程中出现信息丢失或不准确的对齐,特别是在数据模态之间缺乏显式关联的情况下,通过式12所示的蒸馏损失,实现了决策级上的知识迁移。
(12)
其中,N是样本的数量(即批次大小),K是类别的数量,表示由 AIS 信息分类器给出的第i个样本在第k个类别的概率,表示由图像分类器给出的第i个样本在第k个类别的概率分数,log表示取对数操作。
考虑到从AIS信息中提取出来的几何特征是结构化数据,因此在Multi-CDT中,使用XGBoost来作为基于AIS特征的分类器模型,这里也可以使用其他分类器模型。
总的来说,Multi-CDT充分利用AIS信息中的鲁棒几何特征,结合知识蒸馏技术,显著提高了模型在无标签目标域的适应性和泛化能力。为多源异构域自适应迁移学习的研究及解决光学遥感影像中小目标船舶分类等实际问题提供了新的思路,展现了在复杂场景下多模态数据融合的巨大潜力。
6. 最终结果保留。
最后将匹配上的船舶信息与AIS信息进行保留,具体来说包括检测到的船舶图像和AIS信息例如MMSI号、船舶类别、船舶坐标、船舶大小等。而对于未匹配上的船舶,则会保留船舶图像,船舶的经纬度坐标及对应的预测类别结果信息进行保留。
本说明书实施例还提供一种多源信息的小目标船舶识别及异常研判装置,用于执行上述多源信息的小目标船舶识别及异常研判方法。
之后对本说明书提供的方法进行评估验证。
1. 实验环境和评估指标
在本发明实施例中,目标检测与分类网络的训练均在一台服务器上运行,其CPU是Intel(R) Core(TM) i7-7800X CPU @ 3.50GHz 3.50 GHz,GPU为NVIDIA TITAN RTX,专用GPU内存为24G。
本实例的光学遥感图像数据是基于自建的一套针对高分辨率广域光学遥感影像的小目标船舶检测数据集。具体来说,数据集是基于海南卫星1号的遥感图像构建的,由于原始图像的分辨率过大,先将每幅图像进行拆分,使用3种图像处理方法进行数据增强,再使用labelme进行标注。最后共有3829幅图像,分辨率为1024×1024。将原始图像数据集按照一定的比例,通过Python脚本随机划分为训练集(2679幅图像),测试集(345幅图像)和验证集(805幅图像)。
而使用的雷达影像数据是基于公开数据集FUSAR来构建的,FUSAR数据集中包含512×512分辨率的船舶图像,共分为15个大类,图像数量为5244张。为了构建光学遥感图像分类数据集(目标域数据),对海南卫星1号的检测数据集进行了处理。通过标注框对船舶图像进行切片,并对切片后的长方形图像进行黑色像素填充,使其成为正方形,以避免后续的Resize过程中船舶比例失真,从而保持分类性能。最终得到3814张基于海南卫星1号的小目标船舶分类图像,作为无标签目标域数据集。
在目标检测任务上,本发明使用P(Precision)、R(Recall)、F1-score作为综合性能评价指标。本发明将true positive, false positive, false negative分别表示为TP,FP, and FN。那么Precision和Recall的公式如下:
(13)
(14)
此时,F1-score的计算公式可表示为:
(15)
F1分数综合考虑了精确率和召回率,是这两者的调和平均值。由于精确率和召回率往往相互制约,F1分数用于平衡二者,以便在两者之间找到最优的模型性能,它的值介于0到1之间,值越高表示模型性能越好,当精确率和召回率都较高时,F1分数也会相应较高。
在目标分类任务上,由于工程实践中难以获取高分辨率广域光学遥感影像的分类标签,本发明的定量分析主要依赖于源域标签和目标域的伪标签,本部分实验侧重于定性分析,定性分析实验中使用Grad-CAM(Gradient-weighted Class Activation Mapping)和T-SNE(t-distributed stochastic neighbor embedding) 技术来生成图像用于分析。
2. 定量分析
在小目标船舶检测任务上,为了验证本发明提出算法的有效性,将Faster R-CNN、SSD、YOLOv5n、YOLOv7、YOLOV7x、YOLOv7&QFL、YOLOv8n、YOLOv8x、YOLOv8x-LT和本发明提出的算法YOLOv8x-CA-CFAR分别在自建的光学遥感影像数据集上进行训练和测试。其中,为了更好的体现出加入CA-CFAR进行二次研判的影响,实验中还进一步加入了YOLOv8x-LT(单纯降低阈值,conf=0.05)来进行对比分析。这些模型的实验结果如表1所示。
表1不同的网络方法在自建光学遥感影像数据集上的实验结果
Networks Precision(%) Recall(%) F1-score
Faster R-CNN 72.3 68.4 70.3
SSD 71.8 67.7 69.7
YOLOv5n 86.5 83.5 85.0
YOLOv7 87.5 84.5 86.0
YOLOv7x 88.2 85.1 86.6
YOLOv7&QFL 88.6 86.7 87.6
YOLOv8n 89.1 87.6 88.3
YOLOv8x 94.0 95.3 94.6
YOLOv8x-LT 90.7 98.8 94.6
YOLOv8x-CA-CFAR 93.5 98.2 95.8
从表中可以看出,不同YOLO模型的性能各异,其中YOLOv8变体表现尤为突出。YOLOv8n 以其轻量化设计实现了较高的F1-score (88.3%),适合资源受限的实时应用;YOLOv8x 在默认置信度阈值 (conf=0.25) 下表现优异,F1-score达到94.6%,适用于高精度需求的场景;通过降低置信度阈值至0.05,YOLOv8x-LT显著提高了召回率,检测到更多目标,但是精度略有下降,表明更宽松的检测标准引入了更多误报,F1-score 仍然是94.6%,这也与理论上相符;本发明提出的YOLOv8x-CA-CFAR 在相同低阈值下,通过CA-CFAR方法,既保持了高召回率,又显著降低了误报率,达到了最高的F1-score (95.8%)。
在小目标船舶分类任务上,为了验证本发明提出算法的有效性,DAN、JAN、DANN、AFN、MCD、BSP、CDT和将本发明提出的算法Multi-CDT以FUSAR作为源域,经过裁剪处理后的自建的光学遥感影像数据集作为目标域来进行训练和测试。
在CDTrans中,无监督域自适应学习分为两步:首先在源域上使用ViT进行预训练,然后利用训练好的ViT模型进行迁移学习。在定量实验中,CDTrans与Multi-CDT在源域和目标域上分别训练50个epoch,其他模型训练100个epoch以确保公平对比。
表2 各模型在分类任务上的性能对比表
模型 源域(真实标签) 目标域(伪标签)
DAN 92.00% -
JAN 94.40% -
DANN 96.70% -
AFN 98.30% -
MCD 98.30% -
BSP 93.20% -
CDTrans 99.80% 99.50%
Multi-CDT 99.82% 99.82%
实验结果如表2显示,Multi-CDT在源域和目标域上均表现出卓越的分类能力,准确率均为99.82%,显著优于其他迁移学习方法。说明Multi-CDT通过多源信息融合,提取到更具判别力和鲁棒性的特征,适用于复杂多变的实际场景。
3. 定性分析
在小目标检测任务上,为了验证本发明在小目标船舶检测任务上进行改进的效果,在图5中将YOLOv8x、YOLOv8x-LT和本发明提出的模型YOLOv8x-CA-CFAR在不同场景下的检测结果进行了展示和对比,其中使用红色圆圈标注出来的为漏检结果,用黄色圆圈标注出来的为误检结果。
由图5的对比可以看到,原始的YOLOv8x模型在针对一些小尺寸的船舶存在着漏检的现象,在工程应用中更加注重模型的召回率,最直接的办法是降低置信度阈值来提高召回率,也就是YOLOv8x-LT模型,但是从检测结果中会发现这样子导致了大量的误检,而本发明提出的YOLOv8x-CA-CFAR则是相比起YOLOv8x检测到了小尺寸的船舶,减少了漏检的数目,相比起YOLOv8x-LT又减少了误检的数目,以牺牲较小的准确率为代价,极大提升了召回率,提升了模型的综合性能。
在小目标船舶分类任务上,为了验证本发明在小目标船舶分类任务上进行改进的效果,在图6,图7上给出了Multi-CDT和CDTrans分别在源域预训练任务和目标域无监督域自适应训练任务中的训练趋势图。
如图6所示,Multi-CDT模型在测试集上表现出更高的准确率和更快的提升速度,表明其通过多源信息融合更好地捕捉了数据相关性和特征,从而提升了性能。相比之下,CDTrans模型的准确率提升较慢,最终表现不如Multi-CDT模型。在预训练结束时,Multi-CDT比CDTrans在准确率上提升了1.2%。
图7展示了Multi-CDT和CDTrans在无监督迁移学习任务中的性能对比。Multi-CDT模型在实验初期即表现出较高的准确率,并在整个训练过程中保持在98%以上,展现了稳定且一致的高性能。相较之下,CDTrans模型的准确率起初较低,但在训练过程中逐步提升,约在第20个epoch后趋于稳定。Multi-CDT的准确率接近100%,波动较小,而CDTrans模型的最高准确率为99.5%,但起始准确率低于90%。总体而言,Multi-CDT展示了更好的初始性能和稳定性,多源信息融合策略使其更有效地利用源域信息提升目标域表现。
接下来将分别使用CDTrans和Multi-CDT在第二步域自适应训练好的模型,分别对源域图像(SAR遥感图像)和目标域图像(光学遥感图像)来生成热力图以进行定性分析。
根据图8和图9所示的注意力图,可以看出所提出的Multi-CDT方法可以比CDTrans能够更准确地捕获重要区域,并且较少关注背景,在目标对象上拥有更多的热点区域。
接下来分别使用CDTrans和Multi-CDT在第二步域自适应训练好的模型,在目标域图像(光学遥感图像)上提取特征,生成T-SNE 图以进行定性分析,得到的T-SNE图如图10所示。
在实际应用中的分类任务中,重要的是模型能够准确地区分源域的多样类别,而非仅将其简化为几个大类。考虑到共有15个类别,其中包括一个表示“其他”的class6,通过两张T-SNE图对类别分布的做进一步的详细分析:
图10(a)显示三个主要类别(圆形、方形、棱形),其中圆形类别在图中下半部密集聚集,暗示模型可能将多个类别归为“其他”。方形和棱形类别显示出较好的聚集性,但不足以反映源域中的类别多样性。
图10(b)则展示了五个主要类别(圆形、方形、棱形、三角形、星形),提供了更细致的类别划分,显示出模型对不同类别的更好识别能力,更能体现源域的类别多样性。
4. 发明装置实战展示
在实战中,将检测到的船舶标注索引,并围绕其画2公里半径的圆来标示可视匹配范围。匹配上的AIS信息在图像上用绿点表示,未匹配的用红点显示。如果某区域无AIS信息,系统将警示“该区域没有AIS信息”,并显示异常船舶的位置及分类器的预测结果,如图11所示。
相反,如果有AIS信息,系统会尝试匹配,并将结果显示在图像上及检测结果概览中,如图12所示。
通过以上测试,说明本发明提出的多源信息融合异常检测框架具有良好的鲁棒性,在各种实际情况下的输入都可以得到所需的检测结果。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明的范围被限于这些例子;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明它们没有在细节中提供。凡在本发明的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种多源信息的小目标船舶识别及异常研判方法,其特征在于,包括以下步骤:
S1、采集光学遥感图像和船舶自动识别系统数据,并进行预处理;
S2、将光学遥感图像输入构建的基于恒虚警率二次研判的小目标船舶检测模型YOLOv8x-CA-CFAR中,得到小目标船舶检测结果,所述小目标船舶检测模型YOLOv8x-CA-CFAR先使用深度学习算法检测出可疑物体进行切片,再对切片使用CA-CFAR进行判别,得到小目标船舶检测结果;
S3、将小目标船舶检测结果与经过预处理后的船舶自动识别系统数据进行匹配,若匹配成功,则输出匹配结果;
S4、匹配失败时判定存在异常情况,对异常情况进行判断,当判定为船舶自动识别系统数据周围没有船舶时,认为该船舶自动识别系统数据为异常数据,进行保留;
S5、若判定为船舶周围没有船舶自动识别系统数据时,则根据检测结果对对应的光学遥感图像进行切片,输入训练好的名为Multi-CDT的无监督域自适应分类模型中,得到异常船舶的预测类别;
S6、将匹配结果中的船舶信息与船舶自动识别系统数据进行保留,对于未匹配上的船舶,保留S4中得到的异常数据和S2和S5中得到的异常船舶的坐标及其预测类别。
2.根据权利要求1所述的多源信息的小目标船舶识别及异常研判方法,其特征在于,所述预处理包括:
将光学遥感图像进行色彩深度转换和图像裁剪,处理为640×640的8bitRGB图像;
通过时间筛选,利用船舶自动识别系统数据中的updatetime字段,确保选择的船舶自动识别系统数据与光学遥感图像拍摄时间范围一致;
利用船舶自动识别系统数据中的偏移信息进行坐标矫正;
通过将时间筛选和坐标矫正后的多个船舶自动识别系统位置点进行均值处理,得到融合坐标。
3.根据权利要求1所述的多源信息的小目标船舶识别及异常研判方法,其特征在于,所述小目标船舶检测模型YOLOv8x-CA-CFAR暂时保留置信度在0.05至0.25间的检测框,并使用CA-CFAR算法进一步分析可疑区域,如果CA-CFAR确认存在船舶,该检测框被保留,否则,将其丢弃。
4.根据权利要求1所述的多源信息的小目标船舶识别及异常研判方法,其特征在于,在执行步骤S3的匹配前,所述方法还包括:
将预处理后的船舶自动识别系统数据进行空间筛选,排除超出图像覆盖范围的船舶自动识别系统数据。
5.根据权利要求1所述的多源信息的小目标船舶识别及异常研判方法,其特征在于,步骤S3中匹配过程采用匈牙利算法,匹配的公式为:
其中,M 表示符合条件的匹配对集合,其中包含了有效匹配的船舶和AIS信息对,表示一组需匹配的船舶,表示相应的AIS信息,公式顶部的 min 和箭头表示这是一个最小化问题,目的是使目标函数的值最小,subject to 是约束条件,表示问题必须满足的一些条件,∀i 表示每个i必须只分配给一个 j,∀j 表示每个j也必须只接收到一个i的分配,表示之间的距离,表示是否与匹配,表示距离阈值。
6.根据权利要求1所述的多源信息的小目标船舶识别及异常研判方法,其特征在于,所述名为Multi-CDT的无监督域自适应分类模型的构建过程包括:
使用FUSAR数据集,提取数据集中的船舶自动识别系统数据特征,在Multi-CDT中使用这些船舶自动识别系统数据特征另外训练出一个基于船舶自动识别系统数据特征的分类器;
使用基于船舶自动识别系统数据特征的分类器作为教师模型,在对学生模型基于遥感图像的分类模型ViT预训练的时候通过蒸馏学习进行指导,预训练中使用的损失函数包括分类损失和蒸馏损失。
7.根据权利要求6所述的多源信息的小目标船舶识别及异常研判方法,其特征在于,所述分类损失的计算公式为:
其中,N为批次中的样本数量,C为类别数,x为模型输出的对数几率,表示第i个样本对应于第j类的模型输出,log 表示自然对数,e是自然对数的底数,用于计算指数,表示平滑后的标签;
其中为独热编码的真实标签, 为标签平滑参数。
8.根据权利要求6所述的多源信息的小目标船舶识别及异常研判方法,其特征在于,所述蒸馏损失的计算公式为:
其中,N为批次中的样本数量,K是类别的数量,表示由 AIS 信息分类器给出的第i个样本在第k个类别的概率,表示由图像分类器给出的第 i个样本在第k个类别的概率分数,log表示取对数操作。
9.根据权利要求6所述的多源信息的小目标船舶识别及异常研判方法,其特征在于,使用XGBoost来作为基于船舶自动识别系统数据特征的分类器模型。
10.一种多源信息的小目标船舶识别及异常研判装置,其特征在于,用于执行如权利要求1-9任意一项所述的多源信息的小目标船舶识别及异常研判方法。
CN202411649620.8A 2024-11-19 2024-11-19 一种多源信息的小目标船舶识别及异常研判方法及装置 Active CN119600552B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202411649620.8A CN119600552B (zh) 2024-11-19 2024-11-19 一种多源信息的小目标船舶识别及异常研判方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202411649620.8A CN119600552B (zh) 2024-11-19 2024-11-19 一种多源信息的小目标船舶识别及异常研判方法及装置

Publications (2)

Publication Number Publication Date
CN119600552A CN119600552A (zh) 2025-03-11
CN119600552B true CN119600552B (zh) 2025-10-10

Family

ID=94835234

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202411649620.8A Active CN119600552B (zh) 2024-11-19 2024-11-19 一种多源信息的小目标船舶识别及异常研判方法及装置

Country Status (1)

Country Link
CN (1) CN119600552B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116206099A (zh) * 2023-05-06 2023-06-02 四川轻化工大学 一种基于sar图像的船舶位置检测方法及存储介质
CN118262242A (zh) * 2024-04-15 2024-06-28 西安工程大学 基于rfla和注意力机制的sar遥感船舰目标检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107818326B (zh) * 2017-12-11 2018-07-20 珠海大横琴科技发展有限公司 一种基于场景多维特征的船只检测方法及系统
CN118608758A (zh) * 2024-05-24 2024-09-06 西安电子科技大学 基于YOLOv8的光学遥感图像舰船检测方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116206099A (zh) * 2023-05-06 2023-06-02 四川轻化工大学 一种基于sar图像的船舶位置检测方法及存储介质
CN118262242A (zh) * 2024-04-15 2024-06-28 西安工程大学 基于rfla和注意力机制的sar遥感船舰目标检测方法

Also Published As

Publication number Publication date
CN119600552A (zh) 2025-03-11

Similar Documents

Publication Publication Date Title
CN111368690B (zh) 基于深度学习的海浪影响下视频图像船只检测方法及系统
CN108961235B (zh) 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法
Solberg et al. Oil spill detection in Radarsat and Envisat SAR images
US11308714B1 (en) Artificial intelligence system for identifying and assessing attributes of a property shown in aerial imagery
CN112836713A (zh) 基于图像无锚框检测的中尺度对流系统识别与追踪方法
CN113592786B (zh) 一种基于深度学习的海洋中尺度涡检测方法
CN120277621B (zh) 一种基于多源异构大数据融合的海洋生态灾害预警方法
CN112418028A (zh) 一种基于深度学习的卫星图像中船舶识别与分割方法
CN102542293A (zh) 一种针对高分辨率sar图像场景解译的一类提取分类方法
CN117036993B (zh) 一种基于无人机的船舶水尺远程测量方法
CN117765482B (zh) 基于深度学习的海岸带垃圾富集区的垃圾识别方法及系统
CN116343057B (zh) 一种联合sar与光学图像的舰船目标检测与识别方法
CN115100457B (zh) 一种联合深度学习与cfar的sar图像目标检测方法
CN113792780A (zh) 基于深度学习和图像后处理的集装箱号识别方法
Sun et al. Image recognition technology in texture identification of marine sediment sonar image
CN114529906A (zh) 基于字符识别的输电设备数字仪表异常检测方法及系统
Dong et al. SGDBNet: A scene-class guided dual branch network for port UAV images oil spill detection
Solberg et al. Algorithms for oil spill detection in Radarsat and ENVISAT SAR images
CN117218545A (zh) 基于LBP特征与改进Yolov5的雷达图像检测方法
CN119600552B (zh) 一种多源信息的小目标船舶识别及异常研判方法及装置
CN120808170A (zh) 一种基于卫星遥感图像树木受损范围智能识别方法及系统
CN109886133A (zh) 一种基于光学遥感图像的船只检测方法及系统
Zhang et al. A scheme for ship detection in inhomogeneous regions based on segmentation of SAR images
Qi et al. Strip segmentation of oceanic internal waves in SAR images based on TransUNet
CN119247304A (zh) 基于注意力机制卷积神经网络的雷暴大风识别方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant