CN116106899B - 一种基于机器学习的港口航道小目标识别方法 - Google Patents

一种基于机器学习的港口航道小目标识别方法 Download PDF

Info

Publication number
CN116106899B
CN116106899B CN202310395476.9A CN202310395476A CN116106899B CN 116106899 B CN116106899 B CN 116106899B CN 202310395476 A CN202310395476 A CN 202310395476A CN 116106899 B CN116106899 B CN 116106899B
Authority
CN
China
Prior art keywords
frame
target
adopting
small
positioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310395476.9A
Other languages
English (en)
Other versions
CN116106899A (zh
Inventor
魏立明
李哲
朱广文
孙佳隆
张晓博
朱波
张恒
曹俊晨
田贺
吕明玮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Jari Industry Control Technology Co ltd
Original Assignee
Qingdao Jari Industry Control Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Jari Industry Control Technology Co ltd filed Critical Qingdao Jari Industry Control Technology Co ltd
Priority to CN202310395476.9A priority Critical patent/CN116106899B/zh
Publication of CN116106899A publication Critical patent/CN116106899A/zh
Application granted granted Critical
Publication of CN116106899B publication Critical patent/CN116106899B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于港口航道技术领域,具体公开了一种基于机器学习的港口航道小目标识别方法,包括以下步骤,S1.搭载X‑波段雷达天线、采集航道小目标图像,建立原始图像数据库;S2.对采集数据进行预处理,优化了航道小目标数据集;S3.基于特征金字塔网络,引入改进的侧边融合路径网络,建立航道目标特征提取网络;S4.采用Faster RCNN模型作为港航小目标的识别模型,通过采用高斯分布建模,改进定位损失函数,优化目标识别框。其优点在于,采用高斯分布改进定位损失函数,减小定位误差,提高收敛速度,改善目标漏检、误检情况。

Description

一种基于机器学习的港口航道小目标识别方法
技术领域
本发明属于港口航道技术领域,具体公开了一种基于机器学习的港口航道小目标识别方法。
背景技术
近年来,我国的海运事业不断发展,在港口货物吞吐量和外贸货物吞吐量飞速增长的同时,港区规模也在不断扩大。与陆运环境相比,海运环境更加复杂,利用雷达技术进行海平面监测以及目标识别是保障船舶顺利航行的关键手段。但是单独使用雷达进行目标检测时,虽然在目标检测的同时能够测量出目标的速度,但是会导致角度分辨率低,信号损失大,目标分类能力差。
发明内容
基于上述问题,本申请基于航道小目标数据集,采用改进的回归损失函数进行Faster RCNN神经网络训练,构建深度学习模型。其技术方案为,
一种基于机器学习的港口航道小目标识别方法,包括以下步骤,
S1.搭载X-波段雷达天线、采集航道小目标图像,建立原始图像数据库;
S2.对采集数据进行预处理,优化了航道小目标数据集;
S3.基于特征金字塔网络,引入改进的侧边融合路径网络,建立航道目标特征提取网络;
S4.采用Faster RCNN模型作为港口航道小目标的识别模型,通过采用高斯分布建模,改进定位损失函数,优化目标框。
优选的,步骤S2数据预处理步骤如下:
S21.根据采集的长段视频数据,采用等距采样法做抽帧处理,然后采用结构相似性算法对数据做相似性分析,从对比度、亮度、结构三个方面过滤相似图像;
S22.筛选图像后,在图像中标注出目标物的类别和位置,其中classcategory为类别名,Xmin,Ymin为目标框左上角的坐标位置,目标框的宽度以及目标框的高度分别Width、Height,,目标框公式如下:
BoundingBox=(classcategory,Xmin,Ymin,Width,Height)
S23.界定目标物的边界和形状,绘制目标框,涵盖目标数量、目标四角坐标、目标姿态信息,制作成数据集,用以作为神经网络的训练的输入。
优选的,步骤S3特征提取步骤如下:
S31.采用特征金字塔网络分阶段对图像执行卷积、池化操作,得到特征图{C1,C2,C3,C4,C5};
S32.采用自顶向下融合路径,用上采样法放大顶层小特征图,放大到上个阶段同尺寸,再对两阶段输出的特征图相加得到融合特征图{P2,P3,P4,P5};
S33.引入侧边融合路径网络结构如图一,同一阶段同一尺度特征层之间,{C1,C5}保持不变,增加{C2,C3,C4}到{N2,N3,N4}的跳跃连接路径,侧边融合{PP2,P3,P4}特征图,生成{N1,N2,N3,N4,N5}特征图,特征图中包含了本层特征信息,并融合了顶层特征信息。
优选的,步骤S4目标识别优化步骤如下,
S41.采用两点表示法,将目标框用(x1,y1,x2,y2)参数化,进而计算出预测坐标和真实坐标相对锚点框的偏移量,
Figure GDA0004202456390000021
Figure GDA0004202456390000022
Figure GDA0004202456390000023
Figure GDA0004202456390000024
式中,(x1,y1,x2,y2)为目标框的信息,(x1a,y1a,x2a,y2a)为锚点框的信息,wa、ha分别是锚点框的宽度和高度,
Figure GDA0004202456390000025
为真实框的信息,/>
Figure GDA0004202456390000026
Figure GDA0004202456390000027
为预测框与锚点框的偏移量,/>
Figure GDA0004202456390000028
是真实框与锚点框的偏移量;
S42.采用概率分布表示预测框定位置信度,为了便于单变量高斯分布对候选框建模,统一用x表示目标框坐标信息(x1,y1,x2,y2),表达公式为:
Figure GDA0004202456390000031
式中,xe为预测框与锚点框的偏移量
Figure GDA0004202456390000032
σ为标准差。
优选的,步骤S4中,计算真实框定位置信度,方法如下,
S43.σ的大小描述定位预测的不确定程度,当σ越趋近0,预测框的位置越接近真实框位置,可转化为狄拉克函数表示真实框定位置信度:
PD(x)=δ(x-xg)
式中,xg是真实框与锚点框的偏移量
Figure GDA0004202456390000033
优选的,步骤S4中,计算定位损失函数,方法如下,
S44.采用高斯分布改进回归损失函数,对预测框和目标框建模,学习预测框和目标框的离散程度,进而提升模型定位精度,回归损失函数用Lreg表示,公式为:
Figure GDA0004202456390000034
式中,DKL是预测框与目标框的分布拟合程度,PΘ(x)是预测框的高斯分布,PD(x)是目标框的狄拉克函数,log(2π)与H(PD(x))为常量,回归损失函数可进一步简化为:
Figure GDA0004202456390000035
与现有技术相比,本申请存在以下优点,
1.改进特征提取网络,实现多尺度特征信息融合。
2.采用高斯分布改进定位损失函数,减小定位误差,提高收敛速度,改善目标漏检、误检情况。
附图说明
图1为本申请流程图。
图2为本申请侧边融合路径特征提取网络图。
图3为本申请Loss函数收敛曲线。
具体实施方式
以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。
图1-图2所示,一种基于雷达的港航小目标识别技术,包括以下步骤:
S1:搭载X-波段雷达天线、采集航道小目标图像,建立原始图像数据库;
S11.小目标雷达的组成主要有:显示器、控制面板、主机、雷达接口单元、X-波段雷达天线、光电摄像头、视频转换单元、软件、视频采集卡等;
S12.当可疑目标进入雷达扫描范围时,雷达能自动捕捉小目标(如:渔网、小渔船、海上漂浮杂物、落水人员等)图像,并对收到的信号进行计算,利用远高于导航雷达的视频采集卡(12bit),将高清图像数据信息传输到控制中心储存,形成图像数据库;
S13.雷达天线安装使用防腐蚀胶垫,螺母及接地螺栓涂抹硅酮密封胶,线缆的屏蔽线过夹板均采用抹油灰、硅酮防腐设计,控制器、跟踪器、处理器等集成在一个操作台,安装在室内;
S14.本发明中设备防潮防腐,安装位置易于维护。该设备安全可靠,具备较强的抗干扰能力。
S2.对采集数据进行抽帧、去重、标注、增广操作,进一步优化了航道小目标数据集;
S21.根据采集的长段视频数据,采用等距采样法做抽帧处理,然后采用结构相似性算法对数据做相似性分析,从对比度、亮度、结构三个方面过滤相似图像;
S22.筛选图像后,在图像中标注出目标物的类别和位置,其中classcategory为类别名,Xmin,Ymin为目标框左上角的坐标位置,目标框的宽度以及目标框的高度分别Width,Height,目标框公式如下:
BoundingBox=(classcategory,Xmin,Ymin,Width,Height)
S23.界定目标物的边界和形状,绘制目标框,涵盖目标数量、目标四角坐标、目标姿态等信息,制作成数据集,用以作为神经网络的训练的输入。
S3:基于特征金字塔网络,引入改进的侧边融合路径网络,建立航道目标特征提取网络;
S31.采用特征金字塔网络(FPN)分阶段对图像执行卷积、池化操作,得到特征图{C1,C2,C3,C4,C5};
S32.采用自顶向下融合路径,用上采样法放大顶层小特征图,放大到上个阶段同尺寸,再对两阶段输出的特征图相加得到融合特征图{P2,P3,P4};
S33.引入侧边融合路径网络结构如图一,同一阶段同一尺度特征层之间,{C1,C5}保持不变,增加{C2,C3,C4}到{N2,N3,N4}的跳跃连接路径,侧边融合{P2,P3,P4}特征图,生成{N1,N2,N3,N4,N5}特征图,特征图中包含了本层特征信息,并融合了顶层特征信息。
N1=C1+P2,N2=N1+P2+C2,N3=N2+P3+C3,N4=N3+P4+C4,N5=N4+C5。
S4:采用Faster RCNN模型作为港口航道小目标的识别模型,通过采用高斯分布建模,改进定位损失函数,优化目标识别框,改进识别模型,并使用航道小目标数据集加以训练,提高模型识别性能。
S41.本发明设计两点表示法,将目标框用(x1,y1,x2,y2)参数化,进而计算出预测坐标和真实坐标相对锚点框的偏移量
Figure GDA0004202456390000051
Figure GDA0004202456390000052
Figure GDA0004202456390000053
Figure GDA0004202456390000054
式中,(x1,y1,x2,y2)为目标框的信息,(x1a,y1a,x2a,y2a)为锚点框的信息,wa、ha分别是锚点框的宽度和高度,
Figure GDA0004202456390000061
为真实框的信息,/>
Figure GDA0004202456390000062
Figure GDA0004202456390000063
为预测框和锚点框的偏移量,/>
Figure GDA0004202456390000064
是真实框和锚点框的偏移量;
S42.采用概率分布表示预测框定位置信度,为了便于单变量高斯分布对候选框建模,统一用x表示目标框坐标信息(x1,y1,x2,y2),表达公式为:
Figure GDA0004202456390000065
式中,xe为预测框和锚点框的偏移量
Figure GDA0004202456390000066
σ为标准差。
S43.σ的大小描述定位预测的不确定程度,当σ越趋近0,预测框的位置越接近真实框位置,可转化为狄拉克函数表示真实目标框定位置信度:
PD(x)=δ(x-xg)
式中,xg是真实框和锚点框的偏移量
Figure GDA0004202456390000067
S44.采用高斯分布改进回归损失函数,对预测框和目标框建模,学习预测框和目标框的离散程度,进而提升模型定位精度,回归损失函数用Lreg表示,公式为:
Figure GDA0004202456390000068
式中,DKL是预测框与目标框的分布拟合程度,PΘ(x)是预测框的高斯分布,PD(x)是目标框的狄拉克函数,log(2π)与H(PD(x))为常量,回归损失函数可进一步简化为:
Figure GDA0004202456390000069
S45.基于航道小目标数据集,采用改进的回归损失函数进行Faster RCNN神经网络训练,构建深度学习模型。如图3所示,改进Loss函数后识别网络与改进前的Loss收敛曲线对比情况中,改进算法后,初始误差缩小,收敛速度加快,在175轮后逐渐平稳,最终损失值也明显缩小。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (2)

1.一种基于机器学习的港口航道小目标识别方法,其特征在于,包括以下步骤,
S1.搭载X-波段雷达天线、采集航道小目标图像,建立原始图像数据库;
S2.对采集数据进行预处理,优化了航道小目标数据集;
S3.基于特征金字塔网络,引入改进的侧边融合路径网络,建立航道目标特征提取网络;
S31.采用特征金字塔网络分阶段对图像执行卷积、池化操作,得到特征图{C1,C2,C3,C4,C5};
S32.采用自顶向下融合路径,用上采样法放大顶层小特征图,放大到上个阶段同尺寸,再对两阶段输出的特征图相加得到融合特征图{P2,P3,P4,P5};
S33.引入侧边融合路径网络结构,同一阶段同一尺度特征层之间,{C1,C5}保持不变,增加{C2,C3,C4}到{N2,N3,N4}的跳跃连接路径,侧边融合{P2,P3,P4}特征图,生成{N1,N2,N3,N4,N5}特征图,特征图中包含了本层特征信息,并融合了顶层特征信息;
S4.采用Faster RCNN模型作为港口航道小目标的识别模型,通过采用高斯分布建模,改进定位损失函数,优化目标框;
目标框优化步骤如下,
S41.采用两点表示法,将目标框用(x1,y1,x2,y2)参数化,进而计算出预测坐标和真实坐标相对锚点框的偏移量,
Figure FDA0004202456380000011
Figure FDA0004202456380000012
Figure FDA0004202456380000013
Figure FDA0004202456380000014
式中,(x1,y1,x2,y2)为目标框的信息,(x1a,y1a,x2a,y2a)为锚点框的信息,wa、ha分别是锚点框的宽度和高度,
Figure FDA0004202456380000015
为真实框的信息,/>
Figure FDA0004202456380000021
为预测框与锚点框的偏移量,/>
Figure FDA0004202456380000022
是真实框与锚点框的偏移量;
S42.采用概率分布表示预测框定位置信度,为了便于单变量高斯分布对候选框建模,统一用x表示目标框坐标信息(x1,y1,x2,y2),表达公式为:
Figure FDA0004202456380000023
式中,xe表示预测框与锚点框的偏移量
Figure FDA0004202456380000024
σ为标准差;
计算真实框定位置信度,方法如下,
S43.σ的大小描述定位预测的不确定程度,当σ越趋近0,预测框的位置越接近真实框位置,可转化为狄拉克函数表示真实框定位置信度:
PD(x)=δ(x-xg)
式中,xg是真实框与锚点框的偏移量
Figure FDA0004202456380000025
计算定位损失函数,方法如下,
S44.采用高斯分布改进回归损失函数,对预测框和目标框建模,学习预测框和目标框的离散程度,进而提升模型定位精度,回归损失函数用Lreg表示,公式为:
Figure FDA0004202456380000026
式中,DKL是预测框与目标框的分布拟合程度,PΘ(x)是预测框的高斯分布,PD(x)是目标框的狄拉克函数,log(2π)与H(PD(x))为常量,回归损失函数可进一步简化为:
Figure FDA0004202456380000027
2.根据权利要求1所述的一种基于机器学习的港口航道小目标识别方法,其特征在于,步骤S2数据预处理步骤如下:
S21.根据采集的长段视频数据,采用等距采样法做抽帧处理,然后采用结构相似性算法对数据做相似性分析,从对比度、亮度、结构三个方面过滤相似图像;
S22.筛选图像后,在图像中标注出目标物的类别和位置,其中classcategory为类别名,Xmin,Ymin为目标框左上角的坐标位置,目标框的宽度以及目标框的高度分别Width、Height,目标框公式如下:
BoundingBox=(classcategory,Xmin,Ymin,Width,Height)
S23.界定目标物的边界和形状,绘制目标框,涵盖目标数量、目标四角坐标、目标姿态信息,制作成数据集,用以作为神经网络的训练的输入。
CN202310395476.9A 2023-04-14 2023-04-14 一种基于机器学习的港口航道小目标识别方法 Active CN116106899B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310395476.9A CN116106899B (zh) 2023-04-14 2023-04-14 一种基于机器学习的港口航道小目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310395476.9A CN116106899B (zh) 2023-04-14 2023-04-14 一种基于机器学习的港口航道小目标识别方法

Publications (2)

Publication Number Publication Date
CN116106899A CN116106899A (zh) 2023-05-12
CN116106899B true CN116106899B (zh) 2023-06-23

Family

ID=86256552

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310395476.9A Active CN116106899B (zh) 2023-04-14 2023-04-14 一种基于机器学习的港口航道小目标识别方法

Country Status (1)

Country Link
CN (1) CN116106899B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109766811A (zh) * 2018-12-31 2019-05-17 复旦大学 一种星载sar图像中海面船只的端到端检测与识别方法
CN110502654A (zh) * 2019-08-26 2019-11-26 长光卫星技术有限公司 一种适用于多源异构遥感数据的目标库生成系统
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
WO2020237693A1 (zh) * 2019-05-31 2020-12-03 华南理工大学 一种水面无人装备多源感知方法及系统
CN113111722A (zh) * 2021-03-17 2021-07-13 天津理工大学 基于改进Mask R-CNN的自动驾驶目标识别方法
CN113705583A (zh) * 2021-08-16 2021-11-26 南京莱斯电子设备有限公司 一种基于卷积神经网络模型的目标检测识别方法
CN113920320A (zh) * 2021-08-27 2022-01-11 北京临近空间飞行器系统工程研究所 一种面向典型有源干扰的雷达图像目标检测系统
WO2022074643A1 (en) * 2020-10-08 2022-04-14 Edgy Bees Ltd. Improving geo-registration using machine-learning based object identification
CN114529817A (zh) * 2022-02-21 2022-05-24 东南大学 基于注意力神经网络的无人机光伏故障诊断及定位方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200064444A1 (en) * 2015-07-17 2020-02-27 Origin Wireless, Inc. Method, apparatus, and system for human identification based on human radio biometric information

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109766811A (zh) * 2018-12-31 2019-05-17 复旦大学 一种星载sar图像中海面船只的端到端检测与识别方法
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
WO2020237693A1 (zh) * 2019-05-31 2020-12-03 华南理工大学 一种水面无人装备多源感知方法及系统
CN110502654A (zh) * 2019-08-26 2019-11-26 长光卫星技术有限公司 一种适用于多源异构遥感数据的目标库生成系统
WO2022074643A1 (en) * 2020-10-08 2022-04-14 Edgy Bees Ltd. Improving geo-registration using machine-learning based object identification
CN113111722A (zh) * 2021-03-17 2021-07-13 天津理工大学 基于改进Mask R-CNN的自动驾驶目标识别方法
CN113705583A (zh) * 2021-08-16 2021-11-26 南京莱斯电子设备有限公司 一种基于卷积神经网络模型的目标检测识别方法
CN113920320A (zh) * 2021-08-27 2022-01-11 北京临近空间飞行器系统工程研究所 一种面向典型有源干扰的雷达图像目标检测系统
CN114529817A (zh) * 2022-02-21 2022-05-24 东南大学 基于注意力神经网络的无人机光伏故障诊断及定位方法

Also Published As

Publication number Publication date
CN116106899A (zh) 2023-05-12

Similar Documents

Publication Publication Date Title
CN108961235B (zh) 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法
CN112818903A (zh) 一种基于元学习和协同注意力的小样本遥感图像目标检测方法
CN110084234B (zh) 一种基于实例分割的声呐图像目标识别方法
CN109784278B (zh) 基于深度学习的海上弱小运动船舶实时检测方法
CN112288008B (zh) 一种基于深度学习的马赛克多光谱图像伪装目标检测方法
CN111079739B (zh) 一种多尺度注意力特征检测方法
CN111681197A (zh) 一种基于Siamese网络结构的遥感图像无监督变化检测方法
CN109145747A (zh) 一种水面全景图像语义分割方法
CN101915910B (zh) 利用航海雷达识别海上溢油目标的方法及系统
CN112149591B (zh) 用于sar图像的ssd-aeff自动桥梁检测方法及系统
CN107992818B (zh) 一种光学遥感图像海面船只目标的检测方法
CN109726717A (zh) 一种车辆综合信息检测系统
CN111985475A (zh) 船舶船牌识别方法、计算设备及存储介质
CN112883850A (zh) 一种基于卷积神经网络的多视角空天遥感图像匹配方法
Chen et al. Ship target detection algorithm based on improved YOLOv3 for maritime image
CN115937659A (zh) 基于Mask-RCNN的室内复杂环境下多目标检测方法
CN114565824A (zh) 基于全卷积网络的单阶段旋转舰船检测方法
CN116310837B (zh) 一种sar舰船目标旋转检测方法及系统
CN116106899B (zh) 一种基于机器学习的港口航道小目标识别方法
CN112053407A (zh) 一种交通执法影像中基于ai技术的车道线自动检测方法
CN115496998A (zh) 一种遥感影像码头目标检测方法
CN115331127A (zh) 一种基于注意力机制的无人机移动目标侦测方法
CN113850783A (zh) 一种海面船舶检测方法及系统
Li et al. A sea–sky–line detection method for long wave infrared image based on improved Swin Transformer
CN111178158A (zh) 一种骑车人检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant