CN116343066A - 基于边缘ai视频技术的无人机辅助船舶靠泊方法 - Google Patents

基于边缘ai视频技术的无人机辅助船舶靠泊方法 Download PDF

Info

Publication number
CN116343066A
CN116343066A CN202310295908.9A CN202310295908A CN116343066A CN 116343066 A CN116343066 A CN 116343066A CN 202310295908 A CN202310295908 A CN 202310295908A CN 116343066 A CN116343066 A CN 116343066A
Authority
CN
China
Prior art keywords
ship
aerial vehicle
unmanned aerial
image
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310295908.9A
Other languages
English (en)
Inventor
丁格格
李春旭
耿雄飞
文捷
王俊生
李东升
洛佳男
姚治萱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Waterborne Transport Research Institute
Original Assignee
China Waterborne Transport Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Waterborne Transport Research Institute filed Critical China Waterborne Transport Research Institute
Priority to CN202310295908.9A priority Critical patent/CN116343066A/zh
Publication of CN116343066A publication Critical patent/CN116343066A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于边缘AI视频技术的无人机辅助船舶靠泊方法,该方法包括:由无人机挂载云台光学相机对靠近泊位设定范围的船舶进行拍摄;识别船舶图像中的船体轮廓,得到船体轮廓与码头固定标线的像素点距离;根据船体轮廓与码头固定标线之间的像素点距离、相机相关参数和无人机高度值,实时计算出船体轮廓各点与预定泊位之间的垂直距离;将计算结果和采集的图像发送至待靠泊船舶,实现实时引导。本发明的方法能够实时感知船舶航行态势,给船舶驾引人员执行靠离泊操作提供数据支持,有效提高船舶靠离泊效率,减少船舶滞港时间,提高港口生产效益;减少船舶靠离泊事故风险,提高港口通航安全性。

Description

基于边缘AI视频技术的无人机辅助船舶靠泊方法
技术领域
本发明属于智能航运技术领域,尤其涉及基于边缘AI视频技术的无人机辅助船舶靠泊方法。
背景技术
船舶进港的靠离泊过程是船舶整个航次中风险较大的环节,主要依赖于船舶驾引人员的工作经验和对天气、海况和船舶性能的掌控。港口水域环境复杂,在多种因素的影响下,船舶的可控性受到很大的挑战。随着船舶大型化的发展,靠离泊事故发生率逐年增加,给船东、港口企业造成重大的经济损失。
船舶靠离泊事故发生的最根本原因在于驾引人员对船舶航行态势信息的认知不够充分,导致误判和操作不当,造成船舶碰撞事故。目前存在的船舶靠泊检测系统都存在一定的不足,例如基于雷达、声呐和激光测距等的辅助靠离泊技术,雷达、声呐以及一维的激光测距传感器都只能获取少量的环境信息,抗干扰能力和对环境的适应能力较差,当船舶剧烈晃动或码头几何结构不常见时,很容易丢失目标或出现错误检测的情况。
发明内容
本发明的目的在于克服现有技术缺陷,提出了基于边缘AI视频技术的无人机辅助船舶靠泊方法。
为了实现上述目的,本发明提出了一种基于边缘AI视频技术的无人机辅助船舶靠泊方法,所述方法包括:
步骤1)由无人机挂载云台光学相机对靠近泊位设定范围的船舶进行拍摄;
步骤2)识别船舶图像中的船体轮廓,得到船体轮廓与码头固定标线的像素点距离;
步骤3)根据船体轮廓与码头固定标线之间的像素点距离、相机相关参数和无人机高度值,实时计算出船体轮廓各点与预定泊位之间的垂直距离;
步骤4)将计算结果和采集的图像发送至待靠泊船舶,实现实时引导。
作为上述方法的一种改进,所述方法还包括在步骤1)之前:调整无人机的悬停位置和高度,使得码头固定标记点在图像画面中央位置,通过激光测距获得无人机的高度值,确保达到预定高度。
作为上述方法的一种改进,所述步骤2)的固定标线与码头边缘线平行并且距离码头边缘为设定的距离。
作为上述方法的一种改进,所述步骤2)具体包括:
当光学相机采集的船舶图像为黑白图像时,对泊位区域建立具有自适应性的背景模型,并获取背景图像;
将船舶图像和背景图像中像素点的灰度以对数关系进行划分,其中黑色的灰度值为0,白色的灰度值为255;
以背景图像的灰度值作为阈值,对船舶图像的像素点逐行扫描,提取与阈值差分达到设定值的灰度值边缘点集,根据轮廓跟踪算法进行连续性识别,勾勒出船舶的轮廓,进而得到船体轮廓与码头固定标线的像素点距离。
作为上述方法的一种改进,所述步骤2)具体包括:
当光学相机采集的船舶图像为彩色图像时,将彩色图像分成三个通道;
对泊位区域建立具有自适应性的背景模型,并获取背景图像;
将每个通道和背景图像中像素点的灰度以对数关系进行划分,其中黑色的灰度值为0,白色的灰度值为255;以背景图像的灰度值作为阈值,对船舶图像的像素点逐行扫描,提取与阈值差分达到设定值的灰度值边缘点集,根据轮廓跟踪算法进行连续性识别,得到边缘;
把三个通道得到的边缘按一定的规则进行合成,得到船舶的轮廓,进而得到船体轮廓与码头固定标线的像素点距离。
作为上述方法的一种改进,所述步骤2)具体包括:
当光学相机采集的船舶图像为彩色图像时,通过计算每个像素点的偏导数得到彩色图像梯度幅值和方向,对梯度幅值进行阈值化得到船舶的轮廓,进而得到船体轮廓与码头固定标线的像素点距离。
作为上述方法的一种改进,所述步骤3)的相机相关参数包括:传感器靶面尺寸、分辨率、镜头焦距和放大倍数。
作为上述方法的一种改进,所述步骤3)具体包括:
步骤3-1)根据相机的传感器靶面尺寸、镜头焦距和无人机高度值计算得到相机精度;
步骤3-2)根据船体轮廓与码头固定标线之间的像素点距离和相机精度,实时计算船体轮廓各点与预定泊位之间的垂直距离。
作为上述方法的一种改进,所述步骤3-1)包括:
根据靶面尺寸的宽度W,单位mm,镜头焦距FD,无人机到船舶的距离OD,单位为m,放大倍数S,根据下式得到相机拍摄视野范围的宽度FOVW
Figure BDA0004143097810000031
根据分辨率水平方向像素数PPIW由下式得到相机精度p:
p=FOVW/PPIW
或根据靶面尺寸的高度H,单位mm,镜头焦距FD,无人机到船舶的距离OD,单位为m,放大倍数S,根据下式得到相机拍摄视野范围的高度FOVH
Figure BDA0004143097810000032
根据分辨率垂直方向像素数PPIH由下式得到相机精度p:
p=FOVH/PPIH
作为上述方法的一种改进,所述步骤3-2)包括:
根据船体轮廓与码头固定标线之间的像素点距离和相机精度相乘,得到船体轮廓各点与预定泊位之间的垂直距离
与现有技术相比,本发明的优势在于:
针对船舶靠离泊过程中对船舶位置信息与泊位测距的需求,本发明创新性地提出了一种基于边缘AI视频技术的无人机辅助靠泊技术,能够实时感知船舶航行态势,给船舶驾引人员执行靠离泊操作提供数据支持,有效提高船舶靠离泊效率,减少船舶滞港时间,提高港口生产效益;减少船舶靠离泊事故风险,提高港口通航安全性。
附图说明
图1是本发明的基于边缘AI视频技术的无人机辅助船舶靠泊方法的示意图;
图2是采用本发明的方法进行船舶靠泊的俯视示意图。
附图标记
1、自动机场 2、无人机 3、靠泊船舶
4、拖船 5、十字标志 6、标线
具体实施方式
通过无人机挂载云台光学相机拍摄靠泊船舶的图像画面,并根据码头固定标记点在画面中的位置调整无人机的悬停位置和高度;然后利用边缘AI设备识别图像中的船体轮廓,自动测量出下船舷与标线的像素点距离曲线;根据船体轮廓与黄色标线之间的像素点个数、相机中CMOS的像元尺寸、光学模块的放大倍数、相机视角、无人机的高度值等数据,实时计算出船体轮廓各点与泊位之间的垂直距离并绘制距离曲线,给船舶驾引人员提供船舶态势数据支持。
下面结合附图和实施例对本发明的技术方案进行详细的说明。
实施例
如图1所示,本发明的实施例1提出了一种基于边缘AI视频技术的无人机辅助船舶靠泊方法,具体步骤包括:
(1)在码头固定位置,预先喷涂上定标用的标线6、码头固定标记点如十字标志5,标线6应距离码头边缘一定距离且与码头边缘线平行。
(2)靠泊船舶3进入码头靠泊时,无人机2挂载云台光学相机、激光测距设备及边缘AI计算设备,从自动机1按预定好的固定航线,自动飞行到相应的码头固定点位上空,并悬停在固定高度。
(3)无人机将云台相机旋转至90度垂直向下角度,捕获到靠泊船舶的图像画面。
(4)无人机携带的边缘AI设备,首先根据云台相机捕获到的图像,自动识别到十字标识,并自动控制无人机水平移动飞行,使得十字标识位于画面正中央,同时通过激光测距获得的高度数据,调整无人机高度至某精确高度值。
(5)待无人机位置和高度完全锁定后,边缘AI设备开始根据相机获取的船舶图像对船体与泊位之间的距离进行自动识别及测量,图中:
(5-1)通过AI处理在画面中自动识别出船体,通过图像处理技术提取其边缘轮廓;如图2所示,图中还有拖船4。
A、对于黑白图像,具体识别方法是:
当光学相机采集的船舶图像为黑白图像时,对泊位区域建立具有自适应性的背景模型,并获取背景图像;
将船舶图像和背景图像中像素点的灰度以对数关系进行划分,其中黑色的灰度值为0,白色的灰度值为255;
以背景图像的灰度值作为阈值,对船舶图像的像素点逐行扫描,提取与阈值差分达到设定值的灰度值边缘点集,根据轮廓跟踪算法进行连续性识别,勾勒出船舶的轮廓,进而得到船体轮廓与码头固定标线的像素点距离。
B、对于彩色图像,具体识别方法是:
彩色图像的每个像素包含红绿蓝三个分量,这样每个像素可以由一个三维向量来表示。彩色图像的边缘是图像的颜色在局部区域内发生剧烈变化的像素的集合。先将彩色图像分成三个通道,然后对这个三个通道分别用上文A的灰度边缘检测方法来检测边缘,然后把三通道的边缘按一定的规则合成产生彩色图像的边缘。
或者,采用多维梯度法,通过计算每个像素点的偏导数得到彩色图像梯度幅值和方向,对梯度幅值进行阈值化得到船舶的轮廓,进而得到船体轮廓与码头固定标线的像素点距离。
(5-2)自动识别出岸边的黄色标线(黄色标线距离泊位的距离是固定且已知的),以及船体轮廓与黄色标线之间的像素点个数;
(5-3)根据船体轮廓与黄色标线之间的像素点个数、相机中CMOS的像元尺寸、光学模块的放大倍数、相机视角、无人机的高度值等数据,实时计算出船体轮廓各点与泊位之间的垂直距离,并绘制距离曲线;具体包括:
(5-3-1)根据相机的传感器靶面尺寸、镜头焦距和无人机高度值计算得到相机精度;
具体参数包括:
物距(Object Distance,OD):相机芯片到被拍摄物体的距离
焦距(Focal Distance,FD):镜头焦距
视野范围FOV(Field of vision):相机拍摄的视野范围
FOVW:视野范围的宽度
FOVH:视野范围的高度
靶面尺寸(Sensor Size,SS):图像传感器CMOS或CCD的感光部分的尺寸,例如53.4×40mm,其中靶面的宽度为53.4mm,靶面的高度为40mm。
像元尺寸(Pixel Size,PS):图像传感器CMOS或CCD中一个像元的尺寸,例如3.2μm×4.6μm,其中像元的宽度为3.2μm,高度为4.6μm。
PPI:图像分辨率,例如分辨率为11600×8700像素,其中11600是图像传感器CMOS或CCD水平方向的像素数,8700是图像传感器CMOS或CCD垂直方向的像素数。
根据靶面尺寸的宽度W,单位mm,镜头焦距FD,无人机到船舶的距离OD,单位为m,放大倍数S,根据下式得到相机拍摄视野范围的宽度FOVW
Figure BDA0004143097810000061
根据分辨率水平方向像素数PPIW由下式得到相机精度p:
p=FOVW/PPIW
或根据靶面尺寸的高度H,单位mm,镜头焦距FD,无人机到船舶的距离OD,单位为m,放大倍数S,根据下式得到相机拍摄视野范围的高度FOVH
Figure BDA0004143097810000062
根据分辨率垂直方向像素数PPIH由下式得到相机精度p:
p=FOVH/PPIH
计算过程:
1.靶面尺寸(W or H)=像元尺寸(W or H)×图像分辨率(W or H)
2.相机拍摄的视野范围FOV(W or H)=[靶面尺寸(W or H)÷(镜头焦距FD/物距OD)]÷镜头的放大倍数
3.相机精度=相机拍摄的视野范围FOV(W or H)÷图像分辨率(W or H)
计算方法举例:
以某型号相机为例,配备的CMOS传感器靶面尺寸为53.4×40mm,分辨率为11600×8700像素,镜头焦距24mm,放大倍数为0.5×,若无人机携带该型号的相机悬停在距船舶正上方50米处,即物距为50m时,
那么,
相机拍摄的视野范围宽度FOVW=[53.4mm÷(24mm÷50m)]÷0.5=222.5m,
相机拍摄的视野范围高度FOVH=[40mm÷(24mm÷50m)]÷0.5=166.67m;
所以,
相机精度=相机拍摄的视野范围FOV(W or H)÷图像分辨率(W or H)=19mm/pixel。
这意味着,如果拍摄的图片中船舶的轮廓某点距预定泊位之间的垂直距离相隔10000个像素点,那么可换算出船舶的该点位置与预定泊位之间的垂直距离=19mm/pixel×10000pixel=190m。
根据船体轮廓与码头固定标线之间的像素点距离和相机精度,实时计算船体轮廓各点与预定泊位之间的垂直距离。
(5-3-2)根据船体轮廓与码头固定标线之间的像素点距离和相机精度相乘,得到船体轮廓各点与预定泊位之间的垂直距离。
(5-4)从曲线中获得船体与码头泊位之间的最小距离、最大距离、平均距离等值,并用OSD(on-screening display,即屏幕菜单式调节方式)技术显示在无人机获取的图像画面中。
(6)将边缘AI设备计算提供的含有图像和测量数据的图像,通过无人机数据链、系统平台,实时传输到船舶驾引人员手中的显示终端,即可根据图像及数据进行实时控制泊靠操作。船舶驾引人员无论是在船上或是在岸上均适用,这里不做限制。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (10)

1.一种基于边缘AI视频技术的无人机辅助船舶靠泊方法,所述方法包括:
步骤1)由无人机挂载云台光学相机对靠近泊位设定范围的船舶进行拍摄;
步骤2)识别船舶图像中的船体轮廓,得到船体轮廓与码头固定标线的像素点距离;
步骤3)根据船体轮廓与码头固定标线之间的像素点距离、相机相关参数和无人机高度值,实时计算出船体轮廓各点与预定泊位之间的垂直距离;
步骤4)将计算结果和采集的图像发送至待靠泊船舶,实现实时引导。
2.根据权利要求1所述的基于边缘AI视频技术的无人机辅助船舶靠泊方法,其特征在于,所述方法还包括在步骤1)之前:调整无人机的悬停位置和高度,使得预设的码头固定标记点在图像画面中央位置,通过激光测距获得无人机的高度值,确保达到预定高度。
3.根据权利要求1所述的基于边缘AI视频技术的无人机辅助船舶靠泊方法,其特征在于,所述步骤2)的固定标线与码头边缘线平行并且距离码头边缘为设定的距离。
4.根据权利要求1所述的基于边缘AI视频技术的无人机辅助船舶靠泊方法,其特征在于,所述步骤2)具体包括:
当光学相机采集的船舶图像为黑白图像时,对泊位区域建立具有自适应性的背景模型,并获取背景图像;
将船舶图像和背景图像中像素点的灰度以对数关系进行划分,其中黑色的灰度值为0,白色的灰度值为255;
以背景图像的灰度值作为阈值,对船舶图像的像素点逐行扫描,提取与阈值差分达到设定值的灰度值边缘点集,根据轮廓跟踪算法进行连续性识别,勾勒出船舶的轮廓,进而得到船体轮廓与码头固定标线的像素点距离。
5.根据权利要求1所述的基于边缘AI视频技术的无人机辅助船舶靠泊方法,其特征在于,所述步骤2)具体包括:
当光学相机采集的船舶图像为彩色图像时,将彩色图像分成三个通道;
对泊位区域建立具有自适应性的背景模型,并获取背景图像;
将每个通道和背景图像中像素点的灰度以对数关系进行划分,其中黑色的灰度值为0,白色的灰度值为255;以背景图像的灰度值作为阈值,对船舶图像的像素点逐行扫描,提取与阈值差分达到设定值的灰度值边缘点集,根据轮廓跟踪算法进行连续性识别,得到边缘;
把三个通道得到的边缘按一定的规则进行合成,得到船舶的轮廓,进而得到船体轮廓与码头固定标线的像素点距离。
6.根据权利要求1所述的基于边缘AI视频技术的无人机辅助船舶靠泊方法,其特征在于,所述步骤2)具体包括:
当光学相机采集的船舶图像为彩色图像时,通过计算每个像素点的偏导数得到彩色图像梯度幅值和方向,对梯度幅值进行阈值化得到船舶的轮廓,进而得到船体轮廓与码头固定标线的像素点距离。
7.根据权利要求1所述的基于边缘AI视频技术的无人机辅助船舶靠泊方法,其特征在于,所述步骤3)的相机相关参数包括:传感器靶面尺寸、分辨率、镜头焦距和放大倍数。
8.根据权利要求5所述的基于边缘AI视频技术的无人机辅助船舶靠泊方法,其特征在于,所述步骤3)具体包括:
步骤3-1)根据相机的传感器靶面尺寸、镜头焦距和无人机高度值计算得到相机精度;
步骤3-2)根据船体轮廓与码头固定标线之间的像素点距离和相机精度,实时计算船体轮廓各点与预定泊位之间的垂直距离。
9.根据权利要求8所述的基于边缘AI视频技术的无人机辅助船舶靠泊方法,其特征在于,所述步骤3-1)包括:
根据靶面尺寸的宽度W,单位mm,镜头焦距FD,无人机到船舶的距离OD,单位为m,放大倍数S,根据下式得到相机拍摄视野范围的宽度FOVW
Figure FDA0004143097770000021
根据分辨率水平方向像素数PPIW由下式得到相机精度p:
p=FOVW/PPIW
或根据靶面尺寸的高度H,单位mm,镜头焦距FD,无人机到船舶的距离OD,单位为m,放大倍数S,根据下式得到相机拍摄视野范围的高度FOVH
Figure FDA0004143097770000022
根据分辨率垂直方向像素数PPIH由下式得到相机精度p:
p=FOVH/PPIH
10.根据权利要求9所述的基于边缘AI视频技术的无人机辅助船舶靠泊方法,其特征在于,所述步骤3-2)包括:
根据船体轮廓与码头固定标线之间的像素点距离和相机精度相乘,得到船体轮廓各点与预定泊位之间的垂直距离。
CN202310295908.9A 2023-03-24 2023-03-24 基于边缘ai视频技术的无人机辅助船舶靠泊方法 Pending CN116343066A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310295908.9A CN116343066A (zh) 2023-03-24 2023-03-24 基于边缘ai视频技术的无人机辅助船舶靠泊方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310295908.9A CN116343066A (zh) 2023-03-24 2023-03-24 基于边缘ai视频技术的无人机辅助船舶靠泊方法

Publications (1)

Publication Number Publication Date
CN116343066A true CN116343066A (zh) 2023-06-27

Family

ID=86881850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310295908.9A Pending CN116343066A (zh) 2023-03-24 2023-03-24 基于边缘ai视频技术的无人机辅助船舶靠泊方法

Country Status (1)

Country Link
CN (1) CN116343066A (zh)

Similar Documents

Publication Publication Date Title
CN109670411B (zh) 基于生成对抗网络的船舶点云深度图像处理方法和系统
CN107203222B (zh) 无人机实现船舶水尺图像及视频拍摄的方法
CN109409283B (zh) 一种海面舰船跟踪和监控的方法、系统和存储介质
CN109725310B (zh) 一种基于yolo算法以及岸基雷达系统的船舶定位监管系统
JP6507437B2 (ja) 船舶補助ドッキング方法およびシステム
WO2016112708A1 (zh) 一种船舶辅助泊岸方法和系统
US20220024549A1 (en) System and method for measuring the distance to an object in water
CN111709994B (zh) 一种自主无人机视觉探测与引导系统及方法
KR20160062286A (ko) 무인항공기를 이용한 선박 접안 지원 시스템 및 그 방법
CN111192318B (zh) 确定无人机位置和飞行方向的方法、装置及无人机
CN108769617A (zh) 基于无人机的船舶水尺读数智能识别系统
Zhou et al. Verification of AIS data by using video images taken by a UAV
EP3860908B1 (en) System and method for assisting docking of a vessel
CN115131720A (zh) 一种基于人工智能的船舶靠泊辅助方法
CN110667783A (zh) 一种无人艇辅助驾驶系统及其方法
CN110322462A (zh) 基于5g网络的无人机视觉着陆方法及系统
CN116343066A (zh) 基于边缘ai视频技术的无人机辅助船舶靠泊方法
CN110393165B (zh) 一种基于自动投饵船的远海养殖网箱投饵方法
CN113450598B (zh) 基于红外视频的船舶辅助航行方法及系统
CN113763484A (zh) 基于视频图像分析技术的船舶目标定位及速度估算方法
CN117710923B (zh) 一种不良视线下汽渡辅助航行方法
Ivanovskii The Concept of Automated Draught Survey System for Marine Ships
CN116767424B (zh) 一种无人机协同辅助船舶靠泊方法
KR102477457B1 (ko) 해군 함정 감시 및 접안 지원 시스템
CN114740878B (zh) 基于计算机图像识别的无人机飞行障碍物探测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination