CN113808282A - 一种多通航要素数据融合方法 - Google Patents
一种多通航要素数据融合方法 Download PDFInfo
- Publication number
- CN113808282A CN113808282A CN202110986517.2A CN202110986517A CN113808282A CN 113808282 A CN113808282 A CN 113808282A CN 202110986517 A CN202110986517 A CN 202110986517A CN 113808282 A CN113808282 A CN 113808282A
- Authority
- CN
- China
- Prior art keywords
- ship
- camera
- target
- data
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 14
- 238000001514 detection method Methods 0.000 claims abstract description 64
- 238000000034 method Methods 0.000 claims abstract description 32
- 230000004927 fusion Effects 0.000 claims abstract description 11
- 230000011218 segmentation Effects 0.000 claims abstract description 7
- 238000006243 chemical reaction Methods 0.000 claims description 44
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 31
- 238000005516 engineering process Methods 0.000 claims description 13
- 238000009434 installation Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 10
- 238000012544 monitoring process Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 101100322245 Caenorhabditis elegans des-2 gene Proteins 0.000 claims description 6
- 101100222880 Diacronema lutheri Plesd1 gene Proteins 0.000 claims description 6
- 102100037416 Sphingolipid delta(4)-desaturase DES1 Human genes 0.000 claims description 6
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 238000009432 framing Methods 0.000 claims description 3
- 230000006872 improvement Effects 0.000 description 6
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明属于航运信息技术领域,具体地说,涉及一种多通航要素数据融合方法,该方法包括:采用HSV色彩空间检测方法和虚拟线圈目标抓拍方法,对摄像机实时获取的船舶图像序列进行目标检测,并对其中所包含船舶目标的图像进行船舶目标定位与分割处理,得到多个有效船舶目标图像;对每个有效船舶目标图像进行图像特征提取,并与船舶数据库进行特征匹配,确定目标船舶身份并进行标定,得到船舶数据;提取电子海图中的航道要素,将航道要素进行地理坐标到屏幕坐标转换,得到航道数据;将摄像机实时获取的视频数据、船舶数据以及航道数据,均按照摄像机拍摄画面的屏幕坐标系,进行数据融合。
Description
技术领域
本发明属于航运信息、船舶定位和多通航要素数据融合技术领域,具体地说,涉及一种多通航要素数据融合方法。
背景技术
随着社会经济的高速发展,水上交通不断深入,船舶数量不断攀升,类型呈现多样化,出现了油船、散货船、集装箱船和渔船等船型,使得船舶的行动协调变得困难。同时,船舶朝着大型化、高速化方向发展,也增加了船舶本身的操作难度,也对航道提出了较高的要求,需要为其安全通航提供良好的交通环境、特殊的措施和服务。加之船载危险物不断增加,受控制河段的限制,引起了内河航道通航压力增大,交通拥塞加剧,水上交通事故隐患增多,威胁航运安全及江河生态环境,制约着社会经济的正常运转。因此,对内河航道特别是控制河段通航船舶进行智能化跟踪监视,将有助于通航指挥决策的完善以改善控制河段通航现状。
水上交通动态监控可以及时发现和协调海上交通目标,是提高船舶进出港、靠离泊和港口航道内航行效率和安全性的重要技术手段。当前,船舶交通服务系统(VTS)、船舶自动识别系统(AIS)、雷达、实时监控视频、GNSS定位终端、移动APP与船舶位置绑定、船舶报告、远程身份识别(RFID)等是当前水上交通动态监管的主要技术手段。
但是,内河航道面临更多技术障碍,例如航道狭窄、交叉口多、船舶密度大、水上碍航设施较多、航道水深变化较大、通航环境复杂、通航区域线长、面广等。因此,将图像识别技术用于内河船舶跟踪监视难技术难度较大。
综上所述,现有的数据融合方法中无法将图像与船舶定位相融合,造成了港口处的船舶跟踪精度下降,港口航道内航行效率差的问题。
发明内容
为解决现有技术存在的上述缺陷,本发明提出了一种多通航道要素的数据融合方法,该多通航道要素包括:摄像机实时拍摄的视频数据、船舶数据以及航道数据;该方法包括:
采用HSV色彩空间检测方法和虚拟线圈目标抓拍方法,对摄像机实时获取的船舶图像序列进行目标检测,得到船舶目标图像序列,并对其中所包含船舶目标的图像进行船舶目标定位与分割处理,得到多个有效船舶目标图像;
对每个有效船舶目标图像进行图像特征提取,并与船舶数据库进行特征匹配,得到最邻近的匹配特征;根据最邻近的匹配特征,对比船舶自动识别系统位置信息,确定目标船舶身份并进行标定,得到船舶数据;
根据摄像机的实际技术参数和安装位置,确定摄像机空间投影转换参数;提取电子海图中的航道要素,根据摄像机空间投影转换参数,将航道要素进行地理坐标到屏幕坐标转换,转换到摄像机拍摄画面的屏幕坐标系,得到航道数据;
将摄像机实时获取的视频数据、船舶数据以及航道数据,均按照摄像机拍摄画面的屏幕坐标系,作为统一空间参考系进行数据融合,得到融合数据并显示。
作为上述技术方案的改进之一,所述方法还包括:根据显示的融合数据,完成对每个船舶目标的捕获与自动跟踪监控。
作为上述技术方案的改进之一,所述采用HSV色彩空间检测方法和虚拟线圈目标抓拍方法,对摄像机实时获取的船舶图像序列进行目标检测,得到船舶目标图像序列,并对其中所包含船舶目标的图像进行船舶目标定位与分割处理,得到多个有效船舶目标图像;其具体过程为:
在航道卡口的水域中央位置设置网格状虚拟线圈,与船舶航行方向垂直,并排三列线圈块组成,每个线圈块相邻有5到8个线圈块;每一个线圈块作为一个独立的计算单元,通过HSV色彩空间检测法,判断每个线圈块内的每一个像素是否为船舶目标;
具体地,在预先设置的检测区域内,采用HSV色彩空间船舶目标检测方法,对摄像机采集的船舶图像序列中的每一帧船舶图像进行船舶目标检测;
在预先设定的检测区域内,分别对S分量和V分量,获取对应的统计直方图的最大值,作为S分量的水背景参考值T(S)和V分量的水背景参考值T(V),然后在当前帧检测区的虚拟线圈位置,分别对S分量的水背景参考值T(S)的绝对值和V分量的水背景参考值T(V)的绝对值进行或运算融合在一起,得到一个关于船舶目标的检测值;该检测值为与参考值T(S)及T(V)的差绝对值;
根据判断准则,判断该检测值是否大于预先设定的检测阈值;
其中,判断准则为该检测值超过了预先设定的检测阈值,则像素判断为1;否则,像素判断为0;
如果该检测值大于或等于预先设定的检测阈值,则判断像素为1,像素1为船舶目标;并通过虚拟线圈位置的H分量值来除去阴影,得到有效船舶目标;其中,当船舶目标为1的像素的H分量值在阴影固定值区间内,则把像素重置为0。
如果该检测值小于预先设定的检测阈值,则判断像素为0,像素0为水背景;
统计并计算整个线圈块超过预先设定的检测阈值的像素的数量与该线圈块总像素的数量的比值,如果该比值大于50%,则判断该虚拟线圈块检测到目标,并标记为1;
如果该比值小于或等于50%,则判断该虚拟线圈块未检测到目标,并标记为0;
当船舶目标触发或到达虚拟线圈时,网格状虚拟线圈中的图像像素增大,采用摄像机对其进行完整船舶目标抓拍,
其中,判断虚拟线圈块是否检测到船舶目标的规则为:对每一个标记为1的线圈块进行邻域检索,如果出现有一个标记为1的线圈块的邻域线圈块标记为1的数量大于或等于3个,则判断虚拟线圈检测到船舶目标;
如果全部标记为1的线圈块的邻域线圈块标记为1的数量小于3个,则判断虚拟线圈没有检测到船舶目标;
对摄像机实时获取的船舶图像序列中的每一帧进行上述处理,得到船舶目标图像序列,并对其中所包含船舶目标的图像进行船舶目标定位,从每帧图像中分离出每个船舶目标的图像及其对应的船舶目标的位置信息和类别信息,采用非区域推荐的目标检测SSD算法进行检测匹配,对得到的每个船舶目标匹配对应船舶目标的位置信息和类别信息,得到多个匹配后的船舶目标,用矩形框框住每个匹配后的船舶目标并进行标识,再进行分割处理,得到多个有效船舶目标图像。
作为上述技术方案的改进之一,所述对每个有效船舶目标图像进行图像特征提取,并与船舶数据库进行特征匹配,得到最邻近的匹配特征;根据最邻近的匹配特征,对比船舶自动识别系统位置信息,确定目标船舶身份并进行标定,得到船舶数据;其具体过程为:
采用ORB算法,对每个有效船舶目标图像进行图像特征提取,得到多个船舶目标特征点;
以某个船舶目标特征点为圆心,选取N对点对,并对每一对点对进行编号,得到N对带有编号的点对;
通过比对每一对点对的灰度值,得出对应的每一对点对的0或1描述;
如果某一对点对的灰度值大于或等于预先设定的灰度阈值,则该对点对的描述为1;
如果某一对点对的灰度值小于预先设定的灰度阈值,则该对点对的描述为0;
对每一对点对进行上述处理,得到多个0和1的描述,作为该船舶目标特征点的描述子;
对每个船舶目标特征点进行上述处理,得到有效船舶目标图像的特征点集合;
采用FLANN匹配算法,对任意两个有效船舶目标图像上分别提取第一特征点集合kp1和第二特征点集合kp2;根据第一特征点集合kp1和第二特征点集合kp2,采用SIFT特征提取方法或SURF特征提取方法,获得对应的第一特征描述集合des1和第二特征描述集合des2;
利用特征匹配器FLANN,对第一特征描述集合des1和第二特征集合des2进行匹配,得到多组特征匹配点对,计算每一组特征匹配点对之间的欧式距离;
A=(x1,x2,...,xn)
B=(y1,y2,...,yn)
其中,A和B为一组特征匹配点对中的两个不同的特征匹配点,xn和yn分别为第n组特征匹配点对中的A特征匹配点对应特征点的坐标和B特征匹配点对应特征点的坐标,AB为欧氏距离;
从中选取距离最小的一组特征匹配点对,作为最小距离,记为标准值;
将小于3倍的最小距离的一组特征匹配点对,作为匹配度;
如果该匹配度小于预先设定的匹配度阈值,则将该匹配度对应的匹配特征,作为最邻近的匹配特征存入船舶数据库,供后续查找;
如果该匹配度大于或等于预先设定的匹配度阈值,则利用该匹配度,在船舶数据库中进行特征匹配,得到最近邻的匹配特征;
根据最邻近的匹配特征,在船舶数据库中获取对应的电子海图;利用船舶自动识别系统,检索目标船舶身份,确定目标船舶身份信息并进行标定,对比船舶自动识别系统位置信息,获取目标船舶的AIS位置信息,进而得到船舶数据;
其中,目标船舶身份信息包括:船舶呼号、移动识别码、航向、航速、船长、船宽、吃水、目的港、载货类型和航行时间;
所述船舶数据包括:每个目标船舶的AIS数据和与最邻近的匹配特征对应的一组特征匹配点对。
作为上述技术方案的改进之一,所述根据摄像机的实际技术参数和安装位置,确定摄像机空间投影转换参数;提取电子海图中的航道要素,根据摄像机空间投影转换参数,将航道要素进行地理坐标到屏幕坐标转换,转换到摄像机拍摄画面的屏幕坐标系,得到航道数据;其具体过程为:
所述摄像机的实际技术参数包括:待显示海图区域的宽度H、待显示海图区域的宽度V、屏幕像素点横向尺寸Hpeis和屏幕像素点纵向尺寸Vpeis;
所述摄像机的安装位置为摄像机所处的地理位置;
根据摄像机的实际技术参数,确定摄像机空间投影转换参数;
其中,该摄像机空间投影转换参数包括:摄像机可显示区域的投影横坐标最小值Xmin、摄像机可显示区域的投影横坐标最大值Xmax、摄像机可显示区域的投影纵坐标最小值Ymin和摄像机可显示区域的投影纵坐标最大值Ymax:
假设以摄像机的安装位置为基准,并将其作为制图区域中心点,则该中心点的地理坐标为(Ystan,Tstan),则
其中,Xmin为摄像机可显示区域的空间投影横坐标最小值;H为待显示海图区域的宽度;Hpeis为屏幕像素点横向尺寸;Scale为显示比例尺;Xstan为制图区域中心点X的横坐标;
其中,Xmax为摄像机可显示区域的空间投影横坐标最大值;
其中,Ymin为摄像机可显示区域的空间投影纵坐标最小值;Ystan为制图区域中心点Y的纵坐标;V为待显示海图区域的高度;Vpeis为屏幕像素点纵向尺寸;
其中,Ymax为摄像机可显示区域的空间投影纵坐标最大值;
根据确定的摄像机空间投影转换参数,得到原点的地理坐标(Xmin,Ymax);
通过下述的屏幕坐标转换公式,将该原点的地理坐标转换为屏幕坐标(P1,Q1),并以此建立摄像机拍摄画面的屏幕坐标系:
Q1=(Xmin-X)/Vpeis*Scale*1000; (1)
P1=(Y-Ymax)/Hpeis*Scale*1000; (2)
其中,P为该原点进行屏幕坐标转换后的屏幕坐标的横坐标;Q为该原点进行屏幕坐标转换后的屏幕坐标的纵坐标;X为待显示海图区域中,摄像机的屏幕地理位置坐标的横坐标;Y为待显示海图区域中,摄像机的屏幕地理位置坐标的纵坐标;
上述公式(1)和公式(2)作为转换公式,利用该转换公式,完成从地理坐标到屏幕坐标的转换,得到对应的屏幕坐标;
利用上述的转换公式,将摄像机的地理位置坐标转换为摄像机的屏幕地理位置坐标;
通过要素类型检索并提取电子海图中的多个航道要素;利用三角测量技术,对每个航道要素给出对应的地理坐标;
再对每个航道要素,利用上述转换公式进行地理坐标到屏幕坐标的转换,转换到摄像机拍摄画面的屏幕坐标系,得到多个航道要素屏幕坐标,形成航道数据;
其中,多个航道要素包括:分道通航线、水深、等深线、浮码头和海岸线;
每个航道要素对应一个航道要素屏幕坐标;航道数据为将每个航道要素经过坐标转换后得到的对应的屏幕坐标数据。
作为上述技术方案的改进之一,所述将摄像机实时拍摄的视频数据、船舶数据以及航道数据,均按照摄像机拍摄画面的屏幕坐标系,作为统一空间参考系进行数据融合,得到融合数据并显示;其具体过程为:
将摄像机实时拍摄的视频数据和船舶数据均利用上述三角测量技术,得到对应的地理坐标,再将其分别进行地理坐标到屏幕坐标的转换,转换到摄像机拍摄画面的屏幕坐标系,得到对应的屏幕坐标,使得摄像机实时拍摄的视频数据、船舶数据以及航道数据均转换至摄像机拍摄画面的屏幕坐标系,按照该统一空间参考系,采用AR技术,对上述三类数据进行融合,得到动态的增强现实的融合数据,并进行显示。
本发明与现有技术相比的有益效果是:
1本发明主要针对重点港口码头及通航水域,基于地理信息系统技术,视频图像分析和船舶自动识别等技术,提出了一种航道—船舶—港口多维异构数据融合处理方法,可以有效保障重点通航水域交通安全和效率。
2、本发明采用现代信息采集与增强现实技术,实时对水上交通状况进行监测,实现了水上交通组织与治理的动态化与智能化。可以有效减少船舶碰撞、搁浅、触礁等事故,对提高内河航道通航能力、减少船舶交通事故、减少污染、提高信息化水平有重要意义,同时有助于加强航道执法力度,提高航道监管效率。
3、本发明中涉及的数据、算法与系统以低耦合方式关联,具有高度可扩展性,可快速转化为其他交通形式应用,对陆路、铁路交通跟踪监控及其它视频跟踪监控领域的应用起到推动作用。
附图说明
图1是本发明的一种多通航要素数据融合方法的流程图。
具体实施方式
现结合附图对本发明作进一步的描述。
如图1所示,本发明提供了一种多通航要素数据融合方法,该方法包括:
一种多通航要素数据融合方法,该多通航道要素包括:摄像机实时拍摄的视频数据、船舶数据以及航道数据;该方法包括:
步骤1)采用HSV(即色调、饱和度、明度)色彩空间检测方法和虚拟线圈目标抓拍方法,对摄像机实时获取的船舶图像序列进行目标检测,得到船舶目标图像序列,并对其中所包含船舶目标的图像进行船舶目标定位与分割处理,得到多个有效船舶目标图像;
具体地,在航道卡口的水域中央位置设置网格状虚拟线圈,与船舶航行方向垂直,并排三列线圈块组成,每个线圈块相邻有5到8个线圈块;每一个线圈块作为一个独立的计算单元,通过HSV色彩空间检测法,判断每个线圈块内的每一个像素是否为船舶目标;
具体地,在预先设置的检测区域内,采用HSV色彩空间船舶目标检测方法,对摄像机采集的船舶图像序列中的每一帧船舶图像进行船舶目标检测;
在预先设定的检测区域内,分别对S分量和V分量,获取对应的统计直方图的最大值,作为S分量的水背景参考值T(S)和V分量的水背景参考值T(V),然后在当前帧检测区的虚拟线圈位置,分别对S分量的水背景参考值T(S)的绝对值和V分量的水背景参考值T(V)的绝对值进行或运算融合在一起,得到一个关于船舶目标的检测值;该检测值为与参考值T(S)及T(V)的差绝对值;
根据判断准则,判断该检测值是否大于预先设定的检测阈值;
其中,判断准则为该检测值超过了预先设定的检测阈值,则像素判断为1;否则,像素判断为0;
如果该检测值大于或等于预先设定的检测阈值,则判断像素为1,像素1为船舶目标;并通过虚拟线圈位置的H分量值来除去阴影,得到有效船舶目标;其中,当船舶目标为1的像素的H分量值在阴影固定值区间内,则把像素重置为0。
如果该检测值小于预先设定的检测阈值,则判断像素为0,像素0为水背景;
统计并计算整个线圈块超过预先设定的检测阈值的像素的数量与该线圈块总像素的数量的比值,如果该比值大于50%,则判断该虚拟线圈块检测到目标,并标记为1;
如果该比值小于或等于50%,则判断该虚拟线圈块未检测到目标,并标记为0;
当船舶目标触发或到达虚拟线圈时,网格状虚拟线圈中的图像像素增大,采用摄像机对其进行完整船舶目标抓拍,
其中,判断虚拟线圈块是否检测到船舶目标的规则为:对每一个标记为1的线圈块进行邻域检索,如果出现有一个标记为1的线圈块的邻域线圈块标记为1的数量大于或等于3个,则判断虚拟线圈检测到船舶目标;
如果全部标记为1的线圈块的邻域线圈块标记为1的数量小于3个,则判断虚拟线圈没有检测到船舶目标;
对摄像机实时获取的船舶图像序列中的每一帧进行上述处理,得到船舶目标图像序列,并对其中所包含船舶目标的图像进行船舶目标定位,从每帧图像中分离出每个船舶目标的图像及其对应的船舶目标的位置信息和类别信息,采用非区域推荐的目标检测SSD(Single Shot MultiBox Detector)算法进行检测匹配,对得到的每个船舶目标匹配对应船舶目标的位置信息和类别信息,得到多个匹配后的船舶目标,用矩形框框住每个匹配后的船舶目标并进行标识,再进行分割处理,得到多个有效船舶目标图像。
步骤2)对每个有效船舶目标图像进行图像特征提取,并与船舶数据库进行特征匹配,得到最邻近的匹配特征;根据最邻近的匹配特征,对比船舶自动识别系统(AIS)位置信息,确定目标船舶身份并进行标定,得到船舶数据;
具体地,采用ORB(Oriented FAST and Rotated BRIEF)算法,对每个有效船舶目标图像进行图像特征提取,得到多个船舶目标特征点;
以某个船舶目标特征点为圆心,选取N对点对,并对每一对点对进行编号,得到N对带有编号的点对;
通过比对每一对点对的灰度值,得出对应的每一对点对的0或1描述;
如果某一对点对的灰度值大于或等于预先设定的灰度阈值,则该对点对的描述为1;
如果某一对点对的灰度值小于预先设定的灰度阈值,则该对点对的描述为0;
对每一对点对进行上述处理,得到多个0和1的描述,作为该船舶目标特征点的描述子;
对每个船舶目标特征点进行上述处理,得到有效船舶目标图像的特征点集合;
采用FLANN匹配算法(Fast_Library_for_Approximate_Nearest_Neighbors,即快速最近邻搜索包),对任意两个有效船舶目标图像上分别提取第一特征点集合kp1和第二特征点集合kp2;根据第一特征点集合kp1和第二特征点集合kp2,采用SIFT(Scale-InvariantFeature Transform,尺度不变特征变换)特征提取方法或SURF(Speeded Up RobustFeatures)特征提取方法,获得对应的第一特征描述集合des1和第二特征描述集合des2;
利用特征匹配器FLANN,对第一特征描述集合des1和第二特征集合des2进行匹配,得到多组特征匹配点对,计算每一组特征匹配点对之间的欧式距离;
A=(x1,x2,...,xn)
B=(y1,y2,...,yn)
其中,A和B为一组特征匹配点对中的两个不同的特征匹配点,xn和yn分别为第n组特征匹配点对中的A特征匹配点对应特征点的坐标和B特征匹配点对应特征点的坐标,AB为欧氏距离;
从中选取距离最小的一组特征匹配点对,作为最小距离,即标准值;
将小于3倍的最小距离的一组特征匹配点对,作为匹配度;
如果该匹配度小于预先设定的匹配度阈值,则将该匹配度对应的匹配特征,作为最邻近的匹配特征存入船舶数据库,供后续查找;
如果该匹配度大于或等于预先设定的匹配度阈值,则利用该匹配度,在船舶数据库中进行特征匹配,得到最近邻的匹配特征;
根据最邻近的匹配特征,在船舶数据库中获取对应的电子海图;利用船舶自动识别系统(AIS),检索目标船舶身份,确定目标船舶身份信息并进行标定,对比船舶自动识别系统(AIS)位置信息,获取目标船舶的AIS位置信息,进而得到船舶数据;
其中,目标船舶身份信息包括:船舶呼号、移动识别码、航向、航速、船长、船宽、吃水、目的港、载货类型和航行时间;
将每个目标船舶的AIS位置信息和目标船舶身份信息,作为该目标船舶的AIS数据;
所述船舶数据包括:每个目标船舶的AIS数据和与最邻近的匹配特征对应的一组特征匹配点对。
在本实施例中,检索目标船舶身份时,当目标船舶之间相距比较远,没有重叠时,则直接根据最近的匹配特征在船舶数据库中查找,获得该目标船舶的身份信息;对比船舶自动识别系统(AIS)位置信息,获取目标船舶的位置信息;
当目标船舶之间发生叠加或重叠时,利用船舶自动识别系统(AIS),检索目标船舶身份,确定目标船舶身份信息并进行标定,对比船舶自动识别系统(AIS)位置信息,获取目标船舶的位置信息。
步骤3)根据摄像机的实际技术参数和安装位置,确定摄像机空间投影转换参数;提取电子海图中的航道要素,根据摄像机空间投影转换参数,将航道要素进行地理坐标到屏幕坐标转换,转换到摄像机拍摄画面的屏幕坐标系,得到航道数据;
具体地,所述摄像机的实际技术参数包括:待显示海图区域的宽度H、待显示海图区域的宽度V、屏幕像素点横向尺寸Hpeis和屏幕像素点纵向尺寸Vpeis;
所述摄像机的安装位置为摄像机所处的地理位置;
根据摄像机的实际技术参数,确定摄像机空间投影转换参数;
其中,该摄像机空间投影转换参数包括:摄像机可显示区域的投影横坐标最小值Xmin、摄像机可显示区域的投影横坐标最大值Xmax、摄像机可显示区域的投影纵坐标最小值Ymin和摄像机可显示区域的投影纵坐标最大值Ymax:
假设以摄像机的安装位置(即摄像机所处的地理位置)为基准,并将其作为制图区域中心点,则该中心点的地理坐标为(Xstan,Ystan),则
其中,Xmin为摄像机可显示区域的空间投影横坐标最小值;H为待显示海图区域的宽度;Hpeis为屏幕像素点横向尺寸;Scale为显示比例尺;Xatan为制图区域中心点X的横坐标;
其中,Xmax为摄像机可显示区域的空间投影横坐标最大值;
其中,Ymin为摄像机可显示区域的空间投影纵坐标最小值;Ystan为制图区域中心点Y的纵坐标;V为待显示海图区域的高度;Vpeis为屏幕像素点纵向尺寸;
其中,Ymax为摄像机可显示区域的空间投影纵坐标最大值;
根据确定的摄像机空间投影转换参数,得到原点的地理坐标(Xmin,Ymax);
通过下述的屏幕坐标转换公式,将该原点的地理坐标转换为屏幕坐标(P1,Q1),并以此建立摄像机拍摄画面的屏幕坐标系:
Q1=(Xmin-X)/Vrpeis*Scale*1000; (1)
P1=(Y-Ymax)/Hpeis*Scale*1000; (2)
其中,P为该原点进行屏幕坐标转换后的屏幕坐标的横坐标;Q为该原点进行屏幕坐标转换后的屏幕坐标的纵坐标;X为待显示海图区域中,摄像机的屏幕地理位置坐标的横坐标;Y为待显示海图区域中,摄像机的屏幕地理位置坐标的纵坐标;
上述公式(1)和公式(2)作为转换公式,利用该转换公式,完成了从地理坐标到屏幕坐标的转换,得到对应的屏幕坐标,为保证转换精度,所有坐标数据均以double型存储,屏幕坐标采用四舍五入法完成取整操作;
利用上述的转换公式,将摄像机的地理位置坐标转换为摄像机的屏幕地理位置坐标;
通过要素类型检索并提取电子海图中的多个航道要素;利用三角测量技术,对每个航道要素给出对应的地理坐标;
再对每个航道要素,利用上述转换公式进行地理坐标到屏幕坐标的转换,转换到摄像机拍摄画面的屏幕坐标系,得到多个航道要素屏幕坐标,形成航道数据;
其中,多个航道要素包括:分道通航线、水深、等深线、浮码头和海岸线;
每个航道要素对应一个航道要素屏幕坐标;航道数据为将每个航道要素经过坐标转换后得到的对应的屏幕坐标数据。
步骤4)将摄像机实时拍摄的视频数据、船舶数据以及航道数据,均按照摄像机拍摄画面的屏幕坐标系,作为统一空间参考系进行数据融合,得到融合数据并显示。
具体地,将摄像机实时拍摄的视频数据和船舶数据均利用上述三角测量技术,得到对应的地理坐标,再将其分别进行地理坐标到屏幕坐标的转换,转换到摄像机拍摄画面的屏幕坐标系,得到对应的屏幕坐标,使得摄像机实时拍摄的视频数据、船舶数据以及航道数据均转换至摄像机拍摄画面的屏幕坐标系,按照该统一空间参考系,采用AR技术,对上述三类数据进行融合,得到动态的增强现实的融合数据,并进行显示。
其中,所述视频数据包括摄像机实时获取的船舶目标图像序列。
所述方法还包括:根据显示的融合数据,完成对每个船舶目标的捕获与自动跟踪监控。
在航海保障港口船舶动态监控的应用场景下,采用本发明的方法得到的融合数据能让管理人员更简单直观地观察到目标船舶所处的航道、船舶身份、船舶位置等通航环境信息和港口的船舶航行情况,例如:
1、感知船舶所处航道、锚地等范围的边界;
2、感知海上物标的详细数据信息,并与视觉所见形态相关联;
3、将视觉感知物标与信息系统功能相结合,如相向航行的船舶发生险情的风险程度等等。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (6)
1.一种多通航要素数据融合方法,该多通航道要素包括:摄像机实时拍摄的视频数据、船舶数据以及航道数据;该方法包括:
采用HSV色彩空间检测方法和虚拟线圈目标抓拍方法,对摄像机实时获取的船舶图像序列进行目标检测,得到船舶目标图像序列,并对其中所包含船舶目标的图像进行船舶目标定位与分割处理,得到多个有效船舶目标图像;
对每个有效船舶目标图像进行图像特征提取,并与船舶数据库进行特征匹配,得到最邻近的匹配特征;根据最邻近的匹配特征,对比船舶自动识别系统位置信息,确定目标船舶身份并进行标定,得到船舶数据;
根据摄像机的实际技术参数和安装位置,确定摄像机空间投影转换参数;提取电子海图中的航道要素,根据摄像机空间投影转换参数,将航道要素进行地理坐标到屏幕坐标转换,转换到摄像机拍摄画面的屏幕坐标系,得到航道数据;
将摄像机实时获取的视频数据、船舶数据以及航道数据,均按照摄像机拍摄画面的屏幕坐标系,作为统一空间参考系进行数据融合,得到融合数据并显示。
2.根据权利要求1所述的一种多通航要素数据融合方法,其特征在于,所述方法还包括:根据显示的融合数据,完成对每个船舶目标的捕获与自动跟踪监控。
3.根据权利要求1所述的一种多通航要素数据融合方法,其特征在于,所述采用HSV色彩空间检测方法和虚拟线圈目标抓拍方法,对摄像机实时获取的船舶图像序列进行目标检测,得到船舶目标图像序列,并对其中所包含船舶目标的图像进行船舶目标定位与分割处理,得到多个有效船舶目标图像;其具体过程为:
在航道卡口的水域中央位置设置网格状虚拟线圈,与船舶航行方向垂直,并排三列线圈块组成,每个线圈块相邻有5到8个线圈块;每一个线圈块作为一个独立的计算单元,通过HSV色彩空间检测法,判断每个线圈块内的每一个像素是否为船舶目标;
具体地,在预先设置的检测区域内,采用HSV色彩空间船舶目标检测方法,对摄像机采集的船舶图像序列中的每一帧船舶图像进行船舶目标检测;
在预先设定的检测区域内,分别对S分量和V分量,获取对应的统计直方图的最大值,作为S分量的水背景参考值T(S)和V分量的水背景参考值T(V),然后在当前帧检测区的虚拟线圈位置,分别对S分量的水背景参考值T(S)的绝对值和V分量的水背景参考值T(V)的绝对值进行或运算融合在一起,得到一个关于船舶目标的检测值;该检测值为与参考值T(S)及T(V)的差绝对值;
根据判断准则,判断该检测值是否大于预先设定的检测阈值;
其中,判断准则为该检测值超过了预先设定的检测阈值,则像素判断为1;否则,像素判断为0;
如果该检测值大于或等于预先设定的检测阈值,则判断像素为1,像素1为船舶目标;并通过虚拟线圈位置的H分量值来除去阴影,得到有效船舶目标;其中,当船舶目标为1的像素的H分量值在阴影固定值区间内,则把像素重置为0;
如果该检测值小于预先设定的检测阈值,则判断像素为0,像素0为水背景;
统计并计算整个线圈块超过预先设定的检测阈值的像素的数量与该线圈块总像素的数量的比值,如果该比值大于50%,则判断该虚拟线圈块检测到目标,并标记为1;
如果该比值小于或等于50%,则判断该虚拟线圈块未检测到目标,并标记为0;
当船舶目标触发或到达虚拟线圈时,网格状虚拟线圈中的图像像素增大,采用摄像机对其进行完整船舶目标抓拍,
其中,判断虚拟线圈块是否检测到船舶目标的规则为:对每一个标记为1的线圈块进行邻域检索,如果出现有一个标记为1的线圈块的邻域线圈块标记为1的数量大于或等于3个,则判断虚拟线圈检测到船舶目标;
如果全部标记为1的线圈块的邻域线圈块标记为1的数量小于3个,则判断虚拟线圈没有检测到船舶目标;
对摄像机实时获取的船舶图像序列中的每一帧进行上述处理,得到船舶目标图像序列,并对其中所包含船舶目标的图像进行船舶目标定位,从每帧图像中分离出每个船舶目标的图像及其对应的船舶目标的位置信息和类别信息,采用非区域推荐的目标检测SSD算法进行检测匹配,对得到的每个船舶目标匹配对应船舶目标的位置信息和类别信息,得到多个匹配后的船舶目标,用矩形框框住每个匹配后的船舶目标并进行标识,再进行分割处理,得到多个有效船舶目标图像。
4.根据权利要求1所述的多通航要素数据融合方法,其特征在于,所述对每个有效船舶目标图像进行图像特征提取,并与船舶数据库进行特征匹配,得到最邻近的匹配特征;根据最邻近的匹配特征,对比船舶自动识别系统位置信息,确定目标船舶身份并进行标定,得到船舶数据;其具体过程为:
采用ORB算法,对每个有效船舶目标图像进行图像特征提取,得到多个船舶目标特征点;
以某个船舶目标特征点为圆心,选取N对点对,并对每一对点对进行编号,得到N对带有编号的点对;
通过比对每一对点对的灰度值,得出对应的每一对点对的0或1描述;
如果某一对点对的灰度值大于或等于预先设定的灰度阈值,则该对点对的描述为1;
如果某一对点对的灰度值小于预先设定的灰度阈值,则该对点对的描述为0;
对每一对点对进行上述处理,得到多个0和1的描述,作为该船舶目标特征点的描述子;
对每个船舶目标特征点进行上述处理,得到有效船舶目标图像的特征点集合;
采用FLANN匹配算法,对任意两个有效船舶目标图像上分别提取第一特征点集合kp1和第二特征点集合kp2;根据第一特征点集合kp1和第二特征点集合kp2,采用SIFT特征提取方法或SURF特征提取方法,获得对应的第一特征描述集合des1和第二特征描述集合des2;
利用特征匹配器FLANN,对第一特征描述集合des1和第二特征集合des2进行匹配,得到多组特征匹配点对,计算每一组特征匹配点对之间的欧式距离;
A=(x1,x2,...,xn)
B=(y1,y2,...,yn)
其中,A和B为一组特征匹配点对中的两个不同的特征匹配点,xn和yn分别为第n组特征匹配点对中的A特征匹配点对应特征点的坐标和B特征匹配点对应特征点的坐标,AB为欧氏距离;
从中选取距离最小的一组特征匹配点对,作为最小距离,记为标准值;
将小于3倍的最小距离的一组特征匹配点对,作为匹配度;
如果该匹配度小于预先设定的匹配度阈值,则将该匹配度对应的匹配特征,作为最邻近的匹配特征存入船舶数据库,供后续查找;
如果该匹配度大于或等于预先设定的匹配度阈值,则利用该匹配度,在船舶数据库中进行特征匹配,得到最近邻的匹配特征;
根据最邻近的匹配特征,在船舶数据库中获取对应的电子海图;利用船舶自动识别系统,检索目标船舶身份,确定目标船舶身份信息并进行标定,对比船舶自动识别系统位置信息,获取目标船舶的AIS位置信息,进而得到船舶数据;
其中,目标船舶身份信息包括:船舶呼号、移动识别码、航向、航速、船长、船宽、吃水、目的港、载货类型和航行时间;
所述船舶数据包括:每个目标船舶的AIS数据和与最邻近的匹配特征对应的一组特征匹配点对。
5.根据权利要求1所述的多通航要素数据融合方法,其特征在于,所述根据摄像机的实际技术参数和安装位置,确定摄像机空间投影转换参数;提取电子海图中的航道要素,根据摄像机空间投影转换参数,将航道要素进行地理坐标到屏幕坐标转换,转换到摄像机拍摄画面的屏幕坐标系,得到航道数据;其具体过程为:
所述摄像机的实际技术参数包括:待显示海图区域的宽度H、待显示海图区域的宽度V、屏幕像素点横向尺寸Hpeis和屏幕像素点纵向尺寸Vpeis;
所述摄像机的安装位置为摄像机所处的地理位置;
根据摄像机的实际技术参数,确定摄像机空间投影转换参数;
其中,该摄像机空间投影转换参数包括:摄像机可显示区域的投影横坐标最小值Xmin、摄像机可显示区域的投影横坐标最大值Xmax、摄像机可显示区域的投影纵坐标最小值Ymin和摄像机可显示区域的投影纵坐标最大值Ymax:
假设以摄像机的安装位置为基准,并将其作为制图区域中心点,则该中心点的地理坐标为(Xstan,Ystan),则
其中,Xmin为摄像机可显示区域的空间投影横坐标最小值;H为待显示海图区域的宽度;Hpeis为屏幕像素点横向尺寸;Scale为显示比例尺;Xstan为制图区域中心点X的横坐标;
其中,Xmax为摄像机可显示区域的空间投影横坐标最大值;
其中,Ymin为摄像机可显示区域的空间投影纵坐标最小值;Ystan为制图区域中心点Y的纵坐标;V为待显示海图区域的高度;Vpeis为屏幕像素点纵向尺寸;
其中,Ymax为摄像机可显示区域的空间投影纵坐标最大值;
根据确定的摄像机空间投影转换参数,得到原点的地理坐标(Xmin,Ymax);
通过下述的屏幕坐标转换公式,将该原点的地理坐标转换为屏幕坐标(P1,Q1),并以此建立摄像机拍摄画面的屏幕坐标系:
Q1=(Xmin-X)/Vpeis*Scale*1000; (1)
P1=(Y-Ymax)/Hpeis*Scale*1000; (2)
其中,P为该原点进行屏幕坐标转换后的屏幕坐标的横坐标;Q为该原点进行屏幕坐标转换后的屏幕坐标的纵坐标;X为待显示海图区域中,摄像机的屏幕地理位置坐标的横坐标;Y为待显示海图区域中,摄像机的屏幕地理位置坐标的纵坐标;
上述公式(1)和公式(2)作为转换公式,利用该转换公式,完成从地理坐标到屏幕坐标的转换,得到对应的屏幕坐标;
利用上述的转换公式,将摄像机的地理位置坐标转换为摄像机的屏幕地理位置坐标;
通过要素类型检索并提取电子海图中的多个航道要素;利用三角测量技术,对每个航道要素给出对应的地理坐标;
再对每个航道要素,利用上述转换公式进行地理坐标到屏幕坐标的转换,转换到摄像机拍摄画面的屏幕坐标系,得到多个航道要素屏幕坐标,形成航道数据;
其中,多个航道要素包括:分道通航线、水深、等深线、浮码头和海岸线;
每个航道要素对应一个航道要素屏幕坐标;航道数据为将每个航道要素经过坐标转换后得到的对应的屏幕坐标数据。
6.根据权利要求5所述的多通航要素数据融合方法,其特征在于,所述将摄像机实时拍摄的视频数据、船舶数据以及航道数据,均按照摄像机拍摄画面的屏幕坐标系,作为统一空间参考系进行数据融合,得到融合数据并显示;其具体过程为:
将摄像机实时拍摄的视频数据和船舶数据均利用上述三角测量技术,得到对应的地理坐标,再将其分别进行地理坐标到屏幕坐标的转换,转换到摄像机拍摄画面的屏幕坐标系,得到对应的屏幕坐标,使得摄像机实时拍摄的视频数据、船舶数据以及航道数据均转换至摄像机拍摄画面的屏幕坐标系,按照该统一空间参考系,采用AR技术,对上述三类数据进行融合,得到动态的增强现实的融合数据,并进行显示。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110986517.2A CN113808282B (zh) | 2021-08-26 | 2021-08-26 | 一种多通航要素数据融合方法 |
PCT/CN2022/114744 WO2023025236A1 (zh) | 2021-08-26 | 2022-08-25 | 一种多通航要素数据融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110986517.2A CN113808282B (zh) | 2021-08-26 | 2021-08-26 | 一种多通航要素数据融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113808282A true CN113808282A (zh) | 2021-12-17 |
CN113808282B CN113808282B (zh) | 2023-09-26 |
Family
ID=78941743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110986517.2A Active CN113808282B (zh) | 2021-08-26 | 2021-08-26 | 一种多通航要素数据融合方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113808282B (zh) |
WO (1) | WO2023025236A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023025236A1 (zh) * | 2021-08-26 | 2023-03-02 | 交通运输部水运科学研究所 | 一种多通航要素数据融合方法 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116343125B (zh) * | 2023-03-30 | 2024-04-02 | 北京国泰星云科技有限公司 | 一种基于计算机视觉的集装箱箱底锁头检测方法 |
CN116310845B (zh) * | 2023-05-19 | 2023-07-28 | 青岛国源中创电气自动化工程有限公司 | 一种用于污水处理的智能监测系统 |
CN116567166B (zh) * | 2023-07-07 | 2023-10-17 | 广东省电信规划设计院有限公司 | 一种视频融合方法、装置、电子设备及存储介质 |
CN117119021B (zh) * | 2023-10-25 | 2024-01-26 | 江苏物润船联网络股份有限公司 | 一种基于船联网的细粒度定位方法和系统 |
CN117152576B (zh) * | 2023-10-27 | 2023-12-29 | 北京观微科技有限公司 | 遥感图像的舰船检测方法、装置、电子设备及存储介质 |
CN117152687B (zh) * | 2023-10-31 | 2024-01-26 | 中国通信建设第三工程局有限公司 | 一种通信线路状态监测系统 |
CN117692649B (zh) * | 2024-02-02 | 2024-04-19 | 广州中海电信有限公司 | 基于图像特征匹配的船舶远程监控视频高效传输方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102081801A (zh) * | 2011-01-26 | 2011-06-01 | 上海交通大学 | 多特征自适应融合船舶跟踪和航迹检测方法 |
CN103996049A (zh) * | 2014-05-05 | 2014-08-20 | 南京大学 | 一种基于视频图像的船舶超长超宽检测方法 |
CN106980861A (zh) * | 2017-03-31 | 2017-07-25 | 上海电机学院 | 一种基于融合特征的船舶快速识别方法 |
WO2018075053A1 (en) * | 2016-10-21 | 2018-04-26 | Siemens Aktiengesellschaft | Object pose based on matching 2.5d depth information to 3d information |
CN109460740A (zh) * | 2018-11-15 | 2019-03-12 | 上海埃威航空电子有限公司 | 基于ais与视频数据融合的船舶身份识别方法 |
CN110889979A (zh) * | 2019-12-09 | 2020-03-17 | 交通运输部规划研究院 | 一种内河航道数据的融合方法及装置 |
CN111339229A (zh) * | 2020-02-24 | 2020-06-26 | 交通运输部水运科学研究所 | 一种船舶自主航行辅助决策系统 |
CN111523465A (zh) * | 2020-04-23 | 2020-08-11 | 中船重工鹏力(南京)大气海洋信息系统有限公司 | 基于摄像机标定及深度学习算法的船舶身份识别系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108806334A (zh) * | 2018-04-27 | 2018-11-13 | 中船重工鹏力(南京)大气海洋信息系统有限公司 | 一种基于图像的智能船舶身份识别方法 |
CN109084747B (zh) * | 2018-06-26 | 2022-03-18 | 武汉理工大学 | 基于通用三维引擎的水上交通全景三维导航系统及方法 |
CN113808282B (zh) * | 2021-08-26 | 2023-09-26 | 交通运输部水运科学研究所 | 一种多通航要素数据融合方法 |
-
2021
- 2021-08-26 CN CN202110986517.2A patent/CN113808282B/zh active Active
-
2022
- 2022-08-25 WO PCT/CN2022/114744 patent/WO2023025236A1/zh active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102081801A (zh) * | 2011-01-26 | 2011-06-01 | 上海交通大学 | 多特征自适应融合船舶跟踪和航迹检测方法 |
CN103996049A (zh) * | 2014-05-05 | 2014-08-20 | 南京大学 | 一种基于视频图像的船舶超长超宽检测方法 |
WO2018075053A1 (en) * | 2016-10-21 | 2018-04-26 | Siemens Aktiengesellschaft | Object pose based on matching 2.5d depth information to 3d information |
CN106980861A (zh) * | 2017-03-31 | 2017-07-25 | 上海电机学院 | 一种基于融合特征的船舶快速识别方法 |
CN109460740A (zh) * | 2018-11-15 | 2019-03-12 | 上海埃威航空电子有限公司 | 基于ais与视频数据融合的船舶身份识别方法 |
WO2020098195A1 (zh) * | 2018-11-15 | 2020-05-22 | 上海埃威航空电子有限公司 | 基于ais与视频数据融合的船舶身份识别方法 |
CN110889979A (zh) * | 2019-12-09 | 2020-03-17 | 交通运输部规划研究院 | 一种内河航道数据的融合方法及装置 |
CN111339229A (zh) * | 2020-02-24 | 2020-06-26 | 交通运输部水运科学研究所 | 一种船舶自主航行辅助决策系统 |
CN111523465A (zh) * | 2020-04-23 | 2020-08-11 | 中船重工鹏力(南京)大气海洋信息系统有限公司 | 基于摄像机标定及深度学习算法的船舶身份识别系统 |
Non-Patent Citations (4)
Title |
---|
MUZHUANG GUO等: "Fusion of Ship Perceptual Information for Electronic Navigational Chart and Radar Images based on Deep Learning", 《THE JOURNAL OF NAVIGATION》, pages 1 - 20 * |
PENG FEI等: "A inland waterway monitoring virtual-GIS system based on multi heterogeneous navigation data fusion", 《IEEE 》, pages 618 - 621 * |
PENG FEI等: "A ship target dynamic recognition method based on image recognition and VR technology", 《JOURNAL OF PHYSICS: CONFERENCE SERIES》, pages 1 - 8 * |
张诚: "航道水情信息快速获取技术研究", 《中国优秀硕士论文电子期刊网 工程科技Ⅱ辑》, pages 034 - 1389 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023025236A1 (zh) * | 2021-08-26 | 2023-03-02 | 交通运输部水运科学研究所 | 一种多通航要素数据融合方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2023025236A1 (zh) | 2023-03-02 |
CN113808282B (zh) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113808282B (zh) | 一种多通航要素数据融合方法 | |
Shao et al. | Saliency-aware convolution neural network for ship detection in surveillance video | |
CN111523465B (zh) | 基于摄像机标定及深度学习算法的船舶身份识别系统 | |
CN100538723C (zh) | 多视觉传感器信息融合的内河船舶自动识别系统 | |
US11900668B2 (en) | System and method for identifying an object in water | |
CN108806334A (zh) | 一种基于图像的智能船舶身份识别方法 | |
CN109409283A (zh) | 一种海面舰船跟踪和监控的方法、系统和存储介质 | |
CN109145747A (zh) | 一种水面全景图像语义分割方法 | |
CN108229342A (zh) | 一种海面舰船目标自动检测方法 | |
CN110866926B (zh) | 一种红外遥感图像快速精细海陆分割方法 | |
CN116109936B (zh) | 基于光学遥感的目标检测与识别方法 | |
Huang et al. | Identity recognition on waterways: A novel ship information tracking method based on multimodal data | |
Wu et al. | A new multi-sensor fusion approach for integrated ship motion perception in inland waterways | |
CN111931555A (zh) | 一种利用视频图像识别船舶ais是否开启的方法 | |
CN114422720B (zh) | 视频浓缩方法、系统、装置和存储介质 | |
CN110619653A (zh) | 基于人工智能的防止船舶与桥梁碰撞预警控制系统及方法 | |
Makantasis et al. | Vision-based maritime surveillance system using fused visual attention maps and online adaptable tracker | |
CN112926426A (zh) | 基于监控视频的船舶识别方法、系统、设备及存储介质 | |
CN113805178A (zh) | 一种水面静态碍航物探测方法 | |
CN112686106A (zh) | 一种视频图像转海事雷达图像的方法 | |
Bloisi et al. | Integrated visual information for maritime surveillance | |
CN115082811A (zh) | 一种依据图像数据的海上航行船舶识别与距离测量的方法 | |
CN114332734A (zh) | 目标检测方法 | |
Fei et al. | A ship target dynamic recognition method based on image recognition and VR technology | |
Li et al. | TKP-Net: A Three Keypoint Detection Network for Ships Using SAR Imagery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |