CN110796681A - 一种用于船舶协同工作的视觉定位系统及方法 - Google Patents
一种用于船舶协同工作的视觉定位系统及方法 Download PDFInfo
- Publication number
- CN110796681A CN110796681A CN201910905717.3A CN201910905717A CN110796681A CN 110796681 A CN110796681 A CN 110796681A CN 201910905717 A CN201910905717 A CN 201910905717A CN 110796681 A CN110796681 A CN 110796681A
- Authority
- CN
- China
- Prior art keywords
- camera
- laser
- image
- range finder
- laser range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000000007 visual effect Effects 0.000 title claims abstract description 23
- 238000000605 extraction Methods 0.000 claims abstract description 6
- 238000001514 detection method Methods 0.000 claims description 22
- 230000005540 biological transmission Effects 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 9
- 230000003287 optical effect Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 6
- 238000013139 quantization Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000013459 approach Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 claims description 3
- 230000000877 morphologic effect Effects 0.000 claims description 3
- 238000013441 quality evaluation Methods 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 238000002834 transmittance Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 238000005259 measurement Methods 0.000 abstract description 13
- 238000012544 monitoring process Methods 0.000 abstract description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000005286 illumination Methods 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000000889 atomisation Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004660 morphological change Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种用于船舶协同工作的视觉定位系统及方法,系统由云台、相机、激光测距仪、工控机和电池组成;本发明首先进行相机、激光测距仪联合标定;然后进行船舶特征点提取、特征点跟踪和激光测距仪测距;最后进行船舶位置计算。本发明通过实时对船舶进行跟踪和测距,绘制运行轨迹,有助于船舶之间协同安全工作,也可用于地面监控船舶航行轨迹。其特征在于便携性和可靠性,能够提高作业安全性和工作效率,减轻测量人员工作复杂度。
Description
技术领域
本发明属于测量技术领域,特别涉及一种适用于船舶协同工作的实时视频定位系统及方法。
背景技术
随着对水域资源的进一步开发和利用,船舶的协同作业需求也越来越迫切。在船舶协同作业中,需要实现对船与船之间的位置控制,以保证其安全距离和协同作业的最佳相对位置,对目标船的跟踪及目标船间相对位置的测算是首先要解决的问题。而运动目标的跟踪一直是计算机视觉领域中的难点与热点。要在各种不同的复杂环境中或者是在有阴影遮挡、场景变换、光照变化、目标短暂性消失在视野中及目标发生形态变化的情况下依然能够很好地进行跟踪,是目前视觉研究领域所要共同解决的问题。
现有技术中,一种基于YOLO算法以及岸基雷达系统的船舶定位监管系统(申请号:201811449413.2申请日:2018-11-30),系统包括三个部分基于YOLO算法图像识别技术的船舶识别系统、基于岸基雷达的船舶定位系统和基于数据融合的船舶监管系统:所述基于YOLO算法图像识别技术的船舶识别系统:是由港口设立的摄像头捕捉港口海域的实时视频信息,通过滑动窗口的选择,输入到一个大型的卷积神经网络进行目标识别,最后对识别出的目标窗口进行极大值抑制算法。此发明的优点是:该系统可以对船舶进行实时定位与监控,船舶在获得进/出港审批之后,可以利用该系统实现全自动运行。利用岸基雷达的工作原理,可以精确测量船舶的经纬度坐标并实时返回测量数据。
应用YOLO算法进行识别可以得到较高的船舶识别率,但是YOLO算法对计算性能有高要求。水面环境多变,此发明对光照变化、大雾、阴影变化等水面特殊场景没有进行处理,实际使用识别率会受到较大影响。基岸雷达的成本高,且不方便移动,只能在固定位置使用,不便于重复安装和使用。
发明内容
本发明的目的之一是实现对船与船之间的位置控制,以保证其安全距离和协同作业的最佳相对位置。实时自动对跟踪船舶进行测距和轨迹记录,减少人力与物力的使用。目的之二是针对复杂环境中阴影遮挡、大雾、光照变化及目标发生形态变化的问题,提出一种能够在特殊场景下依然能够很好地进行识别和跟踪系统及方法。目的之三是针对设备移动不方便的问题,提出一种更便捷和成本更低的设备,在满足测程远、精度高、功能强的同时便于携带和操作。
本发明的系统所采用的技术方案是:一种用于船舶协同工作的视觉定位系统,其特征在于:由云台、相机、激光测距仪、工控机和电池组成;
所述云台部分由云台主体部分、云台控制解码器、串口线组成;
所述相机由相机主体部分、数据传输线组成;
所述激光测距仪由激光测距仪主体部分、激光数据传输线组成;
所述工控机由显示屏、主机、控制键盘组成;
所述云台主体部分用于承载相机进行水平和垂直两个方向转动,通过所述串口线与所述工控机连接;
所述相机主体部分通过所述数据传输线与所述工控机连接进行视频数据传输;
所述激光测距仪主体部分通过所述激光数据传输线与所述工控机连接;
所述电池通过导线分别与所述云台、相机、激光测距仪、工控机连接,用于为所述云台、相机、激光测距仪、工控机提供电力。
本发明的方法所采用的技术方案是:一种用于船舶协同工作的视觉定位方法,其特征在于,包括以下步骤:
步骤1:系统启动,相机、激光测距仪联合标定;
步骤2:船舶特征点提取;
步骤3:特征点跟踪;
步骤4:激光测距仪测距;
根据视觉跟踪的结果,通过标定计算目标物体实际移动的距离,控制云台转向正对目标物;云台结束转向后,发送到位指令,开始测距;
步骤5:船舶位置计算。
随着对水域资源的进一步开发和利用,船舶协同作业需求也越来越迫切。在海洋协同作业中,需要实现对船与船之间的位置控制,以保证其安全距离和协同作业的最佳相对位置,对目标船的跟踪及目标船间相对位置的测算是首先要解决的问题。
相对位置测算可以使用单目视觉、GPS、岸基雷达等。使用已经标定的相机进行单目视觉测距能够得到基本的测距结果,但是精度受距离的影响较大,在超过一千米测量距离的情况下,精度很难达到米级的精度。GPS需要在目标船只上进行GPS设备安装,提升成本且需要目标船只配合。岸基雷达不便于移动,不利于生产,结构复杂且成本较高。
本发明通过单目视觉与激光测距仪结合的方式进行距离测量与坐标计算,可以达到米级测量精度。硬件可分离且结构简单,可快速拆卸和组装,不需要在目标船只安装设备,可降低成本。
通过预处理技术提升图像质量,提高船舶识别和跟踪的准确率,跟踪开始后不需要人工介入,降低人力成本。
附图说明
图1为本发明实施例的系统结构图;
图2为发明实施例的方法流程图;
图3为本发明实施例方法中多深度图层融合的去雾流程图;
图4为本发明实施例目标检测方法中边缘提取效果图;
图5为本发明实施例目标检测方法中边缘线膨胀效果图;
图6为本发明实施例目标检测方法中连通域区域提取效果图;
图7为本发明实施例目标检测方法中识别结果效果图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
请见图1,本发明提供的一种用于船舶协同工作的视觉定位系统,由云台1、相机2、激光测距仪3、工控机4和电池5组成;云台1部分由云台主体部分、云台控制解码器、串口线组成;相机2由相机主体部分、数据传输线组成;激光测距仪3由激光测距仪主体部分、激光数据传输线组成;工控机4由显示屏、主机、控制键盘组成;云台主体部分用于承载相机2进行水平和垂直两个方向转动,通过串口线与工控机4连接;相机主体部分通过数据传输线与工控机4连接进行视频数据传输;激光测距仪主体部分通过激光数据传输线与工控机4连接;电池5通过导线分别与云台1、相机2、激光测距仪3、工控机4连接,用于为云台1、相机2、激光测距仪3、工控机4提供电力。
本实施例的云台主体部分是承载摄像机进行水平和垂直两个方向转动的智能自动化装置,其整机功耗小于45W,使用RS485串口3接口与工控机4连接使用。云台1具有闭合差校正功能,在初始启动时会进行自检操作,来消除之前使用带来的累计误差。相机主体部分使用50mm焦距的定焦镜头,分辨率,像素大小,通过数据传输线连接工控机4进行视频数据传输。激光测距仪主体部分为远距离激光测距仪3,具有测程远、精度高、功能强、便于携带和操作的特点,可广泛应用于河床、航道监测,邮电、通信或电力电缆铺设,大地勘测,气象、机场、森林等工程测量。激光测距仪3中内置通信模块,可以发送测距指令进行测距操作,目前可量测范围在2000米以内都较稳定,通过激光数据传输线与工控机4连接使用。工控机4整机功耗100w,供电电压24V。
本实施例将相机2与激光测距仪3组装在云台1上方支架中,其中激光测距仪3放在上层,相机2放在下层,以竖直同轴的方式安装。相机2和激光测距仪3的安装于云台1顶部,云台1固定于船体侧沿,并用螺丝固定。
请见图2,本发明提供的一种用于船舶协同工作的视觉定位方法,包括以下步骤:
步骤1:系统启动,相机2、激光测距仪3联合标定;
为了提高测量精度,需要让激光在多次测距时打到船舶的同一个点上,视觉算法能够识别和跟踪特征点,因此需要将两者信息相互关联与融合,而融合需要知道激光测距仪3和相机2的相对关系,对这个相对关系进行建模和计算,进行内部标定。具体实现包括以下子步骤:
步骤1.1:建模;
为了有效地使用来自相机2和激光测距仪3的数据,需要知道它们彼此的相对位置和方向。本项目使用平面较准模式,通过将平面图案上的激光扫描线与相机2图像中的平面进行配准来约束外部参数,找到两个设备坐标系的旋转矩阵Φ和平移矩阵Δ,将相机2坐标系中的点转换为激光坐标系中的点。
使用针孔模型来描述相机2。从世界坐标P=[X,Y,Z]T到图像坐标p=[u,v]T的投影可以表示如下:
p=K(RP+D)
其中,K是相机(2)内参矩阵,R表示相机(2)方向的正交矩阵,D表示目标点位置矢量;
定义激光测距仪3为激光坐标系原点,假设相机2坐标系中的点p位于激光坐标系中的点pf,从相机2坐标系到激光坐标系的刚性变换可以用下式描述:
pf=φp+Δ
其中φ是3×3正交矩阵,表示相机2相对于激光测距仪3的旋转矩阵,Δ为平移矩阵。
步骤1.2:标定
在系统前放置标定棋盘格,在相机2坐标系中,校准平面可由三维向量N参数化,使N与校准平面的法向平行,N等于相机2到较准平面的距离。由式1可以推导:
其中,R3是旋转矩阵R的第3列,t是相机2的中心,以世界坐标表示。根据式2和式3可以得到:
p=φ-1(pf-Δ)
N·φ-1(pf-Δ)=||N||2
对于激光点pf和较准平面参数N,给出了φ和Δ的约束。一旦相对于棋盘确定了相机2的外部参数(R,t),即可通过式3获得校准平面参数N。认为激光坐标系中所有激光点都在平面z=0上,所以激光点pf=[x,y,1]T,因此可重写式5:
N·Hpf=||N||2
φ=[H1,-H1×H2,H2]T
Δ=-[H1,-H1×H2,H2]TH3
其中,Hi表示H的第i列。即可得到相机2相对于激光测距仪3的相对姿态Φ和Δ的直接估计。
具体步骤:
制作一个棋盘格,并将其放置在相机2和激光测距系统前方。
对于每个棋盘姿势,在激光读数中提取激光点,并检测图像中的棋盘格点。估计相对于棋盘的相机2方向Ri和位置ti,然后计算校准平面参数Ni。
使用式7和式8的线性解估计参数Φ和Δ。
步骤2:船舶特征点提取;
识别算法选择hog+svm的方法,因为这种方法速度快,识别精度高,而且识别固定形状物效果较好。虽然存在误检概率较高的缺点,但是通过之前标志物选择已经剔除大多数可能的误检物,同时使用预处理算法提升图像质量,进一步提高识别的准确率,有效避免这个缺点。
步骤3:特征点跟踪;
跟踪算法采用光流法。测量过程保持相机2正对特征点,特征点附近图像保持稳定,因此背景可以通过减法消除,前景通过帧与帧之间的位移差可以计算出速度,从而有效估计标志物下一帧的位置。
具体步骤如下:
步骤3.1:对一个连续的视频帧序列进行图像预处理;
在实际测试环境中,江边的雾气会导致相机2获取的图像对比度很低、特征检测困难且跟踪效果较差。因此,针对江边环境,在对船舶进行跟踪之前,使用基于多深度图层融合的雾化图像场景复原方法进行图像去雾。
本发明设计了一种基于多深度图层融合的雾化图像场景复原方法,多深度图层是基于暗通道的先验理论,设定不同透射率产生的去雾图层。该方法不用直接求取物理模型的精确参数,而是预先给定一系列参数代入模型产生一系列局部有效的图层,然后基于图像质量评价指标计算图层的权重,将不同深度图层中恢复效果良好的像素进行融合,进而获得最终的去雾图层。
请见图3,本实施例的多深度图层融合计算步骤如下:
设定深度参数,即估计透射率ti,i=1,2,…,L;其中,i是图层标号,取值范围为1到L的整数,L为估计的图层深度,一般取5;
生成去雾图层:
其中,Ji(x)是第i层去雾图层,I(x)为有雾图像,A表示大气光强,其值为常量;
图层增强;
其中,T(rk)是直方图变换函数,rmin为输入图像中的最低灰度,rmax为输入图像的最高灰度,lmin代表灰度r的量化层次中的最低量化等级,lmax为最高量化等级,rk为变换前图像的第r级灰度值;
评价权重;
其中,Qi(x)是基于对比度、颜色鲜艳度、亮度适中度对第i层图像像素x的质量评价;
图层融合;
其中,Ji(x)是第i层去雾图层,J(x)为融合后的最终去雾结果。
步骤3.2:针对每一个视频序列,利用目标检测方法,检测可能出现的前景目标;
港口船舶检测的研究方法虽然属于静态背景物体检测范围,但是受到港口处海面波浪、光照变化以及云层背景变化等因素的影响,背景更新有较大的干扰。由于船舶相对于汽车具有体积大、大小差别大以及运动速度缓慢等特点,本发明采用基于多结构元素形态学滤波的背景抑制算法。在提取的物体中,通过自适应快速中值滤波和连通域计算方法滤除脉冲噪声和海面杂波,最终识别到船舶。
连通域提取是形态学应用中的一种,它实际上是标记连通域的过程,具体算法如下:
遍历图像,找到图像中像素值为255的点作为种子点;
用结构元素对种子点进行膨胀运算,然后用原图像与膨胀结果取交集;
判断膨胀的图像是否发生变化,如果发生变化,则返回第2步;如果不发生变化,输出最后图像。
在船舶检测中,连通域提取用于寻找过滤后的船舶目标,提取完后标记成矩形框。请见图4,为本发明实施例目标检测方法中边缘提取效果图;请见图5,为本发明实施例目标检测方法中边缘线膨胀效果图;请见图6,为本发明实施例目标检测方法中连通域区域提取效果图;请见图7,为本发明实施例目标检测方法中识别结果效果图。
步骤3.3:如果某一帧出现了前景目标,找到其具有代表性的关键特征点(可以随机产生,也可以利用角点来做特征点);
目标跟踪是指在给定某视频序列初始帧的目标大小和位置的情况下,预测后续帧中该目标的大小和位置。目标跟踪基本流程为:在初始框范围生成众多候选框(运动模型),提取候选框的特征(特征提取),然后对候选框进行评分(观测模型),最后将这些评分中得分最高的候选框作为预测的目标候选框(集成方法)。
它与目标检测最大的区别是目标检测需要在毫无先验的情况下,在全范围内找到目标,而目标跟踪既有初始帧的候选框作为初始值,并且一般范围只在初始候选框附近范围寻找,因此速度和精度远远大于目标检测。
本发明采用的方法是Median Flow跟踪算法,属于TLD跟踪算法中的跟踪部分,基于LK光流法跟踪算法,并使用FB方法进行反馈;
假设图像上一个像素点(x,y),在t时刻的亮度为E(x+Δx,y+Δy,t+Δt),同时用u(x,y)和v(x,y)来表示该点光流在水平和垂直方向上的移动分量:u=dx/dt,v=dy/dt。在经过一段时间间隔Δt后该点对应点亮度为E(x+Δx,y+Δy,t+Δt),当Δt很小趋近于0时,认为该点亮度不变,故E(x,y,t)=E(x+Δx,y+Δy,t+Δt);
当该点的亮度有变化时,将移动后点的亮度由Taylor公式展开,可得:
忽略其二阶无穷小,由于Δt趋近于0时,有:
通过结合几个邻近像素点的信息,LK方法通常能够消除光流方程里的多义性。而且,与逐点计算的方法相比,LK方法对图像噪声不敏感。不过,由于这是一种局部方法,所以在图像的均匀区域内部,LK方法无法提供光流信息。
步骤3.4:对之后的任意两个相邻视频帧而言,寻找上一帧中出现的关键特征点在当前帧中的最佳位置,从而得到前景目标在当前帧中的位置坐标;
步骤3.5:如此迭代进行,便可实现目标的跟踪;
步骤4:激光测距仪3测距;
根据视觉跟踪的结果,通过标定计算目标物体实际移动的距离,控制云台1转向正对目标物;云台1结束转向后,发送到位指令,开始测距;
步骤5:船舶位置计算。
本发明可以通过软件来实现,软件包括激光测距及云台1操作和视频识别跟踪两部分,软件两部分间通过UDP进行通信。
本发明提出了一种用于船舶协同工作的视频定位系统与方法,通过实时对船舶进行跟踪和测距,并绘制运行轨迹,有助于船舶之间协同安全工作,也可用于地面监控船舶航行轨迹。其特征在于便携性和可靠性,能够提高作业安全性和工作效率,减轻测量人员工作复杂度。
应当理解的是,本说明书未详细阐述的部分均属于现有技术;上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
Claims (10)
1.一种用于船舶协同工作的视觉定位系统,其特征在于:由云台(1)、相机(2)、激光测距仪(3)、工控机(4)和电池(5)组成;
所述云台(1)部分由云台主体部分、云台控制解码器、串口线组成;
所述相机(2)由相机主体部分、数据传输线组成;
所述激光测距仪(3)由激光测距仪主体部分、激光数据传输线组成;
所述工控机(4)由显示屏、主机、控制键盘组成;
所述云台主体部分用于承载相机(2)进行水平和垂直两个方向转动,通过所述串口线与所述工控机(4)连接;
所述相机主体部分通过所述数据传输线与所述工控机(4)连接进行视频数据传输;
所述激光测距仪主体部分通过所述激光数据传输线与所述工控机(4)连接;
所述电池(5)通过导线分别与所述云台(1)、相机(2)、激光测距仪(3)、工控机(4)连接,用于为所述云台(1)、相机(2)、激光测距仪(3)、工控机(4)提供电力。
2.根据权利要求1所述的用于船舶协同工作的视觉定位系统,其特征在于:所述相机(2)使用50mm焦距的定焦镜头,分辨率1920×1280,像素大小4.8μm×4.8μm,通过USB3.0数据传输线连接工控机(4)进行视频数据传输;
所述激光测距仪(3)为望远式激光测距仪,激光测距仪(3)中内置通信模块,用于发送测距指令进行测距操作,通过激光数据传输线与工控机(4)连接使用。
3.根据权利要求1-2任意一项所述的用于船舶协同工作的视觉定位系统,其特征在于:所述相机(2)与激光测距仪(3)安装在所述云台(1)上方支架中,其中激光测距仪(3)放在上层,相机(2)放在下层,以竖直同轴的方式安装,云台(1)安装于船体侧沿。
4.一种用于船舶协同工作的视觉定位方法,其特征在于,包括以下步骤:
步骤1:系统启动,相机(2)、激光测距仪(3)联合标定;
步骤2:船舶特征点提取;
步骤3:特征点跟踪;
步骤4:激光测距仪(3)测距;
根据视觉跟踪的结果,通过标定计算目标物体实际移动的距离,控制云台(1)转向正对目标物;云台(1)结束转向后,发送到位指令,开始测距;
步骤5:船舶位置计算。
5.根据权利要求4所述的用于船舶协同工作的视觉定位方法,其特征在于,步骤1的具体实现包括以下子步骤:
步骤1.1:建模;
确定相机(2)和激光测距仪(3)之间的相对位置和方向;使用平面校准方法,通过将平面图案上的激光扫描线与相机(2)图像中的平面进行配准来约束外部参数,找到相机(2)和激光测距仪(3)两个设备坐标系的旋转矩阵Φ和平移矩阵Δ,将相机(2)坐标系中的点转换为激光坐标系中的点;
使用针孔模型来描述相机(2),从世界坐标P=[X,Y,Z]T到图像坐标p=[u,v]T的投影表示如下:
p=K(RP+D)
其中,K是相机(2)内参矩阵,R表示相机(2)方向的正交矩阵,D表示目标点位置矢量;
定义激光测距仪(3)为激光坐标系原点,假设相机(2)坐标系中的点p位于激光坐标系中的点pf,从相机(2)坐标系到激光坐标系的刚性变换用下式描述:
pf=φp+Δ
其中,φ是3×3正交矩阵,表示相机(2)相对于激光测距仪(3)的旋转矩阵,Δ为平移矩阵;
步骤1.2:标定;
在系统前放置标定棋盘格,在相机(2)坐标系中,校准平面由三维向量N参数化,使N与校准平面的法向平行,N等于相机(2)到较准平面的距离;
其中,R3是旋转矩阵R的第3列,t是相机(2)的中心,以世界坐标表示;
则:
p=φ-1(pf-Δ)
N·φ-1(pf-Δ)=||N||2
对于激光点pf和较准平面参数N,给出了φ和Δ的约束;一旦相对于棋盘确定了相机(2)的外部参数(R,t),则获得校准平面参数N;假设激光坐标系中所有激光点都在平面z=0上,可知激光点pf=[x,y,1]T,则:
N·Hpf=||N||2
φ=[H1,-H1×H2,H2]T
Δ=-[H1,-H1×H2,H2]TH3
其中,Hi表示H的第i列,得到相机(2)相对于激光测距仪(3)的相对姿态Φ和Δ的直接估计。
6.根据权利要求4所述的用于船舶协同工作的视觉定位方法,其特征在于:步骤2中,采用hog+svm的方法对船舶特征点进行提取识别。
7.根据权利要求4所述的用于船舶协同工作的视觉定位方法,其特征在于,步骤3的具体实现包括以下子步骤:
步骤3.1:对一个连续的视频帧序列进行图像预处理;
步骤3.2:针对每一个视频序列,利用目标检测方法,检测可能出现的前景目标;
步骤3.3:如果某一帧出现了前景目标,找到其具有代表性的关键特征点;所述关键特征点选用角点;
步骤3.4:对之后的任意两个相邻视频帧而言,寻找上一帧中出现的关键特征点在当前帧中的最佳位置,从而得到前景目标在当前帧中的位置坐标;
步骤3.5:如此迭代进行,实现目标的跟踪。
8.根据权利要求7所述的用于船舶协同工作的视觉定位方法,其特征在于,步骤3.1中所述预处理,是使用基于多深度图层融合的雾化图像场景复原方法进行图像去雾;具体实现包括以下子步骤:
(1)设定深度参数,即估计透射率ti;
ti(i=1,2,...,L);
其中,i是图层标号,取值范围为1到L的整数,L为估计的图层深度,一般取5;
(2)生成去雾图层:
其中,Ji(x)是第i层去雾图层,I(x)为有雾图像,A表示大气光强,其值为常量;
(3)图层增强;
其中,T(rk)是直方图变换函数,rmin为输入图像中的最低灰度,rmax为输入图像的最高灰度,lmin代表灰度r的量化层次中的最低量化等级,lmax为最高量化等级,rk为变换前图像的第r级灰度值;
(4)评价权重;
其中,Qi(x)是基于对比度、颜色鲜艳度、亮度适中度对第i层图像像素x的质量评价;
(5)图层融合;
其中,Ji(x)是第i层去雾图层,J(x)为融合后的最终去雾结果。
9.根据权利要求7所述的用于船舶协同工作的视觉定位方法,其特征在于,步骤3.2中所述目标检测方法,采用基于多结构元素形态学滤波的背景抑制算法;在提取的物体中,通过自适应快速中值滤波和连通域计算方法滤除脉冲噪声和海面杂波,最终识别到船舶;
在船舶检测中,提取连通域用于寻找船舶目标,提取完后标记成矩形框;
连通域提取是标记连通域的过程,具体实现过程包括以下子步骤:
遍历图像,找到图像中像素值为255的点作为种子点;
用结构元素对种子点进行膨胀运算,然后用原图像与膨胀结果取交集;
判断膨胀的图像是否发生变化,如果发生变化,则返回第步;如果不发生变化,输出最后图像。
10.根据权利要求7所述的用于船舶协同工作的视觉定位方法,其特征在于,步骤3.3中所述特征点跟踪,采用Median Flow跟踪算法,属于TLD跟踪算法中的跟踪部分,基于LK光流法跟踪算法,并使用FB方法进行反馈;
假设图像上一个像素点(x,y),在t时刻的亮度为E(x+Δx,y+Δy,t+Δt),同时用u(x,y)和v(x,y)来表示该点光流在水平和垂直方向上的移动分量:u=dx/dt,v=dy/dt。在经过一段时间间隔Δt后该点对应点亮度为E(x+Δx,y+Δy,t+Δt),当Δt很小趋近于0时,认为该点亮度不变,故E(x,y,t)=E(x+Δx,y+Δy,t+Δt);
当该点的亮度有变化时,将移动后点的亮度由Taylor公式展开,可得:
忽略其二阶无穷小,由于Δt趋近于0时,有:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910905717.3A CN110796681A (zh) | 2019-09-24 | 2019-09-24 | 一种用于船舶协同工作的视觉定位系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910905717.3A CN110796681A (zh) | 2019-09-24 | 2019-09-24 | 一种用于船舶协同工作的视觉定位系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110796681A true CN110796681A (zh) | 2020-02-14 |
Family
ID=69439840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910905717.3A Pending CN110796681A (zh) | 2019-09-24 | 2019-09-24 | 一种用于船舶协同工作的视觉定位系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110796681A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111354015A (zh) * | 2020-02-26 | 2020-06-30 | 上海市城市建设设计研究总院(集团)有限公司 | 桥梁防撞激光校准系统及其使用方法 |
CN112213715A (zh) * | 2020-10-12 | 2021-01-12 | 中国船舶工业集团公司第七0八研究所 | 一种适用于升船机狭窄航道的测距方法 |
CN112650298A (zh) * | 2020-12-30 | 2021-04-13 | 广东工业大学 | 一种无人机追踪降落方法及系统 |
CN113553986A (zh) * | 2021-08-02 | 2021-10-26 | 浙江索思科技有限公司 | 一种船舶上运动目标检测方法及系统 |
CN113838110A (zh) * | 2021-09-08 | 2021-12-24 | 重庆紫光华山智安科技有限公司 | 目标检测结果的校验方法、装置、存储介质和电子设备 |
CN114170445A (zh) * | 2022-02-10 | 2022-03-11 | 河北工业大学 | 一种适于消防灭火机器人的室内烟雾环境图像匹配方法 |
CN115237164A (zh) * | 2022-08-12 | 2022-10-25 | 南京理工大学 | 一种基于约束跟随的二自由度云台稳定控制方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105737849A (zh) * | 2015-12-24 | 2016-07-06 | 武汉武大卓越科技有限责任公司 | 隧道车用激光扫描仪与相机相对位置的检校方法 |
CN107817679A (zh) * | 2016-08-24 | 2018-03-20 | 南京理工大学 | 基于红外与可见光融合跟踪的舰船水炮控制系统及方法 |
CN109444911A (zh) * | 2018-10-18 | 2019-03-08 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
-
2019
- 2019-09-24 CN CN201910905717.3A patent/CN110796681A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105737849A (zh) * | 2015-12-24 | 2016-07-06 | 武汉武大卓越科技有限责任公司 | 隧道车用激光扫描仪与相机相对位置的检校方法 |
CN107817679A (zh) * | 2016-08-24 | 2018-03-20 | 南京理工大学 | 基于红外与可见光融合跟踪的舰船水炮控制系统及方法 |
CN109444911A (zh) * | 2018-10-18 | 2019-03-08 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
Non-Patent Citations (2)
Title |
---|
周义 等: "《基于特征点轨迹的实时异常行为检测》" * |
姜 子伦: "《基于多深度图层融合的图像去雾研究》" * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111354015A (zh) * | 2020-02-26 | 2020-06-30 | 上海市城市建设设计研究总院(集团)有限公司 | 桥梁防撞激光校准系统及其使用方法 |
CN111354015B (zh) * | 2020-02-26 | 2022-12-06 | 上海市城市建设设计研究总院(集团)有限公司 | 桥梁防撞激光校准系统及其使用方法 |
CN112213715A (zh) * | 2020-10-12 | 2021-01-12 | 中国船舶工业集团公司第七0八研究所 | 一种适用于升船机狭窄航道的测距方法 |
CN112650298A (zh) * | 2020-12-30 | 2021-04-13 | 广东工业大学 | 一种无人机追踪降落方法及系统 |
CN112650298B (zh) * | 2020-12-30 | 2021-08-17 | 广东工业大学 | 一种无人机追踪降落方法及系统 |
CN113553986A (zh) * | 2021-08-02 | 2021-10-26 | 浙江索思科技有限公司 | 一种船舶上运动目标检测方法及系统 |
CN113838110A (zh) * | 2021-09-08 | 2021-12-24 | 重庆紫光华山智安科技有限公司 | 目标检测结果的校验方法、装置、存储介质和电子设备 |
CN113838110B (zh) * | 2021-09-08 | 2023-09-05 | 重庆紫光华山智安科技有限公司 | 目标检测结果的校验方法、装置、存储介质和电子设备 |
CN114170445A (zh) * | 2022-02-10 | 2022-03-11 | 河北工业大学 | 一种适于消防灭火机器人的室内烟雾环境图像匹配方法 |
CN114170445B (zh) * | 2022-02-10 | 2022-04-12 | 河北工业大学 | 一种适于消防灭火机器人的室内烟雾环境图像匹配方法 |
CN115237164A (zh) * | 2022-08-12 | 2022-10-25 | 南京理工大学 | 一种基于约束跟随的二自由度云台稳定控制方法及系统 |
CN115237164B (zh) * | 2022-08-12 | 2024-01-23 | 南京理工大学 | 一种基于约束跟随的二自由度云台稳定控制方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110796681A (zh) | 一种用于船舶协同工作的视觉定位系统及方法 | |
CN110070615B (zh) | 一种基于多相机协同的全景视觉slam方法 | |
CN113359097B (zh) | 一种毫米波雷达和相机联合标定的方法 | |
CN103971406B (zh) | 基于线结构光的水下目标三维重建方法 | |
WO2021082745A1 (zh) | 信息补全方法、车道线识别方法、智能行驶方法及相关产品 | |
CN115407357B (zh) | 基于大场景的低线束激光雷达-imu-rtk定位建图算法 | |
CN110686677A (zh) | 一种基于几何信息的全局定位方法 | |
CN110132284B (zh) | 一种基于深度信息的全局定位方法 | |
CN112085003A (zh) | 公共场所异常行为自动识别方法及装置、摄像机设备 | |
Fan et al. | Development, calibration, and image processing of underwater structured light vision system: A survey | |
CN112541938A (zh) | 一种行人速度测量方法、系统、介质及计算设备 | |
CN114677531B (zh) | 一种融合多模态信息的水面无人艇目标检测与定位方法 | |
CN114140539A (zh) | 一种室内物体的位置获取方法和装置 | |
CN116448100A (zh) | 一种多传感器融合的近岸无人船slam方法 | |
CN111830534A (zh) | 一种应用激光雷达进行最佳着陆点选取方法 | |
CN114137564A (zh) | 一种室内物体自动标识定位方法和装置 | |
Negahdaripour et al. | Undersea optical stationkeeping: Improved methods | |
CN117606497A (zh) | 一种实时地图构建方法、系统及导盲眼镜 | |
CN116704032A (zh) | 一种基于单目深度估计网络和gps的室外视觉slam方法 | |
CN115861407A (zh) | 基于深度学习的安全距离检测方法及系统 | |
Loktev et al. | Image Blur Simulation for the Estimation of the Behavior of Real Objects by Monitoring Systems. | |
NL2027547B1 (en) | Method of and apparatus for determining deformations of quay walls using a photogrammetric system | |
Hu et al. | Grid-based control of active cameras for waterway ship surveillance | |
Yang et al. | Research on Fusion Method of Lidar and Visual Image Based on Surface Vehicle | |
CN117934725B (zh) | 一种测试建筑物室内三维点云配准准确度的仿真方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |