CN111596296B - 一种基于前视声呐图像的水下目标跟踪方法 - Google Patents
一种基于前视声呐图像的水下目标跟踪方法 Download PDFInfo
- Publication number
- CN111596296B CN111596296B CN202010459316.2A CN202010459316A CN111596296B CN 111596296 B CN111596296 B CN 111596296B CN 202010459316 A CN202010459316 A CN 202010459316A CN 111596296 B CN111596296 B CN 111596296B
- Authority
- CN
- China
- Prior art keywords
- image
- sonar
- gray
- matching
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000009466 transformation Effects 0.000 claims abstract description 42
- 239000011159 matrix material Substances 0.000 claims abstract description 31
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 230000001131 transforming effect Effects 0.000 claims abstract 3
- 230000008569 process Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 4
- 238000010801 machine learning Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000009434 installation Methods 0.000 abstract description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000007123 defense Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000010802 sludge Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/66—Sonar tracking systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
- G01S19/47—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/53—Determining attitude
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于前视声呐图像的水下目标跟踪方法,能够准确跟踪水下目标的位置,进行水下目标实时快速检测,将GPS、姿态传感器、云台、PC、前视声纳设备安装调试完成;通过PC控制云台在探测范围内运动,并给定跟踪目标;获取信息数据;根据前视声纳回拨信号的强度将声纳信息恢复为声纳的灰度图像;将图像都进行预处理,提取两组特征点,得到两组特征点集合,进行特征点集合匹配,使正确匹配与错误匹配分离,再计算目标图像,变换坐标,变换矩阵;进行重复匹配,重复变换,得到当前目标位置的变换矩阵,实现基于前视声纳图像匹配的水下目标跟踪。本发明水下目标跟踪方法,准确跟踪目标的位置,而且检测速度快,具有实时性的特点。
Description
技术领域
本发明涉及图像处理领域,具体涉及一种基于前视声呐图像的水下目标跟踪方法,可以实现实时的跟踪水下目标。
技术背景
前视声纳利用声波的回波信息进行成像,主要应用于水下目标的探测、海底调查与探测、水下入侵检测、水下搜救以及导航等等。由于受水下复杂光学环境的影响,水下目标的特征难以获取,甚至难以成像。所以在水质条件恶劣的环境,如浑浊的水域进行探测,声纳成为一种非常重要的手段。现有前视声纳设备DIDSON(Dual-FrequencyIdentification Sonar)是运用声频“镜头”能在黑暗中或是浑浊的水中生成几乎等同常规水域影像的声纳。它是美国空间与海上战争系统中心研发,作为其海港防御计划的一个组成部分,可被用来识别大型的海港内潜入水域的入侵者。
图像匹配是计算机视觉领域的主要任务,模板匹配是其子领域的重要组成部分。在目标检测过程中通常需要使用多个传感器获取不同图像,以获得同一目标在不同时期的和环境下的信息,或者根据已知的模板图像在待搜索图像中找到相似图像。传统的模板匹配算法如基于灰度的图像匹配算法由于其仅利用了图像像素点的灰度信息,对外部环境的变化较为敏感,因此往往不能够应对复杂的外部环境下的匹配问题;再如基于特征的模板匹配算法虽然能够很好应对外部环境变化带来的干扰,但由于其计算量大、效率低的特点,无法实现实时的快速匹配。而实现水下目标跟踪,就需要使声纳图像匹配速度快、时效性高的特点。实现水下目标跟踪,在水下目标探测、水下入侵检测、水下搜救及导航等等方面具有重要作用。
发明内容
本发明的目的在于提供一种基于前视声呐图像的水下目标跟踪方法,准确跟踪目标的位置,而且检测速度快,具有实时性的特点。
为达上述目的,本发明采用下述技术方案:
一种基于前视声呐图像的水下目标跟踪方法,包括图像预处理、基于FAST和ORB算法的声纳图像特征点提取、声纳图像匹配、基于GMS算法的错误匹配点剔除、基于网格框架的快速模板定位等几个关键部分。其次,在专利权人的发明专利《前视声纳图像拼接方法和系统》(专利申请号201010215541.8)的基础上,实现水下目标跟踪,步骤如下:
(1)将GPS、姿态传感器以及云台安装在船上:云台安装在船头支架上,其水平旋转面与船甲板面平行,旋转中心尽量在船体中轴线上,GPS安装在船体中心位置,姿态传感器安装位置要保证其中心线与船体中轴线重合。云台控制器和PC放置在船上,计算机通过串口联线连接到云台控制器、姿态传感器和GPS,并通过网线连接前视声纳。
(2)启动PC、GPS、姿态传感器设备、云台、前视声纳;检查各部分数据链路通讯是否正常。
(3)通过PC控制云台在探测范围内运动,并给定跟踪目标。
(4)同时获取各个传感器的信息数据,包括以下四种传感器信息:
①从串口读取云台反馈的姿态信息;
②从串口读取姿态传感器发送的船体姿态信息;
③从串口读取GPS信息;
④从网络读取声纳回波信息。
(5)根据前视声纳回拨信号的强度将声纳信息恢复为声纳的灰度图像。
从声纳介绍到的信号为采样点声波的回波强度,将回波强度看作图像的灰度值,即可得到声纳的灰度图像,变换公式如下:
I(x,y)=F(S(i,j));
其中,I(x,y)为声纳图像在(x,y)的灰度,S(i,j)为声纳信号在(i,j)的回波强度,F(x)为变换方程。
(6)从获取的声纳图像中选取目标作为模板图像,然后把下一声的声纳图像作为待搜索图像,将两个图像都进行必要的预处理。
(7)首先利用基于模板和机器学习的角点检测算法FAST快速提取特征点,再利用ORB算法在找到较优的前n个特征点后使用灰度质心方法为FAST找到的特征点添加主方向,以快速计算精确的主方向分量,得到两组特征点集合。
(8)将两个特征点集合进行匹配,输出为一个特征点对集合Q,表示两个特征点集合中点的对应关系。匹配算法包括BF算法和FLANN算法。
(9)匹配后得到若干个特征点,再利用优化后的GMS算法将这些特征点的正确匹配与错误匹配分离开来。GMS算法将运动平滑度作为一个统计量,能够对误匹配点进行剔除。
(10)采用网格框架来计算网格中的特征点数,从而得到有效分数最大的区域,也即目标图像。
(11)通过传感器信息计算出当前目标图像变换到大地坐标下的变换矩阵T。
(12)根据该变换矩阵T,就可以知道大地坐标系投影平面的每个像素点与当前声纳图像中的像素点的变换关系;将当前匹配结果作为模板图像,下一声的声纳图像作为待搜索图像,重复匹配过程,再经过获取四种传感器信息,经过坐标变换计算出当前匹配结果变换到大地坐标下的变换矩阵T*。
(13)将新计算的变换矩阵T*替换变换T,得到当前的目标位置的变换矩阵。
(14)重复(3)~(13)即可实现基于前视声纳图像匹配的水下目标跟踪。
本发明具有如下显而易见的突出特点和显著优点:
本发明提供了一种基于前视声呐图像的水下目标跟踪方法,实现前视声纳DIDSON图像匹配跟踪目标。通过云台运动参数,GPS和惯性传感器信号计算出目标的位置信息,并进行实时跟踪。这种方法避免了水下复杂光学环境和水下运动目标特性的影响,降低了跟踪过程中目标偏离和丢失的可能。使用ORB和GMS算法避免了传统模板匹配算法的鲁棒性差或是低时效性的特点,提高了图像匹配的实时性。
附图说明
图1为本发明方法的算法流程图。
图2为坐标关系图。
具体实施方式
下面结合附图,对本发明的具体实施例如下详述。
实现目标跟踪的步骤是:
(1)将GPS、姿态传感器以及云台安装在船上;云台安装在船头支架上,其水平旋转面与甲板平行,旋转中心尽量在船的中轴线上,GPS安装在船体中心位置,姿态传感器安装位置要保证其中心线与船体中轴线重合。云台控制器和PC放置在船上,连接各部分的数据线。
(2)启动PC、GPS、姿态传感器、云台、前视声纳;检查各部分数据链路通讯是否正常。
(3)通过PC控制云台在探测范围内运动,并给定跟踪目标。
(4)同时获取各个传感器的信息数据,包括以下四种传感器信息:
①从串口读取云台反馈的姿态信息;
②从串口读取姿态传感器发送的船体姿态信息;
③从串口读取GPS信息;
④从网络读取声纳回波信息。
(5)根据前视声纳回拨信号的强度将声纳信息恢复为声纳的灰度图像;从声纳接收到的信号为采样点声波的回波强度,将回波强度看作图像的灰度值,即可得到声纳的灰度图像,变换公式如下:
I(x,y)=F(S(i,j));
其中,I(x,y)为声纳图像在(x,y)的灰度,S(i,j)为声纳信号在(i,j)的回波强度,F(x)为变换方程。
(6)从获取的声纳图像中选取目标作为模板图像,然后把下一声的声纳图像作为待搜索图像,将两个图像都进行必要的预处理。
(7)首先利用基于模板和机器学习的角点检测算法FAST快速提取特征点,再利用ORB算法在找到较优的前n个特征点后使用灰度质心方法为FAST找到的特征点添加主方向,以快速计算精确的主方向分量。图像角点区域的灰度矩可以表示为:
其中,x和y的取值范围在半径为S的领域中,I(x,y)为图像中图像坐标为(x,y)处像素点的灰度值,p和q决定了图像的阶数,于是灰度矩心c就可由三个不同灰度矩m00、m01和m10来表示:
此时可判定特征地点的主方向为:
θ=arctan(m01,m10)
(8)在特征点的周围选取n个特征点对,并且将这些点对的比对结果组合起来作为描述子,利用BRIEF算法进行有限的可比点对,从而进行灰度值之间的比较:
其中,p(x)是特征点周围的图像领域在x=(u,v)T处的灰度值。选择n个特征点对就确定了一个长度为n的二进制比特串,如下式:
ORB算法是针对BRIEF算法的缺点进行改进来实现特征点描述的。BRIEF对平面旋转非常敏感,ORB将所提取的角点主方向应用于BRIEF,将其改进为具备旋转不变性的rBRIEF(Rotated BRIEF)。BRIEF算法本身是不具有方向不变性的,为解决图像发生旋转所带来的方向问题,ORB算法中使用可旋转的BRIEF算子,即尝试用之前特征点检测时算出的主方向θ,得到其对应的旋转矩阵Rθ,与n对特征点对组成的矩阵进行校正,矩阵形式如下式:
对矩阵进行旋转变换,旋转角度为角点的主方向,得到Qθ=RθQ,其中旋转矩阵Rθ为:
这样,ORB便为每一个特征点获取了256位二进制字符串。之后可通过计算两个特征点之间的汉明距离来表示两者的相似性。两幅图像特征点描述向量之间的汉明距离越小,说明两个特征点越相似。匹配完成后后得到一个含若干个特征点对的集合。
(9)再利用优化后的GMS算法将这些特征点的正确匹配与错误匹配分离开来。GMS算法将运动平滑度作为一个统计量,能够对误匹配点进行剔除。
图像对{Ia,Ib}分别有{N,M}数量的特征点,χ={x1,x2,K,xi,K,xN}是通过BF算法匹配得到的两幅图像的特征点匹配,并且数量为|χ|=N。该模型提出的目标就是将这N个特征点对中正确和错误的点对区分开来。{a,b}为图像对{Ia,Ib}内的一对区域,分别包含{n,m}个特征点对,是两幅图像特征点对在{a,b}区域内的一个子集,所以特征点对的相似性度量方法Si可定义为:
Si=|χi|-1
其中,-1表示在{a,b}内去掉原始的一个特征点对。
由于区域{a,b}很小,作者将考虑的因素限制在理想化的真假区域对,从而忽略了部分相似的位置。定义fa为区域a中的有效特征点之一,fa是正确特征点的概率为t,可表示为式:
在此基础上比较{a,b}处于相同或者不同位置时导出区域间点对的到达率。
如下式所示,考虑到特征点fa有可能出现错误匹配,那么在匹配错误的情况下,图像Ib中与其匹配的点可能是M个特征点当中的任意一个。
其中,表示fa的最近邻特征点位于区域b这一事件,/>表示fa匹配错误,该事件发生的概率为1-t,m表示区域b内特征点的数量,M表示图像Ib中特征点的数量,β是避免区域内窗口重叠等重复结构的干扰而添加的影响因子。
若Tab表示{a,b}所对应的区域是真实世界中相同的区域,而Fab表示{a,b}所对应的区域是不同的区域。定义概率表示在{a,b}是相同的区域的情况下,特征点fa的最近邻位于区域b内的条件概率,则:
上式表示理解为条件概率是由两部分构成:一部分是在{a,b}是相同的区域的情况下,匹配正确;还有一部分是匹配错误的情况下,特征点fa的最近邻仍然位于区域b内。也就是说,/>这一事件的发生有两种可能性:第一种可能是fa正确匹配,第二种可能是虽然fa匹配出错,但是其匹配点碰巧落在了区域b内。
定义概率表示在{a,b}是不同区域的情况下,特征点fa的最近邻位于区域b内的条件概率,则:
通过观察上式可以发现,当Fab发生时,是/>的一个子集,即当{a,b}所对应的区域是不同的区域时,特征点fa的最近邻位于区域b内,则fa匹配一定是错误的,反之不成立。
由于每个特征点的匹配是相对独立的,所以xi周围区域的特征点对数量Si可以近似为以下分布:
上式表现了xi是正确匹配或者错误匹配时,其周围区域特征点对数量分布将呈现巨大的差异性。基于两种情况下分布的差异性,该模型将特征点周围区域的匹配数量作为统计度量方法,用以区分某个特征点匹配是否正确。
(10)采用网格框架来计算网格中的特征点数,将模板图像与待搜索图像通过特征点算法匹配完之后,得到了被搜索图像中的有效特征点集合Q。同样是利用Q来进行模板匹配,与之前方法的差别在于,首先将待搜索图像都分格成网格状,然后统计每个网格中的特征点数目。每个网格中包含的特征点的数量就是该网格中心坐标的权值,如下式所示:
其中,(Cix,Ciy)是网格i的中点坐标,ni表示的是该网格包含的特征点的数目。tx和ty分别表示模板定位的中心位置的x坐标和y坐标。
这样,通过统计被搜索图像中与模板图像匹配的特征点的位置信息来确定模板的最终位置,也即目标图像的位置。
(11)通过传感器信息计算出当前目标图像变换到大地坐标下的变换矩阵T。坐标关系如图2所示,其中XYZO为大地坐标系,船体坐标系为X1Y1Z1O1,它在大地坐标系下的变换矩阵可以通过GPS以及姿态传感器MAHRS测量出来,假设GPS测量出来的位置坐标为(x,y,z),MAHRS测量出来的船体的三个方向的姿态角度(航向,俯仰,横滚)为(ψ,θ,φ),那么船体在大地坐标系下的变换矩阵为;
云台固定安装在船上,如图2中X2Y2Z2O2坐标系,云台的姿态通过PC进行控制,云台想对于船的变换矩阵可以写为:
其中(α,β,λ)为云台相对于船体的姿态角度,角度包含了云台的安装角度以及控制角度,(Δx,Δy,Δz)为云台相对于船体坐标系的位置,这个是由云台的安装位置来决定的,可以通过测量得到;云台与声纳固定安装在一起,可以认为云台的位置和姿态就越是声纳设备的位置和姿态。那么当前声纳在世界坐标系下的位置和姿态就可以通过下面的公式计算,
其中δx,δy,δz就是声纳图像在大地坐标系下的位置,矩阵为声纳在大地坐标系下的姿态。因此这里问题的关键就是要把声纳当前姿态下的图像,投影子啊姿态与大地坐标一致,即旋转矩阵为/>位置为(0,0,-δz)的坐标系啊下,即坐标系为X3Y3Z3O3。
图2中在声纳坐标系下即在X2Y2Z2O2坐标系下,P(x2,y2,z2)点在声纳DIDSON是成像点坐标为(u,v),根据声纳的成像原理,它成像坐标变换为:
其中η为OP向量与成像平面的夹角。那么同一点在X3Y3Z3O3坐标系下的变换为:
公式可以写为:
那么由此可以得到:
(12)根据该变换矩阵T,就可以知道大地坐标系投影平面的每个像素点与当前声纳图像中的像素点的变换关系;将当前匹配结果作为模板图像,下一声的声纳图像作为待搜索图像,重复匹配过程,再经过获取四种传感器信息,经过坐标变换计算出当前匹配结果变换到大地坐标下的变换矩阵T*。
(13)将新计算的变换矩阵T*替换变换T,得到当前的目标位置的变换矩阵。
(14)重复(3)~(13)即可实现基于前视声纳图像匹配的水下目标跟踪。
上面对本发明实施例结合附图进行了说明,但本发明不限于上述实施例,还可以根据本发明的发明创造的目的做出多种变化,凡依据本发明技术方案的精神实质和原理下做的改变、修饰、替代、组合或简化,均应为等效的置换方式,只要符合本发明的发明目的,只要不背离本发明污泥原位处理的智能加药系统的技术原理和发明构思,都属于本发明的保护范围。
Claims (10)
1.一种基于前视声呐图像的水下目标跟踪方法,其特征在于,其特征在于:能够准确跟踪水下目标的位置,进行水下目标实时快速检测,该方法包括以下步骤:
(1)将GPS、姿态传感器、云台、PC、前视声呐安装调试完成;
(2)启动PC、GPS、姿态传感器、云台、前视声呐;检查各部分数据链路通讯是否正常;
(3)通过PC控制云台在探测范围内运动,并给定跟踪目标;
(4)同时获取各个传感器的信息数据;
(5)根据前视声呐回波信号的强度将声呐信息恢复为声呐灰度图像;
(6)从获取的声呐灰度图像中选取目标作为模板图像,然后把下一声的声呐灰度图像作为待搜索图像,将两个图像都进行预处理;
(7)采用FAST算法提取两组特征点,再利用ORB算法为特征点添加主方向,得到两组特征点集合;
(8)将两个特征点集合进行匹配,输出为一个特征点对集合Q,表示两个特征点集合中点的对应关系;匹配算法包括BF算法和FLANN算法;
(9)匹配后得到若干个特征点,再利用优化后的GMS算法将这些特征点的正确匹配与错误匹配分离开来;
(10)采用网格框架来计算网格中的特征点数,从而得到有效分数最大的区域,也即目标图像;
(11)通过传感器的信息数据计算出当前目标图像变换到大地坐标下的变换矩阵;
(12)将当前的匹配结果作为模板图像,下一声的声呐灰度图像作为待搜索图像,重复匹配过程,再经过获取四种传感器的信息数据,经过坐标变换计算出当前匹配结果变换到大地坐标下的变换矩阵;
(13)将新计算的变换矩阵替换原来的变换矩阵,得到当前目标位置的变换矩阵;
(14)重复过程(3)~(13)即可实现基于前视声呐灰度图像匹配的水下目标跟踪;
所述步骤(7)中,首先利用基于模板和机器学习的角点检测算法FAST快速提取特征点,再利用ORB算法在找到较优的前n个特征点后使用灰度质心方法为FAST找到的特征点添加主方向,得到两组特征点集合;
图像角点区域的灰度矩可以表示为:
其中,x和y的取值范围在半径为S的领域中,I(x,y)为声呐灰度图像中图像坐标为(x,y)处像素点的灰度值,p和q决定了图像的阶数,于是灰度矩心c就可由四个不同灰度矩m00、m01、m10和m11来表示:
此时可判定特征地点的主方向为:
θ=arctan(m01,m10)。
2.根据权利要求1所述的基于前视声呐图像的水下目标跟踪方法,其特征在于,所述步骤(1)中,将GPS、姿态传感器以及云台安装在船上:云台安装在船头支架上,其水平旋转面与船甲板面平行,旋转中心在船体中轴线上,GPS安装在船体中心位置,姿态传感器安装位置要保证其中心线与船体中轴线重合;云台控制器和PC放置在船上,计算机通过串口联线连接到云台控制器、姿态传感器和GPS,并通过网线连接前视声呐。
3.根据权利要求1所述的基于前视声呐图像的水下目标跟踪方法,其特征在于,所述步骤(2)中,启动PC、GPS、姿态传感器、云台、前视声呐,然后检查各部分数据链路通讯是否正常。
4.根据权利要求1所述的基于前视声呐图像的水下目标跟踪方法,其特征在于,所述步骤(3)中,通过PC控制云台在探测范围内运动,并给定跟踪目标。
5.根据权利要求1所述的基于前视声呐图像的水下目标跟踪方法,其特征在于,所述步骤(4)中,同时获取各个传感器的信息数据,包括以下四种传感器的信息:从串口读取云台反馈的姿态信息、从串口读取姿态传感器发送的船体姿态信息、从串口读取GPS信息、从网络读取声呐回波信息。
6.根据权利要求1所述的基于前视声呐图像的水下目标跟踪方法,其特征在于,所述步骤(5)中,根据前视声呐回波信号的强度将声呐回波信息恢复为声呐灰度图像,实现方式如下:从声呐接收到的信号为采样点声波的回波强度,将回波强度看作图像的灰度值,即可得到声呐灰度图像,变换公式如下:
I(x,y)=F(S(i,j));
其中,I(x,y)为声呐灰度图像在坐标(x,y)的灰度,S(i,j)为声呐回波信号在(i,j)的回波强度,F(x)为变换方程。
7.根据权利要求1所述的基于前视声呐图像的水下目标跟踪方法,其特征在于,所述步骤(10)中,采用网格框架来计算网格中的特征点数,将模板图像与待搜索图像通过特征点算法匹配完之后,得到被搜索图像中的有效特征点集合Q;实现方法如下:
首先将待搜索图像都分格成网格状,然后统计每个网格中的特征点数目;每个网格中包含的特征点的数量就是该网格中心坐标的权值,如下式所示:
其中,(Cix,Ciy)是网格i的中点坐标,ni表示的是该网格包含的特征点的数目;tx和ty分别表示模板定位的中心位置的x坐标和y坐标;
这样,通过统计被搜索图像中与模板图像匹配的特征点的位置信息来确定模板的最终位置,也即目标图像的位置。
8.根据权利要求1所述的基于前视声呐图像的水下目标跟踪方法,其特征在于,所述步骤(12)中,将当前的匹配结果作为模板图像,下一声的声呐灰度图像作为待搜索图像,重复匹配过程,再经过获取四种传感器信息,经过坐标变换计算出当前匹配结果变换到大地坐标下的变换矩阵;将当前匹配结果作为模板图像,下一声的声呐灰度图像作为待搜索图像,重复匹配过程,再经过获取四种传感器信息,经过坐标变换计算出当前匹配结果变换到大地坐标下的变换矩阵T*。
9.根据权利要求1所述的基于前视声呐图像的水下目标跟踪方法,其特征在于,所述步骤(13)中,将新计算的变换矩阵T*替换变换T,得到当前的目标位置的变换矩阵,也即得到了当前所跟踪目标的位置信息。
10.根据权利要求1所述的基于前视声呐图像的水下目标跟踪方法,其特征在于,所述步骤(14)中,重复(3)~(13)步的操作过程,即可实现基于前视声呐灰度图像匹配的水下目标跟踪。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911315657 | 2019-12-19 | ||
CN2019113156576 | 2019-12-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111596296A CN111596296A (zh) | 2020-08-28 |
CN111596296B true CN111596296B (zh) | 2023-09-15 |
Family
ID=72192271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010459316.2A Active CN111596296B (zh) | 2019-12-19 | 2020-05-27 | 一种基于前视声呐图像的水下目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111596296B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112526524B (zh) * | 2020-12-09 | 2022-06-17 | 青岛澎湃海洋探索技术有限公司 | 一种基于前视声纳图像和auv平台的水下渔网检测方法 |
CN112526490B (zh) * | 2020-12-11 | 2021-12-03 | 上海大学 | 一种基于计算机视觉的水下小目标声呐探测系统与方法 |
CN113221772A (zh) * | 2021-05-18 | 2021-08-06 | 哈尔滨理工大学 | 一种水下机器人视觉图像增强与识别方法 |
CN113534164B (zh) * | 2021-05-24 | 2023-12-12 | 中船海洋探测技术研究院有限公司 | 一种基于主被动联合声纳阵列的目标路径跟踪方法 |
CN113379710B (zh) * | 2021-06-18 | 2024-02-02 | 上海大学 | 一种水下目标声呐精准测量系统和方法 |
CN113822233B (zh) * | 2021-11-22 | 2022-03-22 | 青岛杰瑞工控技术有限公司 | 一种深海养殖异常鱼类跟踪方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102012513A (zh) * | 2010-06-29 | 2011-04-13 | 上海大学 | 前视声纳图像的实时拼接方法和系统 |
CN102622732A (zh) * | 2012-03-14 | 2012-08-01 | 上海大学 | 一种前扫声纳图像拼接方法 |
KR20130017429A (ko) * | 2011-08-10 | 2013-02-20 | 엘아이지넥스원 주식회사 | 수중 기뢰를 탐지하기 위한 장치 및 그 방법 |
CN105182350A (zh) * | 2015-09-26 | 2015-12-23 | 哈尔滨工程大学 | 一种应用特征跟踪的多波束声呐目标探测方法 |
CN106919944A (zh) * | 2017-01-20 | 2017-07-04 | 南京航空航天大学 | 一种基于orb算法的大视角图像快速识别方法 |
-
2020
- 2020-05-27 CN CN202010459316.2A patent/CN111596296B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102012513A (zh) * | 2010-06-29 | 2011-04-13 | 上海大学 | 前视声纳图像的实时拼接方法和系统 |
KR20130017429A (ko) * | 2011-08-10 | 2013-02-20 | 엘아이지넥스원 주식회사 | 수중 기뢰를 탐지하기 위한 장치 및 그 방법 |
CN102622732A (zh) * | 2012-03-14 | 2012-08-01 | 上海大学 | 一种前扫声纳图像拼接方法 |
CN105182350A (zh) * | 2015-09-26 | 2015-12-23 | 哈尔滨工程大学 | 一种应用特征跟踪的多波束声呐目标探测方法 |
CN106919944A (zh) * | 2017-01-20 | 2017-07-04 | 南京航空航天大学 | 一种基于orb算法的大视角图像快速识别方法 |
Non-Patent Citations (3)
Title |
---|
一种快速鲁棒的模板匹配算法;王美和等;《工业控制计算机》;20190325;第32卷(第3期);第45-48页 * |
优化栅格移动统计的图像配准算法;贾强汉;《激光与光电子学进展》;20191108;第121014-1至121014-6页 * |
基于改进 ORB 和网格运动统计的图像匹配算法;罗守品等;《传感器与微系统》;20190626;第38卷(第7期);第126页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111596296A (zh) | 2020-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111596296B (zh) | 一种基于前视声呐图像的水下目标跟踪方法 | |
CN110322500B (zh) | 即时定位与地图构建的优化方法及装置、介质和电子设备 | |
CN110555901B (zh) | 动静态场景的定位和建图方法、装置、设备和存储介质 | |
CN110349212B (zh) | 即时定位与地图构建的优化方法及装置、介质和电子设备 | |
CN110084830B (zh) | 一种视频运动目标检测与跟踪方法 | |
CN110675341B (zh) | 一种单目光视觉引导的水下机器人与海底平台对接方法 | |
CN110378411B (zh) | 一种基于交互式多模型的支持向量机辅助水下机动目标跟踪方法 | |
US20230117498A1 (en) | Visual-inertial localisation in an existing map | |
CN111967337A (zh) | 一种基于深度学习和无人机影像的管道线变化检测方法 | |
CN112991401B (zh) | 车辆运行轨迹追踪方法、装置、电子设备和存储介质 | |
Li et al. | Vision-based target detection and positioning approach for underwater robots | |
Araujo et al. | Air-sslam: A visual stereo indoor slam for aerial quadrotors | |
CN112652020A (zh) | 一种基于AdaLAM算法的视觉SLAM方法 | |
CN109459046B (zh) | 悬浮式水下自主航行器的定位和导航方法 | |
CN116051873A (zh) | 关键点匹配方法、装置及电子设备 | |
CN111948658A (zh) | 水底地貌影像识别匹配的深水区定位方法 | |
CN115164900A (zh) | 一种基于全向相机的城市环境下视觉辅助导航方法及系统 | |
CN116907509A (zh) | 基于图像匹配的auv水下辅助导航方法、系统、设备及介质 | |
CN110246165A (zh) | 提高可见光图像与sar图像配准速度的方法及系统 | |
CN117788572A (zh) | 光学图像和激光点云的融合船舶精定位方法及系统 | |
CN114719844B (zh) | 基于空间投影的全天球星图识别方法、装置及介质 | |
Huang et al. | Methods on visual positioning based on basketball shooting direction standardisation | |
CN114821113A (zh) | 基于自适应鲁棒核的单目视觉惯性slam方法与系统 | |
CN114119885A (zh) | 图像特征点匹配方法、装置及系统、地图构建方法及系统 | |
Li et al. | Target Detection for USVs by Radar-vision Fusion with Swag-robust Distance-aware Probabilistic Multi-modal Data Association |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |