CN107132524A - 基于两台识别声呐的水下目标空间位置计算方法 - Google Patents
基于两台识别声呐的水下目标空间位置计算方法 Download PDFInfo
- Publication number
- CN107132524A CN107132524A CN201710419532.2A CN201710419532A CN107132524A CN 107132524 A CN107132524 A CN 107132524A CN 201710419532 A CN201710419532 A CN 201710419532A CN 107132524 A CN107132524 A CN 107132524A
- Authority
- CN
- China
- Prior art keywords
- identification
- target
- sonars
- sonar
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/539—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
本发明公开了一种基于两台识别声呐的水下目标空间位置计算方法,其主要步骤包括:两台识别声呐布设、识别声呐数据获取、目标提取、空间位置计算,其中两台识别声呐的横滚角都相同。由于识别声呐的探测范围是一个空间几何体,但接收到的目标信息只有斜距与方位角,不知道目标在识别声呐发射波束中的深度,因此不能获知目标的空间位置。本发明利用两台同型号的识别声呐可以有效解决这个问题,实现目标在水下空间位置的获取。
Description
技术领域
本发明属于水下目标定位领域,尤其涉及一种基于两台识别声呐的水下目标空间位置计算方法。
背景技术
识别声呐是一种利用多元超声波线阵在水下发射很窄(水平方向一般0.3°以下)的波束并接收其回波信号,以回波信号强弱为像素点亮度形成扫描线,通过扫描一定角度构成平面图像的水下探测设备。它可以在昏暗的浑水中生成几乎等同光学影像质量图像的高清晰图像,其主要运用在渔业管理、结构检测、管道泄漏、水底探测、水下搜寻、水下安检等方面,具有结构紧凑、重量轻、可靠耐用等特点。
由于识别声呐的成像原理是利用超声波线阵收发信号形成图像,其中的每个阵元单独工作,因此识别声呐可以获知目标在声呐图像中的方位角和斜距,但却不能分辨处于同一斜距、同一方位角度下、不同深度处的目标,即不能获取目标的三维位置。这限制了其用于水下目标定位的用途。
发明内容
本发明的目的是针对上述不足,提供一种基于两台识别声呐的水下目标空间位置计算方法。
为了达到上述目的,本发明所采用的技术方案如下:一种基于两台识别声呐的水下目标空间位置计算方法,包括以下步骤:
(1)布置两台识别声呐:调整两台识别声呐的俯仰角倾斜向下、横滚角相同,将两台识别声呐布置在水中,保证两台识别声呐的探测范围重叠;
(2)识别声呐数据获取:采集两台识别声呐获取的水下数据;
(3)目标提取:分别从两台识别声呐获取的水下数据中提取目标的斜距与方位角;
(4)空间位置计算:建立空间坐标系,将目标进行一次投影,计算目标在投影面上的坐标,结合步骤(1)中两台识别声呐的位置关系和步骤(3)中的方位角和斜距获得目标的空间位置。
进一步的,所述识别声呐发射多波束,并通过接收的回波数据组成声呐图像。
进一步的,所述步骤(3)具体如下:
通过背景去除手法从两台识别声呐采集的声呐图像中分别提取目标,首先选定图像阈值τ,对信号强度值f>τ判定为目标,否则为背景,从而获得目标在声呐图像中的位置
进一步的,所述步骤(4)具体如下:
(1)建立空间坐标系:以其中一台识别声呐为坐标原点,两台识别声呐的连线方向为Y轴,竖直向上为Z轴,依据右手坐标系建立空间坐标系;
(2)计算目标的投影坐标:将目标投影至Y‐O‐Z平面,计算两个斜距在投影面上的长度,联立方程组获得目标在Y‐O‐Z平面上投影的坐标;
(3)获取空间位置:目标在Y‐O‐Z平面上投影的坐标中Y坐标和Z坐标值就是目标在三维空间中的Y坐标和Z坐标,其中Z坐标值即目标在识别声呐发射波束中的深度,利用位于原点处的识别声呐提取的方位角和斜距得到X坐标,从而就可获得目标的三维空间位置。
本发明的有益效果如下:本发明针对识别声呐只能获取其探测范围内目标的斜距与方位角信息,不能获知深度信息导致不能获得目标空间位置的特点,利用两台同型号的识别声呐同时获取水下目标信息,通过声呐图像的目标提取以及空间位置计算获得目标在水下的空间位置。本发明提供的方法简单可行,并能为水下目标三维影像重构和水下移动目标的空间位置获取、三维定位及跟踪等提供技术基础。
附图说明
图1是本发明方法的系统布置图;
图2是本发明中识别声呐的水平视场图;
图3是本发明中计算空间位置的模型图;
图4是本发明中识别声呐的投影面示意图;
图中:第一识别声呐1、第二识别声呐2、笔记本电脑3。
具体实施方式
下面结合具体实施例及附图对本发明做进一步详细说明,但本发明不仅局限于此。
识别声呐的种类很多,这里以一款双频识别声呐为例(但不限于此)进行实施方案的说明。双频识别声呐是一种利用声学透镜发射独立波束的多波束系统。它由三块透镜和换能器阵列组成,其中三块透镜分别是平凹透镜、平凸透镜和双凹透镜,并由聚甲基戊烯材料制成。换能器阵列由96个排列成直线型的独立阵元组成。当96个换能器阵元形成一个阵列同时工作时,接收到的回波信号可以组成一幅声学影像图,在波束探测范围内的物体也将呈现在声学影像图上。
本发明通过布置两台双频识别声呐、识别声呐数据获取、目标提取、空间位置计算等步骤实现水下目标空间位置的获取,下面针对每一步展开详细说明,并以第一步中的布置方式为例进行计算。
第一步,布置两台识别声呐。如图1所示,将两台识别声呐(第一识别声呐1和第二识别声呐2)相距10米布置在水下10厘米处,两台识别声呐的横滚角都为0,俯仰角都为10度并倾斜向下;假设两识别声呐连线方向为偏航角0度,第一识别声呐1的偏航角为α=10°,第二识别声呐2的偏航角为β=-20°;为了保证两台识别声呐的探测范围重叠,将两台识别声呐的最大探测距离调节至8米;同时两台声呐的数据接口都和同一台笔记本电脑3相连。
第二步,识别声呐数据获取。将两台识别声呐与一台笔记本电脑3相连,保证了两台识别声呐采集水下数据的同步性;采集的水下数据组成一幅声呐图像,并设置两台识别声呐以同样的采集速率进行工作,10帧图像每秒。
第三步,目标提取。通过背景去除手法从两台识别声呐采集的声呐图像中分别提取目标。选定合适的图像阈值τ,对信号强度值f>τ判定为目标,否则为背景,从而获得目标在声呐图像中的位置在声呐图像的水平视场中建立坐标系,如图2所示,以扇环的圆心为坐标原点,中轴线为Y轴,因此目标在坐标系中的位置可以写成(xH,yH),其中
第四步,空间位置计算。
1、建立如图3所示的空间坐标系,以第一识别声呐1为坐标原点即为O1,另一台第二识别声呐2所在位置记为O2,两台识别声呐的连线方向为Y轴,竖直向上为Z轴,依据右手坐标系建立空间坐标系;假设点P(x,y,z)是被测目标,点A是点P在Y‐O‐Z面上的投影。
2、计算目标的投影坐标。为了便于计算,以O1P为体对角线、AP为一条棱、面X‐O‐Y为上平面建立长方体APBC-A1P1B1O1。在长方体中,假设|O1P|=r1,|O2P|=r2,则其中r1是目标在第一识别声呐1中的斜距,r2是目标在第二识别声呐2中的斜距,是目标在第一识别声呐1中的方位角,同理是目标在第二识别声呐2中的方位角;由于P在Y‐O‐Z面上的投影为A,所以∠PAO1=90°,则同样可以获取O2A的长度为
如图4是投影面的平面示意图,假设A(y,z),|O1O2|=δ,联立如下方程组:
解上述方程组可以得到A点坐标:
3、获取空间位置。目标P在投影面上投影点A的坐标中在z值就是目标在三维空间中的Z坐标,即目标在识别声呐发射波束中的深度,结合方位角和斜距r1就可获得目标的三维空间位置,即
Claims (4)
1.一种基于两台识别声呐的水下目标空间位置计算方法,其特征在于,包括以下步骤:
(1)布置两台识别声呐:调整两台识别声呐的俯仰角倾斜向下、横滚角相同,将两台识别声呐布置在水中,保证两台识别声呐的探测范围重叠。
(2)识别声呐数据获取:采集两台识别声呐获取的水下数据。
(3)目标提取:分别从两台识别声呐获取的水下数据中提取目标的斜距与方位角。
(4)空间位置计算:建立空间坐标系,将目标进行一次投影,计算目标在投影面上的坐标,结合步骤(1)中两台识别声呐的位置关系和步骤(3)中的方位角和斜距获得目标的空间位置。
2.根据权利要求1所述的基于两台识别声呐的水下目标空间位置计算方法,其特征在于,所述识别声呐发射多波束,并通过接收的回波数据组成声呐图像。
3.根据权利要求1所述的基于两台识别声呐的水下目标空间位置计算方法,其特征在于,所述步骤(3)具体如下:
通过背景去除手法从两台识别声呐采集的声呐图像中分别提取目标,首先选定图像阈值τ,对信号强度值f>τ判定为目标,否则为背景,从而获得目标在声呐图像中的位置
4.根据权利要求1所述的基于两台识别声呐的水下目标空间位置计算方法,其特征在于,所述步骤(4)具体如下:
(1)建立空间坐标系:以其中一台识别声呐为坐标原点,两台识别声呐的连线方向为Y轴,竖直向上为Z轴,依据右手坐标系建立空间坐标系;
(2)计算目标的投影坐标:将目标投影至Y‐O‐Z平面,计算两个斜距在投影面上的长度,联立方程组获得目标在Y‐O‐Z平面上投影的坐标;
(3)获取空间位置:目标在Y‐O‐Z平面上投影的坐标中Y坐标和Z坐标值就是目标在三维空间中的Y坐标和Z坐标,其中Z坐标值即目标在识别声呐发射波束中的深度,利用位于原点处的识别声呐提取的方位角和斜距得到X坐标,从而就可获得目标的三维空间位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710419532.2A CN107132524A (zh) | 2017-06-06 | 2017-06-06 | 基于两台识别声呐的水下目标空间位置计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710419532.2A CN107132524A (zh) | 2017-06-06 | 2017-06-06 | 基于两台识别声呐的水下目标空间位置计算方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107132524A true CN107132524A (zh) | 2017-09-05 |
Family
ID=59735243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710419532.2A Pending CN107132524A (zh) | 2017-06-06 | 2017-06-06 | 基于两台识别声呐的水下目标空间位置计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107132524A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109655056A (zh) * | 2018-11-26 | 2019-04-19 | 江苏科技大学 | 一种深海采矿车复合定位系统及其定位方法 |
CN110426674A (zh) * | 2019-07-17 | 2019-11-08 | 浙江大华技术股份有限公司 | 一种空间位置确定方法、装置、电子设备及存储介质 |
CN111640177A (zh) * | 2020-05-26 | 2020-09-08 | 佛山科学技术学院 | 一种基于水下声呐探测的三维建模方法及无人潜水器 |
CN113296057A (zh) * | 2021-05-19 | 2021-08-24 | 太原融盛科技有限公司 | 一种潜水器对水下不明物位置的测定方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101644762A (zh) * | 2008-12-16 | 2010-02-10 | 中国科学院声学研究所 | 一种合成孔径声纳的图像定位方法及系统 |
CN101650424A (zh) * | 2007-12-28 | 2010-02-17 | 中国科学院声学研究所 | 一种三维定位声纳 |
CN102445692A (zh) * | 2011-09-26 | 2012-05-09 | 哈尔滨工程大学 | 基于二维图像声纳的水下运动目标位置测定方法 |
CN104203739A (zh) * | 2012-01-18 | 2014-12-10 | 莫乔海事有限公司 | 船 |
CN104215988A (zh) * | 2014-09-27 | 2014-12-17 | 江苏华宏实业集团有限公司 | 一种水下目标定位方法 |
CN104765037A (zh) * | 2015-04-22 | 2015-07-08 | 国家深海基地管理中心 | 基于短垂直阵的水下目标定位稳健方法 |
-
2017
- 2017-06-06 CN CN201710419532.2A patent/CN107132524A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101650424A (zh) * | 2007-12-28 | 2010-02-17 | 中国科学院声学研究所 | 一种三维定位声纳 |
CN101644762A (zh) * | 2008-12-16 | 2010-02-10 | 中国科学院声学研究所 | 一种合成孔径声纳的图像定位方法及系统 |
CN102445692A (zh) * | 2011-09-26 | 2012-05-09 | 哈尔滨工程大学 | 基于二维图像声纳的水下运动目标位置测定方法 |
CN104203739A (zh) * | 2012-01-18 | 2014-12-10 | 莫乔海事有限公司 | 船 |
CN104215988A (zh) * | 2014-09-27 | 2014-12-17 | 江苏华宏实业集团有限公司 | 一种水下目标定位方法 |
CN104765037A (zh) * | 2015-04-22 | 2015-07-08 | 国家深海基地管理中心 | 基于短垂直阵的水下目标定位稳健方法 |
Non-Patent Citations (1)
Title |
---|
邢艳波: ""基于二维声纳成像方法的目标位置解算技术"", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109655056A (zh) * | 2018-11-26 | 2019-04-19 | 江苏科技大学 | 一种深海采矿车复合定位系统及其定位方法 |
CN110426674A (zh) * | 2019-07-17 | 2019-11-08 | 浙江大华技术股份有限公司 | 一种空间位置确定方法、装置、电子设备及存储介质 |
CN110426674B (zh) * | 2019-07-17 | 2021-12-14 | 浙江大华技术股份有限公司 | 一种空间位置确定方法、装置、电子设备及存储介质 |
CN111640177A (zh) * | 2020-05-26 | 2020-09-08 | 佛山科学技术学院 | 一种基于水下声呐探测的三维建模方法及无人潜水器 |
CN111640177B (zh) * | 2020-05-26 | 2023-04-25 | 佛山科学技术学院 | 一种基于水下声呐探测的三维建模方法及无人潜水器 |
CN113296057A (zh) * | 2021-05-19 | 2021-08-24 | 太原融盛科技有限公司 | 一种潜水器对水下不明物位置的测定方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108303988A (zh) | 一种无人船的目标识别追踪系统及其工作方法 | |
CN105388481B (zh) | 一种吊放式小目标探测声呐系统及探测方法 | |
US7466628B2 (en) | Method of constructing mathematical representations of objects from reflected sonar signals | |
CN107132524A (zh) | 基于两台识别声呐的水下目标空间位置计算方法 | |
CN207908979U (zh) | 一种无人船的目标识别追踪系统 | |
CN107918132A (zh) | 水下超声相控阵探测系统及水下探测方法 | |
CN108181626B (zh) | 一种高分辨三维声学成像系统 | |
CN101907707A (zh) | 用于多波束合成孔径声呐的组合声基阵 | |
CN106125078B (zh) | 一种水下多维声学成像系统和方法 | |
CN102636785A (zh) | 一种水下目标三维定位方法 | |
CN107132525A (zh) | 基于两台垂直布置的识别声呐的水下目标空间位置计算方法 | |
CN112083432A (zh) | 基于声学轨道角动量的超精细三维成像方法 | |
CN108828603A (zh) | 一种基于十字型的三维成像声纳阵列的稀疏优化方法 | |
CN110456361B (zh) | 大范围海底地貌遥测的双基地声学成像方法 | |
JP2012057963A (ja) | 目標物探知システム、探知方法、及び探知情報処理プログラム | |
CN105629220A (zh) | 一种基于单水听器的深海水声被动测距方法 | |
CN115856898B (zh) | 一种适应于全海深的面阵三维成像声呐点位归算方法 | |
CN106028021B (zh) | 利用正交阵列形成无人船监控区域超声波三维图像的装置 | |
US20200348414A1 (en) | Underwater imaging system with multiple connected autonomous underwater vehicles | |
JP3515751B2 (ja) | 海底三次元構造の再構成方法 | |
CN108227744B (zh) | 一种水下机器人定位导航系统及定位导航方法 | |
CN206546434U (zh) | 一种水下多维声学成像系统 | |
Negahdaripour | Epipolar geometry of opti-acoustic stereo imaging | |
CN103744085B (zh) | 水下机器人五分量测距声纳斜井三维成像系统及成像方法 | |
CN105974421A (zh) | 利用正交阵列形成无人船监控区域超声波三维图像的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170905 |