JP2020173213A - Sonar image processing device, sonar image processing method, and program - Google Patents

Sonar image processing device, sonar image processing method, and program Download PDF

Info

Publication number
JP2020173213A
JP2020173213A JP2019076326A JP2019076326A JP2020173213A JP 2020173213 A JP2020173213 A JP 2020173213A JP 2019076326 A JP2019076326 A JP 2019076326A JP 2019076326 A JP2019076326 A JP 2019076326A JP 2020173213 A JP2020173213 A JP 2020173213A
Authority
JP
Japan
Prior art keywords
sonar
sound velocity
images
underwater sound
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019076326A
Other languages
Japanese (ja)
Other versions
JP7259503B2 (en
Inventor
中村 義行
Yoshiyuki Nakamura
義行 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2019076326A priority Critical patent/JP7259503B2/en
Priority to FR2003291A priority patent/FR3095048B1/en
Publication of JP2020173213A publication Critical patent/JP2020173213A/en
Application granted granted Critical
Publication of JP7259503B2 publication Critical patent/JP7259503B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8902Side-looking sonar
    • G01S15/8904Side-looking sonar using synthetic aperture techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52004Means for monitoring or calibrating

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

To estimate an underwater sound velocity with good accuracy and suppress a decrease in sonar image quality.SOLUTION: A sonar image processing device 10 pertaining to an embodiment comprises: a data acquisition unit 11 for acquiring a plurality of sonar data in a plurality of squint azimuths and a measured underwater sound velocity; an image processing unit 12 for visualizing the plurality of sonar data using the measured underwater sound velocity and generating a plurality of sonar images; a point image detection unit 13 for detecting a point image in each of the plurality of sonar images; a point image extraction unit 14 for extracting a point image pair, out of the point images, that are located at almost the same position throughout the plurality of sonar images; and a sound velocity estimation unit 15 for calculating a difference in the range-azimuth coordinates of the point image pair and estimating the corrected underwater sound velocity that minimizes the difference.SELECTED DRAWING: Figure 3

Description

本発明は、ソーナー画像処理装置、ソーナー画像処理方法及びプログラムに関する。 The present invention relates to a sonar image processing apparatus, a sonar image processing method and a program.

海底を探索する技術として、サイドスキャンソーナー(Side-Scan Sonar:SSS)が広く知られている。サイドスキャンソーナーは、指向性の高い音響ビームを放射し、海底面の凹凸に応じた音響的陰影を画像化する。また、サイドスキャンソーナーのアジマス方向の分解能を向上する処理として合成開口処理を適用した合成開口ソーナー(Synthetic Aperture Sonar:SAS)が知られている。 Side-Scan Sonar (SSS) is widely known as a technique for searching the seabed. The side scan sonar emits a highly directional acoustic beam to image acoustic shadows according to the unevenness of the seafloor. Further, a synthetic aperture sonar (SAS) to which a synthetic aperture treatment is applied is known as a process for improving the resolution of the side scan sonar in the azimuth direction.

サイドスキャンソーナーや合成開口ソーナー等のサイドスキャン方式のソーナーは、ソーナーの移動によって探索範囲を帯状に走査しながら、海底面の画像(海底地形マップ)を生成する。このように、ソーナーが連続的に音響送受信を行いながら直線的に進行することでデータを収集する方式をストリップマップ方式という(例えば、特許文献1)。 Side-scan sonars such as side-scan sonars and synthetic aperture sonars generate images of the seafloor (seafloor topography map) while scanning the search range in strips by moving the sonar. In this way, a method of collecting data by the sonar traveling linearly while continuously transmitting and receiving sound is called a strip map method (for example, Patent Document 1).

このようなソーナーにおいて、スキント(Squint)モードでは、ソーナーの進行方向と音響ビームが音響照射域へと向かう方向との角度(スキント角)を変化させて、同一エリアに対し複数のスキント方位で音響ビームが照射される。これにより、複数のスキント方位においてそれぞれ得られる複数のスキント画像に基づいて、多重化したマップを生成することができる。 In such a sonar, in the Squint mode, the angle (skint angle) between the direction of travel of the sonar and the direction in which the acoustic beam is directed toward the acoustic irradiation area is changed, and the sound is produced in a plurality of skint directions for the same area. The beam is irradiated. This makes it possible to generate a multiplexed map based on a plurality of skinned images obtained in each of the plurality of skinned directions.

複数のスキント方位で生成したマップを1つのマップに統合する場合、理想的には同一位置の点像は全てのスキント画像で同一位置に重なることになる。しかしながら、ソーナーでは水中音速の計測精度もしくは不確実性により、スキント画像ごとに点像位置がずれてしまうことがある。この問題は空間分解能の高い合成開口ソーナーにおいてより顕著に現れ、統合マップの画質が低下する。 When a map generated in a plurality of skinned directions is integrated into one map, ideally, point images at the same position overlap at the same position in all skinned images. However, with sonar, the point image position may shift for each skinned image due to the measurement accuracy or uncertainty of the underwater sound velocity. This problem is more pronounced in synthetic aperture sonars with high spatial resolution and reduces the image quality of the integrated map.

また、合成開口ソーナーでは、信号処理に用いる水中音速の精度が低いと処理利得が低下する。これは点像の場合では画像のフォーカスが甘くなる現象として現れ、本来は明瞭な点として見えるはずの画像がアジマス方向にぼやけて見えてしまう。従って、複数のスキント画像によるマップの統合だけでなく、単一のスキント画像の合成開口処理においても水中音速は可能な限り精度よく把握される必要がある。 Further, in the synthetic aperture sonar, if the accuracy of the underwater sound velocity used for signal processing is low, the processing gain decreases. In the case of a point image, this appears as a phenomenon in which the focus of the image becomes loose, and the image that should originally appear as a clear point appears blurred in the azimuth direction. Therefore, it is necessary to grasp the underwater sound velocity as accurately as possible not only in the integration of maps by a plurality of skinned images but also in the synthetic aperture processing of a single skinned image.

水中の音速の変化を補正する技術として、特許文献2には、SBL(Short Base Line)法により超音波の伝搬時間の測定に基づいて対象点の位置を算出する水中位置測定システムにおいて、水温や塩分密度の測定を行うことなく音速の変化を補正する技術が提案されている。特許文献2では、音速を仮定し、異なる超音波伝搬経路によって対象点の座標値を複数個算出し、所定の誤差範囲内で座標値が一致するまで音速の仮定値を変化させて座標値の算出を繰返し、誤差範囲内で座標値が一致したときの仮定値をもって音速の値としている。 As a technique for correcting changes in the speed of sound in water, Patent Document 2 describes water temperature and water temperature in an underwater position measurement system that calculates the position of a target point based on the measurement of ultrasonic wave propagation time by the SBL (Short Base Line) method. A technique for correcting changes in sound velocity without measuring the salt density has been proposed. In Patent Document 2, sound velocity is assumed, a plurality of coordinate values of the target point are calculated by different ultrasonic propagation paths, and the assumed value of sound velocity is changed until the coordinate values match within a predetermined error range to obtain the coordinate values. The calculation is repeated, and the assumed value when the coordinate values match within the error range is used as the sound velocity value.

特開2010−127771号公報JP-A-2010-127771 特開平09−127238号公報Japanese Unexamined Patent Publication No. 09-127238

特許文献2は、対象点に超音波パルスを発生するレスポンダを配置し、超音波パルスを受信する受信器4つの受信器をxy平面内に配置して、対象点のそれぞれ2つのx座標、y座標をSBL法によって算出しており、この技術をサイドスキャン方式のソーナーに適用することは想定されていない。 In Patent Document 2, a responder that generates an ultrasonic pulse is arranged at a target point, four receivers that receive the ultrasonic pulse are arranged in an xy plane, and two x-coordinates and y of the target point are respectively arranged. The coordinates are calculated by the SBL method, and it is not expected that this technique will be applied to a side scan type sonar.

本開示の目的は、上述した問題を鑑み、水中音速を精度よく推定し、ソーナー画像の画質低下を抑制することが可能な、ソーナー画像処理装置、ソーナー画像処理方法及びプログラムを提供することにある。 An object of the present disclosure is to provide a sonar image processing device, a sonar image processing method and a program capable of accurately estimating the underwater sound velocity and suppressing deterioration of the image quality of the sonar image in view of the above-mentioned problems. ..

本発明の一態様に係るソーナー画像処理装置は、複数のスキント方位における複数のソーナーデータと、測定された水中音速とを取得するデータ取得部と、測定された水中音速を用いて、複数の前記ソーナーデータを画像化して、複数のソーナー画像を生成する画像処理部と、複数の前記ソーナー画像のそれぞれにおける点像を検出する点像検出部と、前記点像のうち、複数の前記ソーナー画像に亘って略同一位置に位置する点像ペアを抽出する点像抽出部と、前記点像ペアのレンジ−アジマス座標の差分を計算し、前記差分を最小化する補正水中音速を推定する音速推定部とを備えるものである。 The sonar image processing apparatus according to one aspect of the present invention uses a plurality of sonar data in a plurality of skinned directions, a data acquisition unit for acquiring the measured underwater sound velocity, and the measured underwater sound velocity. An image processing unit that images sonar data to generate a plurality of sonar images, a point image detection unit that detects a point image in each of the plurality of sonar images, and a plurality of the sonar images among the point images. A point image extraction unit that extracts point image pairs located at substantially the same position, and a sound velocity estimation unit that calculates the difference between the range-azimus coordinates of the point image pair and estimates the corrected underwater sound velocity that minimizes the difference. It is equipped with.

本発明の一態様に係るソーナー画像処理方法は、複数のスキント方位における複数のソーナーデータと、測定された水中音速とを取得し、測定された水中音速を用いて、複数の前記ソーナーデータを画像化して、複数のソーナー画像を生成し、複数の前記ソーナー画像のそれぞれにおける点像を検出し、前記点像のうち、複数の前記ソーナー画像に亘って略同一位置に位置する点像ペアを抽出し、前記点像ペアのレンジ−アジマス座標の差分を計算し、前記差分を最小化する補正水中音速を推定する。 The sonar image processing method according to one aspect of the present invention acquires a plurality of sonar data in a plurality of skinted directions and a measured underwater sound velocity, and uses the measured underwater sound velocity to image a plurality of the sonar data. To generate a plurality of sonar images, detect a point image in each of the plurality of sonar images, and extract a point image pair located at substantially the same position over the plurality of the sonar images from the point images. Then, the difference between the range-azimus coordinates of the point image pair is calculated, and the corrected underwater sound velocity that minimizes the difference is estimated.

本発明の一態様に係るプログラムは、複数のスキント方位における複数のソーナーデータと、測定された水中音速とを取得する処理と、測定された水中音速を用いて、複数の前記ソーナーデータを画像化して、複数のソーナー画像を生成する処理と、複数の前記ソーナー画像のそれぞれにおける点像を検出する処理と、前記点像のうち、複数の前記ソーナー画像に亘って略同一位置に位置する点像ペアを抽出する処理と、前記点像ペアのレンジ−アジマス座標の差分を計算し、前記差分を最小化する補正水中音速を推定する処理とをコンピュータに実行させる。 The program according to one aspect of the present invention images a plurality of the sonar data by using a process of acquiring a plurality of sonar data in a plurality of skinned directions and a measured underwater sound velocity and the measured underwater sound velocity. A process of generating a plurality of sonar images, a process of detecting a point image in each of the plurality of sonar images, and a point image of the point images located at substantially the same position over the plurality of the sonar images. The computer is made to execute the process of extracting the pair and the process of calculating the difference between the range-azimus coordinates of the point image pair and estimating the corrected underwater sound velocity that minimizes the difference.

本発明によれば、水中音速を精度よく推定し、ソーナー画像の画質低下を抑制することが可能な、ソーナー画像処理装置、ソーナー画像処理方法及びプログラムを提供することが可能となる。 According to the present invention, it is possible to provide a sonar image processing device, a sonar image processing method and a program capable of accurately estimating the underwater sound velocity and suppressing deterioration of the image quality of the sonar image.

サイドスキャン方式のソーナーによって海底を探索する様子を示す図である。It is a figure which shows the state of exploring the seabed by a side scan type sonar. 図1をアジマス方向から見た図である。FIG. 1 is a view seen from the azimuth direction. 実施の形態にかかるソーナー画像処理装置の構成を示す図である。It is a figure which shows the structure of the sonar image processing apparatus which concerns on embodiment. 実施の形態1にかかるソーナー画像処理方法を示すフロー図である。It is a flow chart which shows the sonar image processing method which concerns on Embodiment 1. FIG. スキント画像の点像を検出する処理と、検出された点像のうち、複数のスキント画像に亘って略同一位置に位置する点像ペアを抽出する処理とを説明する図である。It is a figure explaining the process of detecting the point image of a skinned image, and the process of extracting a point image pair located at substantially the same position over a plurality of skinned images from the detected point images. 水中音速の推定処理を説明する図である。It is a figure explaining the estimation process of the underwater sound velocity. 実施の形態2にかかるソーナー画像処理方法を示すフロー図である。It is a flow chart which shows the sonar image processing method which concerns on Embodiment 2. 実施の形態3にかかるソーナー画像処理方法を示すフロー図である。It is a flow chart which shows the sonar image processing method which concerns on Embodiment 3. 実施の形態4にかかるソーナー画像処理方法を示すフロー図である。It is a flow chart which shows the sonar image processing method which concerns on Embodiment 4. 比較例のソーナー画像処理方法を示すフロー図である。It is a flow chart which shows the sonar image processing method of the comparative example. 比較例において、3つのスキント方位における音響ビームと目標物との関係と、3つのスキント画像を統合した状態を示す図である。In the comparative example, it is a figure which shows the relationship between the acoustic beam and the target object in three skint directions, and the state which integrated the three skint images. 比較例の問題点を説明する図である。It is a figure explaining the problem of the comparative example. 比較例の問題点を説明する図である。It is a figure explaining the problem of the comparative example. 比較例の問題点を説明する図である。It is a figure explaining the problem of the comparative example.

以下、図面を参照して本発明の実施の形態について説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。また、様々な処理を行う機能ブロックとして図面に記載される各要素は、ハードウェア的には、CPU、メモリ、その他の回線で構成することができる。また、本発明は、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。従って、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In order to clarify the explanation, the following description and drawings have been omitted or simplified as appropriate. Further, each element described in the drawing as a functional block that performs various processes can be configured by a CPU, a memory, and other lines in terms of hardware. Further, the present invention can also realize arbitrary processing by causing a CPU (Central Processing Unit) to execute a computer program. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any of them.

また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-Transitory computer Readable Medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage Medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(Transitory computer Readable Medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 In addition, the programs described above can be stored and supplied to a computer using various types of non-transitory computer readable media. Non-temporary computer-readable media include various types of tangible storage media. Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, It includes a CD-R / W and a semiconductor memory (for example, a mask ROM, a PROM (Programmable ROM), an EPROM (Erasable PROM), a flash ROM, and a RAM (Random Access Memory)). The program may also be supplied to the computer by various types of Transitory computer Readable Medium. Examples of temporary computer-readable media include electrical, optical, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

本発明は、音響ビームを用いて海底を探索するソーナーの画像処理装置、画像処理方法及びプログラムに関する。まず、図1、2を参照して、サイドスキャン方式のソーナーによって海底を探索する例について説明する。図1は、サイドスキャン方式のソーナーによって海底を探索する様子を示す図である。 The present invention relates to a sonar image processing device, an image processing method, and a program for searching the seabed using an acoustic beam. First, an example of searching the seabed by a side scan type sonar will be described with reference to FIGS. 1 and 2. FIG. 1 is a diagram showing a state of searching the seabed by a side scan type sonar.

ソーナーSの送受信器は、水中を航走するUUV(Unmanned Underwater Vehicle)等の水中ビークル(以下、単にビークルとする)Vに搭載されている。なお、水上艇からソーナーの送受信器が搭載された曳航体を牽引し、水深を制御しながら探索を行うことも広く行われている。図1に示すように、海底から海面までの距離を海域深度とする。また、海底からビークルVまでの距離をビークル海底高度とし、海面からビークルVまでの距離をビークル深度とする。アジマス方向は、ビークルVの進行方向、すなわち、ソーナーSの送受信器の移動方向を示す。 The transmitter / receiver of the sonar S is mounted on an underwater vehicle (hereinafter, simply referred to as a vehicle) V such as a UUV (Unmanned Underwater Vehicle) that navigates underwater. It is also widely practiced to tow a towed body equipped with a sonar transmitter / receiver from a surface boat and perform a search while controlling the water depth. As shown in FIG. 1, the distance from the seabed to the sea surface is defined as the sea area depth. Further, the distance from the seabed to the vehicle V is defined as the vehicle seabed altitude, and the distance from the sea surface to the vehicle V is defined as the vehicle depth. The azimuth direction indicates the traveling direction of the vehicle V, that is, the moving direction of the transmitter / receiver of the sonar S.

図2は、図1をアジマス方向から見た図である。ここでは、レンジ方向は水平面内でビークルVの進行方向(アジマス方向)に直角な方向であるものとする。ソーナーSの送受信器は、音響ビームの照射方向、受波方向を海底から一定の角度に向くようにして設置される。なお、音響ビームの照射方向がスラントレンジ方向であり、これを海底面に投影した方向がグランドレンジ方向である。スラントレンジ方向とグランドレンジ方向とは、音響ビームの照射角度の余弦を乗除することでお互いに一対一に対応する。また、サイドスキャン方式のソーナーの海底におけるレンジ方向の探査範囲は、スワス幅(swath width)である。 FIG. 2 is a view of FIG. 1 from the azimuth direction. Here, it is assumed that the range direction is a direction perpendicular to the traveling direction (azimuth direction) of the vehicle V in the horizontal plane. The transmitter / receiver of the sonar S is installed so that the irradiation direction and the wave receiving direction of the acoustic beam are directed to a certain angle from the seabed. The irradiation direction of the acoustic beam is the slant range direction, and the direction in which this is projected onto the seabed is the ground range direction. The slant range direction and the ground range direction have a one-to-one correspondence with each other by multiplying and dividing the cosine of the irradiation angle of the acoustic beam. In addition, the exploration range in the range direction on the seabed of the side scan type sonar is the swath width.

実施の形態では、ソーナーの進行方向(アジマス方向)と音響ビームが音響照射域へと向かう方向(スラントレンジ方向)との角度(スキント角)を変化させて、同一エリアに対し複数のスキント方位で音響ビームが照射される。複数のスキント方位においてそれぞれ得られる複数のソーナー画像(スキント画像)に基づいて、多重化したマップが生成される。 In the embodiment, the angle (skin azimuth) between the direction of travel of the sonar (azimuth direction) and the direction of the acoustic beam toward the acoustic irradiation area (slant range direction) is changed in a plurality of skin azimuths with respect to the same area. An acoustic beam is emitted. A multiplexed map is generated based on a plurality of sonar images (skinned images) obtained in each of a plurality of skinned directions.

ビークルVは音速計を備え、ソーナー運用中にも水中音速を常時計測可能である。図2に示すように、水中の音速は深度によって変化しており、ビークルVに搭載された音速計により、ビーグル深度の水中音速を直接測定することができる。 Vehicle V is equipped with a sound velocity meter and can constantly measure the speed of sound underwater even during sonar operation. As shown in FIG. 2, the speed of sound in water changes depending on the depth, and the speed of sound in water at the beagle depth can be directly measured by a sound velocity meter mounted on the vehicle V.

ここで、図10を参照して、比較例のソーナー画像処理方法について説明する。ここでは、3つのスキント方位(squint+α、squint0、squint−α)のスキント画像によるマップを統合して、1つの統合マップを生成する例について説明する。なお、フロー図において、各スキント方位の(squint+α、squint0、squint−α)のスキントデータ、スキント画像に対する処理について、各ステップの符号に(+α)、(0)、(−α)の符号を追加している。 Here, a sonar image processing method of a comparative example will be described with reference to FIG. Here, an example of generating one integrated map by integrating maps with skint images of three skint directions (squint + α, squint0, squint−α) will be described. In the flow chart, for the processing of the skin data and skin image of (squint + α, squint 0, squint − α) of each skin orientation, the codes of (+ α), (0), and (−α) are added to the codes of each step. I'm adding.

図10に示すように、比較例のソーナー画像処理方法では、まず、3つのスキント方位のソーナーデータと、そのときのビーグル深度において測定された水中音速が取得される(ステップS101)。そして、3つのソーナーデータのそれぞれに対して、合成開口処理が実行され(ステップS102)、画像化処理が実行される(ステップS103)ことで、各スキント方位のソーナー画像(スキント画像)が生成される。 As shown in FIG. 10, in the sonar image processing method of the comparative example, first, the sonar data of the three skint directions and the underwater sound velocity measured at the beagle depth at that time are acquired (step S101). Then, a synthetic aperture process is executed (step S102) and an imaging process is executed (step S103) for each of the three sonar data, so that a sonar image (skinned image) of each skinned direction is generated. To.

合成開口処理は、ソーナー画像の生成にあたり、進行方向(アジマス方向)の高分解能化を行うために合成開口帯域幅内の位相合成・積算を行う処理である。合成開口処理では、時間(t)が入力され、レンジ方向とアジマス方向の2次元座標(R、X)が生成される。合成開口処理として、例えば、一般的なレンジ・マイグレーション・アルゴリズムによる合成開口処理を用いることができる。また、合成開口処理は、時間軸信号に動揺補正関数を乗算することによる動揺補正処理等を含んでいてもよい。このようにして得られた3つのスキント画像を1つの海底地形マップに統合するsquint統合処理を行うことで(ステップS104)、統合マップが得られる。 The synthetic aperture processing is a process of performing phase synthesis / integration within the synthetic aperture bandwidth in order to increase the resolution in the traveling direction (azimuth direction) when generating a sonar image. In the synthetic aperture process, the time (t) is input and the two-dimensional coordinates (R, X) in the range direction and the azimuth direction are generated. As the synthetic aperture processing, for example, a synthetic aperture processing by a general range migration algorithm can be used. Further, the synthetic aperture processing may include a sway correction process or the like by multiplying the time axis signal by the sway correction function. By performing the squint integration process for integrating the three skinted images thus obtained into one seafloor topography map (step S104), an integrated map can be obtained.

図11に、比較例において、3つのスキント方位における音響ビームと目標物Tの点像との関係と、3つのスキント画像を統合した状態を示す。図11に示すように、3つのスキント画像が重畳した領域(3−squint重畳領域)では、理想的には同一位置の点像は全てのスキント画像で同一位置に重なることになる。 FIG. 11 shows the relationship between the acoustic beam and the point image of the target T in the three skint directions and the state in which the three skint images are integrated in the comparative example. As shown in FIG. 11, in the region where the three skinned images are superimposed (3-squint superimposed region), the point images at the same position ideally overlap at the same position in all the skinned images.

図12には、実際の水中音速cの場合の、各スキント方位squint+α、squint0、squint−αのレンジ方向の座標R、R、Rが示されている。
スキント方位squint+αのときのレンジ方向の座標Rは、式(1)のように表される。

Figure 2020173213
スキント方位squint0のときのレンジ方向の座標Rは、式(2)のように表される。
Figure 2020173213
スキント方位squint−αのときのレンジ方向の座標Rは、式(3)のように表される。
Figure 2020173213
図12に示すように、実際の水中音速では、3つのスキント画像における座標R、R、Rは一致する。 In FIG. 12, the coordinates R + , R 0 , and R − in the range direction of each skint direction squint + α, squint 0, and squint − α in the case of the actual underwater sound velocity c are shown.
The coordinates R + in the range direction when the skint direction squint + α is expressed as in Eq. (1).
Figure 2020173213
The coordinates R 0 in the range direction when the skinned direction squint 0 is expressed as in Eq. (2).
Figure 2020173213
The coordinates R − in the range direction when the skint direction squint − α is expressed as in Eq. (3).
Figure 2020173213
As shown in FIG. 12, at the actual underwater speed of sound, the coordinates R + , R 0 , and R in the three skinted images match.

しかしながら、図2に示すように、水中の音速は深度によって変化しており、ビークルVに搭載された音速計では運用深度以外の水中音速を直接測定することはできない。また、ソーナーでは水中音速の測定精度もしくは不確実性により、測定した水中音速が実際の水中音速と異なる場合がある。 However, as shown in FIG. 2, the speed of sound in water changes depending on the depth, and the speed of sound in water other than the operating depth cannot be directly measured by the sound velocity meter mounted on the vehicle V. Further, in the sonar, the measured underwater sound velocity may differ from the actual underwater sound velocity due to the measurement accuracy or uncertainty of the underwater sound velocity.

図13には測定した水中音速cが実際の水中音速cよりも大きい場合(c>c)、図14には測定した水中音速cが実際の水中音速cよりも小さい場合(c<c)の、各スキント方位squint+α、squint0、squint−αのレンジ方向の座標Rm+、Rm0、Rm−が示されている。 If greater than the actual water sound speed c underwater sound velocity c m as measured in FIG. 13 (c m> c), it is less than the actual water sound speed c underwater sound velocity c m as measured in FIG. 14 (c m The coordinates R m + , R m0 , and R m- in the range direction of each skint direction squint + α, squint0, and squint−α in <c) are shown.

図13、14に示すように、測定した水中音速cが実際の水中音速cと異なると、スキント画像ごとに目標物Tの点像位置がずれてしまう。この問題は空間分解能の高い合成開口ソーナーにおいてより顕著に現れ、統合マップの画質が低下する。 As shown in FIGS. 13 and 14, if the measured underwater sound velocity cm is different from the actual underwater sound velocity c, the point image position of the target object T shifts for each skinned image. This problem is more pronounced in synthetic aperture sonars with high spatial resolution and reduces the image quality of the integrated map.

ソーナーの運用に先立って、代表的な地点でBT(Bathy Thermograph)等により水温測定を行い、その測定結果に基づいて深度と音速との関係から、水中音速を算出することもできる。しかし、ビークルVが航走する直下を計測できるわけではなく、更には時間の経過によって海域全体の音速分布もまた変化する。 Prior to the operation of the sonar, the water temperature can be measured at a typical point by a BT (Bathy Thermograph) or the like, and the underwater sound velocity can be calculated from the relationship between the depth and the sound velocity based on the measurement result. However, it is not possible to measure the area directly under the vehicle V, and the sound velocity distribution in the entire sea area also changes with the passage of time.

この状況を根本的に解決するためには、ビークルVが運用中に自身の直下の音速分布を直接計測できるセンサを同時運用する必要がある。しかし、この方法の実現には様々なコストや運用制限が発生し、実用的ではない。このような問題に鑑み、本発明者は以下の実施の形態を考案した。 In order to fundamentally solve this situation, it is necessary to simultaneously operate a sensor capable of directly measuring the sound velocity distribution directly under the vehicle V during operation. However, the realization of this method is not practical due to various costs and operational restrictions. In view of such problems, the present inventor has devised the following embodiments.

図3は、実施の形態にかかるソーナー画像処理装置10の構成を示す図である。図1に示すように、ソーナー画像処理装置10は、複数のスキント方位における複数のソーナーデータと測定された水中音速とを取得するデータ取得部11と、測定された水中音速を用いて、複数のソーナーデータを画像化して、複数のソーナー画像を生成する画像処理部12と、複数のソーナー画像のそれぞれにおける点像を検出する点像検出部13と、検出した点像のうち、複数のソーナー画像に亘って略同一位置に位置する点像ペアを抽出する点像抽出部14と、点像ペアのレンジ−アジマス座標の差分を計算し、差分を最小化する補正水中音速を推定する音速推定部15とを備えるものである。これにより、水中音速を精度よく推定し、ソーナー画像の画質低下を抑制することが可能となる。以下、具体的な実施の形態について説明する。 FIG. 3 is a diagram showing a configuration of the sonar image processing device 10 according to the embodiment. As shown in FIG. 1, the sonar image processing device 10 uses a plurality of data acquisition units 11 for acquiring a plurality of sonar data and measured underwater sound velocities in a plurality of skinned directions, and a plurality of measured underwater sound velocities. An image processing unit 12 that images sonar data to generate a plurality of sonar images, a point image detection unit 13 that detects a point image in each of the plurality of sonar images, and a plurality of sonar images among the detected point images. A point image extraction unit 14 that extracts point image pairs located at substantially the same position, and a sound velocity estimation unit that estimates the corrected underwater sound velocity that minimizes the difference by calculating the difference between the range-azimus coordinates of the point image pair. It is provided with 15. This makes it possible to accurately estimate the speed of sound underwater and suppress deterioration in the image quality of the sonar image. Hereinafter, specific embodiments will be described.

実施の形態1.
図4は、実施の形態1にかかるソーナー画像処理方法を示すフロー図である。なお、ここでは、比較例と同様に、3つのスキント方位(squint+α、squint0、squint−α)のスキント画像によるマップを統合して、1つの統合マップを生成する例について説明する。
Embodiment 1.
FIG. 4 is a flow chart showing a sonar image processing method according to the first embodiment. Here, as in the comparative example, an example in which maps based on skint images of three skint directions (squint + α, squint0, squint−α) are integrated to generate one integrated map will be described.

図4に示すように、実施の形態1のソーナー画像処理方法では、まず、データ取得部11により、3つのスキント方位のソーナーデータと、そのときのビーグル深度において測定された水中音速が取得される(ステップS1)。そして、3つのソーナーデータのそれぞれに対して、画像処理部12により、合成開口処理が実行され(ステップS2)、画像化処理が実行される(ステップS3)ことで、ソーナー画像が生成される。各スキント方位のソーナー画像をそれぞれスキント画像とする。 As shown in FIG. 4, in the sonar image processing method of the first embodiment, first, the data acquisition unit 11 acquires the sonar data of the three skint directions and the underwater sound velocity measured at the beagle depth at that time. (Step S1). Then, for each of the three sonar data, the image processing unit 12 executes a synthetic aperture process (step S2) and an imaging process (step S3) to generate a sonar image. Let the sonar image of each skinned direction be the skinned image.

次に、点像検出部13により、これら3つのスキント画像における点像が検出される(ステップS4)。図5には測定した水中音速cの場合の、各スキント方位squint+α、squint0、squint−αのスキント画像における目標物Tの点像のレンジ方向の座標Rm+、Rm0、Rm−が示されている。 Next, the point image detection unit 13 detects the point images in these three skinned images (step S4). In the case of measured water sound speed c m in FIG. 5, the squint orientation squint + α, squint0, squint- α range direction coordinates of the point image of the target T in the squint image R m +, R m0, R m- is shown Has been done.

スキント方位squint+αのときのレンジ方向の座標Rは、式(4)のように表される。

Figure 2020173213
スキント方位squint0のときのレンジ方向の座標Rは、式(5)のように表される。
Figure 2020173213
スキント方位squint−αのときのレンジ方向の座標Rは、式(6)のように表される。
Figure 2020173213
図5に示す例では、測定水中音速cが実際の水中音速cよりも小さく、3つのスキント画像における目標物Tの点像が一致していない。 The coordinates R + in the range direction when the skint direction squint + α is expressed as in Eq. (4).
Figure 2020173213
The coordinates R 0 in the range direction when the skinned direction squint 0 is expressed as in the equation (5).
Figure 2020173213
The coordinates R − in the range direction when the skint direction squint − α is expressed as in Eq. (6).
Figure 2020173213
In the example shown in FIG. 5, the measured underwater sound velocity cm is smaller than the actual underwater sound velocity c, and the point images of the target objects T in the three skinned images do not match.

そこで、ステップS5では、水中音速の補正に使用するために、検出された点像のうち、2以上の複数のソーナー画像に亘って略同一位置に位置する点像ペアが抽出される(ステップS5)。点像ペアの抽出は、例えば、点像抽出部14が画像処理プログラムを実行することにより行われてもよく、オペレータが手動で点像ペアを指定することにより行われてもよい。点像ペアとしては、例えば、複数のスキント画像にわたって捉えられている同一の点散乱体エコーが想定され得る。ここでは、点像ペアとして、スキント方位squint+αとsquint0の点像ペアと、スキント方位squint−αとsquint0の点像ペアとが抽出されたものとする。 Therefore, in step S5, among the detected point images, a point image pair located at substantially the same position over two or more sonar images is extracted for use in correcting the underwater sound velocity (step S5). ). The point image pair extraction may be performed, for example, by the point image extraction unit 14 executing an image processing program, or by the operator manually designating the point image pair. As the point image pair, for example, the same point scatterer echo captured over a plurality of skinned images can be assumed. Here, it is assumed that as the point image pair, a point image pair having the skinted directions squint + α and squint0 and a point image pair having the skinned directions squint−α and squint0 are extracted.

そして、音速推定部15により、抽出された点像ペアのレンジ−アジマス座標の差分を計算し、該差分を最小化する補正水中音速を推定する音速推定処理が実行される(ステップS6)。各スキント画像における目標物Tの点像の座標を図6に示す。図6に示すように、スキント方位squint+αにおける点像の座標は[rm+、xm+]、スキント方位squint0における点像の座標は[Rm0、X]、スキント方位squint−αにおける点像の座標[rm−、xm−]とする。 Then, the sound velocity estimation unit 15 calculates the difference between the range-azimus coordinates of the extracted point image pair, and executes the sound velocity estimation process for estimating the corrected underwater sound velocity that minimizes the difference (step S6). The coordinates of the point image of the target object T in each skinned image are shown in FIG. As shown in FIG. 6, the coordinates of the point image in the skint direction squint + α are [rm + , x m + ], the coordinates of the point image in the skint direction squint 0 are [R m0 , X 0 ], and the coordinates of the point image in the skint direction squint−α. Let the coordinates be [ rm- , x m- ].

スキント方位squint+αのときの、ソーナーSの送受信器のアジマス方向の位置Xは、式(7)で表される。

Figure 2020173213
スキント方位squint−αのときの、ソーナーSの送受信器のアジマス方向の位置Xは、式(8)で表される。
Figure 2020173213
The position X + of the sonar S transmitter / receiver in the azimuth direction when the skinned azimuth squint + α is expressed by the equation (7).
Figure 2020173213
The position X − in the azimuth direction of the transmitter / receiver of the sonar S when the skin azimuth squint − α is expressed by the equation (8).
Figure 2020173213

音速推定処理では、以下の演算が実行される。まず、測定された水中音速cを用いて、ステップS5で確定した点像のレンジ−アジマス座標が計算される。そして、水中音速をと仮定し、このときの、各スキント方位の点像の座標が算出される。仮定した水中音速をcとする。 In the sound velocity estimation process, the following operations are executed. First, the range-azimuth coordinates of the point image determined in step S5 are calculated using the measured underwater sound velocity cm . Then, assuming the speed of sound underwater, the coordinates of the point image of each skint direction at this time are calculated. The assumed water sound speed and c c.

水中音速cのときの、スキント方位squint0の点像の座標[Rc0、X]は、式(9)のように表される。

Figure 2020173213
When the water sound speed c c, the coordinates of the point image squint orientation squint0 [R c0, X 0] is expressed by the equation (9).
Figure 2020173213

水中音速cのときの、スキント方位squint−αの点像の座標[rc−、xc−]は、式(10)のように表される。

Figure 2020173213
When the water sound speed c c, the coordinates of the point image squint orientation squint-α [r c-, x c-] is expressed by the equation (10).
Figure 2020173213

水中音速cのときの、スキント方位squint+αの点像の座標[rc+、xc+]は、式(11)のように表される。

Figure 2020173213
The coordinates [rc + , x c + ] of the point image of the skint direction squint + α at the speed of sound c c underwater are expressed by the equation (11).
Figure 2020173213

そして、抽出された点像ペアのレンジ−アジマス座標の差分が計算され、該差分を最小化する補正水中音速が推定される。
点像ペアのレンジ−アジマス座標の差分は、以下の評価関数で表される。

Figure 2020173213
Then, the difference between the range-azimus coordinates of the extracted point image pair is calculated, and the corrected underwater sound velocity that minimizes the difference is estimated.
The difference between the range-azimuth coordinates of the point image pair is expressed by the following evaluation function.
Figure 2020173213

そして、以下の式(13)で、複数のスキント画像間の点像の座標の差分が最小となる水中音速が算出され、これが補正水中音速とされる。式(13)のF(C)が最小となる水中音速Cは、数値解析的に求めることができる。また、例えば、水中音速を複数個仮定し、仮定した水中音速のうち、複数のスキント画像間の点像の座標の差分が最も小さくなる値を、補正水中音速としてもよい。

Figure 2020173213
Then, the underwater sound velocity at which the difference between the coordinates of the point images between the plurality of skinned images is minimized is calculated by the following equation (13), and this is used as the corrected underwater sound velocity. The underwater sound velocity C c , which minimizes F (C c ) in equation (13), can be obtained numerically. Further, for example, a plurality of underwater sound velocities are assumed, and among the assumed underwater sound velocities, the value at which the difference in the coordinates of the point images between the plurality of skinned images is the smallest may be used as the corrected underwater sound velocity.
Figure 2020173213

画像処理部12は、このようにして得られた補正水中音速を用いて、ステップS1で得られた各スキント方位のソーナーデータを再画像化する(ステップS7)。すなわち、画像処理部12は、補正水中音速を用いて、複数のソーナーデータを再画像化して、複数の再画像化ソーナー画像を生成する再画像化処理部の役割を果たす。これにより、単一のスキント画像において水中音速が限り精度よく把握される。 The image processing unit 12 reimages the sonar data of each skinned direction obtained in step S1 by using the corrected underwater sound velocity thus obtained (step S7). That is, the image processing unit 12 plays the role of a reimaging processing unit that reimages a plurality of sonar data using the corrected underwater sound velocity to generate a plurality of reimaged sonar images. As a result, the underwater speed of sound can be grasped as accurately as possible in a single skinned image.

そして、実施の形態1では、画像処理部12は、この再画像化されたスキント画像を統合してSquint統合処理を行う(ステップS8)。従って、画像処理部12は、複数の再画像化ソーナー画像を統合する統合処理部の役割をも果たす。なお、再画像化処理部、統合処理部を画像処理部12とは別に設けてもよい。 Then, in the first embodiment, the image processing unit 12 integrates the reimaged skin image and performs the Squint integration process (step S8). Therefore, the image processing unit 12 also serves as an integrated processing unit that integrates a plurality of reimaged sonar images. The reimaging processing unit and the integrated processing unit may be provided separately from the image processing unit 12.

このように、実施の形態によれば、より精度の高い補正水中音速を得ることができる。画像化処理及びSquint統合処理に、補正水中音速を用いることで、統合後の海底地形マップの目標物Tの位置ずれを改善することができ、より鮮明な統合マップを得ることが可能となる。 As described above, according to the embodiment, a more accurate corrected underwater sound velocity can be obtained. By using the corrected underwater sound velocity for the imaging process and the Squint integration process, it is possible to improve the misalignment of the target T on the seafloor topography map after integration, and it is possible to obtain a clearer integrated map.

実施の形態2.
図7は、実施の形態2にかかるソーナー画像処理方法を示すフロー図である。実施の形態2では、実施の形態1の再画像化処理(ステップS7)の代わりに、以下に説明するステップS10〜S12の処理が行われる。図7において、図4と同一の処理には、同一の符号が付されている。
Embodiment 2.
FIG. 7 is a flow chart showing the sonar image processing method according to the second embodiment. In the second embodiment, instead of the reimaging process (step S7) of the first embodiment, the processes of steps S10 to S12 described below are performed. In FIG. 7, the same processes as those in FIG. 4 are designated by the same reference numerals.

実施の形態では、音速推定処理(ステップS6)の後に、再度、3つのスキント方位における補正ソーナーデータと、補正水中音速が取得される(ステップS10)。そして、この補正水中音速を用いて、3つの補正ソーナーデータのそれぞれに対して、画像処理部12により、合成開口処理が実行され(ステップS11)、画像化処理が実行される(ステップS12)。これにより、補正ソーナー画像が得られる。そして、ステップS8では、各スキント方位の補正ソーナー画像を統合して、統合マップが生成される。 In the embodiment, after the sound velocity estimation process (step S6), the corrected sonar data in the three skinted directions and the corrected underwater sound velocity are acquired again (step S10). Then, using this corrected underwater sound velocity, the image processing unit 12 executes a synthetic aperture process (step S11) and an imaging process (step S12) for each of the three corrected sonar data. As a result, a corrected sonar image is obtained. Then, in step S8, the corrected sonar images of each skinned orientation are integrated to generate an integrated map.

このように、実施の形態2では、実施の形態1と同様に、統合マップにおける点像の位置ずれを改善し、より鮮明な統合マップを得ることができる。さらに、実施の形態2では、補正水中音速を用いて、合成開口処理を行い、補正ソーナー画像を生成しているため、点像のフォーカスを改善することが可能となる。 As described above, in the second embodiment, the misalignment of the point image in the integrated map can be improved and a clearer integrated map can be obtained, as in the first embodiment. Further, in the second embodiment, since the synthetic aperture processing is performed using the corrected underwater sound velocity to generate the corrected sonar image, it is possible to improve the focus of the point image.

実施の形態3.
図8は、実施の形態3にかかるソーナー画像処理方法を示すフロー図である。実施の形態3では、実施の形態1のステップS6とステップS7との間に、補正水中音速が収束したか否かを判定する処理(ステップS20)が行われる。
Embodiment 3.
FIG. 8 is a flow chart showing the sonar image processing method according to the third embodiment. In the third embodiment, a process (step S20) of determining whether or not the corrected underwater sound velocity has converged is performed between the steps S6 and S7 of the first embodiment.

上述のように、ステップS6では、水中音速を複数仮定し、仮定した水中音速のうち複数のスキント画像間の点像の座標の差分が最小となる値が補正水中音速とされる。ステップS20では、この補正水中音速が、収束したか否かが判断される。収束の判定としては、例えば、複数のスキント画像間の点像の座標の差分や、繰り返し取得される補正水中音速の前後の変分等を用いて閾値判定をすることができる。 As described above, in step S6, a plurality of underwater sound velocities are assumed, and the value that minimizes the difference in the coordinates of the point images between the plurality of skinned images among the assumed underwater sound velocities is defined as the corrected underwater sound velocity. In step S20, it is determined whether or not the corrected underwater sound velocity has converged. As the determination of convergence, for example, the threshold value can be determined by using the difference in the coordinates of the point image between the plurality of skinned images, the variation before and after the corrected underwater sound velocity that is repeatedly acquired, and the like.

補正水中音速が収束した場合(ステップS20、YES)、得られた補正水中音速を用いて、ステップS1で得られた各スキント方位のソーナーデータを再画像化する(ステップS7)。一方、補正水中音速が収束しない場合(ステップS20)、ステップS1に戻り、再度、3つのスキント方位におけるソーナーデータと、収束の判定に用いられた補正水中音速が取得される。そして、この収束の判定に用いられた補正水中音速を用いて、該ソーナーデータに基づく新たな補正水中音速の推定が実行される。以降、ステップS20において補正水中音速が収束するまで、ステップS1〜S6の処理が繰り返し行われる。 When the corrected underwater sound velocity has converged (step S20, YES), the obtained corrected underwater sound velocity is used to reimage the sonar data of each skinned direction obtained in step S1 (step S7). On the other hand, when the corrected underwater sound velocity does not converge (step S20), the process returns to step S1 and the sonar data in the three skinted directions and the corrected underwater sound velocity used for determining the convergence are acquired again. Then, using the corrected underwater sound velocity used for determining the convergence, a new estimation of the corrected underwater sound velocity based on the sonar data is executed. After that, the processes of steps S1 to S6 are repeated until the corrected underwater sound velocity converges in step S20.

このように、音速推定結果に対して収束判定を行うことで、さらに補正水中音速の精度を高めることができる。これにより、各スキント画像における点像のフォーカスや、統合マップにおける点像の位置ずれをさらに改善することが可能となる。 By performing the convergence test on the sound velocity estimation result in this way, the accuracy of the corrected underwater sound velocity can be further improved. This makes it possible to further improve the focus of the point image in each skinned image and the misalignment of the point image in the integrated map.

実施の形態4.
図9は、実施の形態4にかかるソーナー画像処理方法を示すフロー図である。図9では、5つのスキント方位(squint+β、squint+α、squint0、squint−α、squint−β)のスキント画像によるマップを統合して、1つの統合マップを生成する例が示されている。なお、5つのスキント画像に対する処理は、実施の形態1と同様である。このように、スキント方位の数を増加させた場合でも、同様の効果が得られる。
Embodiment 4.
FIG. 9 is a flow chart showing the sonar image processing method according to the fourth embodiment. FIG. 9 shows an example of generating one integrated map by integrating maps with skint images of five skint directions (squint + β, squint + α, squint0, squint−α, squint−β). The processing for the five skinned images is the same as that in the first embodiment. In this way, the same effect can be obtained even when the number of skinned directions is increased.

以上説明したように、実施の形態によれば、2つ以上の複数のスキント方位で生成したマップの点像のフォーカスや位置ずれを補正し、このマップに基づく統合マップの画質の低下を抑制することが可能となる。 As described above, according to the embodiment, the focus and misalignment of the point image of the map generated in two or more plurality of skinned directions are corrected, and the deterioration of the image quality of the integrated map based on this map is suppressed. It becomes possible.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、実施の形態4の5つのスキント画像に対し、実施の形態2又は実施の形態3の処理を適用してもよい。また、5より多いスキント画像に対して、実施の形態1、2、3のいずれの処理を適用してもよい。 The present invention is not limited to the above embodiment, and can be appropriately modified without departing from the spirit. For example, the processing of the second embodiment or the third embodiment may be applied to the five skinned images of the fourth embodiment. Further, any of the processes of the first, second, and third embodiments may be applied to more than five skinned images.

10 ソーナー画像処理装置
11 データ取得部
12 画像処理部
13 点像検出部
14 点像抽出部
15 音速推定部
S ソーナー
V ビークル
T 目標物
10 Sonner image processing device 11 Data acquisition unit 12 Image processing unit 13 Point image detection unit 14 Point image extraction unit 15 Sound velocity estimation unit S Sonner V Vehicle T Target

Claims (10)

複数のスキント方位における複数のソーナーデータと、測定された水中音速とを取得するデータ取得部と、
測定された水中音速を用いて、複数の前記ソーナーデータを画像化して、複数のソーナー画像を生成する画像処理部と、
複数の前記ソーナー画像のそれぞれにおける点像を検出する点像検出部と、
前記点像のうち、複数の前記ソーナー画像に亘って略同一位置に位置する点像ペアを抽出する点像抽出部と、
前記点像ペアのレンジ−アジマス座標の差分を計算し、前記差分を最小化する補正水中音速を推定する音速推定部と、
を備える、
ソーナー画像処理装置。
A data acquisition unit that acquires multiple sonar data in multiple skinned directions and the measured underwater sound velocity,
An image processing unit that uses the measured underwater sound velocity to image a plurality of the sonar data to generate a plurality of sonar images.
A point image detection unit that detects a point image in each of the plurality of sonar images,
Among the point images, a point image extraction unit that extracts point image pairs located at substantially the same position over a plurality of the sonar images, and a point image extraction unit.
A sound velocity estimation unit that calculates the difference between the range-azimuth coordinates of the point image pair and estimates the corrected underwater sound velocity that minimizes the difference.
To prepare
Sonar image processing equipment.
前記補正水中音速が収束したか否かを判定する、収束判定部をさらに備える、
請求項1に記載のソーナー画像処理装置。
A convergence test unit for determining whether or not the corrected underwater sound velocity has converged is further provided.
The sonar image processing apparatus according to claim 1.
前記補正水中音速が収束しない場合、前記データ取得部は、再度、複数のスキント方位における複数のソーナーデータと収束の判定に用いられた補正水中音速とを取得し、収束の判定に用いられた補正水中音速を用いて、該ソーナーデータに基づく新たな補正水中音速の推定が実行される、
請求項2に記載のソーナー画像処理装置。
When the corrected underwater sound velocity does not converge, the data acquisition unit again acquires a plurality of sonar data in a plurality of skinned directions and the corrected underwater sound velocity used for determining the convergence, and the correction used for determining the convergence. Using the underwater sound velocity, a new corrected underwater sound velocity estimation based on the sonar data is performed.
The sonar image processing apparatus according to claim 2.
前記補正水中音速を用いて、複数の前記ソーナーデータを再画像化して、複数の再画像化ソーナー画像を生成する再画像化処理部をさらに備える、
請求項1〜3のいずれか1項に記載のソーナー画像処理装置。
Further provided is a reimaging processing unit that reimages a plurality of the sonar data using the corrected underwater sound velocity to generate a plurality of reimaged sonar images.
The sonar image processing apparatus according to any one of claims 1 to 3.
複数の前記再画像化ソーナー画像を統合する統合処理部をさらに備える、
請求項4に記載のソーナー画像処理装置。
Further provided with an integrated processing unit that integrates the plurality of the reimaged sonar images.
The sonar image processing apparatus according to claim 4.
前記データ取得部は、複数のスキント方位における複数の補正ソーナーデータと前記補正水中音速とを取得し、
前記画像処理部は、前記補正水中音速を用いて、複数の前記補正ソーナーデータを画像化して、複数の補正ソーナー画像を生成する、
請求項1に記載のソーナー画像処理装置。
The data acquisition unit acquires a plurality of corrected sonar data in a plurality of skinned directions and the corrected underwater sound velocity.
The image processing unit uses the corrected underwater sound velocity to image a plurality of the corrected sonar data to generate a plurality of corrected sonar images.
The sonar image processing apparatus according to claim 1.
複数の前記補正ソーナー画像を統合する統合処理部をさらに備える、
請求項6に記載のソーナー画像処理装置。
Further provided with an integrated processing unit that integrates the plurality of the corrected sonar images.
The sonar image processing apparatus according to claim 6.
前記画像処理部は、複数の前記ソーナー画像を生成する際に合成開口処理を行う、
請求項1〜6のいずれか1項に記載のソーナー画像処理装置。
The image processing unit performs synthetic aperture processing when generating a plurality of the sonar images.
The sonar image processing apparatus according to any one of claims 1 to 6.
複数のスキント方位における複数のソーナーデータと、測定された水中音速とを取得し、
測定された水中音速を用いて、複数の前記ソーナーデータを画像化して、複数のソーナー画像を生成し、
複数の前記ソーナー画像のそれぞれにおける点像を検出し、
前記点像のうち、複数の前記ソーナー画像に亘って略同一位置に位置する点像ペアを抽出し、
前記点像ペアのレンジ−アジマス座標の差分を計算し、前記差分を最小化する補正水中音速を推定する、
ソーナー画像処理方法。
Acquire multiple sonar data in multiple skinned directions and measured underwater sound velocity,
Using the measured underwater sound velocity, a plurality of the sonar data are imaged to generate a plurality of sonar images.
A point image in each of the plurality of sonar images is detected,
From the point images, a point image pair located at substantially the same position over the plurality of sonar images is extracted.
The difference between the range-azimuth coordinates of the point image pair is calculated, and the corrected underwater sound velocity that minimizes the difference is estimated.
Sonar image processing method.
複数のスキント方位における複数のソーナーデータと、測定された水中音速とを取得する処理と、
測定された水中音速を用いて、複数の前記ソーナーデータを画像化して、複数のソーナー画像を生成する処理と、
複数の前記ソーナー画像のそれぞれにおける点像を検出する処理と、
前記点像のうち、複数の前記ソーナー画像に亘って略同一位置に位置する点像ペアを抽出する処理と、
前記点像ペアのレンジ−アジマス座標の差分を計算し、前記差分を最小化する補正水中音速を推定する処理と、
をコンピュータに実行させる、
プログラム。
Processing to acquire multiple sonar data in multiple skinted directions and measured underwater sound velocity,
Using the measured underwater sound velocity, a process of imaging a plurality of the sonar data to generate a plurality of sonar images, and
Processing to detect a point image in each of the plurality of sonar images, and
Among the point images, a process of extracting point image pairs located at substantially the same position over a plurality of the sonar images, and
A process of calculating the difference between the range-azimuth coordinates of the point image pair and estimating the corrected underwater sound velocity that minimizes the difference.
Let the computer run
program.
JP2019076326A 2019-04-12 2019-04-12 Sonar image processing device, sonar image processing method and program Active JP7259503B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019076326A JP7259503B2 (en) 2019-04-12 2019-04-12 Sonar image processing device, sonar image processing method and program
FR2003291A FR3095048B1 (en) 2019-04-12 2020-04-02 SONAR IMAGE PROCESSING APPARATUS, SONAR IMAGE PROCESSING METHOD AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019076326A JP7259503B2 (en) 2019-04-12 2019-04-12 Sonar image processing device, sonar image processing method and program

Publications (2)

Publication Number Publication Date
JP2020173213A true JP2020173213A (en) 2020-10-22
JP7259503B2 JP7259503B2 (en) 2023-04-18

Family

ID=72752652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019076326A Active JP7259503B2 (en) 2019-04-12 2019-04-12 Sonar image processing device, sonar image processing method and program

Country Status (2)

Country Link
JP (1) JP7259503B2 (en)
FR (1) FR3095048B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022166097A1 (en) * 2021-02-08 2022-08-11 中国科学院声学研究所 Side-scan sonar-based multi-mode imaging method for underwater target

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59212791A (en) * 1983-05-19 1984-12-01 Yokogawa Medical Syst Ltd Ultrasonic imaging system
JPH09127238A (en) * 1995-11-06 1997-05-16 Kaijo Corp Correction method for sound velocity in underwater position measuring system
JP2010127771A (en) * 2008-11-27 2010-06-10 Nec Corp Synthetic aperture sonar, and method and program for correcting phase error of synthetic aperture sonar
JP2014235155A (en) * 2013-06-05 2014-12-15 三菱電機株式会社 Radar image processing apparatus and radar image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59212791A (en) * 1983-05-19 1984-12-01 Yokogawa Medical Syst Ltd Ultrasonic imaging system
JPH09127238A (en) * 1995-11-06 1997-05-16 Kaijo Corp Correction method for sound velocity in underwater position measuring system
JP2010127771A (en) * 2008-11-27 2010-06-10 Nec Corp Synthetic aperture sonar, and method and program for correcting phase error of synthetic aperture sonar
JP2014235155A (en) * 2013-06-05 2014-12-15 三菱電機株式会社 Radar image processing apparatus and radar image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022166097A1 (en) * 2021-02-08 2022-08-11 中国科学院声学研究所 Side-scan sonar-based multi-mode imaging method for underwater target

Also Published As

Publication number Publication date
FR3095048A1 (en) 2020-10-16
JP7259503B2 (en) 2023-04-18
FR3095048B1 (en) 2022-07-08

Similar Documents

Publication Publication Date Title
US6438071B1 (en) Method for producing a 3D image
Ånonsen et al. An analysis of real-time terrain aided navigation results from a HUGIN AUV
US9432637B2 (en) System and method for automated bottom feature navigator
US11112499B2 (en) Synthetic antenna sonar and method for forming synthetic antenna beams
JP6117466B2 (en) Method and system for synthetic aperture sonar
CN116106875B (en) Shore matrix coordinate joint calibration method, system, electronic equipment and storage medium
CN111443344B (en) Automatic extraction method and device for side-scan sonar sea bottom line
RU2012153734A (en) METHOD FOR SHOOTING AQUATORIA BOTTOM RELIEF AND DEVICE FOR SHOOTING AQUATORIA BOTTOM RELIEF
US11199624B2 (en) Bathymetric system and bathymetry method corrected for altitude errors
JP2002168952A (en) Method of reconstituting submarine three-dimensional structure
KR101763911B1 (en) Heading estimation apparatus of auv in severe magnetic disturbance environment and the method thereof
JP7259503B2 (en) Sonar image processing device, sonar image processing method and program
JP7390366B2 (en) Methods for determining depth or water depth profiles based on average sound velocity profiles, methods for determining such velocity profiles, and associated sonar systems
RU2555479C2 (en) High-precision coordination of underwater complex for underwater navigation
RU2623830C1 (en) Method of remote determination of relief and sedimentation of underwater iceberg part
RU2378663C1 (en) Method of determining horizontal coordinates of stationary underwater source of hydroacoustic navigation signals
US11668821B2 (en) Position correction using towed sensor
Crawford et al. Performance evaluation of a 3-D sidescan sonar for mine countermeasures
RU2603228C1 (en) Method of processing sonar information
KR102093897B1 (en) Method and apparatus for correcting images from an ultrasonic camera
Pyo et al. Development of passive acoustic landmark using imaging sonar for AUV's localization
RU2684273C1 (en) System for determining the coordinates of a towed complex
MacKenzie et al. Extracting seafloor elevations from side-scan sonar imagery for SLAM data association
RU2555204C1 (en) Method of measuring bottom coordinates with multi-beam echo sounder
Zhong et al. A method for estimating along-track velocity of synthetic aperture sonar

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R151 Written notification of patent or utility model registration

Ref document number: 7259503

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151