JP2018146354A - Sonar image processor, sonar image processing method, and sonar image processing program - Google Patents

Sonar image processor, sonar image processing method, and sonar image processing program Download PDF

Info

Publication number
JP2018146354A
JP2018146354A JP2017040794A JP2017040794A JP2018146354A JP 2018146354 A JP2018146354 A JP 2018146354A JP 2017040794 A JP2017040794 A JP 2017040794A JP 2017040794 A JP2017040794 A JP 2017040794A JP 2018146354 A JP2018146354 A JP 2018146354A
Authority
JP
Japan
Prior art keywords
partial images
target
sonar
sonar image
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017040794A
Other languages
Japanese (ja)
Other versions
JP6922262B2 (en
Inventor
中村 義行
Yoshiyuki Nakamura
義行 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2017040794A priority Critical patent/JP6922262B2/en
Publication of JP2018146354A publication Critical patent/JP2018146354A/en
Application granted granted Critical
Publication of JP6922262B2 publication Critical patent/JP6922262B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a sonar image processing technique with which it is possible to discriminate a target with high accuracy while avoiding increase in the size of a device or the complexity of processing.SOLUTION: A sonar image processor of the present invention comprises: a search unit for extracting from a sonar image a plurality of partial images estimated to represent a target; a path difference calculation unit for calculating a path difference between a direct path signal reflected by the target and a sea surface reflected signal reflected by the target and search surface; a similarity determination unit for extracting, from the plurality of partial images, at least one set of the partial images having a relationship that corresponds to the path difference, and calculating the degree of similarity between the at least one set of extracted partial images to determine whether the at least one set of partial images are partial images representing the same target; and an identification unit for identifying the target on the basis of the determination of the degree of similarity from the at least one set of partial images having the relationship that corresponds to the path difference.SELECTED DRAWING: Figure 2

Description

本発明は、ソーナー画像処理技術に関する。   The present invention relates to a sonar image processing technique.

水中の目標物を捜索する技術として、水中曳航体や水中航走体等の移動体に設置されたソーナーから音響ビームを放射し、その音響ビームが目標物によって反射された反射波(エコー)を受信・解析することによって目標物を捜索する技術がある。ソーナーを用いて目標物を捜索する技術は、例えば、特許文献1に開示されている。   As a technology to search for an underwater target, an acoustic beam is radiated from a sonar installed in a moving body such as an underwater towed vehicle or underwater vehicle, and a reflected wave (echo) reflected by the target is emitted. There is a technique for searching for a target by receiving and analyzing it. A technique for searching for a target using a sonar is disclosed in Patent Document 1, for example.

例えば、鋭い水平指向性の音響ビームを用いるサイドスキャン方式のソーナー(サイドスキャンソーナー、合成開口ソーナー等)を用いた海底捜索においては、画像中に現れるエコーやシャドウに基づいて海底面近傍の目標物の有無を判定する。   For example, in the seafloor search using a side-scan sonar (a side-scan sonar, synthetic aperture sonar, etc.) that uses a sharp horizontal directivity acoustic beam, a target near the seabed based on echoes and shadows appearing in the image. The presence or absence of is determined.

サイドスキャン方式のソーナーにおいては、海底面近傍の目標物に照射された送信音は上下方向に散乱する。よって受波アレイで受信される目標物のエコーは、最短の直線経路で戻ってくる信号のみならず、一旦海面に反射してから戻ってくる信号も存在する。海面反射を経由して到達する信号は、直接受信信号より時間的に遅れて到達するため、画像上では時間方向に遅れた位置に現れるが、両者の信号の特徴には類似性があるため、目標物の有無を判定する際の誤警報の要因となる。   In the side scan type sonar, the transmission sound applied to the target near the sea bottom is scattered in the vertical direction. Therefore, the echoes of the target received by the receiving array include not only signals that return on the shortest straight path, but also signals that return after being reflected on the sea surface. Since the signal that arrives via the sea surface reflection arrives later in time than the direct reception signal, it appears at a position delayed in the time direction on the image, but the characteristics of both signals are similar, This may cause a false alarm when determining the presence or absence of the target.

一般的なサイドスキャンソーナー、合成開口ソーナー等では、比較的高い周波数のソーナー音が使用されることから、このような海面反射の影響を低減するために受波アレイに垂直指向性を形成している。すなわち鋭い垂直指向性を形成してビームの主軸方位を海底面(下側)に向けることにより、海面(上側)からくる信号のレベルを抑圧して画像に現れないようにする。これは一般的なサイドスキャンソーナー、合成開口ソーナー等が比較的高い周波数のソーナー音を使用しているため、垂直指向性を有する受波アレイを小型、軽量に製造でき、小型の水中曳航体や水中航走体に搭載しやすいためである。   In general side scan sonars and synthetic aperture sonars, sonar sounds with a relatively high frequency are used. Therefore, in order to reduce the influence of such sea surface reflection, vertical directivity is formed in the receiving array. Yes. That is, by forming a sharp vertical directivity and directing the principal axis direction of the beam toward the sea bottom (lower side), the level of the signal coming from the sea surface (upper side) is suppressed so that it does not appear in the image. This is because a general side scan sonar, synthetic aperture sonar, etc. uses a sonar sound of a relatively high frequency, so that a receiving array having a vertical directivity can be manufactured in a small size and light weight. This is because it is easy to mount on an underwater vehicle.

また別の方法としては、インターフェロメトリ処理により信号到来方向を上下に分離し、上側から到来する信号を誤警報と判定する方法がある。インターフェロメトリ処理では受波アレイを上下2段以上の構成とし、上下の受波アレイ間の位相差に基づいて信号の到来方位または目標物の海底高度を算出する。インターフェロメトリを用いる技術は、例えば、非特許文献1に開示されている。   As another method, there is a method in which a signal arrival direction is separated into upper and lower by interferometry processing, and a signal coming from the upper side is determined as a false alarm. In the interferometry processing, the receiving array has two or more upper and lower structures, and the arrival direction of the signal or the seabed altitude of the target is calculated based on the phase difference between the upper and lower receiving arrays. A technique using interferometry is disclosed in Non-Patent Document 1, for example.

また特許文献2には、「受波器が直接波及びマルチパス波を合わせて受信すると、直接波のみのときよりも不安定な位相となり、目標物のアスペクト及び方位、全長の推定精度が劣化する。このため、マルチパス波を排除することにより、推定精度を向上させる必要があるが、この場合、同マルチパス波は直接波よりも必ず遅れて到達するので、目標物と水中目標物検出装置との位置関係に基づいて同マルチパス波mf,meの伝搬経路を計算
することにより伝搬遅延時間が求められ、この伝搬遅延時間に基づいてマルチパス波が排除される」と記載されている。
Patent Document 2 states that “When a receiver receives a direct wave and a multipath wave together, the phase becomes more unstable than when only a direct wave is used, and the accuracy of estimation of the aspect, azimuth, and overall length of the target deteriorates. For this reason, it is necessary to improve the estimation accuracy by eliminating multipath waves, but in this case, the multipath wave always arrives later than the direct wave, so the target and underwater target detection The propagation delay time is obtained by calculating the propagation path of the multipath waves mf and me based on the positional relationship with the apparatus, and the multipath wave is eliminated based on this propagation delay time ". .

特開2014−132248号公報JP 2014-132248 A 特開2012−103054号公報JP 2012-103054 A

筆者 海洋音響学会、刊行物の題名 海洋音響の基礎と応用 (発行者 成山堂書店)、発行年月日 平成16年4月28日、説明ページ165〜166Author Oceanographic Society of Japan, Title of Publication Basics and Applications of Ocean Acoustics (Issue Naruyamado Shoten), Date of Publication April 28, 2004, Description pages 165-166

なお、上記文献の開示を本書に引用をもって繰り込む。以下に上述した関連技術の分析を与える。   The disclosure of the above document is incorporated herein by reference. The analysis of the related technology described above is given below.

例えば、サイドスキャン方式のソーナーで比較的低い周波数のソーナー音を使用する場合、受波アレイの垂直指向性により海面反射経路の信号を抑圧することが困難である。   For example, when a sonar sound having a relatively low frequency is used in a side scan type sonar, it is difficult to suppress the signal of the sea surface reflection path due to the vertical directivity of the receiving array.

その理由は、比較的低い周波数の受波アレイで垂直指向性を形成するためには縦方向にアレイ開口面を大きくする必要があり、その結果受波アレイが大型化し、小型の水中曳航体や水中航走体への搭載が困難となるためである。   The reason is that in order to form vertical directivity with a relatively low frequency receiving array, it is necessary to enlarge the array aperture in the vertical direction. As a result, the receiving array becomes large, and a small underwater towed vehicle or This is because it is difficult to mount the vehicle on an underwater vehicle.

また、例えば、サイドスキャン方式のソーナーで比較的低い周波数のソーナー音を使用する場合、インターフェロメトリ処理により海面反射経路信号の自動探知結果を分離・除去することが困難である。   For example, when a sonar sound having a relatively low frequency is used in a side scan type sonar, it is difficult to separate and remove an automatic detection result of a sea surface reflection path signal by interferometry processing.

その理由は、インターフェロメトリ用として受波アレイおよび受信器を垂直方向に2段以上の構成とする必要があり、その結果受波アレイおよび受信器が大型化し、小型の水中曳航体や水中航走体への搭載が困難となるためである。   The reason for this is that the interferometry requires that the receiving array and the receiver have two or more stages in the vertical direction. As a result, the receiving array and the receiver are increased in size, resulting in a small underwater towed vehicle and underwater navigation. This is because it becomes difficult to mount on a running body.

本発明は、上記課題に鑑みて創案されたものであって、その目的の一つは、装置の肥大化または処理の複雑化を回避しながら目標物を精度よく識別できるソーナー画像処理装置、ソーナー画像処理方法およびソーナー画像処理プログラムを提供することである。その他の目的および効果等は、本開示から当業者に明らかになるであろう。   The present invention has been made in view of the above problems, and one of its purposes is a sonar image processing apparatus and a sonar capable of accurately identifying a target while avoiding enlargement of the apparatus or complicated processing. An image processing method and a sonar image processing program are provided. Other objects and advantages will be apparent to those skilled in the art from this disclosure.

本発明の一つの視点によれば、ソーナー画像から目標物を現すと推定される複数の部分画像を抽出する探知部と、前記目標物に反射される直接経路信号と前記目標物および海面に反射される海面反射信号との経路差を算出する経路差算出部と、前記複数の部分画像から互いに前記経路差に対応する関係を有する少なくとも一組の前記部分画像を抽出し、抽出された前記少なくとも一組の部分画像間の類似度を計算して前記少なくとも一組の部分画像が同一の前記目標物を現している部分画像であるかどうか判定する類似度判定部と、前記経路差に対応する関係を有する前記少なくとも一組の部分画像から前記類似度の判定に基づいて前記目標物を識別する識別部と、を備えるソーナー画像処理装置が提供される。   According to one aspect of the present invention, a detection unit that extracts a plurality of partial images estimated to show a target from a sonar image, a direct path signal reflected by the target, and a reflection by the target and the sea surface. A path difference calculating unit that calculates a path difference with the sea surface reflection signal, and extracting at least one set of the partial images having a relationship corresponding to the path difference from the plurality of partial images, and extracting the at least one extracted A similarity determination unit that calculates similarity between a set of partial images and determines whether the at least one set of partial images is a partial image representing the same target, and corresponds to the path difference There is provided a sonar image processing apparatus comprising: an identification unit that identifies the target based on the similarity determination from the at least one set of partial images having a relationship.

本発明の一つの視点によれば、ソーナー画像から目標物を現すと推定される複数の部分画像を抽出し、前記目標物に反射される直接経路信号と前記目標物および海面に反射される海面反射信号との経路差を算出し、前記複数の部分画像から互いに前記経路差に対応する関係を有する少なくとも一組の前記部分画像を抽出し、抽出された前記少なくとも一組の部分画像間の類似度を計算して前記少なくとも一組の部分画像が同一の前記目標物を現している部分画像であるかどうか判定し、前記経路差に対応する関係を有する前記少なくとも一組の部分画像から前記類似度の判定に基づいて前記目標物を識別する、ソーナー画像処理方法が提供される。   According to one aspect of the present invention, a plurality of partial images estimated to represent a target object are extracted from a sonar image, and a direct path signal reflected by the target object and a sea surface reflected by the target object and the sea surface are obtained. Calculating a path difference from the reflected signal, extracting at least one set of the partial images having a relationship corresponding to the path difference from the plurality of partial images, and similarity between the extracted at least one set of partial images A degree is calculated to determine whether the at least one set of partial images is a partial image representing the same target, and the similarity is obtained from the at least one set of partial images having a relationship corresponding to the path difference. A sonar image processing method is provided that identifies the target based on a degree determination.

本発明の一つの視点によれば、ソーナー画像から目標物を現すと推定される複数の部分画像を抽出する機能と、前記目標物に反射される直接経路信号と前記目標物および海面に反射される海面反射信号との経路差を算出する機能と、前記複数の部分画像から互いに前記経路差に対応する関係を有する少なくとも一組の前記部分画像を抽出し、抽出された前記少なくとも一組の部分画像間の類似度を計算して前記少なくとも一組の部分画像が同一の前記目標物を現している部分画像であるかどうか判定する機能と、前記経路差に対応する関係を有する前記少なくとも一組の部分画像から前記類似度の判定に基づいて前記目標物を識別する機能と、をコンピュータに実行させるソーナー画像処理プログラムが提供される。また、上記プログラムを記憶したコンピュータ読み出し可能な記録媒体(例えばHDD(Hard Disk Drive)、CD(Compact Disk)/DVD(Digital Versatile Disk)、半導体ストレージデバイス等のnon−transitory computer readable recording medium)が提供される。   According to one aspect of the present invention, a function of extracting a plurality of partial images estimated to show a target from a sonar image, a direct path signal reflected by the target, and reflected by the target and the sea surface. A function of calculating a path difference with a sea surface reflection signal, and extracting at least one set of the partial images having a relationship corresponding to the path difference from each other from the plurality of partial images, and extracting the at least one set of parts A function of calculating similarity between images and determining whether the at least one set of partial images is a partial image representing the same target, and the at least one set having a relationship corresponding to the path difference And a sonar image processing program for causing a computer to execute a function of identifying the target based on the determination of the degree of similarity from the partial images. In addition, a computer-readable recording medium (for example, a HDD (Hard Disk Drive), a CD (Compact Disk) / DVD (Digital Versatile Disk), a non-transitory computer readable recording medium such as a semiconductor storage device) that stores the above program is provided. Is done.

本発明の1つの視点によれば、装置の肥大化または処理の複雑化を回避しながら目標物を精度よく識別することができる。   According to one aspect of the present invention, it is possible to accurately identify a target while avoiding enlargement of the apparatus or complicated processing.

サイドスキャン方式のソーナーによって海底面近傍を捜索する場合の説明図であって、(a)は上方から見たソーナーと海底面近傍の目標物との関係を示す図であり、(b)は進行方向後方から見たソーナー、海底面近傍の目標物、海面、直接経路信号および海面反射経路との関係を示す図である。It is explanatory drawing at the time of searching the sea bottom vicinity with a side scan type sonar, (a) is a figure which shows the relationship between the sonar seen from the upper part and the target near the sea bottom, (b) is progress It is a figure which shows the relationship between the sonar seen from the direction back, the target near the sea bottom, the sea surface, the direct path signal, and the sea surface reflection path. 第1実施形態のソーナー画像処理装置の構成図である。It is a block diagram of the sonar image processing apparatus of 1st Embodiment. 第2実施形態のソーナー画像処理装置の構成図である。It is a block diagram of the sonar image processing apparatus of 2nd Embodiment. 第2実施形態に係るソーナー画像処理装置の動作を説明する図であって、(a)は1つの目標物の直接経路信号および海面反射経路信号がソーナー画像上に現れた場合の自動探知結果と部分画像の関係を示す図であり、(b)は部分画像から抽出される特徴要素を示す図である。It is a figure explaining operation | movement of the sonar image processing apparatus which concerns on 2nd Embodiment, (a) is an automatic detection result in case the direct path | route signal and sea surface reflection path | route signal of one target appear on the sonar image, It is a figure which shows the relationship of a partial image, (b) is a figure which shows the feature element extracted from a partial image. 一実施形態のソーナー画像処理の基本概念を説明する図である。It is a figure explaining the basic concept of sonar image processing of one embodiment.

一実施形態のソーナー画像処理の基本的なブロック構成および処理の流れを説明する。図5を参照すると、ソーナー画像処理装置は、探知部3、経路差算出部4、類似度判定部5および識別部6を有する。各部3〜6は、ソフトウェア、ハードウェア、またはそれらの組合せによって、単独または複数組み合わされた状態で構成することができる。   A basic block configuration and processing flow of sonar image processing according to an embodiment will be described. Referring to FIG. 5, the sonar image processing apparatus includes a detection unit 3, a path difference calculation unit 4, a similarity determination unit 5, and an identification unit 6. Each of the units 3 to 6 can be configured by software, hardware, or a combination thereof, alone or in combination.

探知部3は、ソーナー画像から目標物を現すと推定される複数の部分画像を抽出する(S501)。   The detection unit 3 extracts a plurality of partial images estimated to appear the target from the sonar image (S501).

経路差算出部4は、前記目標物に反射される直接経路信号と前記目標物および海面に反射される海面反射信号との経路差を算出する(S502)。   The path difference calculation unit 4 calculates the path difference between the direct path signal reflected by the target and the sea surface reflection signal reflected by the target and the sea surface (S502).

類似度判定部5は、前記複数の部分画像から互いに前記経路差に対応する関係を有する少なくとも一組の前記部分画像を抽出し、抽出された前記少なくとも一組の部分画像間の類似度を計算して前記少なくとも一組の部分画像が同一の前記目標物を現している部分画像であるかどうか判定する(S503)。   The similarity determination unit 5 extracts at least one set of the partial images having a relationship corresponding to the path difference from the plurality of partial images, and calculates the similarity between the extracted at least one set of partial images. Then, it is determined whether or not the at least one set of partial images is a partial image representing the same target (S503).

識別部6は、前記経路差に対応する関係を有する前記少なくとも一組の部分画像から前記類似度の判定に基づいて前記目標物を識別する(S504)。好ましくは、識別部6は、ソーナー画像中に現れる海面反射経路信号による自動探知結果を誤警報して除去し、直接経路信号による探知結果のみを出力することができる。   The identification unit 6 identifies the target based on the similarity determination from the at least one set of partial images having a relationship corresponding to the path difference (S504). Preferably, the identification unit 6 can falsely remove the automatic detection result based on the sea surface reflection path signal appearing in the sonar image and output only the detection result based on the direct path signal.

このようなソーナー画像処理によれば、海面反射経路信号を用いた類似度判定により、装置の肥大化または処理の複雑化を回避しながら目標物を精度良く捜索できる。例えば、大型の受波アレイやインターフェロメトリ処理を用いることなく、ソーナー画像中に現れる海面反射経路信号の自動探知結果を誤警報して除去し、直接経路の探知結果のみを出力することで、目標物を精度良く捜索できる。   According to such sonar image processing, it is possible to search for a target with high accuracy while avoiding enlargement of the apparatus or complication of processing by similarity determination using a sea surface reflection path signal. For example, without using a large receiving array or interferometry processing, the automatic detection result of the sea surface reflection path signal that appears in the sonar image is removed by false alarm, and only the detection result of the direct path is output. The target can be searched with high accuracy.

このようなソーナー画像処理装置は、サイドスキャン方式のソーナーに好適に適用され、ソーナー画像に所定の処理を施して目標物と思われる画像領域を自動探知結果として出力することができる。   Such a sonar image processing apparatus is preferably applied to a side-scan type sonar, and can perform a predetermined process on the sonar image and output an image area that is considered to be a target as an automatic detection result.

<実施形態>
本発明の例示的な実施形態について図面を参照して説明する。
<Embodiment>
Exemplary embodiments of the present invention will be described with reference to the drawings.

図1(a)および(b)を参照して、鋭い垂直指向性を持たないサイドスキャン方式のソーナーによって海底面近傍を捜索する場合を説明する。   With reference to FIGS. 1 (a) and 1 (b), description will be given of a case where the vicinity of the sea bottom is searched by a side-scan sonar that does not have a sharp vertical directivity.

サイドスキャン方式のソーナーを使用する場合、発明が解決しようとする課題の欄に記載したように、目標物からのエコーが直接経路と海面反射経路の両方から受信器に到来し、エコー画像上には目標物に対応する2つの自動探知結果(部分画像)が現れることがある。   When using a side-scan sonar, the echo from the target arrives at the receiver from both the direct path and the sea surface reflection path, as described in the section of the problem to be solved by the invention, and appears on the echo image. May show two automatic detection results (partial images) corresponding to the target.

この場合のソーナー画像と自動探知結果の例を図1(a)および(b)に示す。図1(a)は上方から見たソーナーと海底面近傍の目標物との関係を示す図である。図1(b)は進行方向後方から見たソーナー、海底面近傍の目標物、海面、直接経路信号および海面反射経路との関係を示す図である。   Examples of sonar images and automatic detection results in this case are shown in FIGS. FIG. 1A is a diagram showing a relationship between a sonar viewed from above and a target near the sea bottom. FIG. 1B is a diagram showing the relationship between the sonar, the target near the sea bottom, the sea surface, the direct path signal, and the sea surface reflection path as seen from the rear in the traveling direction.

図1(b)中、ソーナーが位置するソーナー水平面を基準とすると、直接経路信号は下側から、海面反射経路信号は上側から到来する。したがって、鋭い垂直指向性を持つ受波アレイを用いる場合、ソーナー水平面上側から到来する信号レベルを抑圧し、画像上に現れないようにすることができる。   In FIG. 1B, when the sonar horizontal plane where the sonar is located is used as a reference, the direct path signal comes from the lower side and the sea surface reflection path signal comes from the upper side. Therefore, when a receiving array having a sharp vertical directivity is used, the signal level coming from the upper side of the sonar horizontal plane can be suppressed so that it does not appear on the image.

また、鋭い垂直指向性を持たない受波アレイを用いた場合でも、インターフェロメトリ処理を用いて、各信号の垂直方向の到来方位を算出し、水平面上側から到来した信号は海面反射経路と判定し、自動探知結果から除外することができる場合もある。   Even when a receiving array without sharp vertical directivity is used, the arrival direction in the vertical direction of each signal is calculated using interferometry processing, and the signal arriving from the upper side of the horizontal plane is determined as the sea surface reflection path. In some cases, it can be excluded from the automatic detection result.

しかし、鋭い垂直指向性とインターフェロメトリ処理機能の両方とも持たないソーナー画像処理装置においては、直接経路信号によるエコーと、海面反射経路信号によるエコーとが混在したソーナー画像から、両者の自動探知結果を分離したり、目標物1,2を識別したりすることが求められる。   However, in a sonar image processing device that does not have both sharp vertical directivity and interferometry processing functions, the automatic detection result of both from the sonar image in which the echo by the direct path signal and the echo by the sea surface reflection path signal are mixed. Or to identify the targets 1 and 2.

<第1実施形態>
そこで、第1実施形態等では、自動探知結果のうち任意の2つの探知結果に対して相対距離差と画像類似度とを評価することにより、1対の探知結果が同じ目標物の直接経路・海面反射経路であることを判定し、海面反射経路による探知結果を自動探知結果から除去する。
<First Embodiment>
Therefore, in the first embodiment or the like, by evaluating the relative distance difference and the image similarity with respect to any two detection results among the automatic detection results, a pair of detection results can be obtained as a direct path / It is determined that the path is a sea surface reflection path, and the detection result by the sea surface reflection path is removed from the automatic detection result.

第1実施形態に係るソーナー画像処理装置のブロック構成図を図2に示す。ソーナー画像処理装置10は、サイドスキャン方式のソーナーに適用され、ソーナー画像に所定の処理を施して目標物と思われる画像領域を自動探知結果として出力することができる。   FIG. 2 shows a block diagram of the sonar image processing apparatus according to the first embodiment. The sonar image processing apparatus 10 is applied to a side-scan type sonar, and can perform a predetermined process on the sonar image and output an image area that seems to be a target as an automatic detection result.

ソーナー画像処理装置10は、画像生成手段20、自動探知手段30、水中環境計測手段40、相対距離差算出手段50、距離差評価手段60、および画像類似度評価手段70を備える。   The sonar image processing apparatus 10 includes an image generation unit 20, an automatic detection unit 30, an underwater environment measurement unit 40, a relative distance difference calculation unit 50, a distance difference evaluation unit 60, and an image similarity evaluation unit 70.

自動探知手段30は、図5の探知部3に相当しまたは含まれる。相対距離差算出手段50および距離差評価手段60は、図5の経路差算出部4に相当しまたは含まれる。画像類似度評価手段70は、図5の類似度判定部5および識別部6に相当しまたは含まれる。   The automatic detection means 30 corresponds to or is included in the detection unit 3 in FIG. The relative distance difference calculation unit 50 and the distance difference evaluation unit 60 correspond to or are included in the path difference calculation unit 4 of FIG. The image similarity evaluation means 70 corresponds to or is included in the similarity determination unit 5 and the identification unit 6 in FIG.

画像生成手段20は、サイドスキャン方式で取得したソーナー受信信号から、一般的な信号処理、画像処理を用いてソーナー画像を生成する。例えばサイドスキャンソーナーの場合、1回の送受信で得られる受信信号で鋭い水平指向性を持つビームを形成することで、進行方向1ビン分の画素情報を生成する。これを送受信回数だけ繰り返して、進行方向に並べることによりソーナー画像を得る。   The image generation means 20 generates a sonar image from the sonar received signal acquired by the side scan method using general signal processing and image processing. For example, in the case of a side scan sonar, pixel information for one bin in the traveling direction is generated by forming a beam having a sharp horizontal directivity with a received signal obtained by one transmission / reception. A sonar image is obtained by repeating this as many times as the number of times of transmission and reception and arranging in the traveling direction.

自動探知手段30は、ソーナー画像中から目標物のエコーまたはシャドウと思われる部分領域を自動的に抽出する。抽出結果は自動探知結果80として出力される。自動探知結果は画像1枚に対して1つとは限らず、一般的には1枚の画像から多数の探知結果(=D1,D2,...Dn)が得られる。   The automatic detection means 30 automatically extracts a partial area that seems to be an echo or shadow of the target from the sonar image. The extraction result is output as an automatic detection result 80. The number of automatic detection results is not limited to one for one image, and a large number of detection results (= D1, D2,... Dn) are generally obtained from one image.

本実施形態では、1つの目標物に関して2つの探知結果(DT1,DT2)が抽出されることを想定する。なお、目標物以外の物体より得られる探知結果や、海底残響、雑音等の環境要因により発生する誤警報も、自動探知結果80(=D1,D2,...Dn)に含まれる。   In the present embodiment, it is assumed that two detection results (DT1, DT2) are extracted for one target. Note that detection results obtained from objects other than the target and false alarms caused by environmental factors such as seabed reverberation and noise are also included in the automatic detection results 80 (= D1, D2,... Dn).

自動探知手段30は、一般的なソーナー画像処理装置で使用される自動探知手段を用いて画像中の部分領域を抽出することができる。例えば、サイドスキャンソーナーおよび合成開口ソーナーでは、目標物の遠レンジ側に生じるシャドウの強さや形状に基づいて、その領域に目標物があるか否かを判定する場合が多い。またシャドウだけに限らず、明るく光ったエコー部分の強度や形状を参照する場合もある。   The automatic detection means 30 can extract a partial region in an image using an automatic detection means used in a general sonar image processing apparatus. For example, in a side scan sonar and a synthetic aperture sonar, it is often determined whether or not there is a target in the region based on the strength or shape of a shadow generated on the far range side of the target. Further, not only the shadow but also the intensity and shape of the bright echo part may be referred to.

水中環境計測手段40は、一般的なサイドスキャンソーナー等で用いられる海底高度計、深度計および水温計のような水中センサを有する。水中環境計測手段40は、水中センサから得られた計測結果を相対距離差算出手段50へ逐次出力する。ここで、逐次出力とは、ソーナーの運用中に連続的に計測して結果を出力することであり、その出力周期はおよそソーナーの送受信周期と同等であれば十分である。   The underwater environment measuring means 40 has an underwater sensor such as a seabed altimeter, a depth gauge, and a water temperature gauge used in a general side scan sonar. The underwater environment measuring unit 40 sequentially outputs the measurement result obtained from the underwater sensor to the relative distance difference calculating unit 50. Here, “sequential output” means to continuously measure and output the result during operation of the sonar, and it is sufficient that the output cycle is approximately equal to the transmission / reception cycle of the sonar.

相対距離差算出手段50では、画像の進行方向位置(アジマス位置)に最も近い位置で取得された海底高度、深度および水中音速を用いて、アジマス位置ごとに相対距離差(経路差)の計算を行う。   The relative distance difference calculation means 50 calculates the relative distance difference (path difference) for each azimuth position using the seabed altitude, depth, and underwater sound speed acquired at the position closest to the position in the image traveling direction (azimuth position). Do.

画像上のレンジ・アジマス位置(座標R、X)ごとに、直接経路信号と海面反射経路信号の相対距離差ΔRは、以下のように算出することができる。   For each range / azimuth position (coordinates R, X) on the image, the relative distance difference ΔR between the direct path signal and the sea surface reflection path signal can be calculated as follows.

GR = sqrt{(c・ΔT/2)2 - h2}
ΔR = sqrt{GR2+(h+2d)2}-sqrt(GR2+h2)
GR : グランドレンジ距離
ΔT : グランドレンジ距離GRの目標物の直接経路往復伝搬時間
c : アジマス位置Xに最も近い時刻に計測された水中音速
h : アジマス位置Xに最も近い時刻に計測された海底高度
d : アジマス位置Xに最も近い時刻に計測された深度
GR = sqrt {(c ・ ΔT / 2) 2 -h 2 }
ΔR = sqrt {GR 2 + (h + 2d) 2 } -sqrt (GR 2 + h 2 )
GR: Ground range distance ΔT: Round trip propagation time of the target of ground range distance GR
c: Underwater sound speed measured at the time closest to azimuth position X
h: Seafloor height measured at the time closest to azimuth position X
d: Depth measured at time closest to azimuth position X

距離差評価手段60は、自動探知結果80に含まれるn個の探知結果のうちの1つ探知結果(Di)が直接経路信号によるものと仮定して、そのレンジ・アジマス位置(座標Ri,Xi)における海面反射経路信号の予測位置(座標Ri+ΔR,Xi)を計算し、また他の探知結果(D1,D2,...Di-1,Di+1,...Dn)のレンジ・アジマス位置との相対距離差Lij(j=1,2,...i-1,j+1,...n)を全て計算する。 The distance difference evaluation means 60 assumes that one of the n detection results (Di) included in the automatic detection result 80 is a direct path signal, and its range azimuth position (coordinate R i, X i ) calculates the predicted position of the sea surface reflection path signal (coordinates R i + ΔR, X i ) and other detection results (D 1 , D 2 , ... D i-1 , D i + 1 , ... D n ) all relative distance differences L ij (j = 1,2, ... i-1, j + 1, ... n) from the range / azimuth position are calculated.

探知結果Diの予測位置と、探知結果Dj(レンジ・アジマス位置座標=Rj,Xj)との相対距離差Lijは以下のように表される。 And predicted position of the detection result D i, detection result D j (range azimuth coordinates = R j, X j) relative distance difference L ij between is expressed as follows.

Lij = sqrt{(Ri+ΔR-Rj)2+(Xi-Xj)2} L ij = sqrt {(R i + ΔR-R j ) 2 + (X i -X j ) 2 }

距離差評価手段60は、計算されたLijと、予め設定された距離差判定閾値Lthを比較して、Lij < Lthである場合には、探知結果Diと探知結果Djは、同じ目標物に関する直接経路信号と海面反射経路信号(一対の信号)である可能性が高いと判断し、2つの探知結果を画像類似度評価手段70に出力する。Lij ≧ Lthである場合、距離差評価手段60は、次の探知結果Di+1について距離差判定を実行する。 The distance difference evaluation means 60 compares the calculated L ij with a preset distance difference determination threshold L th , and if L ij <L th , the detection result D i and the detection result D j are Then, it is determined that there is a high possibility that the direct path signal and the sea surface reflection path signal (a pair of signals) related to the same target are output, and two detection results are output to the image similarity evaluation means 70. When L ij ≧ L th , the distance difference evaluation means 60 performs distance difference determination for the next detection result D i + 1 .

画像類似度評価手段70は、距離差評価手段60から入力された2つの探知結果Di、Djの部分画像を参照して、両部分画像の相互相関係数Cijを計算する。画像類似度評価手段70は、計算された相互相関係数Cijと、予め設定された相関判定閾値Cthを比較する。画像類似度評価手段70は、Cij > Cth である場合、探知結果Diと探知結果Djは同じ目標物Tからの直接経路信号および海面反射経路信号によるものと判定し、探知結果Djを自動探知結果80から除去し、探知結果Diを自動探知結果81として登録する。Cij ≦ Cth である場合、画像類似度評価手段70は、探知結果の他の組合せについて類似度を評価する。 The image similarity evaluation unit 70 refers to the partial images of the two detection results D i and D j input from the distance difference evaluation unit 60 and calculates the cross-correlation coefficient C ij of both partial images. The image similarity evaluation means 70 compares the calculated cross-correlation coefficient C ij with a preset correlation determination threshold value C th . When C ij > C th , the image similarity evaluation means 70 determines that the detection result D i and the detection result D j are based on the direct path signal and the sea surface reflection path signal from the same target T, and the detection result D the j is removed from the automatic detection results 80, and registers the detection result D i as an automatic detection result 81. When C ij ≦ C th , the image similarity evaluation means 70 evaluates the similarity for other combinations of detection results.

このように構成されたソーナー画像処理装置10は、自動探知結果80(=D1,D2,...Dn)に含まれる同一目標物に関する直接経路信号による探知結果、および海面反射経路信号による探知結果のうち、海面反射経路信号による探知結果を抽出して除外することができる。距離差評価手段60および画像類似度評価手段70による処理が自動探知結果80の全てに適用されることにより、最終的には直接経路信号による探知結果から構成される自動探知結果81が登録される。 The sonar image processing apparatus 10 configured as described above has a detection result based on a direct path signal regarding the same target included in the automatic detection result 80 (= D 1 , D 2 ,... D n ), and a sea surface reflection path signal. Among the detection results by, detection results by the sea surface reflection path signal can be extracted and excluded. By applying the processing by the distance difference evaluation means 60 and the image similarity evaluation means 70 to all of the automatic detection results 80, an automatic detection result 81 composed of detection results based on direct path signals is finally registered. .

したがって、ソーナー画像処理装置10は、鋭い垂直指向性の受波アレイおよびインターフェロメトリ処理を用いなくても、目標物および海面の両方を経由した海面反射経路信号による自動探知結果を誤警報として除去して、目標物Tからの直接経路信号による自動探知結果を得ることができる。   Therefore, the sonar image processing apparatus 10 eliminates the automatic detection result by the sea surface reflection path signal passing through both the target and the sea surface as a false alarm without using a sharp vertical directivity receiving array and interferometry processing. Thus, an automatic detection result based on a direct route signal from the target T can be obtained.

なお、本実施形態において、類似度は2つの画像の相互相関係数に基づいて判定されたが、これ以外の方法で2つの画像の類似度を判定してもよい。本実施形態では、図1(b)に示すように、目標物が海底面上に置かれている場合について説明したが、ソーナーの捜索対象である目標物は必ずしも海底面上になくてもよく、海底面から少し浮上して水中にあったりしてもよく、海底面の下に浅く埋没した状態で置かれていてもよい。   In the present embodiment, the similarity is determined based on the cross-correlation coefficient between the two images. However, the similarity between the two images may be determined by other methods. In the present embodiment, as shown in FIG. 1B, the case where the target is placed on the sea bottom has been described. However, the target that is the search target of the sonar may not necessarily be on the sea bottom. It may float slightly from the bottom of the sea and be underwater, or it may be placed in a shallow and buried state under the bottom of the sea.

<第2実施形態>
第2実施形態を図3を用いて説明する。図3は、本実施形態に係るソーナー画像処理装置100のブロック構成図を示す。
Second Embodiment
A second embodiment will be described with reference to FIG. FIG. 3 is a block diagram of the sonar image processing apparatus 100 according to this embodiment.

図3を参照して、ソーナー画像処理装置100は、画像生成手段200、自動探知手段300、水中環境計測手段400、相対距離差算出手段500、距離差評価手段600、および画像類似度評価手段700を備える。   Referring to FIG. 3, sonar image processing apparatus 100 includes image generation means 200, automatic detection means 300, underwater environment measurement means 400, relative distance difference calculation means 500, distance difference evaluation means 600, and image similarity evaluation means 700. Is provided.

自動探知手段300は、図5の探知部3に相当しまたは含まれる。相対距離差算出手段500および距離差評価手段600は、図5の経路差算出部4に相当しまたは含まれる。画像類似度評価手段700は、図5の類似度判定部5および識別部6に相当しまたは含まれる。   The automatic detection means 300 corresponds to or is included in the detection unit 3 in FIG. The relative distance difference calculation unit 500 and the distance difference evaluation unit 600 correspond to or are included in the path difference calculation unit 4 of FIG. The image similarity evaluation unit 700 corresponds to or is included in the similarity determination unit 5 and the identification unit 6 in FIG.

画像生成手段200は、第1実施形態と同様に、サイドスキャン方式で取得したソーナー受信信号から、一般的な信号処理、画像処理を用いてソーナー画像を生成する。また、航法演算手段210により算出される緯度・軽度情報に基づいて、ソーナー画像のレンジ・アジマス座標系(R,X)を緯度・経度座標(x,y)に変換して出力する。   Similar to the first embodiment, the image generation unit 200 generates a sonar image from the sonar received signal acquired by the side scan method using general signal processing and image processing. Further, based on the latitude / lightness information calculated by the navigation calculation means 210, the range / azimuth coordinate system (R, X) of the sonar image is converted into latitude / longitude coordinates (x, y) and output.

航法演算手段210は、ソーナーの航走の軌跡に対応する時々刻々の緯度・経度を計算し、画像生成手段200に出力する。航法演算の具体的な方法としては、一般的なサイドスキャンソーナー、合成開口ソーナー等に用いられる方法を用いることができる。例えば、水中航走体では、慣性航法装置を内蔵して航走体のX-Y-Z方向それぞれの加速度を計測し、時間積分することで時々刻々の航走体位置を算出することができる。また水中曳航体では、水上の曳航船にGPSを搭載して緯度・経度を計測し、さらに水中曳航体と曳航船の相対位置を計測する水中測位装置等を用いることで、時々刻々の曳航体位置を算出することができる。   The navigation calculation means 210 calculates the latitude / longitude at every moment corresponding to the trajectory of the sonar sailing and outputs it to the image generation means 200. As a specific method of the navigation calculation, a method used for a general side scan sonar, synthetic aperture sonar, or the like can be used. For example, in an underwater vehicle, an inertial navigation device is built in, the acceleration in each of the X-Y-Z directions of the vehicle is measured, and time-integrated to calculate the vehicle position every moment. For underwater towed vehicles, the towed vessel on the water is equipped with GPS to measure the latitude and longitude, and the underwater positioning device that measures the relative position of the underwater towed vessel and the towed vessel is used. The position can be calculated.

自動探知手段300は、第1実施形態と同様に、ソーナー画像中から目標物のエコーまたはシャドウと思われる部分領域を自動的に抽出する。抽出結果は自動探知結果800として出力される。自動探知手段300が第1実施形態の自動探知手段30と異なる点は、探知結果の位置情報がレンジ・アジマス座標(R,X)ではなく、緯度・経度座標(x,y)で表現される点である。   As in the first embodiment, the automatic detection means 300 automatically extracts a partial area that seems to be an echo or shadow of the target from the sonar image. The extraction result is output as an automatic detection result 800. The automatic detection means 300 is different from the automatic detection means 30 of the first embodiment in that the position information of the detection result is expressed not by the range / azimuth coordinates (R, X) but by the latitude / longitude coordinates (x, y). Is a point.

水中環境計測手段400は、第1実施形態と同様に、一般的なサイドスキャンソーナー等で用いられる深度計および水中音速計を有し、その計測結果を相対距離差算出手段500へ逐次出力する。水中環境計測手段400が第1実施形態の水中環境計測手段40と異なる点は、海底高度情報をセンサにより計測せず、海底地形参照手段410により代替している点である。   Similar to the first embodiment, the underwater environment measuring unit 400 includes a depth meter and an underwater sound speed meter used in a general side scan sonar and the like, and sequentially outputs the measurement results to the relative distance difference calculating unit 500. The difference between the underwater environment measuring unit 400 and the underwater environment measuring unit 40 of the first embodiment is that the seafloor altitude information is not measured by the sensor, but is replaced by the seabed landform reference unit 410.

海底地形参照手段410は、ソーナーが運用される海域の詳細な深度情報を緯度・経度マップ形式で保持し、指定された緯度・経度位置における海域深度を出力する。海域深度の緯度・経度マップは、海洋調査等で広く用いられている一般的な海図のデータベース形式でよいが、これに限定されるものではない。   The submarine landform reference means 410 holds detailed depth information of the sea area where the sonar is operated in a latitude / longitude map format, and outputs the sea area depth at the designated latitude / longitude position. The latitude / longitude map of the sea area depth may be a general nautical chart database format widely used in ocean surveys, but is not limited thereto.

相対距離差算出手段500は、自動探知結果800に含まれるn個の探知結果のうち、ある1つの探知結果(Di)が直接経路信号によるものと仮定して、その緯度・経度位置(xi,yi)における海面反射経路信号の予測位置(x'i,y'i)を計算し、結果を距離差評価手段600に出力する。 The relative distance difference calculation means 500 assumes that one detection result (D i ) out of n detection results included in the automatic detection result 800 is a direct route signal, and its latitude / longitude position (x i, the predicted position of the sea surface reflection path signal (x 'i, y' i ) calculated in y i), and outputs the result to the distance difference evaluation unit 600.

画像上の海面反射経路信号の予測位置の算出方法としては、第1実施形態の相対距離差算出手段50と同様に、一旦レンジ・アジマス座標系(Ri+ΔR,Xi)で相対位置を求め、その後、画像生成手段200と同様に緯度・経度座標に変換する方法を用いることができるが、これに限定されるものではない。 As a calculation method of the predicted position of the sea surface reflection path signal on the image, the relative position is once calculated in the range / azimuth coordinate system (R i + ΔR, X i ), as in the relative distance difference calculation means 50 of the first embodiment. A method for obtaining and then converting to latitude / longitude coordinates in the same manner as the image generation means 200 can be used, but is not limited thereto.

距離差評価手段600は、相対距離差算出手段500が選択した探知結果(Di)の海面反射経路信号の予測位置(x'i,y'i)と、自動探知結果800に含まれる他のn-1個の探知結果(D1,D2,...Di-1,Di+1,...Dn)の緯度・経度位置を参照し、それらの相対距離Lij(j=1,2,...i-1,j+1,...n)を全て計算する。 The distance difference evaluation unit 600 includes the predicted position (x ′ i , y ′ i ) of the sea surface reflection path signal of the detection result (D i ) selected by the relative distance difference calculation unit 500 and other detection results 800 included in the automatic detection result 800. Referring to the latitude and longitude positions of n-1 detection results (D 1 , D 2 , ... D i-1 , D i + 1 , ... D n ), their relative distances L ij (j = 1,2, ... i-1, j + 1, ... n)

探知結果Diの予測位置と、探知結果Dj(緯度・経度位置座標=xj,yj)との相対距離差Lijは以下のように表される。 And predicted position of the detection result D i, detection result D j (latitude and longitude position coordinates = x j, y j) relative distance difference L ij between is expressed as follows.

Lij = sqrt{(x'i-xj)2+(y'i-yj)2} L ij = sqrt {(x ' i -x j ) 2 + (y' i -y j ) 2 }

距離差評価手段600は、Lijと、予め設定した距離差判定閾値Lthを比較し、Lij < Lthの場合には、探知結果Diと探知結果Djは同じ目標物に関する直接経路信号と海面反射経路信号による探知結果から構成される一対の探知結果である可能性が高いと判断し、2つの(一対)探知結果を画像類似度評価手段700に出力する。 The distance difference evaluation means 600 compares L ij with a preset distance difference determination threshold L th , and when L ij <L th , the detection result D i and the detection result D j are the direct paths related to the same target. It is determined that there is a high possibility that the detection result is a pair of detection results composed of the signal and the detection result of the sea surface reflection path signal, and the two (pair) detection results are output to the image similarity evaluation means 700.

画像類似度評価手段700は、距離差評価手段600から入力された一対の探知結果Di,Djの部分画像を参照し、両画像から所定のk個の特徴素(F1,F2,...Fk)を算出する。ここで、探知結果Diの部分画像から得られる特徴素をF1i,F2i,...Fki、探知結果Djの部分画像から得られる特徴素をF1j,F2j,...Fkj、と表記する。 The image similarity evaluation unit 700 refers to the partial images of the pair of detection results D i and D j input from the distance difference evaluation unit 600, and determines k feature elements (F1, F2,. .Fk). Here, feature elements obtained from the partial image of the detection result Di are F1 i , F2 i , ... Fk i , and feature elements obtained from the partial image of the detection result D j are F1 j , F2 j , ... Fk j .

画像の特徴素としては様々な方式があり、例えば、画像中の目標物のエコーやシャドウと思われる部分のレベル、寸法、形状といった諸情報や、予め取得した目標物画像で機械学習させた画像パターンとの一致度、等も特徴素として挙げられる。   There are various types of image feature elements. For example, various types of information such as the level, size, and shape of parts that appear to be echoes and shadows of the target in the image, and images that have been machine-learned with the target image acquired in advance. The degree of coincidence with the pattern, etc. can be cited as a feature element.

ここでは比較的単純な例として、目標物がある長さの線分として画像上に現れる場合について、図4を用いて説明する。この例における具体的な特徴素としては、線分の長さおよび傾きの2つである。   Here, as a relatively simple example, a case where a target appears on an image as a line segment having a certain length will be described with reference to FIG. As specific feature elements in this example, there are two lengths and inclinations of line segments.

図4(a)は、目標物の直接経路信号による探知結果がレンジRi、海面反射経路信号による探知決がレンジRj近傍に現れ、それぞれ探知結果Di、Djとして部分画像Pi、Pjが抽出されている例を示す。 FIG. 4 (a), detection results range R i by the direct path signal of the target, detection determined by the sea surface reflection path signal appears in the vicinity range R j, respectively detection result D i, the partial image P i as D j, An example in which P j is extracted is shown.

図4(b)は、探知結果Di、Djの部分画像Pi、Pjと特徴素の例を説明するもので、具体的な特徴素として線分長さF1と傾きF2の2つが抽出されている。すなわち、探知結果Diの線分長さはF1i、傾きはF2i、探知結果Djの線分長さはF1j、傾きはF2jであり、部分画像からそれぞれ具体的な値が読み取られる。 FIG. 4B illustrates an example of partial images P i , P j and feature elements of the detection results D i , D j , and two specific feature elements, a line segment length F1 and a slope F2, are shown. Has been extracted. In other words, the line segment length of the detection result D i is F1 i , the slope is F2 i , the line segment length of the detection result D j is F1 j , and the slope is F2 j , and specific values are read from the partial images, respectively. It is done.

画像類似度評価手段700は、探知結果Di、Djのそれぞれの特徴素の差を計算し、予め設定した特徴差閾値と比較することで、両者の類似度を判定する。この例では、画像類似度評価手段700は、線分長さF1および傾きF2に関して、下式が満たされる場合、両者の類似度が高いと判定する。 The image similarity evaluation unit 700 calculates the difference between the feature elements of the detection results D i and D j and compares the difference with a preset feature difference threshold to determine the similarity between the two. In this example, the image similarity evaluation unit 700 determines that the degree of similarity between the line segment length F1 and the inclination F2 is high when the following expression is satisfied.

(|F1i-F1j| < F1th) & (|F2i-F2j| < F2th)
F1th : 線分長さF1に関する閾値
F2th : 傾きF2に関する閾値
(| F1 i -F1 j | <F1 th ) & (| F2 i -F2 j | <F2 th )
F1 th : Threshold value for line length F1
F2 th : Threshold value for slope F2

探知結果Di、Djの類似度が高いと判定される場合、画像類似度評価手段700は、自動探知結果800から探知結果Djを削除する。 When it is determined that the similarity between the detection results D i and D j is high, the image similarity evaluation unit 700 deletes the detection result D j from the automatic detection result 800.

自動探知手段300が出力した自動探知結果800に対して、水中環境計測手段400、海底地形参照手段410、相対距離差算出手段500、距離差評価手段600、および画像類似度評価手段700は、上述の一連の処理を繰り返し適用することにより、海面反射経路信号による探知結果が全て除外された自動探知結果810を得ることができる。   For the automatic detection result 800 output by the automatic detection means 300, the underwater environment measurement means 400, the seabed topography reference means 410, the relative distance difference calculation means 500, the distance difference evaluation means 600, and the image similarity evaluation means 700 are described above. By repeatedly applying the series of processes, it is possible to obtain an automatic detection result 810 from which all detection results by the sea surface reflection path signal are excluded.

なお、本実施形態では、画像類似度評価手段700において、線分長さおよび傾きを特徴素として類似度を判定しているが、これら以外の特徴素を用いて判定してもよい。また特徴素の個数は、2個に限定されず、1個あるいは3個以上の特徴素を用いて判定してもよい。   In the present embodiment, the image similarity evaluation unit 700 determines the similarity using the line segment length and the inclination as the feature elements. However, the image similarity may be determined using other feature elements. Further, the number of feature elements is not limited to two, and determination may be made using one or three or more feature elements.

本実施形態では、自動探知手段300で得られた自動探知結果800に対して画像類似度評価手段700が特徴素の抽出を行っているが、自動探知手段300の自動探知方法の中に特徴素抽出を組み込んでもよい。自動探知結果800は、所定の特徴素情報の抽出結果を含んだ形態で出力される。よって画像類似度評価手段700は、改めて特徴素を抽出せずに、探知結果Di、Dj間の特徴素の閾値判定のみを行うことができる。 In this embodiment, the image similarity evaluation unit 700 extracts feature elements from the automatic detection result 800 obtained by the automatic detection unit 300. The feature elements are included in the automatic detection method of the automatic detection unit 300. Extraction may be incorporated. The automatic detection result 800 is output in a form including the extraction result of predetermined feature element information. Therefore, the image similarity evaluation means 700 can perform only the threshold determination of the feature element between the detection results D i and D j without extracting the feature element again.

本実施形態では、航法演算手段210を用いてソーナー画像を緯度・経度座標で定義しているが、それ以外の他の座標系で定義してもよい。例えば、ソーナーの運用開始時点の位置を原点とし、真北方向をX軸、真東方向をY軸と定義してもよい。   In this embodiment, the sonar image is defined by latitude / longitude coordinates using the navigation calculation means 210, but may be defined by other coordinate systems. For example, the position at the start of operation of the sonar may be defined as the origin, the true north direction may be defined as the X axis, and the true east direction may be defined as the Y axis.

第1および第2実施形態では、水中環境計測手段40,400で計測した水中音速をレンジ距離計算に使用しているが、別の手段で予め計測された水中音速を用いてもよい。この場合、実環境における真の水中音速とは必ずしも一致しない可能性があり、レンジ距離計算結果に含まれる誤差が大きくなる。   In the first and second embodiments, the underwater sound speed measured by the underwater environment measuring means 40 and 400 is used for the range distance calculation. However, the underwater sound speed previously measured by another means may be used. In this case, there is a possibility that the actual underwater sound speed in the actual environment does not necessarily match, and the error included in the range distance calculation result increases.

なお、上記の特許文献の各開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の開示要素(各請求項の各要素、各実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ乃至選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。   It should be noted that the disclosures of the above patent documents are incorporated herein by reference. Within the scope of the entire disclosure (including claims) of the present invention, the embodiments and examples can be changed and adjusted based on the basic technical concept. Various combinations or selections of various disclosed elements (including each element of each claim, each element of each embodiment, each element of each drawing, etc.) are possible within the scope of the claims of the present invention. . That is, the present invention of course includes various variations and modifications that could be made by those skilled in the art according to the entire disclosure including the claims and the technical idea.

特に制限されないが、実施形態及び変形例等は以下のように付記される。
(付記1)
生成したソーナー画像を参照して目標物と思われる画像領域を自動的に抽出する自動探知手段と、ソーナーの海底高度、深度および水中音速等を正確に計測するセンサと、上記センサによるソーナーの海底高度、深度および水中音速等の計測結果に基づいて、直接経路と海面反射経路との時間差を算出し、ソーナー画像上に現れる直接経路信号と海面反射経路信号との相対距離差を求める手段と、ソーナー画像から得られた自動探知結果を参照して、任意の2つの探知結果の位置関係が前記相対距離差に一致するかを判定する距離差評価手段と、位置関係が前記相対距離差に一致する任意の2つ探知結果の部分画像の類似度を計算する類似度評価手段と、前記距離差評価手段と類似度評価手段により得られた相対距離差および類似度に基づいて同一と判定された探知結果のうち、海面反射経路に相当する一方を誤警報として自動探知結果から削除する手段と、を備えるソーナー画像処理装置。
(付記2)
生成したソーナー画像を参照して目標物と思われる画像領域を自動的に抽出した自動探知結果の中から、海面反射経路信号による探知結果のみを除去する方法であって、ソーナーの海底高度、深度および水中音速等の計測結果に基づいて、直接経路と海面反射経路との時間差を算出し、ソーナー画像上に現れる直接経路信号と海面反射経路信号との相対距離差を求め、自動探知結果のうち相対位置関係が前記相対距離差に一致する一対の探知結果を抽出し、前記一対の探知結果の部分画像の類似度を計算して同一性を判定し、同一と認められた場合は海面反射経路に相当する一方を誤警報として自動探知結果から削除した後に自動探知結果を出力するソーナー画像処理方法。
(付記3)
生成したソーナー画像を参照して目標物と思われる画像領域を自動的に抽出するソーナー画像処理装置のコンピュータが実行可能なソーナー画像処理プログラムであって、ソーナーの海底高度、深度および水中音速等の計測結果に基づいて、直接経路と海面反射経路との時間差を算出し、ソーナー画像上に現れる直接経路信号と海面反射経路信号との相対距離差を求める機能、自動探知結果のうち相対位置関係が前記相対距離差に一致する一対の探知結果を抽出する機能、前記一対の探知結果の部分画像の類似度を計算して同一性を判定する機能、同一と認められた場合は海面反射経路に相当する一方を誤警報として自動探知結果から削除した後に自動探知結果を出力する機能、をコンピュータに実行させるソーナー画像処理プログラム。
Although not particularly limited, the embodiment, the modification, and the like are appended as follows.
(Appendix 1)
An automatic detection means that automatically extracts an image area that seems to be a target with reference to the generated sonar image, a sensor that accurately measures the seabed altitude, depth, underwater sound velocity, etc. of the sonar, and the sonar seabed by the sensor. Based on measurement results such as altitude, depth and underwater sound speed, a time difference between the direct path and the sea surface reflection path is calculated, and a relative distance difference between the direct path signal and the sea surface reflection path signal appearing on the sonar image is obtained; Distance difference evaluation means for determining whether the positional relationship between any two detection results matches the relative distance difference with reference to the automatic detection result obtained from the sonar image, and the positional relationship matches the relative distance difference Similarity evaluation means for calculating the similarity of partial images of two arbitrary detection results, and based on the relative distance difference and similarity obtained by the distance difference evaluation means and the similarity evaluation means Of the same as the determined result of detection, sonar image processing apparatus comprising: means for deleting from the automatic detection result false alarm one corresponding to the sea surface reflection path, a.
(Appendix 2)
This method removes only the detection result by the sea surface reflection path signal from the automatic detection result obtained by automatically extracting the image area that seems to be the target with reference to the generated sonar image. The time difference between the direct path and the sea surface reflection path is calculated based on the measurement results such as the underwater sound velocity, and the relative distance difference between the direct path signal and the sea surface reflection path signal appearing on the sonar image is obtained. A pair of detection results whose relative positional relationship matches the relative distance difference is extracted, the similarity of the partial images of the pair of detection results is calculated to determine the identity, and when it is recognized as the same, the sea surface reflection path A sonar image processing method for outputting an automatic detection result after deleting one corresponding to the false alarm from the automatic detection result.
(Appendix 3)
A sonar image processing program that can be executed by a computer of a sonar image processing apparatus that automatically extracts an image area that is considered to be a target with reference to a generated sonar image, such as the sonar seabed altitude, depth, underwater sound speed, etc. Based on the measurement results, the time difference between the direct path and the sea surface reflection path is calculated, the relative distance difference between the direct path signal and the sea surface reflection path signal that appears on the sonar image, and the relative position of the automatic detection results A function of extracting a pair of detection results that match the relative distance difference, a function of calculating the similarity of partial images of the pair of detection results and determining the identity, and if it is recognized as the same, corresponds to a sea surface reflection path A sonar image processing program for causing a computer to execute a function of outputting an automatic detection result after deleting one of the two as a false alarm from the automatic detection result.

1 目標物
2 目標物
3 探知部
4 経路差算出部
5 類似度判定部
6 識別部
10 ソーナー画像処理装置
20 画像生成手段
30 自動探知手段
40 水中環境計測手段
50 相対距離差算出手段
60 距離差評価手段
70 画像類似度評価手段
80 自動探知結果(海面反射経路信号による誤警報を含む)
81 自動探知結果(海面反射経路信号による誤警報を含まない)
100 ソーナー画像処理装置
200 画像生成手段
210 航法演算手段
300 自動探知手段
400 水中環境計測手段
410 海底地形参照手段
500 相対距離差算出手段
600 距離差評価手段
700 画像類似度評価手段
800 自動探知結果(海面反射経路信号による誤警報を含む)
810 自動探知結果(海面反射経路信号による誤警報を含まない)
DESCRIPTION OF SYMBOLS 1 Target object 2 Target object 3 Detection part 4 Path difference calculation part 5 Similarity determination part 6 Identification part 10 Sonar image processing apparatus 20 Image generation means 30 Automatic detection means 40 Underwater environment measurement means 50 Relative distance difference calculation means 60 Distance difference evaluation Means 70 Image similarity evaluation means 80 Automatic detection result (including false alarm by sea surface reflection path signal)
81 Automatic detection results (not including false alarms due to sea surface reflection path signals)
DESCRIPTION OF SYMBOLS 100 Sonar image processing apparatus 200 Image generation means 210 Navigation calculation means 300 Automatic detection means 400 Underwater environment measurement means 410 Seabed topography reference means 500 Relative distance difference calculation means 600 Distance difference evaluation means 700 Image similarity evaluation means 800 Automatic detection result (sea surface (Including false alarms due to reflection path signals)
810 Automatic detection results (not including false alarms due to sea surface reflection path signals)

Claims (10)

ソーナー画像から目標物を現すと推定される複数の部分画像を抽出する探知部と、
前記目標物に反射される直接経路信号と前記目標物および海面に反射される海面反射信号との経路差を算出する経路差算出部と、
前記複数の部分画像から互いに前記経路差に対応する関係を有する少なくとも一組の前記部分画像を抽出し、抽出された前記少なくとも一組の部分画像間の類似度を計算して前記少なくとも一組の部分画像が同一の前記目標物を現している部分画像であるかどうか判定する類似度判定部と、
前記経路差に対応する関係を有する前記少なくとも一組の部分画像から前記類似度の判定に基づいて前記目標物を識別する識別部と、を備えることを特徴とするソーナー画像処理装置。
A detection unit that extracts a plurality of partial images estimated to show the target from the sonar image;
A path difference calculation unit for calculating a path difference between the direct path signal reflected by the target and the sea surface reflection signal reflected by the target and the sea surface;
Extracting at least one set of the partial images having a relationship corresponding to the path difference from each other from the plurality of partial images, calculating a similarity between the extracted at least one set of partial images, and calculating the at least one set of the partial images; A similarity determination unit that determines whether or not partial images are partial images representing the same target object;
A sonar image processing apparatus comprising: an identification unit that identifies the target based on the determination of the similarity from the at least one set of partial images having a relationship corresponding to the path difference.
前記識別部は、ソーナーによる探知結果から前記海面反射信号を除去するように構成されることを特徴とする請求項1記載のソーナー画像処理装置。   The sonar image processing apparatus according to claim 1, wherein the identification unit is configured to remove the sea surface reflection signal from a detection result of the sonar. 前記識別部は、前記経路差に対応する関係を有する少なくとも一組の前記部分画像から、少なくとも前記類似度に基づいて、前記海面反射信号による少なくとも1つの部分画像を削除するよう構成されることを特徴とする請求項1または2記載のソーナー画像処理装置。   The identifying unit is configured to delete at least one partial image by the sea surface reflection signal based on at least the similarity from at least one set of the partial images having a relationship corresponding to the path difference. The sonar image processing apparatus according to claim 1 or 2, characterized in that: 前記経路差に対応する関係を有する少なくとも一組の前記部分画像を抽出するために、少なくとも2つの前記部分画像の位置関係が、前記直接経路信号と前記海面反射信号との経路差に対応するかどうか判定する経路差評価手段を有することを特徴とする請求項1〜3のいずれか一記載のソーナー画像処理装置。   In order to extract at least one set of the partial images having a relationship corresponding to the path difference, the positional relationship between at least two of the partial images corresponds to the path difference between the direct path signal and the sea surface reflection signal. The sonar image processing apparatus according to claim 1, further comprising a path difference evaluation unit that determines whether or not. 前記経路差算出部は、海底高度、深度、水中音速の少なくとも1つを含む水中環境条件に基づいて前記経路差を算出するように構成されることを特徴とする請求項1〜4のいずれか一記載のソーナー画像処理装置。   The route difference calculation unit is configured to calculate the route difference based on an underwater environment condition including at least one of sea bottom altitude, depth, and underwater sound speed. The sonar image processing apparatus according to one. 前記経路差算出部は、ソーナー運用海域の海底高度情報をマップ形式で備え、少なくとも前記海底高度情報に基づいて前記経路差を算出するように構成されることを特徴とする請求項1〜5のいずれか一記載のソーナー画像処理装置。   6. The route difference calculation unit according to claim 1, wherein the route difference calculation unit includes bottom altitude information of a sonar operation sea area in a map format, and is configured to calculate the route difference based on at least the sea bottom height information. The sonar image processing apparatus according to any one of the above. 前記類似度判定部は、少なくとも一組の前記部分画像間の相関係数を計算し、前記相関係数と予め定められた所定の閾値との大小関係に基づいて前記類似度の判定を行うよう構成されることを特徴とする請求項1〜6のいずれか一記載のソーナー画像処理装置。   The similarity determination unit calculates a correlation coefficient between at least one set of the partial images, and determines the similarity based on a magnitude relationship between the correlation coefficient and a predetermined threshold value. The sonar image processing apparatus according to claim 1, wherein the sonar image processing apparatus is configured. 前記類似度判定部は、少なくとも一組の前記部分画像の特徴要素を抽出し、抽出した特徴要素間の差と前記閾値との大小関係に基づいて前記類似度の判定を行うよう構成されることを特徴とする請求項1〜7のいずれか一記載のソーナー画像処理装置。   The similarity determination unit is configured to extract feature elements of at least one set of the partial images, and to determine the similarity based on a magnitude relationship between a difference between the extracted feature elements and the threshold value. The sonar image processing apparatus according to any one of claims 1 to 7. ソーナー画像から目標物を現すと推定される複数の部分画像を抽出し、
前記目標物に反射される直接経路信号と前記目標物および海面に反射される海面反射信号との経路差を算出し、
前記複数の部分画像から互いに前記経路差に対応する関係を有する少なくとも一組の前記部分画像を抽出し、抽出された前記少なくとも一組の部分画像間の類似度を計算して前記少なくとも一組の部分画像が同一の前記目標物を現している部分画像であるかどうか判定し、
前記経路差に対応する関係を有する前記少なくとも一組の部分画像から前記類似度の判定に基づいて前記目標物を識別する、ことを特徴とするソーナー画像処理方法。
Extract multiple partial images estimated to reveal the target from the sonar image,
Calculating the path difference between the direct path signal reflected by the target and the sea surface reflection signal reflected by the target and the sea surface;
Extracting at least one set of the partial images having a relationship corresponding to the path difference from each other from the plurality of partial images, calculating a similarity between the extracted at least one set of partial images, and calculating the at least one set of the partial images; Determining whether a partial image is a partial image representing the same target,
A sonar image processing method, wherein the target is identified from the at least one set of partial images having a relationship corresponding to the path difference based on the similarity determination.
ソーナー画像から目標物を現すと推定される複数の部分画像を抽出する機能と、
前記目標物に反射される直接経路信号と前記目標物および海面に反射される海面反射信号との経路差を算出する機能と、
前記複数の部分画像から互いに前記経路差に対応する関係を有する少なくとも一組の前記部分画像を抽出し、抽出された前記少なくとも一組の部分画像間の類似度を計算して前記少なくとも一組の部分画像が同一の前記目標物を現している部分画像であるかどうか判定する機能と、
前記経路差に対応する関係を有する前記少なくとも一組の部分画像から前記類似度の判定に基づいて前記目標物を識別する機能と、をコンピュータに実行させることを特徴とするソーナー画像処理プログラム。
A function to extract a plurality of partial images estimated to show the target from the sonar image;
A function of calculating a path difference between a direct path signal reflected by the target and a sea surface reflection signal reflected by the target and the sea surface;
Extracting at least one set of the partial images having a relationship corresponding to the path difference from each other from the plurality of partial images, calculating a similarity between the extracted at least one set of partial images, and calculating the at least one set of the partial images; A function of determining whether the partial images are partial images representing the same target;
A sonar image processing program that causes a computer to execute a function of identifying the target based on the determination of the similarity from the at least one set of partial images having a relationship corresponding to the path difference.
JP2017040794A 2017-03-03 2017-03-03 Sonar image processing device, sonar image processing method and sonar image processing program Active JP6922262B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017040794A JP6922262B2 (en) 2017-03-03 2017-03-03 Sonar image processing device, sonar image processing method and sonar image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017040794A JP6922262B2 (en) 2017-03-03 2017-03-03 Sonar image processing device, sonar image processing method and sonar image processing program

Publications (2)

Publication Number Publication Date
JP2018146354A true JP2018146354A (en) 2018-09-20
JP6922262B2 JP6922262B2 (en) 2021-08-18

Family

ID=63591087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017040794A Active JP6922262B2 (en) 2017-03-03 2017-03-03 Sonar image processing device, sonar image processing method and sonar image processing program

Country Status (1)

Country Link
JP (1) JP6922262B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012043A (en) * 2019-07-03 2021-02-04 株式会社日立製作所 Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05188139A (en) * 1992-01-14 1993-07-30 Nec Corp Device for preventing false detection of active sonar
JPH07294640A (en) * 1994-04-22 1995-11-10 Nec Corp Signal detection system
JPH0815408A (en) * 1994-07-05 1996-01-19 Japan Radio Co Ltd Display apparatus for navigation
JPH0980147A (en) * 1995-09-08 1997-03-28 Japan Radio Co Ltd Ultrasonic underwater detector
JPH09264948A (en) * 1996-03-27 1997-10-07 Nec Corp Underwater voyager detector
JP2004117182A (en) * 2002-09-26 2004-04-15 Nec Corp System for automatically identifying object by group
JP2012128558A (en) * 2010-12-14 2012-07-05 Toshiba Corp Identification apparatus
JP2014132248A (en) * 2013-01-07 2014-07-17 Nec Corp Sonar image processing apparatus, sonar image processing method, sonar image processing program, and recording medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05188139A (en) * 1992-01-14 1993-07-30 Nec Corp Device for preventing false detection of active sonar
JPH07294640A (en) * 1994-04-22 1995-11-10 Nec Corp Signal detection system
JPH0815408A (en) * 1994-07-05 1996-01-19 Japan Radio Co Ltd Display apparatus for navigation
JPH0980147A (en) * 1995-09-08 1997-03-28 Japan Radio Co Ltd Ultrasonic underwater detector
JPH09264948A (en) * 1996-03-27 1997-10-07 Nec Corp Underwater voyager detector
JP2004117182A (en) * 2002-09-26 2004-04-15 Nec Corp System for automatically identifying object by group
JP2012128558A (en) * 2010-12-14 2012-07-05 Toshiba Corp Identification apparatus
JP2014132248A (en) * 2013-01-07 2014-07-17 Nec Corp Sonar image processing apparatus, sonar image processing method, sonar image processing program, and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012043A (en) * 2019-07-03 2021-02-04 株式会社日立製作所 Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning
JP7300331B2 (en) 2019-07-03 2023-06-29 株式会社日立製作所 Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning

Also Published As

Publication number Publication date
JP6922262B2 (en) 2021-08-18

Similar Documents

Publication Publication Date Title
US7315488B2 (en) Methods and systems for passive range and depth localization
JP5389267B2 (en) Method and apparatus for measuring seabed contours
US7639565B2 (en) Point source localization sonar system and method
JP2007507691A (en) Sonar systems and processes
RU2634787C1 (en) Method of detecting local object against background of distributed interference
EP2507645B1 (en) System and method for discriminating targets at the water surface from targets below the water surface.
NO337034B1 (en) Device for avoiding obstacles to fast multi-hull vessels
JP3515751B2 (en) Reconstruction method of three-dimensional submarine structure
Jalving et al. Terrain referenced navigation of AUVs and submarines using multibeam echo sounders
Prior A scatterer map for the Malta Plateau
JP6922262B2 (en) Sonar image processing device, sonar image processing method and sonar image processing program
RU2545068C1 (en) Measurement method of changes of heading angle of movement of source of sounding signals
WO2020096495A1 (en) Method for positioning underwater objects
KR101480834B1 (en) Target motion analysis method using target classification and ray tracing of underwater sound energy
KR101837845B1 (en) System and method for obtaining information of underwater target
US20060083110A1 (en) Ambient bistatic echo ranging system and method
JP5708018B2 (en) Active sonar device
US11493627B2 (en) Method, module and system for determining a velocity profile of sound waves in a water column
JP7306030B2 (en) Target motion estimation device and target motion estimation method
RU2660292C1 (en) Method for determining object immersion depth
JP2010145224A (en) Scanning sonar device
JP2014041135A (en) Active sonar device
JP5515214B2 (en) Active sonar device and dereverberation method using active sonar device
CN111337881B (en) Underwater target detection method utilizing propeller noise
RU2788341C1 (en) Method for localization in the space of a noise-producing object in the sea

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210712

R150 Certificate of patent or registration of utility model

Ref document number: 6922262

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150