JP2016215908A - Sensor laying device, system and method for estimating sound source object - Google Patents
Sensor laying device, system and method for estimating sound source object Download PDFInfo
- Publication number
- JP2016215908A JP2016215908A JP2015104698A JP2015104698A JP2016215908A JP 2016215908 A JP2016215908 A JP 2016215908A JP 2015104698 A JP2015104698 A JP 2015104698A JP 2015104698 A JP2015104698 A JP 2015104698A JP 2016215908 A JP2016215908 A JP 2016215908A
- Authority
- JP
- Japan
- Prior art keywords
- information
- sound source
- sensor
- source object
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Description
本発明は、ケーブルにパッシブ型音響センサを複数設けたセンサアレイを複数水底に敷設するセンサ敷設装置、該装置を用いて水底に敷設したセンサアレイを用いて水面又は水中に存在する音源物体が発した音から音源物体の推定及び該物体の位置や移動速度を推定する音源物体推定システム及び方法に関する。 The present invention provides a sensor laying device in which a plurality of sensor arrays each having a plurality of passive acoustic sensors provided on a cable are laid on the bottom of the water, and a sound source object existing on the water surface or in the water using the sensor array laid on the bottom of the water. The present invention relates to a sound source object estimation system and method for estimating a sound source object from the sound and estimating the position and moving speed of the object.
従来より、例えば船舶や海洋生物といった特定の音を発しながら水面や水中を移動する移動物体(以下、「音源物体」という)の位置を推定する技術が下記特許文献1、2に開示されている。
Conventionally, techniques for estimating the position of a moving object (hereinafter referred to as a “sound source object”) that moves on the surface of the water or under water while emitting a specific sound, such as a ship or marine life, have been disclosed in
下記特許文献1には、音を発しながら水上及び水中を航行する物体(以下、「音源物体」という。)の位置をパッシブ的に推定する方法として、艦艇の底部に設置したハルソナーと、線状にセンサを配置した曳航式パッシブソナーを併用し、曳航式パッシブソナーの整相器の出力の中で探知している方位のみの整相ビーム信号を選択回路で取り出し、この選択回路の出力とハルソナーの整相器の出力との相関演算を相関演算回路で行うことで目標を探知する技術について開示されている。
In
また、下記特許文献2には、水中の観測水域に航空機から投下した水中センサを敷設用切り離し装置で水中センサの浮上部から切り離してセンサ本体部分を水中に敷設し、水中センサ本体部分に備えた水中無線機の通信可能範囲内に存在する他の水中センサ及び/又は水中通信ネットワーク端末との間で、水中通信によりセンサデータをはじめ任意のデータを送受信可能とし、最終的に、水底ケーブルを経由して陸上局と通信可能とする。また、陸上局からの水中センサの回収命令を水中無線機で受信した際に、回収用切り離し装置を作動させてアンカーから主要部分を切り離し、水中浮力体の浮力により水面に浮上させて回収する技術について開示されている。 Further, in Patent Document 2 below, an underwater sensor dropped from an aircraft in an underwater observation water area is separated from the floating part of the underwater sensor by a detaching apparatus for laying, and a sensor body portion is laid in water to prepare the underwater sensor body portion. Underwater communication makes it possible to send and receive any data, including sensor data, with other underwater sensors and / or underwater communication network terminals that exist within the communication range of the underwater wireless device, and finally via a submarine cable. Communication with the land station. Also, when the underwater sensor collection command from the land station is received by the underwater wireless device, the recovery device is activated to separate the main part from the anchor, and the surface is recovered by floating on the water surface by the buoyancy of the underwater buoyant body Is disclosed.
しかしながら、特許文献1に開示される方法では、測定に用いる艦艇が高価であり、且つ有人であるため、コスト及び人的リスクの問題がある。
However, in the method disclosed in
また、特許文献2の方法では、音響センサを水底から垂直に展張しているため、水平方向に鋭い指向性を持たせて音源物体の方位情報を高精度に取得するのは困難である。さらに、音源物体が移動する場合、音源物体から発する音の周波数はドップラー偏移するが、その偏移量は音源物体とセンサの位置関係及び音源物体速度で変化するため、それぞれのセンサで取得される周波数が異なってしまうという問題がある。 Further, in the method of Patent Document 2, since the acoustic sensor is vertically extended from the bottom of the water, it is difficult to obtain the direction information of the sound source object with high accuracy by giving a sharp directivity in the horizontal direction. Furthermore, when the sound source object moves, the frequency of the sound emitted from the sound source object shifts by Doppler, but the amount of shift varies depending on the positional relationship between the sound source object and the sensor and the sound source object speed. There is a problem that the frequency to be different.
また、例えば特開2007−121008号公報で開示される技術において、使用される地震計を音源物体から発せられる音を検知する音響センサに置き換えることで広範囲を長期間に亘って音源物体の位置を特定することも可能であるが、このようなセンサネットワークを水底に恒久的に構築するには時間及びコストが必要となり迅速に展開することができない。また、この方法によって敷設した場合、万が一センサが故障して交換したいときに回収が困難である。 Also, for example, in the technique disclosed in Japanese Patent Application Laid-Open No. 2007-121008, the position of the sound source object can be determined over a wide range by replacing the seismometer used with an acoustic sensor that detects sound emitted from the sound source object. Although it is possible to specify, it is time consuming and costly to construct such a sensor network permanently on the bottom of the water and cannot be deployed quickly. In addition, when laid by this method, it is difficult to collect the sensor if the sensor should fail and be replaced.
さらに、上記文献以外の方法として、指向性を持つパッシブソノブイ(以下、「ダイファーブイ」という。)を航空機から複数投下し、それぞれのダイファーブイから音源物体方位に直線を引くことで、各直線が交差する位置を音源物体の位置を推定する技術が知られているが、この方法では人的リスクの問題は軽減されるが、ダイファーブイは航空機から投下するため一般に小型であり、また単体での稼働時間及び探知距離の限界から広範囲を長期間に亘って捜索するには多量のダイファーブイを使い捨てなければならず、莫大なコストが掛かってしまう。 Further, as a method other than the above-mentioned document, a plurality of passive sonobuoys having directivity (hereinafter referred to as “daifer buoys”) are dropped from the aircraft, and straight lines are drawn from the respective difer buoys to the sound source object direction so that the respective straight lines intersect. Although a technique for estimating the position of a sound source object is known, the human risk problem is reduced by this method, but the difer buoy is generally small because it is dropped from an aircraft, and the operation time and the stand alone In order to search a wide area for a long period of time due to the limit of the detection distance, a large amount of difer buoys must be disposable, which entails enormous costs.
そこで、本発明は上記問題点に鑑みてなされたものであり、任意の監視区域に迅速に展開でき、さらにセンサアレイが故障した場合なども容易に交換できるセンサ敷設装置と、このセンサ敷設装置を用いて水底に敷設したセンサで人的リスクが少なく、且つ音源物体の方位情報及び音紋情報を長期間に亘って広範囲に取得して音源物体の種類の推定及び音源物体の位置や速度を高精度で推定することのできる音源物体推定システム及び方法を提供することを目的とするものである。 Therefore, the present invention has been made in view of the above problems, and a sensor laying device that can be quickly deployed in an arbitrary monitoring area and can be easily replaced even when a sensor array breaks down, and the sensor laying device. The sensor installed on the bottom of the water is low in human risk, and the direction information and sound pattern information of the sound source object are acquired over a wide range over a long period of time to estimate the type of the sound source object and increase the position and speed of the sound source object. It is an object of the present invention to provide a sound source object estimation system and method that can be estimated with accuracy.
上記した目的を達成するため、請求項1記載のセンサ敷設装置は、所定長のケーブルに所定間隔をおいて複数のパッシブ型音響センサを配置してなるセンサアレイ部と、
前記センサアレイ部の一端に固定され前記センサアレイ部の一部を水底に固定するアンカーと、前記アンカーを着脱可能に支持する支持部材とを有する位置固定部と、
水中の自己位置を示す自己位置情報を取得する位置情報取得部と、水中における推進力を発生させる推進部と、水中で沈降又は浮上するための浮力を調整する浮力調整部とを有する本体部と、
を備える自律型無人潜水艇であるセンサ敷設装置であって、
前記本体部は、前記本体部が予め設定された前記アンカーの固定目標位置まで移動したときに前記アンカーを離間して前記センサアレイ部の一端を前記水底に固定させ、前記本体部を予め設定された着底目標位置情報まで移動した後に、前記本体部を前記水底に着底させて、前記本体部、前記センサアレイ部及び前記アンカーが前記水底に直線状に敷設されるように、前記本体部及び位置固定部を制御する制御部を備えたことを特徴とする。
In order to achieve the above-described object, the sensor laying device according to
A position fixing unit having an anchor fixed to one end of the sensor array unit and fixing a part of the sensor array unit to a water bottom; and a support member that detachably supports the anchor;
A main body having a position information acquisition unit that acquires self-position information indicating self-position in water, a propulsion unit that generates a propulsive force in water, and a buoyancy adjustment unit that adjusts buoyancy to sink or float in water; ,
A sensor laying device that is an autonomous unmanned submersible craft comprising:
When the main body moves to a fixed target position of the anchor set in advance, the main body is separated from the anchor to fix one end of the sensor array unit to the water bottom, and the main body is set in advance. After moving to the bottom target position information, the main body part is attached to the water bottom, and the main body part, the sensor array part, and the anchor are laid linearly on the water bottom. And a control unit for controlling the position fixing unit.
請求項2記載の音源物体推定システムは、請求項1記載のセンサ敷設装置を2つ用い、前記各センサ敷設装置がそれぞれ水底に設置された中継器を介して情報処理装置と通信可能に接続される音源物体推定システムであって、
前記2つのセンサ敷設装置は、前記センサアレイ部で受信した前記音源物体から発せられた音の音波成分に応じた音響信号から前記方位角情報と前記音紋情報とを取得し、この取得した前記方位角情報と、前記音紋情報と、前記位置情報取得部で取得される自己位置情報とを前記中継器を介して前記情報処理装置に送信する制御部を互いに備え、
さらに、一方のセンサ敷設装置の中心を通る仮想基準線と、他方のセンサ敷設装置の中心を通る仮想基準線とが交点を持つように、前記各センサ敷設装置の前記本体部、前記センサアレイ部及び前記アンカーが共に前記水底に直線状に敷設され、
前記情報処理装置は、
前記音源物体の種類と当該物体が発する音の音波成分を示す音紋情報とを関連付けした状態でデータベース化された音紋情報データベースを記憶する記憶部と、
前記一方のセンサ敷設装置から送信された前記音紋情報に含まれる中心周波数と、前記他方のセンサ敷設装置から送信された前記音紋情報に含まれる中心周波数との比例関係と一致する音紋情報を前記音紋情報データベースから検索する処理と、
検索した結果、前記音紋情報データベースに、前記各センサ敷設装置の前記音紋情報に含まれる中心周波数同士の比例関係と一致する音紋情報が存在したときに、前記一致した音源物体の音紋情報に含まれる中心周波数と、前記一方のセンサ敷設装置の前記音紋情報に含まれる中心周波数と、前記他方のセンサ敷設装置の前記音紋情報に含まれる中心周波数とを用いて、下記式(1)により、前記一方のセンサ敷設装置に対する前記音源物体の相対速度及び前記他方のセンサ敷設装置に対する前記音源物体の相対速度をそれぞれ推定する処理と、
前記一方のセンサ敷設装置からの前記方位角情報と前記位置情報及び前記他方のセンサ敷設装置からの前記方位角情報と前記位置情報から前記音源物体の位置を示す音源物体位置情報を推定する処理と、
前記推定された音源物体位置情報と、推定した前記一方のセンサ敷設装置に対する前記音源物体の相対速度及び前記他方のセンサ敷設装置に対する前記音源物体の相対速度から前記音源物体の空間中における移動速度を示す絶対速度を推定する処理と、
を行う制御部を備えることを特徴とする。
(式1)fcri=c/(c−v)・fcdi
ここで、「fcr 」はセンサ敷設装置から送信された音紋情報に含まれる中心周波数、「fcd 」は音紋情報データベースの音紋情報に含まれる中心周波数、「v」は音源物体のセンサアレイ部に対する相対速度、「c」は音速を表し、「i」は音源物体Sが発する複数の音の成分を示しi=1,2,…,nとする。
A sound source object estimation system according to a second aspect uses the two sensor laying apparatuses according to the first aspect, and each sensor laying apparatus is connected to an information processing apparatus through a repeater installed on the bottom of the water. A sound source object estimation system,
The two sensor laying devices acquire the azimuth angle information and the voiceprint information from an acoustic signal corresponding to a sound wave component of a sound emitted from the sound source object received by the sensor array unit, and the acquired A control unit that transmits azimuth angle information, the sound pattern information, and the self-location information acquired by the position information acquisition unit to the information processing apparatus via the repeater, and
Further, the main body portion and the sensor array portion of each sensor laying device such that a virtual reference line passing through the center of one sensor laying device and a virtual reference line passing through the center of the other sensor laying device have an intersection. And both the anchors are laid in a straight line on the bottom of the water,
The information processing apparatus includes:
A storage unit for storing a voiceprint information database that is databased in a state in which the type of the sound source object and the voiceprint information indicating the sound wave component of the sound emitted from the object are associated;
The voiceprint information that matches the proportional relationship between the center frequency included in the voiceprint information transmitted from the one sensor laying apparatus and the center frequency included in the voiceprint information transmitted from the other sensor laying apparatus. Searching from the voiceprint information database;
As a result of the search, when the voiceprint information matching the proportional relationship between the center frequencies included in the voiceprint information of each sensor laying device exists in the voiceprint information database, the voiceprint of the matched sound source object Using the center frequency included in the information, the center frequency included in the soundprint information of the one sensor laying device, and the center frequency included in the soundprint information of the other sensor laying device, the following formula ( 1) to estimate the relative speed of the sound source object relative to the one sensor laying device and the relative speed of the sound source object relative to the other sensor laying device,
A process of estimating sound source object position information indicating a position of the sound source object from the azimuth angle information and the position information from the one sensor laying apparatus and the azimuth angle information and the position information from the other sensor laying apparatus; ,
From the estimated sound source object position information, the estimated relative speed of the sound source object with respect to the one sensor laying device, and the relative speed of the sound source object with respect to the other sensor laying device, the moving speed of the sound source object in space is calculated. A process for estimating the absolute velocity to be shown;
The control part which performs is characterized by the above-mentioned.
(Formula 1) fc ri = c / (cv) · fc di
Here, “fc r ” is the center frequency included in the sound pattern information transmitted from the sensor laying device, “fc d ” is the center frequency included in the sound pattern information of the sound pattern information database, and “v” is the sound source object. The relative speed with respect to the sensor array section, “c” represents the speed of sound, “i” represents a plurality of sound components emitted by the sound source object S, and i = 1, 2,..., N.
請求項3記載の音源物体推定システムは、請求項2記載の音源物体推定システムにおいて、前記情報処理装置は、
補正用音波を前記センサアレイ部に送信する補正用音源と、
前記補正用音源の正確な位置情報を取得するGPS受信部と、
前記センサアレイ部が前記補正用音波を受信することで算出される前記補正用音源の推定位置情報と、前記GPS受信部で得られる前記補正用音源の真の自己位置情報とから前記センサ敷設装置の本体部の位置誤差を補正するための位置補正情報を取得し、この位置補正情報を前記中継器を介して前記センサ敷設装置に送信する処理制御部と、
を有する位置補正処理部を備えることを特徴とする。
The sound source object estimation system according to claim 3 is the sound source object estimation system according to claim 2, wherein the information processing apparatus includes:
A correction sound source for transmitting a correction sound wave to the sensor array unit;
A GPS receiver that obtains accurate position information of the sound source for correction;
The sensor laying apparatus based on estimated position information of the correction sound source calculated by the sensor array unit receiving the correction sound wave and true self-position information of the correction sound source obtained by the GPS reception unit Processing correction unit for acquiring position correction information for correcting the position error of the main body unit, and transmitting the position correction information to the sensor laying device via the repeater;
A position correction processing unit having
請求項4記載の音源物体推定方法は、請求項1記載のセンサ敷設装置を2つ用い、前記各センサ敷設装置がそれぞれ水底に設置された中継器を介して情報処理装置と通信可能に接続される音源物体推定システムにおける音源物体推定方法であって、
前記2つのセンサ敷設装置のうち、一方のセンサ敷設装置の中心を通る仮想基準線と、他方のセンサ敷設装置の中心を通る仮想基準線とが交点を持つように、前記各センサ敷設装置の前記本体部、前記センサアレイ部及び前記アンカーを共に前記水底に直線状に敷設するステップと、
前記一方のセンサ敷設装置が自己のセンサアレイ部で受信した前記音源物体から発せられた音の音波成分に応じた音響信号から前記方位角情報と前記音紋情報とを取得し、この取得した前記方位角情報と、前記音紋情報と、前記位置情報取得部で取得される自己位置情報とを前記中継器を介して前記情報処理装置に送信する第1の情報送信ステップと、
前記他方のセンサ敷設装置が自己のセンサアレイ部で受信した前記音源物体から発せられた音の音波成分に応じた音響信号から前記方位角情報と前記音紋情報とを取得し、この取得した前記方位角情報と、前記音紋情報と、前記位置情報取得部で取得される自己位置情報とを前記中継器を介して前記情報処理装置に送信する第2の情報送信ステップと、
前記情報処理装置が、前記一方のセンサ敷設装置から送信された前記音紋情報に含まれる中心周波数と、前記他方のセンサ敷設装置から送信された前記音紋情報に含まれる中心周波数との比例関係が一致する音紋情報を、前記音源物体の種類と当該物体が発する音の音波成分を示す音紋情報とを関連付けした状態でデータベース化された音紋情報データベースから検索する音源物体検索ステップと、
前記情報処理装置が、前記音源物体検索ステップによる検索結果により、前記音紋情報データベースに、前記各センサ敷設装置の前記音紋情報に含まれる中心周波数同士の比例関係と一致する音紋情報が存在したときに、前記一致した音源物体の音紋情報に含まれる中心周波数と、前記一方のセンサ敷設装置の前記音紋情報に含まれる中心周波数と、前記他方のセンサ敷設装置の前記音紋情報に含まれる中心周波数とを用いて、下記式(1)により前記一方のセンサ敷設装置に対する前記音源物体の相対速度及び前記他方のセンサ敷設装置に対する前記音源物体の相対速度をそれぞれ推定する相対速度推定ステップと、
前記情報処理装置が、前記一方のセンサ敷設装置からの前記方位角情報と前記位置情報及び前記他方のセンサ敷設装置からの前記方位角情報と前記位置情報から前記音源物体の位置を示す音源物体位置情報を推定する位置推定ステップと、
前記情報処理装置が、前記位置推定ステップで推定された前記音源物体位置情報と、推定した前記一方のセンサ敷設装置に対する前記音源物体の相対速度及び前記他方のセンサ敷設装置に対する前記音源物体の相対速度から前記音源物体の空間中における移動速度を示す絶対速度を推定する移動速度推定ステップと、
を含むことを特徴とする。
(式1)fcri=c/(c−v)・fcdi
ここで、「fcr 」はセンサ敷設装置から送信された音紋情報に含まれる中心周波数、「fcd 」は音紋情報データベースの音紋情報に含まれる中心周波数、「v」は音源物体のセンサアレイ部に対する相対速度、「c」は音速を表し、「i」は音源物体Sが発する複数の音の成分を示しi=1,2,…,nとする。
A sound source object estimation method according to a fourth aspect uses the two sensor laying apparatuses according to the first aspect, and each of the sensor laying apparatuses is connected to an information processing apparatus through a repeater installed on the bottom of the water. A sound source object estimation method in a sound source object estimation system comprising:
Of the two sensor laying devices, the virtual reference line passing through the center of one sensor laying device and the virtual reference line passing through the center of the other sensor laying device have an intersection. Laying the body part, the sensor array part and the anchor together in a straight line on the water bottom;
The one sensor laying device acquires the azimuth angle information and the voiceprint information from an acoustic signal corresponding to a sound wave component of a sound emitted from the sound source object received by its own sensor array unit, and the acquired A first information transmission step of transmitting azimuth angle information, the sound pattern information, and the self-position information acquired by the position information acquisition unit to the information processing apparatus via the repeater;
The other sensor laying device acquires the azimuth angle information and the voiceprint information from an acoustic signal corresponding to a sound wave component of a sound emitted from the sound source object received by its own sensor array unit, and the acquired A second information transmission step of transmitting azimuth angle information, the sound pattern information, and the self-position information acquired by the position information acquisition unit to the information processing apparatus via the repeater;
The information processing device is proportional to the center frequency included in the soundprint information transmitted from the one sensor laying device and the center frequency included in the soundprint information transmitted from the other sensor laying device. A sound source object search step for searching for a sound pattern information that matches the type of the sound source object and a sound pattern information database formed in a state in which the sound pattern information indicating the sound wave component of the sound emitted by the object is associated,
As a result of the search by the sound source object search step, the information processing device has sound pattern information that matches the proportional relationship between the center frequencies included in the sound pattern information of each sensor laying device in the sound pattern information database. The center frequency included in the sound pattern information of the matched sound source object, the center frequency included in the sound pattern information of the one sensor laying device, and the sound pattern information of the other sensor laying device. Relative speed estimation step for estimating the relative speed of the sound source object with respect to the one sensor laying apparatus and the relative speed of the sound source object with respect to the other sensor laying apparatus by using the center frequency included in the following equation (1): When,
A sound source object position indicating the position of the sound source object from the azimuth angle information and the position information from the one sensor laying device and the azimuth angle information and the position information from the other sensor laying device. A position estimation step for estimating information;
The information processing apparatus estimates the sound source object position information estimated in the position estimation step, the estimated relative speed of the sound source object with respect to the one sensor laying apparatus, and the relative speed of the sound source object with respect to the other sensor laying apparatus. A moving speed estimation step for estimating an absolute speed indicating a moving speed of the sound source object in the space from,
It is characterized by including.
(Formula 1) fc ri = c / (cv) · fc di
Here, “fc r ” is the center frequency included in the sound pattern information transmitted from the sensor laying device, “fc d ” is the center frequency included in the sound pattern information of the sound pattern information database, and “v” is the sound source object. The relative speed with respect to the sensor array section, “c” represents the speed of sound, “i” represents a plurality of sound components emitted by the sound source object S, and i = 1, 2,..., N.
本発明によれば、自律型無人潜水機であるセンサ敷設装置を用いるため、人的リスクを低減しつつ、任意の監視区域内の敷設位置に速やかに移動して精度良くセンサアレイ部を敷設することができ、またセンサアレイ部に故障が発生した場合でも容易に交換することができる。また、流れの影響を受けにくい水底に敷設することができるため、長期間に亘って音源物体の音紋情報を取得できる。さらに、敷設後はセンサアレイ部の移動が不要となるため、センサ敷設装置のエネルギー消費を減少させることができる。 According to the present invention, since the sensor laying device which is an autonomous unmanned submersible is used, the sensor array unit is laid with high accuracy by quickly moving to a laying position in an arbitrary monitoring area while reducing human risk. In addition, even when a failure occurs in the sensor array unit, it can be easily replaced. Moreover, since it can be laid on the bottom of the water which is not easily affected by the flow, the sound pattern information of the sound source object can be acquired over a long period of time. Furthermore, since the movement of the sensor array portion becomes unnecessary after laying, the energy consumption of the sensor laying device can be reduced.
さらに、一方のセンサ敷設装置の中心を通る仮想基準線と、他方のセンサ敷設装置の中心を通る仮想基準線とが交点を持つように、各センサ敷設装置の本体部、センサアレイ部及びアンカーを水底に直線状に敷設し、この敷設状態で各センサアレイ部が取得した音紋情報及び方位角情報と位置情報取得部で取得される自己位置情報とを情報処理装置に送信することで、情報処理装置では音源物体の種類の推定と、音源物体の位置及び移動速度をパッシブ的に推定することができる。 Further, the main body part, the sensor array part and the anchor of each sensor laying device are arranged so that the virtual reference line passing through the center of one sensor laying device and the virtual reference line passing through the center of the other sensor laying device have intersections. By laying in a straight line on the bottom of the water and transmitting the sound pattern information and azimuth information acquired by each sensor array unit in this installed state and the self-location information acquired by the position information acquisition unit to the information processing device, The processing device can passively estimate the type of the sound source object and the position and moving speed of the sound source object.
また、センサアレイ部が直線状から比較的少ない誤差範囲でずれた場合やセンサ敷設装置の位置が目標とする着底目標位置に着底できなかった場合に、補正用音源から送信した補正用音波をセンサアレイ部に送信し、センサアレイ部がこの補正用音波を受信することで算出される補正用音源の推定位置情報と、GPS受信部で得られる補正用音源の真の自己位置情報とから、位置補正対象となるセンサ敷設装置の本体部の位置誤差を補正するための位置補正情報を取得し、この取得した位置補正情報を中継器を介してセンサ敷設装置に送信する機能を有する位置補正処理部が情報処理装置に具備されているため、センサアレイ部のずれや本体部の着底位置のずれを容易に補正することができる。 In addition, when the sensor array part deviates from a straight line with a relatively small error range, or when the position of the sensor laying device cannot reach the target landing target position, the correction sound wave transmitted from the correction sound source is transmitted. From the estimated position information of the correction sound source calculated by the sensor array unit receiving this correction sound wave and the true self-position information of the correction sound source obtained by the GPS reception unit. Position correction having a function of acquiring position correction information for correcting a position error of the main body portion of the sensor laying apparatus that is a position correction target, and transmitting the acquired position correction information to the sensor laying apparatus via a repeater Since the processing unit is provided in the information processing apparatus, it is possible to easily correct the shift of the sensor array unit and the shift of the bottom position of the main body unit.
以下、本発明を実施するための形態について、添付した図面を参照しながら詳細に説明する。また、この実施の形態によりこの発明が限定されるものではなく、この形態に基づいて当業者などによりなされる実施可能な他の形態、実施例及び運用技術などはすべて本発明の範疇に含まれる。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In addition, the present invention is not limited by this embodiment, and all other forms, examples, operation techniques, and the like that can be implemented by those skilled in the art based on this form are included in the scope of the present invention. .
[1.システム構成について]
まず、本発明に係る音源物体推定システムの構成について説明する。
図1に示すように、本発明に係る音源物体推定システム1は、自律型無人潜水機(Unmanned Underwater Vehicles:UUV) である複数のセンサ敷設装置10(本実施形態では2式使用する)と、センサ敷設装置10と情報処理装置30との間で各種情報の中継を行う中継器20と、各センサ敷設装置10から中継器20を介して送信される各種情報に基づき音源物体Sの推定処理(音源物体Sの種類の推定処理や、音源物体Sの位置・移動速度の推定処理など)を行うとともに敷設したセンサアレイの敷設位置を補正するための位置補正情報をセンサ敷設装置10に出力する情報処理装置30と、で概略構成される。
[1. About system configuration]
First, the configuration of the sound source object estimation system according to the present invention will be described.
As shown in FIG. 1, a sound source object
なお、本明細書における「音源物体S」とは、例えば海洋生物や船舶のように複数の音を発しながら任意の監視区域内における水面や水中を移動する移動物体である。 Note that the “sound source object S” in this specification is a moving object that moves on the water surface or in water in an arbitrary monitoring area while emitting a plurality of sounds, such as marine organisms and ships.
また、音源物体Sが発する音は、それぞれ固有の音波成分(中心周波数、帯域幅、中心周波数のゆらぎ)を有し、これら音波の成分を総じて「音紋情報」として定義する。図2には、ある音源物体Sが発する音の音紋情報の時間−周波数特性の一例を示しており、図示のように各音(音波)はそれぞれ中心周波数fcd1,fcd2,…,fcdn、帯域幅fb1 ,fbd2,…,fbdn、中心周波数のゆらぎfσd1,fσd2,…,fσdnを有している。なお、音源物体Sの種類によってこの音紋情報は異なる。 The sound emitted from the sound source object S has a specific sound wave component (center frequency, bandwidth, fluctuation of the center frequency), and these sound wave components are collectively defined as “soundprint information”. FIG. 2 shows an example of the time-frequency characteristics of the sound pattern information of the sound emitted from a certain sound source object S, and each sound (sound wave) has center frequencies fc d1 , fc d2 ,. dn, bandwidth fb 1, fb d2, ..., fb dn, the center frequency of the fluctuation fσ d1, fσ d2, ..., and a fσ dn. The sound pattern information varies depending on the type of the sound source object S.
<センサ敷設装置>
センサ敷設装置10は、本体部11と、センサアレイ部12と、位置固定部13とを備え、予め設定された水底の所定位置にセンサアレイ部12を敷設するため水中や水面を自由に航行可能な自律型無人潜水機(Unmanned Underwater Vehicles:UUV) である。
<Sensor laying device>
The
なお、本システムによって音源物体Sの位置及び移動速度を推定するため、図3に示すように、水面上から水底を平面視したときに2式のセンサ敷設装置10(10A、10B)をそれぞれ直線状に敷設し、さらに直線状に敷設されたセンサ敷設装置10Aの中心を通る仮想基準線L1が、センサ敷設装置10Bの中心を通る仮想基準線L2上に交わって交点Pを持つように敷設する必要がある。また、複数のセンサ敷設装置10を水中に投入して、その中から任意のセンサ敷設装置10同士が上記条件を満たすように敷設されていればよい。
In order to estimate the position and moving speed of the sound source object S by this system, as shown in FIG. 3, when the bottom of the water is viewed from above the water surface, the two sensor laying apparatuses 10 (10A, 10B) are respectively linear. In addition, the virtual reference line L1 passing through the center of the
本体部11は、推進部11Aと、位置情報取得部11Bと、浮力調整部11Cと、制御部11Dと、電源部11Eと、センサ格納部11Fと、通信部11Gとを備えている。
The main body 11 includes a
推進部11Aは、スクリュープロペラなどの推進器11Aaと、推進器11Aaを回転駆動させるモータ等の第1の動力装置11Abと、針路を変えるために推進器11Aaの向きを所定方向に可変する第2の動力装置11Acとで構成される。推進部11Aは、設定された目標位置情報に基づき所定の目標位置まで移動する際に制御され、センサ敷設装置10を所定方向に推進させる。
The
位置情報取得部11Bは、加速度計とジャイロからなり起点からの移動距離から自己の位置と速度を取得する慣性航法装置11Baと、航行方位情報を取得する方位計11Bbと、GPS(Global Positioning System )衛星等からの電波を利用して水面上における自己の現在位置情報を取得するGPS受信部11Bcと、自己の深度を取得する深度計11Bdとで構成され、水面又は水中航行時に必要なセンサ敷設装置10の自己位置情報を算出(検出)する。
The position
浮力調整部11Cは、水を出し入れすることで浮上・沈降に必要な浮力を調整するバラストタンク11Caと、浮上に必要な浮力を得るためにバラストタンク11Caに空気を供給するボンベ11Cbで構成され、センサ敷設装置10が所望の深度に浮上・沈降する際にバラストタンク11Ca内の水量や空気量が適宜調整される。
The
制御部11Dは、例えばCPU(Central Processing Unit )などのプロセッサや揮発性/不揮発性メモリなどの主記憶装置を備える中央処理装置で構成される。制御部11Dは、センサ敷設装置10を構成する各部の駆動に必要なコンピュータプログラムや各種アプリケーションソフトウェアを読み込んでプログラム処理することでセンサ敷設装置10全体の制御処理及び各種処理を実行する。
The
また、制御部11Dは、予め設定された目標位置情報(アンカー13aを水底に着底及び固定させる本体部11の到達目標位置を示す「固定目標位置情報」と、位置固定部13を固定した後に本体部11を水底に着底させる到達目標位置を示す「着底目標位置情報」との2地点の位置情報)に基づき、位置情報取得部11Bで取得される自己の位置情報を利用して推進部11A及び浮力調整部11Cを適宜制御しながら本体部11を目標の位置まで移動させる。
In addition, the
すなわち、制御部11Dは、図4(a)に示すように目標位置情報に含まれる固定目標位置情報に基づき、本体部11が所定の固定目標位置まで移動するように、位置情報取得部11Bで取得される自己位置情報を利用して推進部11A及び浮力調整部11Cを適宜制御する。そして、図4(b)に示すように、制御部11Dは、本体部11が固定目標位置に到着すると、支持部材13bを駆動してアンカー13aを離間させる。
That is, the
また、制御部11Dは、図4(c)に示すように、位置固定部13が水底に着底及び固定すると、目標位置情報に含まれる着底目標位置情報に基づき、本体部11が予め設定された着底目標位置まで移動するように、位置情報取得部11Bで取得される自己位置情報を利用して推進部11A及び浮力調整部11Cを適宜制御する。そして、図4(c)に示すように、本体部11が着底目標位置に到着すると、本体部11を水底に着底させる。
Further, as shown in FIG. 4C, when the
これにより、センサアレイ部12の一端が位置固定部13で位置固定された状態でセンサ格納部11Fから引き出され、水底を平面視したときに本体部11、センサアレイ部12及び位置固定部13が直線状となるようにセンサアレイ部12が敷設される。また、これと同時に、位置情報取得部11Bで音響センサ12bの敷設位置情報を記録する。
As a result, the
また、制御部11Dは、情報処理装置30から受信した位置補正情報や再展張指令に従って、本体部11を適切な着底位置まで移動させたり、センサアレイ部12をセンサ格納部11Fで巻き上げながら浮上後に着底して再展張させたりするように、位置情報取得部11Bで取得される位置情報を利用して推進部11A、浮力調整部11C、センサ格納部11Fを適宜制御する。
In addition, the
さらに、制御部11Dは、センサアレイ部12から出力された各音響センサ12bからの音響信号を用いて、センサアレイ部12の中心位置にある音響センサ12bを基準とした音源物体Sの方位角(方位角情報)を取得するとともに、音源物体Sが発する音の音紋情報を取得し、取得した方位角情報、音紋情報及び位置情報取得部11Bで取得されるセンサ敷設装置10の自己位置情報を、通信部11Gを介して情報処理装置30に送信する。
Furthermore, the
制御部11Dで取得される音源物体Sの方位角は、センサアレイ部12の各音響センサ12bで取得した音響信号の位相差(すなわち、隣り合う音響センサ12b間の距離に応じた、その音響センサ12bとの音波の収音時期のずれの大きさ)を用いることでセンサアレイ部12の中心位置にある音響センサ12bを基準とした音源物体Sの方位角が一意に特定される。
The azimuth angle of the sound source object S acquired by the
なお、以下の説明において、本システムにおいて使用されるセンサ敷設装置10のうち、センサ敷設装置10Aが具備するセンサアレイ部12を用いて取得された方位角(方位角A)情報を「方位角情報A」、位置情報取得部11Bで取得される自己の位置情報を「自己位置情報A」とする。
また、センサ敷設装置10Bが具備するセンサアレイ部12を用いて取得された方位角(方位角B)の情報を「方位角情報B」、位置情報取得部11Bで取得される自己の位置情報を「自己位置情報B」とする。
In the following description, among the
Further, the information on the azimuth angle (azimuth angle B) acquired using the
制御部11Dで取得される音源物体Sの音紋情報は、音源物体Sの移動に伴うドップラー偏移によりセンサアレイ部12で取得される中心周波数(fcr )帯域幅(fbr )、中心周波数のゆらぎ(fσr )が、音源物体Sのセンサアレイ部12に対する相対速度に応じて変化するため、音源物体Sが発する複数の音の中心周波数(fcd )、帯域幅(fbd )、中心周波数のゆらぎ(fσd )を下記式(1)〜(3)を用いて算出し、算出した各値を集約した情報を音源物体Sの音紋情報として取得する。
(式1)
fcri=c/(c−v)・fcdi
(式2)
fbri=c/(c−v)・fbdi
(式3)
fσri=c/(c−v)・fσdi
なお、上記各式において、「v」は音源物体Sのセンサアレイ部12に対する相対速度、「c」は音速を表し、「i」は音源物体Sが発する複数の音の成分を示しi=1,2,…,nとする。
The sound pattern information of the sound source object S acquired by the
(Formula 1)
fc ri = c / (c−v) · fc di
(Formula 2)
fb ri = c / (cv) · fb di
(Formula 3)
fσ ri = c / (c−v) · fσ di
In the above equations, “v” represents the relative speed of the sound source object S with respect to the
なお、以下の説明において、本システムにおいて使用されるセンサ敷設装置10のうち、センサ敷設装置10Aが具備するセンサアレイ部12から取得された中心周波数を「fcA 」、帯域幅を「fbA 」、中心周波数のゆらぎを「fσA 」とし、これらを集約して「音紋情報A」とする。
また、センサ敷設装置10Bが具備するセンサアレイ部12から取得された中心周波数を「fcB 」、帯域幅を「fbB 」、中心周波数のゆらぎを「fσB 」とし、これらを集約して「音紋情報B」とする。
In the following description, among the
Also, the center frequency acquired from the
電源部11Eは、二次電池(例えばリチウムイオン、リチウムイオンポリマー、ニッケル・水素等の蓄電池)や燃料電池などで構成され、センサ敷設装置10を構成する各部に駆動電源を供給する。
The
センサ格納部11Fは、センサアレイ部12を構成するケーブル12aの一端がドラムに接続された状態で巻回して収納する回転ドラムで構成され、本体部11の所定箇所(例えば本体部11の後方)に設置される。センサ格納部11Fは、センサアレイ部12を敷設する際にケーブル12aの引き出し処理と巻回処理とを適宜行う。
The
また、センサアレイ部12のケーブル12aが長いと、センサアレイ部12を敷設する際に絡まってしまう可能性があるため、センサ格納部11Fの構造として、例えば回転ドラムの構造を本体の進行方向に対し回転ドラムの回転軸を垂直にすることで、ケーブル12aのねじれやキンク等が生じることなくセンサアレイ部12を敷設することが可能となる。
In addition, if the
さらに、敷設区域において、音源物体Sの音紋情報の取得が不要となった場合は、センサ格納部11Fからセンサアレイ部12を切り離すこともできる。
Furthermore, in the laying area, when it is not necessary to acquire the sound pattern information of the sound source object S, the
通信部11Gは、光ケーブルを介した有線通信又は音波による無線通信が可能な通信機器で構成され、センサ敷設装置10と中継器20との間で各種情報の通信を行う。
The
センサアレイ部12は、ケーブル12aに所定間隔をおいて複数のパッシブ型音響センサ12b12b(ハイドロフォン)が設置された鋭い水平指向性を有するパッシブアレイセンサである。センサアレイ部12は、各音響センサ12bが取得した音源物体Sが発する音(音波)を受信し、この受信した音の音波成分に応じた電気信号を音響信号として制御部11Dに出力する。
The
位置固定部13は、センサアレイ部12の一端と接続され、センサアレイ部12の一部を水底等の一定の位置に固定するためのアンカー13aと、本体部11の所定箇所に設置されアンカー13aを着脱可能に支持する支持部材13bとで構成される。位置固定部13は、本体部11が固定目標位置に到達すると、制御部11Dの制御により、支持部材13bを駆動してアンカー13aを離間して水底に着底及び固定する。これにより、センサアレイ部12の一端が水底に位置固定される。
The
なお、アンカー13aは、センサアレイ部12の一端の位置を決定するため、水流等の影響により動くことがないように、敷設位置の底質に合わせ、櫛形もしくは鉤型などの形状で成形するのが好ましい。また、支持部材13bは、アンカー13aがセンサ格納部11Fを覆ってセンサ敷設装置10の本体部11と一体の構造物となるような位置に設置することで、敷設前のセンサアレイ部12を保護することができる。
Since the
<中継器>
中継器20は、センサ敷設装置10と情報処理装置30との間で通信される各種情報を中継するため、センサ敷設装置10の通信部11Gとの間の通信と情報処理装置30の通信部31との間の通信を行うために必要な通信インターフェースを備えた通信機器で構成される。
<Repeater>
The
なお、中継器20は、通信部11Gと通信部31の間の距離が中継器20の通信到達距離と比べて大きい場合には、中継器20を複数介して通信すればよく、また中継器20がその他複数の中継器20や複数の通信部11Gと多重通信してもよい。
When the distance between the
<情報処理装置>
情報処理装置30は、船舶の監視室に設置されるPC(personal computer )のような情報処理端末で構成され、通信部31を介して中継器20との間で各種情報の通信を行う。
<Information processing device>
The
情報処理装置30は、主にセンサ敷設装置10から送信された音紋情報から音源物体Sを特定する処理と、複数のセンサ敷設装置10から送信された方位角情報及び位置情報から音源物体Sの位置及び絶対速度(移動速度)を推定する処理とを行う物体推定処理部32と、主に敷設したセンサアレイ部12が水流等によって直線状態を維持できないときや敷設位置にずれが生じている場合にセンサ敷設装置10を正しい位置に移動させ補正するキャリブレーション処理を行う位置補正処理部33とを備えている。
The
なお、本形態では、情報処理装置30に物体推定処理部32と、位置補正処理部33とを一体に具備する構成として説明するが、各部を別体にした構成(すなわち、情報処理端末を2台使用して一方の端末に物体推定処理部32の機能、他方の端末に位置補正処理部33の機能を具備する構成)としてもよい。
In this embodiment, the
通信部31は、光ケーブルを介した有線通信又は音波による無線通信が可能な通信機器で構成され、中継器20との間で各種情報の通信を行う。
The
物体推定処理部32は、処理制御部32aと、記憶部32bとを備え、各センサ敷設装置10A、10Bから送信されたそれぞれの方位角情報及び音紋情報から、音源物体Sの種類、位置及び移動速度を推定する。
The object
処理制御部32aは、例えばCPU(Central Processing Unit )などのプロセッサや揮発性/不揮発性メモリなどの主記憶装置を備える中央処理装置で構成され、各センサ敷設装置10A、10Bから送信されたそれぞれの方位角情報(方位角情報A、B)及び音紋情報(音紋情報A、B)から、音源物体Sの種類、位置及び移動速度の推定処理を行う。
The
処理制御部32aは、センサ敷設装置10A、10Bから受信した音紋情報A、Bに含まれる各音の中心周波数の比が、下記式(4)の関係を満たす音紋情報を、記憶部32bに記憶される音紋データベースから検索して音源物体Sの種類の推定処理を行う。
(式4)
fcd1:fcd2:…:fcdn=fcA1:fcA2…fcAn=fcB1:fcB2…fcBn
なお、上記式4において、「fcA 」は2式使用するセンサ敷設装置10のうちのセンサ敷設装置10Aが具備するセンサアレイ部12から取得された音紋情報Aに含まれる中心周波数の値であり、「fcB 」はセンサ敷設装置10Bが具備するセンサアレイ部12から取得された音紋情報Bに含まれる中心周波数の値である。また、「i」は音源物体Sが発する複数の音の成分を示し、i=1,2,…,nとする。
The
(Formula 4)
fc d1 : fc d2 : ...: fc dn = fc A1 : fc A2 ... fc An = fc B1 : fc B2 ... fc Bn
In Equation 4, “fc A ” is a value of the center frequency included in the voiceprint information A acquired from the
処理制御部32aは、検索した結果、一致する音紋情報が存在したときは音源物体Sの種類を特定し、次に音紋情報データベース内で該当した音源物体Sの音紋情報の中心周波数と、センサ敷設装置10A、10Bでそれぞれ取得した音紋情報A、Bにおける中心周波数から、上記式(1)に基づいてセンサ敷設装置10A、10Bに対する音源物体Sの相対速度vを推定する。つまり、特定された音源物体Sの音紋情報の中心周波数fci とセンサ敷設装置10Aで取得されたfcA に基づいてセンサ敷設装置10Aに対する音源物体Sの相対速度をvA を推定し、特定された音源物体Sの音紋情報の中心周波数fci とセンサ敷設装置10Bで取得されたfcB に基づいてセンサ敷設装置10Aに対する音源物体Sの相対速度をvB を推定する。
As a result of the search, the
なお、中心周波数に加え、帯域幅及び中心周波数のゆらぎを用いて、上記式(2)、(3)に基づき相対速度vを推定することで、相対速度vの推定精度をさらに向上させることができる。 Note that the estimation accuracy of the relative speed v can be further improved by estimating the relative speed v based on the above formulas (2) and (3) using the fluctuation of the bandwidth and the center frequency in addition to the center frequency. it can.
また、音紋情報A、Bには、音紋情報データベースに収録される音源物体Sの音紋の全ての成分i=1、2、・・・、nを含む必要はなく、最低でも1つの共通する成分iを含んでいれば相対速度vA 、vB の推定は可能である。 In addition, the sound pattern information A and B need not include all the components i = 1, 2,..., N of the sound pattern of the sound source object S recorded in the sound pattern information database. If the common component i is included, the relative velocities v A and v B can be estimated.
さらに、処理制御部32aは、センサ敷設装置10A、10Bの自己位置情報A、B及び各敷設装置10A、10Bで取得された方位角情報A、Bより、音源物体Sの位置を示す音源物体位置情報を推定する。そして、推定された音源物体位置情報と、上記推定した相対速度vA 及びvB から、音源物体Sの空間中(水中又は水面)における移動速度を示す絶対速度Vを推定する。
なお、間隔をおいて音源物体Sの位置及び相対速度vA 及びvB の推定を繰り返し、カルマンフィルタ等を用いることで音源物体Sの位置及び絶対速度Vの推定精度を向上させることができる。
Further, the
Note that the estimation accuracy of the position of the sound source object S and the absolute speed V can be improved by repeatedly estimating the position and relative speeds v A and v B of the sound source object S at intervals and using a Kalman filter or the like.
また、処理制御部32aは、受信した音紋情報A及び音紋情報Bにおけるそれぞれの中心周波数の比と一致する中心周波数の比を有する音源物体Sが、記憶部32bに記憶される音紋情報データベースに存在しなかった場合、音源物体Sの種類は不明となるが、音紋情報Aと音紋情報Bに最低でも2つの共通する成分iが存在し、例えばiが1、2のときに「fcA1:fcA2=fcB1:fcB2」が成立すれば、同一の音源物体Sが発した音と推定でき、方位角情報A、Bから音源物体Sの位置を推定できる。長時間観測を続けることで音源物体Sの推定位置の時間変化から絶対速度V、相対速度vA 及びvB が推定でき、下記(5)〜(8)に基づきドップラー偏移を受ける前の音源物体Sの音の中心周波数fcd が推定できる。推定されたfcd の情報は、新たな音源物体Sとして音紋情報データベースに登録される。
In addition, the
(式5)
fcA1=c/(c−vA )・fc1
(式6)
fcB1=c/(c−vB )・fc1
(式7)
fcA2=c/(c−vA )・fc2
(式8)
fcB2=c/(c−vB )・fc2
(Formula 5)
fc A1 = c / (c−v A ) · fc 1
(Formula 6)
fc B1 = c / (c−v B ) · fc 1
(Formula 7)
fc A2 = c / (c−v A ) · fc 2
(Formula 8)
fc B2 = c / (c−v B ) · fc 2
また、音紋情報Aと音紋情報Bに共通する成分iが1つしか存在しない場合も、理論的には中心周波数、帯域幅及び中心周波数のゆらぎの間に、下記式(9)が成立するため、同一の音源物体Sが発した音と推定でき、音源物体Sの位置、絶対速度、相対速度vA 及びvB の推定が可能である。しかしながら、帯域幅及び中心周波数のゆらぎの絶対値は、一般に中心周波数よりかなり小さく、ここから推定する相対速度vA 及びvB の誤差は大きくなるため、共通成分iは多い方がよい。
(式9)
fcA1:fcB1=fbA1:fbB1=fσA1:fσB1
Also, when there is only one component i common to the voiceprint information A and the voiceprint information B, the following formula (9) is theoretically established between the center frequency, the bandwidth, and the fluctuation of the center frequency. Therefore, it can be estimated that the sound is generated by the same sound source object S, and the position, absolute speed, and relative speeds v A and v B of the sound source object S can be estimated. However, since the absolute values of fluctuations in the bandwidth and the center frequency are generally much smaller than the center frequency, and the errors in the relative velocities v A and v B estimated therefrom are large, it is better that the common component i is larger.
(Formula 9)
fc A1 : fc B1 = fb A1 : fb B1 = fσ A1 : fσ B1
記憶部32bは、HDD(Hard Disk Drive )又はフラッシュメモリ等の補助記憶装置で構成され、音源物体Sの種類(名称)と音紋情報とを関連付けした状態でデータベース化された音紋情報データベースを記憶する。
The
位置補正処理部33は、所定波長の音波を補正用音波としてセンサアレイ部12に送信する補正用音源33aと、GPS(Global Positioning System )衛星等からの電波を利用して補正用音源33aの正確な位置情報を取得するGPS受信機からなるGPS受信部33bと、例えばCPU(Central Processing Unit )などのプロセッサや揮発性/不揮発性メモリなどの主記憶装置を備える中央処理装置で構成されセンサ敷設装置10に対して送信する位置補正情報の作成及び該情報の送信処理と再展張指令の出力処理を実行する処理制御部33cとを備えている。
The position
位置補正処理部33は、センサアレイ部12が直線状から比較的少ない誤差範囲でずれた場合やセンサ敷設装置10の本体部11の位置が、目標とする着底目標位置に着底できなかった場合に、この位置誤差を補正するため、補正用音源33aから送信した補正用音波をセンサアレイ部12に送信し、センサアレイ部12がこの補正用音波を受信することで算出される補正用音源33aの推定位置情報と、GPS受信部33bで得られる補正用音源33aの自己位置情報とから、位置補正対象となるセンサ敷設装置10の位置誤差を補正するための位置補正情報を取得し、この取得した位置補正情報を中継器20を介してセンサ敷設装置10に送信する。
The position
また、センサアレイ部12が直線状から蛇行して大幅なずれが生じた場合など、前項の補正処理では目標音源位置の推定誤差を補正しきれない場合は、中継器19を介してセンサ敷設装置10に再展張指令を送信する。センサ敷設装置10は受信した再展張指令に基づき、そのまま浮上又はセンサアレイ部12をセンサ格納部11Fで巻き上げながら浮上後に着底することで、再びセンサアレイ部12を直線状に展張することができる。
Further, when the
[2.処理動作について]
次に、上述した音源物体推定システム1の音源推定処理に関する一連の処理動作について説明する。
ここでは、センサアレイ部12を水底に2式敷設する「センサアレイ敷設処理」と、センサアレイ敷設後に音源物体Sから音紋情報を取得する「音紋情報取得処理」と、水底に敷設した各センサ敷設装置10A、10Bから受信した音紋情報A、Bから音源物体Sの種類特定及び音源物体Sの位置及び移動速度を推定する「音源物体推定処理」について説明する。
[2. About processing operation]
Next, a series of processing operations related to the sound source estimation processing of the sound source object
Here, the “sensor array laying process” in which two
<センサアレイ敷設処理>
2式のセンサ敷設装置10A、10Bのうち、まずセンサ敷設装置10Aを展開するため、水中に投入する直前に、GPS受信部11Bcで正確な位置情報を取得する。また、投入後は、バラストタンク11Caに水を注入することで、センサ敷設装置10自体を沈降させ、同時に慣性航法装置11Baを使用して、センサ敷設装置10の位置情報を推定しながらアンカー13aの固定目標位置まで航行する。その際、方位計11Bb及び深度計11Bdからそれぞれ方位及び深度の正確な情報が更新される。
<Sensor array laying process>
Of the two types of
次に、アンカー13aの固定目標位置に到着すると、支持部材13bを駆動してアンカー13aを離間させて水底に着底及び固定させる。次に、本体部11の着底目標位置に移動するが、その際、移動に合わせてセンサ格納部11Fからセンサアレイ部12を引き出し、同時に慣性航法装置11Baで音響センサ12bの敷設位置情報を記録しながら、水底を平面視したときに本体部11、センサアレイ部12及びアンカー13aが直線状になるようにセンサアレイ部12を敷設する。そして、センサ敷設装置10が着底目標位置に到着すると、本体部11を水底に着底させる。
Next, when the
また、上記動作に沿って、センサ敷設装置10Bも同様に展開する。このとき、図3に示すように、センサ敷設装置10Bは、自己の中心を通る仮想基準線L2が水底に直線状に敷設されたセンサ敷設装置10Aの中心を通る仮想基準線L1と交わって交点Pを持つように敷設する。これにより、音源物体Sの位置及び移動速度の推定に必要な音紋情報を取得可能な状態でセンサ敷設装置10A、10Bが敷設される。
In addition, the
<音紋情報取得処理>
水底にセンサアレイ部12を敷設したセンサ敷設装置10Aは、音源物体Sが発する音(音波)をセンサアレイ部12で受信し、各音の音波成分を含む音響信号から音源物体Sが発する音に起因する方位角情報Aと音紋情報Aを取得する。そして、取得した方位角情報A、音紋情報A及び位置情報取得部11Bで取得されるセンサ敷設装置10Aの自己位置情報Aとを、中継器20を介して情報処理装置30に送信する。
<Sound print information acquisition processing>
The
同様に、センサ敷設装置10Bは、音源物体Sが発する音(音波)をセンサアレイ部12で受信し、各音の音波成分を含む音響信号から音源物体Sが発する音に起因する方位角情報Bと音紋情報Bを取得する。そして、取得した方位角情報B、音紋情報B及び位置情報取得部11Bで取得されるセンサ敷設装置10Bの自己位置情報Bとを、中継器20を介して情報処理装置30に送信する。
Similarly, the
<音源物体推定処理>
情報処理装置30は、センサ敷設装置10Aから送信された音紋情報Aに含まれる各音の中心周波数と、センサ敷設装置10Bから送信された音紋情報Bに含まれる各音の中心周波数との比例関係と一致する音源物体Sを、記憶部32bに記憶される音紋データベースから検索する。
<Sound source object estimation processing>
The
検索した結果、一致する音紋情報が存在したときは音源物体Sの種類が特定され、この特定された音源物体Sの音紋情報の中心周波数と、センサ敷設装置10A、10Bでそれぞれ取得した音紋情報A、Bにおける中心周波数から相対速度vA 、vB をそれぞれ推定する。
As a result of the search, when the matching sound pattern information exists, the type of the sound source object S is specified, and the center frequency of the sound pattern information of the specified sound source object S and the sound acquired by the
次に、センサ敷設装置10A、10Bの自己位置情報A、B及び各敷設装置10A、10Bで取得された方位角情報A、Bより、音源物体Sの位置を示す音源物体位置情報を推定する。そして、推定された音源物体位置情報と、上記推定した相対速度vA 及びvB から、音源物体Sの空間中(水中又は水面)における絶対速度Vを推定する。これにより、音源物体Sの種類、位置及び移動速度を推定することができる。
Next, sound source object position information indicating the position of the sound source object S is estimated from the self-position information A and B of the
また、音源物体推定処理が終了すると、センサ敷設装置10に対して情報処理装置30から浮上指示が送信される。そして、センサ敷設装置10は、浮力調整部11Cを調整して水面まで浮上して回収される。
In addition, when the sound source object estimation process is completed, a levitation instruction is transmitted from the
なお、センサ敷設装置10の不具合又は電力の消費等により、正常な動作の継続が困難になると見込まれた場合も同様に浮上させ、回収し、新たなセンサ敷設装置10を投入してセンサアレイ部12を再度敷設する。また、敷設区域において、音源物体Sの音紋情報の取得が不要となった場合は、センサ格納部11Fからセンサアレイ部12を切り離してセンサ敷設装置10を回収し、回収されたセンサ敷設装置10に新たなセンサアレイ部12及びアンカー13aを装着して再利用可能することもできる。
In addition, when it is expected that normal operation will be difficult due to a malfunction of the
以上説明したように、上述したセンサ敷設装置10は、本体部11と、センサアレイ部12と、位置固定部13とを備える自律型無人潜水機であり、任意の監視区域内で予め設定された固定目標位置まで移動してアンカー13aを着底及び固定した後、着底目標位置まで移動して本体部11を水底に着底させることができるため、人的リスクを低減しつつ敷設位置に速やかに移動して精度良くセンサアレイ部12を敷設することができ、またセンサアレイ部12に故障が発生した場合でも容易に交換することができる。
As described above, the above-described
さらに、流れの影響を受けにくい水底の所望の位置に敷設することができるため、長期間に亘って音源物体Sの音紋情報を取得でき、さらにセンサ敷設後はセンサアレイ部12の移動が不要となるため、センサ敷設装置10のエネルギー消費を減少させることができる。
Furthermore, since it can be laid at a desired position on the bottom of the water that is not easily affected by the flow, the sound pattern information of the sound source object S can be acquired over a long period of time, and the
また、上述した音源物体推定システム1は、センサ敷設装置10を2式使用し、センサ敷設装置10Aの中心を通る仮想基準線L1と、センサ敷設装置10Bの中心を通る仮想基準線L2とが交点Pを持つように、各センサ敷設装置10A、10Bの本体部11、センサアレイ部12及びアンカー13aを水底に直線状に敷設し、この敷設状態において各センサアレイ部12が取得した音源物体Sの音紋情報及び方位角情報と、位置情報取得部11Bで取得される自己位置情報とを情報処理装置30に送信する構成であるため、情報処理装置30では音源物体Sの種類の推定と、音源物体Sの位置及び移動速度をパッシブ的に推定することができる。
In addition, the sound source object
さらに、センサアレイ部12が直線状から比較的少ない誤差範囲でずれた場合やセンサ敷設装置10の位置が目標とする着底目標位置に着底できなかった場合に、補正用音源33aから送信した補正用音波をセンサアレイ部12に送信し、センサアレイ部12がこの補正用音波を受信することで算出される補正用音源33aの推定位置情報と、GPS受信部33bで得られる補正用音源33aの真の自己位置情報とから、位置補正対象となる本体部11の位置誤差を補正するための位置補正情報を取得し、この取得した位置補正情報を中継器20を介してセンサ敷設装置10に送信する機能を有する位置補正処理部33が情報処理装置30に具備されているため、センサアレイ部12のずれや本体部11の着底位置のずれを容易に補正することができる。
Further, when the
1…音源物体推定システム
10(10A、10B)…センサ敷設装置
11…本体部(11A…推進部、11B…位置情報取得部、11C…浮力調整部、11D…制御部、11E…電源部、11F…センサ格納部、11G…通信部)
12…センサアレイ部(12a…ケーブル、12b…パッシブ型の音響センサ)
13…位置固定部(13a…アンカー、13b…支持部材)
20…中継器
30…情報処理装置
31…通信部
32…物体推定処理部
33…位置補正処理部
S…音源物体
DESCRIPTION OF
12 ... Sensor array part (12a ... Cable, 12b ... Passive type acoustic sensor)
13 ... Position fixing part (13a ... Anchor, 13b ... Support member)
DESCRIPTION OF
上記した目的を達成するため、請求項1記載のセンサ敷設装置は、所定長のケーブルに所定間隔をおいて複数のパッシブ型音響センサを配置してなるセンサアレイ部と、
前記センサアレイ部の一端に固定され前記センサアレイ部の一部を水底に固定するアンカーと、前記アンカーを着脱可能に支持する支持部材とを有する位置固定部と、
水中の自己位置を示す自己位置情報を取得する位置情報取得部と、水中における推進力を発生させる推進部と、水中で沈降又は浮上するための浮力を調整する浮力調整部とを有する本体部と、
を備える自律型無人潜水艇であるセンサ敷設装置であって、
前記本体部は、前記本体部が予め設定された前記アンカーの固定目標位置まで移動したときに前記アンカーを離間して前記センサアレイ部の一端を前記水底に固定させるように前記位置固定部を制御するとともに、前記本体部を予め設定された着底目標位置まで移動した後に、前記本体部を前記水底に着底させて、前記本体部、前記センサアレイ部及び前記アンカーが前記水底に直線状に敷設されるように前記本体部を制御する制御部を備えたことを特徴とする。
In order to achieve the above-described object, the sensor laying device according to
A position fixing unit having an anchor fixed to one end of the sensor array unit and fixing a part of the sensor array unit to a water bottom; and a support member that detachably supports the anchor;
A main body having a position information acquisition unit that acquires self-position information indicating self-position in water, a propulsion unit that generates a propulsive force in water, and a buoyancy adjustment unit that adjusts buoyancy to sink or float in water; ,
A sensor laying device that is an autonomous unmanned submersible craft comprising:
Said body portion, said position fixing portion one end of spaced said anchor the sensor array portion so that is fixed to the water bottom when moving to a fixed target position of the anchor main body portion is set in advance After controlling and moving the main body part to a preset bottom target position, the main body part is bottomed on the water bottom, and the main body part, the sensor array part and the anchor are linear on the water bottom. characterized by comprising a control unit for controlling the pre-Symbol main body so as to be laid on.
Claims (4)
前記センサアレイ部の一端に固定され前記センサアレイ部の一部を水底に固定するアンカーと、前記アンカーを着脱可能に支持する支持部材とを有する位置固定部と、
水中の自己位置を示す自己位置情報を取得する位置情報取得部と、水中における推進力を発生させる推進部と、水中で沈降又は浮上するための浮力を調整する浮力調整部とを有する本体部と、
を備える自律型無人潜水艇であるセンサ敷設装置であって、
前記本体部は、前記本体部が予め設定された前記アンカーの固定目標位置まで移動したときに前記アンカーを離間して前記センサアレイ部の一端を前記水底に固定させ、前記本体部を予め設定された着底目標位置情報まで移動した後に、前記本体部を前記水底に着底させて、前記本体部、前記センサアレイ部及び前記アンカーが前記水底に直線状に敷設されるように、前記本体部及び位置固定部を制御する制御部を備えたことを特徴とするセンサ敷設装置。 A sensor array unit in which a plurality of passive acoustic sensors are arranged at predetermined intervals on a cable of a predetermined length;
A position fixing unit having an anchor fixed to one end of the sensor array unit and fixing a part of the sensor array unit to a water bottom; and a support member that detachably supports the anchor;
A main body having a position information acquisition unit that acquires self-position information indicating self-position in water, a propulsion unit that generates a propulsive force in water, and a buoyancy adjustment unit that adjusts buoyancy to sink or float in water; ,
A sensor laying device that is an autonomous unmanned submersible craft comprising:
When the main body moves to a fixed target position of the anchor set in advance, the main body is separated from the anchor to fix one end of the sensor array unit to the water bottom, and the main body is set in advance. After moving to the bottom target position information, the main body part is attached to the water bottom, and the main body part, the sensor array part, and the anchor are laid linearly on the water bottom. And a sensor laying device comprising a control unit for controlling the position fixing unit.
前記2つのセンサ敷設装置は、前記センサアレイ部で受信した前記音源物体から発せられた音の音波成分に応じた音響信号から前記方位角情報と前記音紋情報とを取得し、この取得した前記方位角情報と、前記音紋情報と、前記位置情報取得部で取得される自己位置情報とを前記中継器を介して前記情報処理装置に送信する制御部を互いに備え、
さらに、一方のセンサ敷設装置の中心を通る仮想基準線と、他方のセンサ敷設装置の中心を通る仮想基準線とが交点を持つように、前記各センサ敷設装置の前記本体部、前記センサアレイ部及び前記アンカーが共に前記水底に直線状に敷設され、
前記情報処理装置は、
前記音源物体の種類と当該物体が発する音の音波成分を示す音紋情報とを関連付けした状態でデータベース化された音紋情報データベースを記憶する記憶部と、
前記一方のセンサ敷設装置から送信された前記音紋情報に含まれる中心周波数と、前記他方のセンサ敷設装置から送信された前記音紋情報に含まれる中心周波数との比例関係と一致する音紋情報を前記音紋情報データベースから検索する処理と、
検索した結果、前記音紋情報データベースに、前記各センサ敷設装置の前記音紋情報に含まれる中心周波数同士の比例関係と一致する音紋情報が存在したときに、前記一致した音源物体の音紋情報に含まれる中心周波数と、前記一方のセンサ敷設装置の前記音紋情報に含まれる中心周波数と、前記他方のセンサ敷設装置の前記音紋情報に含まれる中心周波数とを用いて、下記式(1)により、前記一方のセンサ敷設装置に対する前記音源物体の相対速度及び前記他方のセンサ敷設装置に対する前記音源物体の相対速度をそれぞれ推定する処理と、
前記一方のセンサ敷設装置からの前記方位角情報と前記位置情報及び前記他方のセンサ敷設装置からの前記方位角情報と前記位置情報から前記音源物体の位置を示す音源物体位置情報を推定する処理と、
前記推定された音源物体位置情報と、推定した前記一方のセンサ敷設装置に対する前記音源物体の相対速度及び前記他方のセンサ敷設装置に対する前記音源物体の相対速度から前記音源物体の空間中における移動速度を示す絶対速度を推定する処理と、
を行う制御部を備えることを特徴とする音源物体推定システム。
(式1)fcri=c/(c−v)・fcdi
ここで、「fcr 」はセンサ敷設装置から送信された音紋情報に含まれる中心周波数、「fcd 」は音紋情報データベースの音紋情報に含まれる中心周波数、「v」は音源物体のセンサアレイ部に対する相対速度、「c」は音速を表し、「i」は音源物体Sが発する複数の音の成分を示しi=1,2,…,nとする。 A sound source object estimation system in which two sensor laying devices according to claim 1 are used, and each sensor laying device is connected to an information processing device through a repeater installed on the bottom of the water.
The two sensor laying devices acquire the azimuth angle information and the voiceprint information from an acoustic signal corresponding to a sound wave component of a sound emitted from the sound source object received by the sensor array unit, and the acquired A control unit that transmits azimuth angle information, the sound pattern information, and the self-location information acquired by the position information acquisition unit to the information processing apparatus via the repeater, and
Further, the main body portion and the sensor array portion of each sensor laying device such that a virtual reference line passing through the center of one sensor laying device and a virtual reference line passing through the center of the other sensor laying device have an intersection. And both the anchors are laid in a straight line on the bottom of the water,
The information processing apparatus includes:
A storage unit for storing a voiceprint information database that is databased in a state in which the type of the sound source object and the voiceprint information indicating the sound wave component of the sound emitted from the object are associated;
The voiceprint information that matches the proportional relationship between the center frequency included in the voiceprint information transmitted from the one sensor laying apparatus and the center frequency included in the voiceprint information transmitted from the other sensor laying apparatus. Searching from the voiceprint information database;
As a result of the search, when the voiceprint information matching the proportional relationship between the center frequencies included in the voiceprint information of each sensor laying device exists in the voiceprint information database, the voiceprint of the matched sound source object Using the center frequency included in the information, the center frequency included in the soundprint information of the one sensor laying device, and the center frequency included in the soundprint information of the other sensor laying device, the following formula ( 1) to estimate the relative speed of the sound source object relative to the one sensor laying device and the relative speed of the sound source object relative to the other sensor laying device,
A process of estimating sound source object position information indicating a position of the sound source object from the azimuth angle information and the position information from the one sensor laying apparatus and the azimuth angle information and the position information from the other sensor laying apparatus; ,
From the estimated sound source object position information, the estimated relative speed of the sound source object with respect to the one sensor laying device, and the relative speed of the sound source object with respect to the other sensor laying device, the moving speed of the sound source object in space is calculated. A process for estimating the absolute velocity to be shown;
A sound source object estimation system comprising a control unit that performs the following.
(Formula 1) fc ri = c / (cv) · fc di
Here, “fc r ” is the center frequency included in the sound pattern information transmitted from the sensor laying device, “fc d ” is the center frequency included in the sound pattern information of the sound pattern information database, and “v” is the sound source object. The relative speed with respect to the sensor array section, “c” represents the speed of sound, “i” represents a plurality of sound components emitted by the sound source object S, and i = 1, 2,..., N.
補正用音波を前記センサアレイ部に送信する補正用音源と、
前記補正用音源の位置情報を取得するGPS受信部と、
前記センサアレイ部が前記補正用音波を受信することで算出される前記補正用音源の推定位置情報と、前記GPS受信部で得られる前記補正用音源の真の自己位置情報とから前記センサ敷設装置の本体部の位置誤差を補正するための位置補正情報を取得し、この位置補正情報を前記中継器を介して前記センサ敷設装置に送信する処理制御部と、
を有する位置補正処理部を備えることを特徴とする請求項2記載の音源物体推定システム。 The information processing apparatus includes:
A correction sound source for transmitting a correction sound wave to the sensor array unit;
A GPS receiver for acquiring position information of the sound source for correction;
The sensor laying apparatus based on estimated position information of the correction sound source calculated by the sensor array unit receiving the correction sound wave and true self-position information of the correction sound source obtained by the GPS reception unit Processing correction unit for acquiring position correction information for correcting the position error of the main body unit, and transmitting the position correction information to the sensor laying device via the repeater;
The sound source object estimation system according to claim 2, further comprising: a position correction processing unit including:
前記2つのセンサ敷設装置のうち、一方のセンサ敷設装置の中心を通る仮想基準線と、他方のセンサ敷設装置の中心を通る仮想基準線とが交点を持つように、前記各センサ敷設装置の前記本体部、前記センサアレイ部及び前記アンカーが共に前記水底に直線状に敷設するステップと、
前記一方のセンサ敷設装置が自己のセンサアレイ部で受信した前記音源物体から発せられた音の音波成分に応じた音響信号から前記方位角情報と前記音紋情報とを取得し、この取得した前記方位角情報と、前記音紋情報と、前記位置情報取得部で取得される自己位置情報とを前記中継器を介して前記情報処理装置に送信する第1の情報送信ステップと、
前記他方のセンサ敷設装置が自己のセンサアレイ部で受信した前記音源物体から発せられた音の音波成分に応じた音響信号から前記方位角情報と前記音紋情報とを取得し、この取得した前記方位角情報と、前記音紋情報と、前記位置情報取得部で取得される自己位置情報とを前記中継器を介して前記情報処理装置に送信する第2の情報送信ステップと、
前記情報処理装置が、前記一方のセンサ敷設装置から送信された前記音紋情報に含まれる中心周波数と、前記他方のセンサ敷設装置から送信された前記音紋情報に含まれる中心周波数との比例関係が一致する音紋情報を、前記音源物体の種類と当該物体が発する音の音波成分を示す音紋情報とを関連付けした状態でデータベース化された音紋情報データベースから検索する音源物体検索ステップと、
前記情報処理装置が、前記音源物体検索ステップによる検索結果により、前記音紋情報データベースに、前記各センサ敷設装置の前記音紋情報に含まれる中心周波数同士の比例関係と一致する音紋情報が存在したときに、前記一致した音源物体の音紋情報に含まれる中心周波数と、前記一方のセンサ敷設装置の前記音紋情報に含まれる中心周波数と、前記他方のセンサ敷設装置の前記音紋情報に含まれる中心周波数とを用いて、下記式(1)により前記一方のセンサ敷設装置に対する前記音源物体の相対速度及び前記他方のセンサ敷設装置に対する前記音源物体の相対速度をそれぞれ推定する相対速度推定ステップと、
前記情報処理装置が、前記一方のセンサ敷設装置からの前記方位角情報と前記位置情報及び前記他方のセンサ敷設装置からの前記方位角情報と前記位置情報から前記音源物体の位置を示す音源物体位置情報を推定する位置推定ステップと、
前記情報処理装置が、前記位置推定ステップで推定された前記音源物体位置情報と、推定した前記一方のセンサ敷設装置に対する前記音源物体の相対速度及び前記他方のセンサ敷設装置に対する前記音源物体の相対速度から前記音源物体の空間中における移動速度を示す絶対速度を推定する移動速度推定ステップと、
を含むことを特徴とする音源物体推定方法。
fcri=c/(c−v)・fcdi…(式1)
ここで、「fcr 」はセンサ敷設装置から送信された音紋情報に含まれる中心周波数、「fcd 」は音紋情報データベースの音紋情報に含まれる中心周波数、「v」は音源物体のセンサアレイ部に対する相対速度、「c」は音速を表し、「i」は音源物体Sが発する複数の音の成分を示しi=1,2,…,nとする。 A sound source object estimation method in a sound source object estimation system, wherein two sensor laying devices according to claim 1 are used, and each sensor laying device is connected to an information processing device through a repeater installed on the bottom of the water. There,
Of the two sensor laying devices, the virtual reference line passing through the center of one sensor laying device and the virtual reference line passing through the center of the other sensor laying device have an intersection. A step of laying the body part, the sensor array part and the anchor together in a straight line on the water bottom;
The one sensor laying device acquires the azimuth angle information and the voiceprint information from an acoustic signal corresponding to a sound wave component of a sound emitted from the sound source object received by its own sensor array unit, and the acquired A first information transmission step of transmitting azimuth angle information, the sound pattern information, and the self-position information acquired by the position information acquisition unit to the information processing apparatus via the repeater;
The other sensor laying device acquires the azimuth angle information and the voiceprint information from an acoustic signal corresponding to a sound wave component of a sound emitted from the sound source object received by its own sensor array unit, and the acquired A second information transmission step of transmitting azimuth angle information, the sound pattern information, and the self-position information acquired by the position information acquisition unit to the information processing apparatus via the repeater;
The information processing device is proportional to the center frequency included in the soundprint information transmitted from the one sensor laying device and the center frequency included in the soundprint information transmitted from the other sensor laying device. A sound source object search step for searching for a sound pattern information that matches the type of the sound source object and a sound pattern information database formed in a state in which the sound pattern information indicating the sound wave component of the sound emitted by the object is associated,
As a result of the search by the sound source object search step, the information processing device has sound pattern information that matches the proportional relationship between the center frequencies included in the sound pattern information of each sensor laying device in the sound pattern information database. The center frequency included in the sound pattern information of the matched sound source object, the center frequency included in the sound pattern information of the one sensor laying device, and the sound pattern information of the other sensor laying device. Relative speed estimation step for estimating the relative speed of the sound source object with respect to the one sensor laying apparatus and the relative speed of the sound source object with respect to the other sensor laying apparatus by using the center frequency included in the following equation (1): When,
A sound source object position indicating the position of the sound source object from the azimuth angle information and the position information from the one sensor laying device and the azimuth angle information and the position information from the other sensor laying device. A position estimation step for estimating information;
The information processing apparatus estimates the sound source object position information estimated in the position estimation step, the estimated relative speed of the sound source object with respect to the one sensor laying apparatus, and the relative speed of the sound source object with respect to the other sensor laying apparatus. A moving speed estimation step for estimating an absolute speed indicating a moving speed of the sound source object in the space from,
A sound source object estimation method comprising:
fc ri = c / ( cv ) · fc di (Formula 1)
Here, “fc r ” is the center frequency included in the sound pattern information transmitted from the sensor laying device, “fc d ” is the center frequency included in the sound pattern information of the sound pattern information database, and “v” is the sound source object. The relative speed with respect to the sensor array section, “c” represents the speed of sound, “i” represents a plurality of sound components emitted by the sound source object S, and i = 1, 2,..., N.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015104698A JP6014884B1 (en) | 2015-05-22 | 2015-05-22 | Sensor laying apparatus, sound source object estimation system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015104698A JP6014884B1 (en) | 2015-05-22 | 2015-05-22 | Sensor laying apparatus, sound source object estimation system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6014884B1 JP6014884B1 (en) | 2016-10-26 |
JP2016215908A true JP2016215908A (en) | 2016-12-22 |
Family
ID=57197530
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015104698A Active JP6014884B1 (en) | 2015-05-22 | 2015-05-22 | Sensor laying apparatus, sound source object estimation system and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6014884B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020173155A (en) * | 2019-04-10 | 2020-10-22 | 日本電気株式会社 | Target motion estimating device and target motion estimating method |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108945361A (en) * | 2018-07-03 | 2018-12-07 | 成都博士信智能科技发展有限公司 | Diving interaction systems and interactive approach |
KR102176098B1 (en) * | 2019-01-28 | 2020-11-10 | 김영언 | Method and apparatus for recognizing sound source |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6163972B2 (en) * | 2013-08-28 | 2017-07-19 | 沖電気工業株式会社 | Underwater sensor and method for laying underwater sensor |
-
2015
- 2015-05-22 JP JP2015104698A patent/JP6014884B1/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020173155A (en) * | 2019-04-10 | 2020-10-22 | 日本電気株式会社 | Target motion estimating device and target motion estimating method |
JP7306030B2 (en) | 2019-04-10 | 2023-07-11 | 日本電気株式会社 | Target motion estimation device and target motion estimation method |
Also Published As
Publication number | Publication date |
---|---|
JP6014884B1 (en) | 2016-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109782323B (en) | Navigation positioning and calibrating method for autonomous underwater vehicle in deep sea | |
US9791862B1 (en) | Systems and method for unmanned undersea sensor position, orientation, and depth keeping | |
US9223002B2 (en) | System and method for determining the position of an underwater vehicle | |
EP2689263B1 (en) | Determining a position of a submersible vehicle within a body of water | |
JP2006313087A (en) | Method and system for correcting position of detection of underwater vehicle | |
US20170242144A1 (en) | Auv based seismic acquisition system and method | |
NO20101809L (en) | Marine seismic cable system configurations, systems and methods for non-linear seismic survey navigation | |
US9885794B2 (en) | System and method for accurate positioning of control devices for instrumented cables | |
JP6014884B1 (en) | Sensor laying apparatus, sound source object estimation system and method | |
EA024525B1 (en) | Method for gathering marine geophysical data (embodiments) | |
JP5813090B2 (en) | Position acquisition device, underwater vehicle, operation method of position acquisition device, and operation method of underwater vehicle | |
CN105814457A (en) | Method and system for determining the position of control devices on a seismic instrumented towed cable | |
JP7133196B2 (en) | Underwater equipment recovery method and underwater equipment recovery system | |
EP4309994A1 (en) | System for coupling aquatic relay machine and underwater cruising body, and operation method therefor | |
JP2017165333A (en) | Sailing assisting device of underwater sailing body, and method of assisting sailing of sailing body and underwater sailing body | |
WO2015119781A2 (en) | Seismic streamer shape correction using derived compensated magnetic fields | |
KR101158721B1 (en) | Mobile mine, and method to induce mobile mine on laying position | |
JP4830269B2 (en) | Mooring sensor positioning method and apparatus | |
JP6864483B2 (en) | Disturbance guesser | |
KR101862613B1 (en) | System, apparatus and method for detecting fault point of submarine cable | |
AU2012200886A1 (en) | System and method for determining the position of an underwater vehicle | |
JPS5926913B2 (en) | Stability control method for ocean research vessel and position detection device for stability control | |
AU2020328964B2 (en) | Underwater operation system | |
US20240308632A1 (en) | Linked system of surface repeater vehicle and underwater vehicle, and operation method therefor | |
KR20190104721A (en) | Underwater guiding system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6014884 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |