JP2015190896A - Target detection supporting system and method of the same - Google Patents

Target detection supporting system and method of the same Download PDF

Info

Publication number
JP2015190896A
JP2015190896A JP2014069305A JP2014069305A JP2015190896A JP 2015190896 A JP2015190896 A JP 2015190896A JP 2014069305 A JP2014069305 A JP 2014069305A JP 2014069305 A JP2014069305 A JP 2014069305A JP 2015190896 A JP2015190896 A JP 2015190896A
Authority
JP
Japan
Prior art keywords
information
target
detection
unit
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014069305A
Other languages
Japanese (ja)
Other versions
JP6298341B2 (en
Inventor
貴裕 須賀
Takahiro Suga
貴裕 須賀
豊彦 森
Toyohiko Mori
豊彦 森
洋 和島
Hiroshi Wajima
洋 和島
隆良 田中
Takayoshi Tanaka
隆良 田中
雅人 木田
Masato Kida
雅人 木田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP2014069305A priority Critical patent/JP6298341B2/en
Publication of JP2015190896A publication Critical patent/JP2015190896A/en
Application granted granted Critical
Publication of JP6298341B2 publication Critical patent/JP6298341B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a target detection supporting system capable of accurately finding a target existing underwater.SOLUTION: The target detection supporting system is a system for supporting the detection of a target existing underwater. The system includes: a processing unit for acquiring detection information of an object detected by each of a plurality of kinds of sensors; a generation unit for generating information of target candidates on the basis of the detection information; an analysis unit for analyzing the information of the target candidates using a predetermined filter; an output unit for outputting a result of the analysis; and a reception unit for receiving a selection from the target candidates.

Description

本発明は、水中にある目標物を探知することを支援する目標探知支援システムおよびその方法に関する。   The present invention relates to a target detection support system and method for supporting detection of a target in water.

従来、複数種類のセンサによる検出情報に基づいて目標物の位置を検出するシステムとして、たとえば、特許文献1のセンサ統合システムが知られている。このセンサ統合システムでは、レーダーやカメラなどの複数のセンサによって観測された観測データを組み合わせて、目標物の移動軌跡を推定して出力している。この移動軌跡の推定に、MHTやJPDA、目標物の大きさおよび速度を用いたフィルタリング、PFなどの公知技術が用いられている。   Conventionally, for example, a sensor integrated system disclosed in Patent Document 1 is known as a system for detecting the position of a target based on detection information from a plurality of types of sensors. In this sensor integrated system, the movement trajectory of a target is estimated and output by combining observation data observed by a plurality of sensors such as a radar and a camera. Known techniques such as MHT, JPDA, filtering using the size and speed of the target, and PF are used to estimate the movement trajectory.

特開2012−163495号公報JP 2012-163495 A

水中では電磁波などが伝わりにくいため、水中を伝搬する音波を検出する音響センサが水中の目標探知に主に用いられている。しかしながら、音波の伝搬は水温の変化、海底の地形、雑音などの水中の状況に影響される。また、目標物と同様の大きさや移動速度などの特性を持つ海洋生物や水塊が水中に存在する。このような水中の特殊な事情により、水中における目標物の探知は、空中、水上および地上における目標物の探知に比べて非常に難しい。このため、水中における目標物の軌跡を推定することが容易でない上、目標物の有無自体も発見することが非常に困難である。   Since electromagnetic waves and the like are not easily transmitted underwater, acoustic sensors that detect sound waves propagating in water are mainly used for underwater target detection. However, the propagation of sound waves is affected by underwater conditions such as changes in water temperature, seabed topography, and noise. In addition, marine organisms and water masses having characteristics such as the same size and moving speed as the target are present in the water. Due to such special circumstances in water, it is very difficult to detect a target in water compared to detection of a target in the air, on the water, and on the ground. For this reason, it is not easy to estimate the trajectory of the target in water, and it is very difficult to discover the presence / absence of the target itself.

前記センサ統合システムは、目標物の移動軌跡を自動的に推定することを目的としている。このため、条件が複雑な水中に考慮しながら目標物を発見することができず、水中の目標物を効率良く見つけることは困難である。   The sensor integrated system is intended to automatically estimate the movement trajectory of the target. For this reason, it is difficult to find a target while considering the condition in the water with complicated conditions, and it is difficult to efficiently find the target in the water.

本発明はこのような課題を解決するためになされたものであり、水中における目標物をより精度よく見つけ出すことができる目標探知支援システムおよびその方法を提供することを目的としている。   The present invention has been made to solve such a problem, and an object of the present invention is to provide a target detection support system and method for finding a target in water more accurately.

本発明のある態様に係る目標探知支援システムは、水中にある目標物の探知を支援するシステムであって、複数種類のセンサのそれぞれにより検出された対象物の検出情報を取得する処理部と、前記検出情報に基づいて目標候補の情報を生成する生成部と、前記目標候補の情報を所定のフィルタを用いて分析する分析部と、前記分析の結果を出力する出力部と、前記目標候補の中から選択を受け付ける受付部と、を備える。   A target detection support system according to an aspect of the present invention is a system that supports detection of a target in water, and a processing unit that acquires detection information of a target detected by each of a plurality of types of sensors; A generation unit that generates target candidate information based on the detection information, an analysis unit that analyzes the target candidate information using a predetermined filter, an output unit that outputs a result of the analysis, and the target candidate A reception unit that receives a selection from the inside.

目標探知支援システムでは、前記受付部は、前記目標候補の中から選択を受け付ける前に、前記フィルタの条件の再設定を受け付けてもよい。   In the target detection support system, the accepting unit may accept resetting of the filter condition before accepting selection from the target candidates.

目標探知支援システムは、選択された前記目標候補の情報に基づいて前記センサを制御するパラメータを作成する管制部をさらに備えてもよい。   The target detection support system may further include a control unit that creates a parameter for controlling the sensor based on the selected target candidate information.

目標探知支援システムは、前記検出情報を記憶する記憶部をさらに備え、前記目標候補の中から選択を受け付けた後に、前記目標候補の情報の再生成条件を前記受付部が受け付けた場合、前記生成部は、前記再生成条件に従って前記記憶部から読み出された前記検出情報に基づいて前記目標候補の情報を再生成してもよい。   The target detection support system further includes a storage unit that stores the detection information, and after receiving a selection from the target candidates, when the reception unit receives a regeneration condition of the target candidate information, the generation The unit may regenerate the target candidate information based on the detection information read from the storage unit according to the regeneration condition.

目標探知支援システムでは、前記出力部は、前記目標候補の情報に関する特徴を、前記目標候補の位置とともに出力してもよい。   In the target detection support system, the output unit may output characteristics regarding the target candidate information together with the position of the target candidate.

目標探知支援システムでは、前記センサは、送波器および複数の受波器を含む音響センサを含み、前記処理部は、前記音響センサから前記検出情報および観測誤差情報を取得し、前記検出情報に基づいた対象物の位置に前記観測誤差情報に基づいた誤差分布を反映させた拡張検出領域を生成する拡張検出領域生成部と、前記拡張検出領域に対応した票数を投票空間に設定する投票加算部と、前記投票空間において前記票数の多い領域を前記対象物の存在領域として特定する領域特定部と、を有していてもよい。   In the target detection support system, the sensor includes an acoustic sensor including a transmitter and a plurality of receivers, and the processing unit acquires the detection information and observation error information from the acoustic sensor, and includes the detection information in the detection information. An extended detection region generating unit that generates an extended detection region in which an error distribution based on the observation error information is reflected at the position of the target object, and a vote adding unit that sets the number of votes corresponding to the extended detection region in a voting space And an area specifying unit that specifies an area with a large number of votes in the voting space as an area where the object exists.

本発明のある態様に係る目標探知支援方法は、水中にある目標物の探知を支援する目標探知支援方法であって、複数種類のセンサのそれぞれにより検出された対象物の検出情報を取得し、前記検出情報に基づいて目標候補の情報を生成し、前記目標候補の情報を所定のフィルタを用いて分析した結果を出力し、前記目標候補の中から選択を受け付ける。   A target detection support method according to an aspect of the present invention is a target detection support method for supporting detection of a target in water, and acquires detection information of an object detected by each of a plurality of types of sensors, Target candidate information is generated based on the detection information, a result obtained by analyzing the target candidate information using a predetermined filter is output, and selection from the target candidates is accepted.

本発明は、以上に説明した構成を有し、水中における目標物をより精度よく見つけ出すことができる目標探知支援システムおよびその方法を提供することができるという効果を奏する。   The present invention has the above-described configuration, and has an effect of providing a target detection support system and method for finding a target in water with higher accuracy.

本発明の上記目的、他の目的、特徴、及び利点は、添付図面参照の下、以下の好適な実施態様の詳細な説明から明らかにされる。   The above object, other objects, features, and advantages of the present invention will become apparent from the following detailed description of the preferred embodiments with reference to the accompanying drawings.

本発明の実施の形態1に係る目標探知支援システムの主な構成を示すブロック図である。It is a block diagram which shows the main structures of the target detection assistance system which concerns on Embodiment 1 of this invention. 図1の目標探知支援システムの目標探知支援方法の一例を示すフローチャートである。It is a flowchart which shows an example of the target detection support method of the target detection support system of FIG. 各種センサにより取得された対象物の情報と、この対象物の情報に基づいた目標候補の情報とを表したチャートである。It is the chart showing the information on the target object acquired by various sensors, and the information on the target candidate based on the information on this target object. 本発明の実施の形態2に係る目標探知支援システムの目標探知支援方法の一例を示すフローチャートである。It is a flowchart which shows an example of the target detection assistance method of the target detection assistance system which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係る目標探知支援システムの主な構成を示すブロック図である。It is a block diagram which shows the main structures of the target detection assistance system which concerns on Embodiment 3 of this invention. 図5の目標探知支援システムの目標探知支援方法の一例を示すフローチャートである。It is a flowchart which shows an example of the target detection support method of the target detection support system of FIG. 本発明の実施の形態4に係る目標探知支援システムの一部の構成を示すブロック図である。It is a block diagram which shows a part of structure of the target detection assistance system which concerns on Embodiment 4 of this invention. 拡張検出領域を説明するための図である。It is a figure for demonstrating an extended detection area | region. 2つの受波器により検出された対象物の位置と、その拡張検出領域とを示す図である。It is a figure which shows the position of the target object detected by two receivers, and its extended detection area. 投票空間およびその投票箱に設定された票数を示す図である。It is a figure which shows the number of votes set to the voting space and its voting box. 図7の目標探知支援システムの目標探知支援方法の一例を示すフローチャートである。It is a flowchart which shows an example of the target detection assistance method of the target detection assistance system of FIG. 本発明の実施の形態5に係る目標探知支援システムの一部の構成を示すブロック図である。It is a block diagram which shows the structure of a part of target detection assistance system which concerns on Embodiment 5 of this invention. 図12の目標探知支援システムの目標探知支援方法の一例を示すフローチャートである。It is a flowchart which shows an example of the target detection support method of the target detection support system of FIG.

以下、本発明の実施の形態を、図面を参照しながら具体的に説明する。なお、以下では全ての図面を通じて同一又は相当する要素には同一の参照符号を付して、その重複する説明を省略する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In the following description, the same or corresponding elements are denoted by the same reference symbols throughout all the drawings, and redundant description thereof is omitted.

(実施の形態1)
図1は、実施の形態1に係る目標探知支援システム100の主な構成を示すブロック図である。図1に示すように、目標探知支援システム100は、空中、陸上、水上または水中に位置して、水中にある目標物を探知することを支援するシステムである。目標探知支援システム100は、センサ200および端末装置300と接続されている。目標物は、センサ200により検出された対象物の中から目標として選ばれた物体であって、たとえば、水中を移動する水中航走体、および、水中に存在する水中物体が挙げられる。
(Embodiment 1)
FIG. 1 is a block diagram showing a main configuration of a target detection support system 100 according to the first embodiment. As shown in FIG. 1, the target detection support system 100 is a system that is located in the air, on land, on water, or in water, and supports detecting a target in the water. The target detection support system 100 is connected to the sensor 200 and the terminal device 300. The target is an object selected as a target from among the objects detected by the sensor 200, and examples thereof include an underwater vehicle that moves in water and an underwater object that exists in water.

センサ200は、空中、陸上、水上または水中に位置して、空中、水上または水中にある物体(対象物)に関する情報を取得(検出)する。対象物は、空中、水上または水中を移動する物体も含む。センサ200は、検出した対象物の情報(検出情報)にセンサ識別情報およびセンサ位置情報を付加し、これらをセンサ情報として目標探知支援システム100へ出力する。ただし、センサ200の位置が予め特定されており、そのセンサ位置情報とセンサ識別情報とが対応付けられている場合には、センサ位置情報は出力されなくてもよい。   The sensor 200 is located in the air, land, water, or water, and acquires (detects) information related to an object (object) that is in the air, water, or water. Objects also include objects that move in the air, on water, or in water. The sensor 200 adds sensor identification information and sensor position information to the detected object information (detection information), and outputs them to the target detection support system 100 as sensor information. However, when the position of the sensor 200 is specified in advance and the sensor position information is associated with the sensor identification information, the sensor position information may not be output.

センサ200は、たとえば、音響センサ210、レーダーセンサ220、光波センサ230、逆探知装置(ESM)240、磁気探知装置(MAD)250、自動船舶識別装置(AIS)260、通信装置270、敵味方識別装置(IFF)280により構成されている。ただし、センサ200は、互いに異なる種類の複数のセンサ200であれば特に限定されない。このため、これらの全てを目標探知支援システム100のセンサ200として用いなくてもよい。なお、センサ200は、水中にある対象物を広範囲に検出することができるセンサ、たとえば、音響センサ210を含むことが好ましい。また、水上にある対象物を広範囲に検出することができるセンサ、たとえば、レーダーセンサ220を含むことが好ましい。   The sensor 200 includes, for example, an acoustic sensor 210, a radar sensor 220, a light wave sensor 230, a reverse detection device (ESM) 240, a magnetic detection device (MAD) 250, an automatic ship identification device (AIS) 260, a communication device 270, and an enemy ally identification. The apparatus (IFF) 280 is comprised. However, the sensor 200 is not particularly limited as long as it is a plurality of different types of sensors 200. For this reason, all of these need not be used as the sensor 200 of the target detection support system 100. The sensor 200 preferably includes a sensor that can detect a wide range of objects in water, for example, an acoustic sensor 210. Moreover, it is preferable to include a sensor that can detect an object on the water over a wide range, for example, a radar sensor 220.

音響センサ210は、音波を検出するセンサであって、音波を放射して対象物で反射した音波を受信するアクティブ音響センサ210、および、対象物から放射された音波とアクティブ音響センサが放射した音波が対象物で反射した音波とを受信するパッシブ音響センサ210がある。レーダーセンサ220は、電波を放射して対象物で反射した電波を受信するセンサである。光波センサ230は、光波を検出するセンサであって、たとえば、カメラである。逆探知装置240は、対象物から放射された電波を受信するセンサである。磁気探知装置250は、対象物により生じた地磁気の磁場の変化を検出するセンサである。自動船舶識別装置260は、船舶が発するその船舶に関する情報を受信する装置である。通信装置270は、対象物に関する情報を他の通信装置から受信する装置である。敵味方識別装置280は、対象物に対して敵味方に関する問合せしてその応答を受信する装置である。   The acoustic sensor 210 is a sensor that detects sound waves. The active acoustic sensor 210 emits sound waves and receives sound waves reflected by the object, and the sound waves emitted from the object and the sound waves emitted by the active acoustic sensor. There is a passive acoustic sensor 210 that receives sound waves reflected by an object. The radar sensor 220 is a sensor that radiates radio waves and receives radio waves reflected by an object. The light wave sensor 230 is a sensor that detects a light wave, and is, for example, a camera. The reverse detection device 240 is a sensor that receives radio waves radiated from an object. The magnetic detection device 250 is a sensor that detects a change in a geomagnetic field generated by an object. The automatic vessel identification device 260 is a device that receives information about the vessel that is issued by the vessel. The communication device 270 is a device that receives information about an object from another communication device. The enemy ally identification device 280 is a device that inquires an object about an enemy ally and receives a response.

端末装置300は、目標探知支援システム100を操作するための装置であって、たとえば、入力部310および表示部320を有するコンピュータが用いられる。入力部310は、オペレータからの情報(操作情報)を目標探知支援システム100に入力するための装置である。表示部320は、たとえば、目標探知支援システム100から出力された情報を表示するディスプレーである。ただし、情報を出力できるものであれば、表示部320はプリンターなどであってもよい。なお、端末装置300は、目標探知支援システム100と別に設けられているが、目標探知支援システム100に含まれていてもよい。   The terminal device 300 is a device for operating the target detection support system 100, and for example, a computer having an input unit 310 and a display unit 320 is used. The input unit 310 is a device for inputting information (operation information) from an operator to the target detection support system 100. The display unit 320 is a display that displays information output from the target detection support system 100, for example. However, the display unit 320 may be a printer or the like as long as it can output information. The terminal device 300 is provided separately from the target detection support system 100, but may be included in the target detection support system 100.

目標探知支援システム100は、たとえば、コンピュータによって構成されており、演算部110および記憶部120を備えている。たとえば、演算部110はCPUにより構成され、記憶部120は内部メモリや外部記憶装置などによって構成されている。記憶部120には、目標探知支援プログラムおよびこの関連情報が記憶されている。関連情報としては、たとえば、センサ位置情報とセンサ識別情報との対応関係、および、海洋情報がある。海洋情報には、沈船など予めわかっている水中物体の種別および位置、海底地形の種別および位置、および、過去の水温計測結果などがある。演算部110は、取得部130、検出情報処理部(処理部)140、目標候補情報処理部150および受付部160により構成されている。   The target detection support system 100 is configured by a computer, for example, and includes a calculation unit 110 and a storage unit 120. For example, the arithmetic unit 110 is configured by a CPU, and the storage unit 120 is configured by an internal memory, an external storage device, or the like. The storage unit 120 stores a target detection support program and related information. The related information includes, for example, correspondence between sensor position information and sensor identification information, and marine information. The ocean information includes the type and position of an underwater object known in advance such as a shipwreck, the type and position of a seabed topography, and past water temperature measurement results. The calculation unit 110 includes an acquisition unit 130, a detection information processing unit (processing unit) 140, a target candidate information processing unit 150, and a reception unit 160.

取得部130は、センサ情報をセンサ200から取得し、センサ情報をセンサ識別情報に基づいて検出情報処理部140へ出力する。取得部130は、センサ情報を取得した際に、その取得時刻をセンサ200の検出時間情報としてセンサ情報に含めてもよい。この検出時間情報は、センサ200が対象物を検出した時刻を表す。ただし、センサ200が対象物を検出した際にその時刻を取得し、この時刻を検出時間情報としてセンサ情報に含めて目標探知支援システム100に出力してもよい。   The acquisition unit 130 acquires sensor information from the sensor 200 and outputs the sensor information to the detection information processing unit 140 based on the sensor identification information. When acquiring the sensor information, the acquisition unit 130 may include the acquisition time as detection time information of the sensor 200 in the sensor information. This detection time information represents the time when the sensor 200 detects the object. However, when the sensor 200 detects the object, the time may be acquired, and this time may be included in the sensor information as detection time information and output to the target detection support system 100.

検出情報処理部140は、センサ情報の検出情報などを取得して処理し、各センサ200により検出された対象物の情報を生成する。ただし、対象物の情報の一部または全てをセンサ210で生成してもよい。この場合、検出情報処理部140は、センサ210で生成された検出情報を対象物の情報とする。   The detection information processing unit 140 acquires and processes the detection information of the sensor information, and generates information on the object detected by each sensor 200. However, part or all of the object information may be generated by the sensor 210. In this case, the detection information processing unit 140 uses the detection information generated by the sensor 210 as information on the object.

検出情報処理部140は、たとえば、音響情報処理部141、レーダー情報処理部142、光波情報処理部143、逆探知情報処理部144、磁気情報処理部145、船舶識別情報処理部146、通信情報処理部147、敵味方情報処理部148により構成されている。1つのセンサ200に1つの検出情報処理部140が対応して設けられている。ただし、複数のセンサ200に対して1つの検出情報処理部140が設けられていてもよい。   The detection information processing unit 140 includes, for example, an acoustic information processing unit 141, a radar information processing unit 142, a light wave information processing unit 143, a reverse detection information processing unit 144, a magnetic information processing unit 145, a ship identification information processing unit 146, and a communication information processing. Part 147 and an enemy ally information processing part 148. One detection information processing unit 140 is provided corresponding to one sensor 200. However, one detection information processing unit 140 may be provided for the plurality of sensors 200.

音響情報処理部141は、音響センサ210からのセンサ情報に基づいて、水上または水中にある対象物の位置、針路および速度など対象物の情報を生成する。音響センサ210からのセンサ情報としては、たとえば、音響センサ210の送波器の位置や受波器の位置、受信した音波の方向、音波を送信してから受信するまでの時間、受信した音波の周波数、周波数偏移が挙げられる。   Based on the sensor information from the acoustic sensor 210, the acoustic information processing unit 141 generates information on the object such as the position, course, and speed of the object on the water or in the water. Examples of sensor information from the acoustic sensor 210 include the position of the transmitter and receiver of the acoustic sensor 210, the direction of the received sound wave, the time from when the sound wave is transmitted until it is received, and the received sound wave. Examples include frequency and frequency shift.

レーダー情報処理部142は、レーダーセンサ220からのセンサ情報に基づいて、空中、水上にある対象物の位置、針路、速度および形状など対象物の情報を生成する。レーダーセンサ220からのセンサ情報としては、たとえば、レーダーセンサ220の送波器の位置や受波器の位置、受信した電波の方向、電波を送信してから受信するまでの時間、受信した電波の時刻が挙げられる。   Based on the sensor information from the radar sensor 220, the radar information processing unit 142 generates information on the object such as the position, course, speed, and shape of the object in the air or on the water. The sensor information from the radar sensor 220 includes, for example, the position of the transmitter and receiver of the radar sensor 220, the direction of the received radio wave, the time from when the radio wave is transmitted until it is received, Time is given.

光波情報処理部143は、光波センサ230からのセンサ情報に基づいて、空中、水中または水上にある対象物の形状、針路および速度など対象物の情報を生成する。光波センサ230からのセンサ情報としては、たとえば、光波センサ230の位置、光波を捉えた可視画像や赤外画像、受信した光波の方向、受信した光波の時刻が挙げられる。   Based on the sensor information from the light wave sensor 230, the light wave information processing unit 143 generates information on the object such as the shape, course, and speed of the object in the air, underwater, or on the water. The sensor information from the light wave sensor 230 includes, for example, the position of the light wave sensor 230, a visible image or infrared image capturing the light wave, the direction of the received light wave, and the time of the received light wave.

逆探知情報処理部144は、逆探知装置240からのセンサ情報に基づいて、電波の放射源である対象物の種類および方位など対象物の情報を生成する。逆探知装置240からのセンサ情報としては、たとえば、逆探知装置240の位置、受信した電波の方向や周波数が挙げられる。   Based on the sensor information from the reverse detection device 240, the reverse detection information processing unit 144 generates information on the target such as the type and direction of the target that is a radio wave radiation source. Examples of the sensor information from the reverse detection device 240 include the position of the reverse detection device 240 and the direction and frequency of the received radio wave.

磁気情報処理部145は、磁気探知装置250からのセンサ情報に基づいて、対象物の構成材料など対象物の情報を生成する。磁気探知装置250からのセンサ情報としては、たとえば、磁気探知装置250の位置、受信した磁場の変化が挙げられる。   The magnetic information processing unit 145 generates information on the object such as the constituent material of the object based on the sensor information from the magnetic detection device 250. Examples of the sensor information from the magnetic detection device 250 include the position of the magnetic detection device 250 and a change in the received magnetic field.

船舶識別情報処理部146は、自動船舶識別装置260からのセンサ情報に基づいて、
船舶の識別情報、位置、針路、速度など対象物の情報を生成する。自動船舶識別装置260からのセンサ情報としては、たとえば、船舶の識別情報、位置、針路、速度が挙げられる。
The ship identification information processing unit 146 is based on the sensor information from the automatic ship identification device 260.
Information on the object such as ship identification information, position, course, and speed is generated. Examples of the sensor information from the automatic ship identification device 260 include ship identification information, position, course, and speed.

通信情報処理部147は、通信装置270からの情報に基づいて、対象物の識別情報、位置、針路、速度など対象物の情報を生成する。通信装置270からのセンサ情報としては、たとえば、船舶の識別情報、位置、針路、速度が挙げられる。   Based on information from the communication device 270, the communication information processing unit 147 generates information on the object such as identification information, position, course, and speed of the object. Examples of sensor information from the communication device 270 include ship identification information, position, course, and speed.

敵味方情報処理部148は、敵味方識別装置280からのセンサ情報に基づいて、対象物の敵味方判別など対象物の情報を生成する。敵味方識別装置280からの情報としては、たとえば、敵味方識別装置280が発する質問に対する応答が挙げられる。   The enemy ally information processing unit 148 generates information on the object such as the enemy ally discrimination of the object based on the sensor information from the enemy ally identification device 280. Examples of the information from the enemy ally identifying device 280 include a response to a question issued by the enemy ally identifying device 280.

目標候補情報処理部150は、生成部151、分析部152および出力部153を備えている。生成部151は、対象物の情報に基づいて少なくとも1つの目標候補の情報を生成する。分析部152は、目標候補の情報を分析するためのフィルタの条件を設定し、目標候補の情報を所定のフィルタを用いて分析する。フィルタの条件としては、目標物の特徴量を表すものであって、たとえば、想定される目標物の位置、速度、大きさなどがある。フィルタの条件は、所定値であってもよいし、入力部310から受付部160を介してオペレータにより入力された値であってもよい。分析方法は、特に限定されないが、たとえば、多変量解析などの既存の特徴量解析技術を用いることができる。出力部153は、分析した結果を表示部320へ出力する。   The target candidate information processing unit 150 includes a generation unit 151, an analysis unit 152, and an output unit 153. The generation unit 151 generates information on at least one target candidate based on the information on the target object. The analysis unit 152 sets a filter condition for analyzing the target candidate information, and analyzes the target candidate information using a predetermined filter. The filter condition represents the feature amount of the target, and includes, for example, the assumed position, speed, and size of the target. The filter condition may be a predetermined value or may be a value input by the operator from the input unit 310 via the receiving unit 160. The analysis method is not particularly limited. For example, an existing feature amount analysis technique such as multivariate analysis can be used. The output unit 153 outputs the analysis result to the display unit 320.

受付部160は、入力部310から操作情報を受け付ける。たとえば、オペレータが、表示部320に出力された目標候補の中から少なくとも1つを選択したりフィルタの条件を入力したりすると、この操作情報を受付部160は入力部310から受け付ける。   The accepting unit 160 accepts operation information from the input unit 310. For example, when the operator selects at least one target candidate output from the display unit 320 or inputs a filter condition, the operation unit 160 receives the operation information from the input unit 310.

次に、目標探知支援方法について図2および図3を参照しながら説明する。目標探知支援方法は、目標探知支援システム100により実行される。図2は、目標探知支援方法の一例を示すフローチャートである。図3は、対象物の情報および目標候補の情報を表したチャートである。図3(a)は、検出時刻T0の検出情報に基づいて通信情報処理部147で取得された対象物の情報を表したチャートである。図3(b)は、検出時刻T1の検出情報に基づいてレーダー情報処理部142、光波情報処理部143、逆探知情報処理部144、磁気情報処理部145、船舶識別情報処理部146で取得された対象物の情報を表したチャートである。図3(c)は、検出時刻T2の検出情報に基づいて音響情報処理部141で所得された対象物の情報を表したチャートである。図3(d)は、海洋情報を表したチャートである。図3(e)は、検出時刻T2における目標候補の情報を分析した結果を表したチャートである。なお、図3(b)、図3(c)における円マークが対象物の位置を表し、円マークから延びる棒マークの方向が対象物の針路を表し、棒マークの長さが対象物の速度を表している。図3(c)における三角マークはパッシブ音響センサ210の受波器Dを表している。なお、以下の説明では、センサ200の検出時刻がそれぞれ異なるため、異なる検出時刻T0、T1、T2のセンサ情報を用いたが、同じ検出時刻のセンサ情報を用いることもできる。   Next, the target detection support method will be described with reference to FIGS. The target detection support method is executed by the target detection support system 100. FIG. 2 is a flowchart illustrating an example of the target detection support method. FIG. 3 is a chart showing object information and target candidate information. FIG. 3A is a chart showing information on the object acquired by the communication information processing unit 147 based on the detection information at the detection time T0. FIG. 3B is acquired by the radar information processing unit 142, the light wave information processing unit 143, the reverse detection information processing unit 144, the magnetic information processing unit 145, and the ship identification information processing unit 146 based on the detection information at the detection time T1. It is the chart showing the information of the target object. FIG. 3C is a chart showing information on the object obtained by the acoustic information processing unit 141 based on the detection information at the detection time T2. FIG. 3D is a chart showing marine information. FIG. 3E is a chart showing the result of analyzing the target candidate information at the detection time T2. 3B and 3C represent the position of the object, the direction of the bar mark extending from the circle mark represents the course of the object, and the length of the bar mark is the speed of the object. Represents. A triangular mark in FIG. 3C represents the receiver D of the passive acoustic sensor 210. In the following description, since the detection times of the sensors 200 are different from each other, sensor information at different detection times T0, T1, and T2 is used. However, sensor information at the same detection time can also be used.

目標探知支援方法が開始されると、取得部130はセンサ情報をセンサ200から取得する(ステップS11)。そして、取得部130はセンサ情報をセンサ識別情報に基づいてセンサ200に対応した検出情報処理部140へ出力する。このセンサ情報は、センサ200の検出情報、その検出時間情報、センサ識別情報およびセンサ位置情報を含んでいる。   When the target detection support method is started, the acquisition unit 130 acquires sensor information from the sensor 200 (step S11). And the acquisition part 130 outputs sensor information to the detection information processing part 140 corresponding to the sensor 200 based on sensor identification information. This sensor information includes detection information of the sensor 200, detection time information thereof, sensor identification information, and sensor position information.

検出情報処理部140は、センサ情報から対象物の情報を取得する(ステップS12)。この対象物の情報はセンサ200ごとに取得される。ただし、全てのセンサ200が対象物を検出していなくてもよい。また、1つのセンサ200が複数の対象物を検出していてもよい。複数の対象物がある場合、その全ての対象物を各センサ200が検出しなくてもよい。   The detection information processing unit 140 acquires information on the object from the sensor information (step S12). Information about this object is acquired for each sensor 200. However, not all the sensors 200 need to detect the object. One sensor 200 may detect a plurality of objects. When there are a plurality of objects, each sensor 200 may not detect all the objects.

たとえば、水中航走体に関する情報を通信装置270が得た場合、目標物を探知する範囲を設定するために、通信装置270からのセンサ情報に基づいて対象物である水中航走体の情報を通信情報処理部147が取得する。なお、センサ情報には、検出時刻T0、水中航走体の位置、サイズ、速度および針路が含まれている。   For example, when the communication device 270 obtains information about the underwater vehicle, information on the underwater vehicle that is the target is set based on the sensor information from the communication device 270 in order to set a range for detecting the target. Acquired by the communication information processing unit 147. The sensor information includes the detection time T0, the position, size, speed, and course of the underwater vehicle.

まず、通信情報処理部147は、図3(a)に示すように、水中航走体の位置およびサイズを対象物a1の位置およびサイズとして求める。また、通信情報処理部147は、水中航走体の検出時刻T0、対象物a1の位置、速度および針路から時刻T2における対象物a1の位置予測範囲a2を求める。そして、対象物a1および位置予測範囲a2を含む範囲が目標探知支援システム100の探知範囲として設定される。   First, as shown in FIG. 3A, the communication information processing unit 147 obtains the position and size of the underwater vehicle as the position and size of the object a1. Further, the communication information processing unit 147 obtains the position prediction range a2 of the object a1 at the time T2 from the detection time T0 of the underwater vehicle, the position, speed, and course of the object a1. Then, a range including the object a1 and the position prediction range a2 is set as the detection range of the target detection support system 100.

次に、検出時刻T1に探知範囲にある対象物の情報を他のセンサ200からのセンサ情報に基づいて取得する。たとえば、図3(b)に示すように、レーダー情報処理部142は、レーダーセンサ220のセンサ情報から時刻T1における対象物b1の位置、速度および針路を求める。さらに、これらの情報から時刻T2における対象物b1の位置を推定する。   Next, information on an object in the detection range at the detection time T <b> 1 is acquired based on sensor information from other sensors 200. For example, as illustrated in FIG. 3B, the radar information processing unit 142 obtains the position, speed, and course of the object b1 at time T1 from the sensor information of the radar sensor 220. Further, the position of the object b1 at time T2 is estimated from these pieces of information.

また、光波情報処理部143は、光波センサ230のセンサ情報から時刻T1における対象物b2の位置を求める。ただし、この対象物b2は時刻T1の検出直後の検出時に検出されなくなった。このため、この検出されなかったという情報も対象物b2の情報として求められ、たとえば、図3(b)では対象物b2の位置を示す円マークが破線で表される。   The light wave information processing unit 143 obtains the position of the object b2 at time T1 from the sensor information of the light wave sensor 230. However, the object b2 is not detected at the time of detection immediately after the detection at time T1. For this reason, this information that it was not detected is also obtained as information on the object b2, and for example, in FIG. 3B, a circle mark indicating the position of the object b2 is represented by a broken line.

さらに、逆探知情報処理部144は、逆探知装置240のセンサ情報から時刻T1における対象物b3の位置、速度および針路を求め、さらに、この情報から時刻T2における対象物b3の位置を推定する。また、磁気情報処理部145は、磁気探知装置250のセンサ情報から時刻T1における対象物b4の位置を求める。また、船舶識別情報処理部146は、自動船舶識別装置260のセンサ情報から時刻T1における対象物b5の位置、速度および針路を求め、さらに、この情報から時刻T2における対象物b5の位置を推定する。   Further, the reverse detection information processing unit 144 obtains the position, speed, and course of the object b3 at time T1 from the sensor information of the reverse detection device 240, and further estimates the position of the object b3 at time T2 from this information. In addition, the magnetic information processing unit 145 obtains the position of the object b4 at time T1 from the sensor information of the magnetic detection device 250. The ship identification information processing unit 146 obtains the position, speed, and course of the object b5 at time T1 from the sensor information of the automatic ship identification device 260, and further estimates the position of the object b5 at time T2 from this information. .

次に、検出時刻T2に探知範囲にある対象物の情報を他のセンサ200からのセンサ情報に基づいて取得する。たとえば、図3(c)に示すように、音響情報処理部141は、アクティブ音響センサ210のセンサ情報から時刻T2における対象物c1およびc2の位置を求める。また、音響情報処理部141は、パッシブ音響センサ210のセンサ情報から時刻T2における対象物c3〜c6の位置、速度および針路を求める。   Next, information on the object in the detection range at the detection time T <b> 2 is acquired based on sensor information from other sensors 200. For example, as shown in FIG. 3C, the acoustic information processing unit 141 obtains the positions of the objects c1 and c2 at time T2 from the sensor information of the active acoustic sensor 210. In addition, the acoustic information processing unit 141 obtains the positions, speeds, and courses of the objects c3 to c6 at the time T2 from the sensor information of the passive acoustic sensor 210.

目標情報処理部の生成部151は、対象物の情報から目標候補の情報を生成する(ステップS13)。この際に、生成部151は、探知範囲にある海洋情報を記憶部120から取得して参照する。たとえば、図3(d)に示すように、探知範囲にある海山d1、浅瀬d2、沈船d3の情報が得られる。   The generation unit 151 of the target information processing unit generates target candidate information from the object information (step S13). At this time, the generation unit 151 acquires marine information in the detection range from the storage unit 120 and refers to it. For example, as shown in FIG. 3D, information on seamounts d1, shoals d2, and shipwrecks d3 in the detection range is obtained.

図3(a)〜図3(c)に示すように探知範囲には各種センサ200により複数の対象物が検出されており、また、1つの対象物について複数の情報が取得されている。このため、検出時刻および対象物の位置に基づいて各種センサ200の対象物を対応付けて、各対象物について情報を1つにまとめて、目標候補の情報として生成する。なお、1つの対象物について1つの情報しか取得されていない場合には、その対象物の情報を目標候補の情報として生成する。   As shown in FIGS. 3A to 3C, a plurality of objects are detected by various sensors 200 in the detection range, and a plurality of pieces of information are acquired for one object. For this reason, the objects of the various sensors 200 are associated with each other based on the detection time and the position of the object, and information about each object is collected into one and generated as target candidate information. In addition, when only one information is acquired about one target object, the information of the target object is produced | generated as target candidate information.

たとえば、対象物b1の時刻T2における推定位置と対象物c3の時刻T2における検出位置とが一致または近似しているため、対象物b1の情報および対象物c3の情報をまとめて第1目標候補の情報として生成する。対象物b2の位置に一致または近似する対象物が他にないため、対象物b2の情報を第2目標候補の情報として生成する。同様にして、対象物b3の情報および対象物c5の情報をまとめて第3目標候補の情報として生成する。対象物b4の情報、対象物c1の情報および沈船d3の情報をまとめて第4目標候補の情報として生成する。対象物b5の情報および対象物c4の情報をまとめて第5目標候補の情報として生成する。対象物c2の情報および海山d1の情報をまとめて第6目標候補の情報として生成する。対象物c6の情報を第7目標候補の情報として生成する。   For example, since the estimated position of the target object b1 at time T2 and the detected position of the target object c3 at time T2 match or approximate, the information on the target object b1 and the information on the target object c3 are collected together as the first target candidate. Generate as information. Since there is no other object that matches or approximates the position of the object b2, information on the object b2 is generated as information on the second target candidate. Similarly, the information on the object b3 and the information on the object c5 are collectively generated as information on the third target candidate. The information on the object b4, the information on the object c1, and the information on the ship wreck d3 are collectively generated as information on the fourth target candidate. The information on the target object b5 and the information on the target object c4 are collectively generated as the information on the fifth target candidate. The information on the object c2 and the information on the seamount d1 are collectively generated as information on the sixth target candidate. Information on the object c6 is generated as information on the seventh target candidate.

受付部160は、目標候補の情報をフィルタにより分析するため、オペレータにより入力されたフィルタの条件(操作情報)を入力部310から受け付けて目標候補情報処理部150へ出力する(ステップS14)。たとえば、水中航走体を探知する場合には、オペレータは探知する水中走行体の速度や大きさなどの目標物の特徴量をフィルタの条件として入力する。   In order to analyze the target candidate information using a filter, the receiving unit 160 receives the filter condition (operation information) input by the operator from the input unit 310 and outputs it to the target candidate information processing unit 150 (step S14). For example, when detecting an underwater vehicle, the operator inputs a feature amount of the target such as the speed and size of the underwater vehicle to be detected as a filter condition.

分析部152は、フィルタの条件に基づいた所定のフィルタによって各目標候補の情報を多変量解析で分析する(ステップS15)。そして、出力部153が分析結果を表示部320に出力すると(ステップS16)、たとえば、図3(e)に示すように、目標候補の分析結果が図式化されて表示部320に表示される。この分析結果として、分析より抽出された目標候補の位置に加えて、各目標候補の情報に関する特徴が出力される。目標候補の情報に関する特徴として、推定される目標候補の種別があり、図3(e)では、種別である水上船舶が四角マークで示される。また、フィルタの条件に基づいて目標物の可能性が高いものとして星マークで示されている。なお、これ以外の目標候補の情報に関する特徴として、第2目標候補の情報のように、図3(b)の対象物b2が一度検出されたがその後は検出されていないという情報、目標候補が複数のセンサ200により検出されているという情報、目標候補が1つのセンサ200のみにしか検出されていないという情報が出力されてもよい。   The analysis unit 152 analyzes the information of each target candidate by multivariate analysis using a predetermined filter based on the filter condition (step S15). When the output unit 153 outputs the analysis result to the display unit 320 (step S16), for example, as shown in FIG. 3E, the analysis result of the target candidate is graphically displayed on the display unit 320. As a result of this analysis, in addition to the position of the target candidate extracted from the analysis, a feature relating to information on each target candidate is output. As a feature related to the target candidate information, there is a type of the target candidate to be estimated. In FIG. 3E, the type of surface ship is indicated by a square mark. Moreover, it is shown with a star mark as a thing with high possibility of a target object based on the conditions of a filter. In addition, as a feature related to information on other target candidates, information that the target b2 in FIG. 3B is detected once but not detected as in the information on the second target candidate, and the target candidate is not detected thereafter. Information that a plurality of sensors 200 are detected, and information that a target candidate is detected only by one sensor 200 may be output.

たとえば、第1目標候補は、音響センサ210およびレーダーセンサ220で検出されており、ある速度で進んでいることにより、図3(e)に示すように、水上船舶e1と推定されて四角マークで表示されている。同様に、第3目標候補は水上船舶e2と、第5目標候補は水上船舶e3と推定されて四角マークで表示されている。また、第2目標候補は、時刻T1に光波センサ230により検出された後に検出されていないため、この分析結果としては表示されていない。第4目標候補は、沈船d3の海洋情報を目標候補の情報として含んでいるため、沈船d3と推定されて、この分析結果としては表示されていない。同様に、第6目標候補は海山d1と推定されてこの分析結果には表示されていない。また、第7目標候補は、パッシブ音響センサ210では検出されているが、他のセンサ200などの情報がないため、未推定物e4として星マークで表示されている。この星マークから延びる棒マークの方向により未推定物e4の針路を表し、棒マークの長さにより未推定物e4の速度を表している。   For example, the first target candidate is detected by the acoustic sensor 210 and the radar sensor 220 and, as shown in FIG. 3 (e), is estimated to be a surface ship e1 by a square mark, as indicated by a square mark. It is displayed. Similarly, the third target candidate is assumed to be a surface vessel e2, and the fifth target candidate is assumed to be a surface vessel e3, and is displayed with a square mark. Further, since the second target candidate is not detected after being detected by the light wave sensor 230 at time T1, it is not displayed as the analysis result. Since the fourth target candidate includes marine information of the shipwreck d3 as target candidate information, it is estimated as the shipwreck d3 and is not displayed as the analysis result. Similarly, the sixth target candidate is estimated as seamount d1 and is not displayed in the analysis result. In addition, the seventh target candidate is detected by the passive acoustic sensor 210, but is not displayed as a non-estimated object e4 because there is no information on the other sensors 200 and the like. The course of the unestimated object e4 is represented by the direction of the bar mark extending from the star mark, and the speed of the unestimated object e4 is represented by the length of the bar mark.

受付部160は、オペレータが分析結果を見て4つの第1、第3、第5、第7目標候補から目標物を選んでその選択を入力部310により入力すると、その選択(操作情報)を受け付けて目標候補情報処理部150へ出力する(ステップS17)。たとえば、オペレータが未推定物e4を選択すると、目標候補情報処理部150の分析部152は、未推定物e4に対応する第7目標候補の情報を抽出する。これにより、第7目標候補は探知する目標物として決定される(ステップS18)。   When the operator looks at the analysis result and selects an object from the four first, third, fifth, and seventh target candidates and inputs the selection using the input unit 310, the accepting unit 160 receives the selection (operation information). Accept and output to the target candidate information processing unit 150 (step S17). For example, when the operator selects the unestimated object e4, the analysis unit 152 of the target candidate information processing unit 150 extracts information on the seventh target candidate corresponding to the unestimated object e4. Thereby, the seventh target candidate is determined as a target to be detected (step S18).

なお、この実施の形態では、分析結果として4つの目標候補が抽出されたが、分析結果は0または1つの目標候補であってもよい。また、1つの目標候補が目標物として選択されたが、複数の目標物が選択されてもよい。   In this embodiment, four target candidates are extracted as analysis results, but the analysis results may be zero or one target candidate. One target candidate is selected as the target, but a plurality of targets may be selected.

上記構成によれば、目標候補の情報の分析結果を出力し、目標候補の中から少なくとも1つの選択を受け付けている。このように、その有無自体も発見することが困難な水中の目標物に関して、オペレータは、出力された目標候補の情報を柔軟に判断して、目標候補の中から目標物を選択することができる。このため、水中の目標物をより精度よく見つけ出すことができる。   According to the above configuration, the analysis result of the target candidate information is output, and at least one selection from the target candidates is accepted. In this way, for an underwater target that is difficult to detect whether or not it exists, the operator can flexibly determine the output target candidate information and select a target from the target candidates. . For this reason, the target in water can be found more accurately.

また、目標候補の位置だけでなく、目標候補の情報に関する特徴も出力している。このため、オペレータは、多様な情報に基づいて目標候補を判断することができ、水中の目標物をより精度よく見つけ出すことができる。   Further, not only the position of the target candidate but also a feature related to the target candidate information is output. For this reason, the operator can determine a target candidate based on various information, and can find the target in water more accurately.

さらに、水中の広範囲を検出することができる音響センサ210の検出情報に基づいて目標候補の情報を生成している。これにより、水中にある目標物をより広範囲に探知することができる。   Furthermore, target candidate information is generated based on detection information of the acoustic sensor 210 that can detect a wide range of underwater. Thereby, the target in water can be detected in a wider range.

(実施の形態2)
図4は、実施の形態2に係る目標探知支援システム100の目標探知支援方法の一例を示すフローチャートである。図4に示すフローでも、図2に示した各ステップの処理を実行する。ただし、図4に示すフローでは、ステップS16の処理とステップS17の処理との間に、目標物を決定するか否かを判断する処理(ステップS19)を実行する。なお、受付部160は、目標候補の中から選択を受け付ける前に、フィルタの条件の再設定を受け付ける。
(Embodiment 2)
FIG. 4 is a flowchart showing an example of the target detection support method of the target detection support system 100 according to the second embodiment. Also in the flow shown in FIG. 4, the processing of each step shown in FIG. 2 is executed. However, in the flow shown in FIG. 4, a process of determining whether or not a target is determined (step S19) is executed between the process of step S16 and the process of step S17. The accepting unit 160 accepts resetting of filter conditions before accepting selection from the target candidates.

たとえば、オペレータが目標候補の中から目標物を選択することができない場合、オペレータは、フィルタの条件を再設定して目標候補の情報を分析し直すために、目標候補を選択せずに、目標候補の未選択を入力部310により入力する。この未選択(操作情報)を受付部160が入力部310から受け付けると(ステップS19:NO)、フィルタの条件を再設定するために、ステップS14の処理に戻る。そして、受付部160は、フィルタの条件(操作情報)を入力部310から再度受け付ける(ステップS14)。この新たなフィルタの条件に基づいて、目標候補情報処理部150は、目標候補の情報を再分析し(ステップS15)、再分析結果を出力する(ステップS16)。オペレータがこの再分析結果における新たな目標候補の中から選択することができなければ(ステップS19:NO)、S14〜S16およびS19の処理を繰り返す。一方、オペレータにより目標候補が選択されれば(ステップS19:YES、S17)、選択された目標候補を目標物として決定する(ステップS18)。   For example, if the operator cannot select a target from among the target candidates, the operator can select the target without selecting the target candidate in order to reset the filter conditions and analyze the target candidate information again. An unselected candidate is input by the input unit 310. When the unselected (operation information) is received by the receiving unit 160 from the input unit 310 (step S19: NO), the process returns to step S14 in order to reset the filter conditions. Then, the receiving unit 160 receives again the filter condition (operation information) from the input unit 310 (step S14). Based on the new filter condition, the target candidate information processing unit 150 reanalyzes the target candidate information (step S15) and outputs the reanalysis result (step S16). If the operator cannot select a new target candidate in the reanalysis result (step S19: NO), the processes of S14 to S16 and S19 are repeated. On the other hand, if the target candidate is selected by the operator (step S19: YES, S17), the selected target candidate is determined as a target (step S18).

上記目標探知支援方法を実行することにより、フィルタの条件を再設定して目標候補の情報を再分析している。よって、オペレータが分析結果を柔軟に判断して、目標物に応じたより適切なフィルタの条件を設定することができるため、水中の目標物をより精度よく見つけ出すことができる。   By executing the target detection support method, the filter condition is reset and the target candidate information is reanalyzed. Therefore, the operator can flexibly determine the analysis result and set a more appropriate filter condition according to the target, so that the target in water can be found more accurately.

(実施の形態3)
図5は、実施の形態3に係る目標探知支援システム100の主な構成を示すブロック図である。図5に示すように、実施の形態3に係る目標探知支援システム100は、管制部170をさらに備えている。管制部170は、たとえば、目標候補情報処理部150により決定された目標物を追跡する際に、目標物をより的確に検出するようにセンサ200を制御するパラメータ(制御パラメータ)を求めてセンサ200へ出力する。
(Embodiment 3)
FIG. 5 is a block diagram showing a main configuration of target detection support system 100 according to the third embodiment. As shown in FIG. 5, the target detection support system 100 according to Embodiment 3 further includes a control unit 170. For example, when tracking the target determined by the target candidate information processing unit 150, the control unit 170 obtains a parameter (control parameter) for controlling the sensor 200 so as to detect the target more accurately. Output to.

図6は、実施の形態3に係る目標探知支援システム100の目標探知支援方法の一例を示すフローチャートである。図6に示すフローでも、図4に示した各ステップの処理を実行する。ただし、図6に示すフローでは、ステップS18の処理の後に、制御パラメータを取得し、制御パラメータでセンサ200を制御する処理(ステップS10〜S13)を実行する。   FIG. 6 is a flowchart illustrating an example of the target detection support method of the target detection support system 100 according to the third embodiment. Also in the flow shown in FIG. 6, the processing of each step shown in FIG. 4 is executed. However, in the flow shown in FIG. 6, after the process of step S18, a control parameter is acquired, and a process (steps S10 to S13) of controlling the sensor 200 with the control parameter is executed.

具体的には、目標物が決定すると(ステップS18)、目標情報処理部は目標物の情報を管制部170へ出力する。管制部170は、目標物の情報に基づいて制御パラメータを取得する(ステップS20)。   Specifically, when the target is determined (step S18), the target information processing unit outputs information on the target to the control unit 170. The control unit 170 acquires a control parameter based on the target information (step S20).

たとえば、管制部170が複数の送波器および複数の受波器を有するアクティブ音響センサ210を制御する場合、管制部170が目標物の位置および針路に応じて送波器を選ぶ。この際、目標物から反射される音波を受波器で受信し易いように音波を送信することができる送波器を選び、この送波器から音波を送信する音響センサ210の制御パラメータを取得する。   For example, when the control unit 170 controls the active acoustic sensor 210 having a plurality of transmitters and a plurality of receivers, the control unit 170 selects a transmitter according to the position of the target and the course. At this time, a transmitter capable of transmitting the sound wave so that the sound wave reflected from the target can be easily received by the receiver is selected, and the control parameter of the acoustic sensor 210 that transmits the sound wave is acquired from the transmitter. To do.

また、複数の検出モードを有するレーダーセンサ220を制御する場合、目標物のサイズに応じて検出モードを選択する。たとえば、目標物のサイズが小さい場合、小型の対象物を検出するモードをレーダーセンサ220の制御パラメータとする。   When controlling the radar sensor 220 having a plurality of detection modes, the detection mode is selected according to the size of the target. For example, when the size of the target is small, a mode for detecting a small target is set as the control parameter of the radar sensor 220.

また、複数の種類の光線を検出することができる光波センサ230を制御する場合、目標物の位置に応じて検出光線を選択する。たとえば、太陽光が入射する日中に目標物があれば、太陽光を検出する制御パラメータとする。また、夜間に目標物があれば、赤外線を検出する制御パラメータとする。   Further, when controlling the light wave sensor 230 capable of detecting a plurality of types of light rays, the detection light rays are selected according to the position of the target. For example, if there is a target during the day when sunlight is incident, the control parameter is used to detect sunlight. Further, if there is a target at night, it is set as a control parameter for detecting infrared rays.

管制部170は、制御パラメータを表示部320へ出力する(ステップS20)。これにより、オペレータは、表示部320に表示された制御パラメータが妥当か否かを検討し、検討結果(操作情報)を入力部310によって入力する。受付部160は、この操作情報を受け付けて管制部170へ出力する(ステップS21)。ここで、制御パラメータが妥当であると判断されると、管制部170は制御パラメータの承認を受けて(ステップS21、S22、YES)、制御パラメータを制御するセンサ200に出力する。これにより、センサ200が制御パラメータによって制御される(ステップS23)。   The control unit 170 outputs the control parameter to the display unit 320 (step S20). Thereby, the operator examines whether or not the control parameter displayed on the display unit 320 is appropriate, and inputs the examination result (operation information) through the input unit 310. The receiving unit 160 receives the operation information and outputs it to the control unit 170 (step S21). If it is determined that the control parameter is valid, the control unit 170 receives the approval of the control parameter (steps S21, S22, YES), and outputs the control parameter to the sensor 200 that controls the control parameter. Thereby, the sensor 200 is controlled by the control parameter (step S23).

一方、制御パラメータが妥当でないと判断されると、管制部170は制御パラメータの非承認を受けて(ステップS21、S22、NO)、ステップS20の処理に戻って、制御パラメータを再度取得し直す。なお、制御パラメータが承認されない場合(ステップS22、NO)、制御パラメータを再度取得し直さずに、取得(ステップS20)前の制御パラメータに継続して使用してもよい。   On the other hand, if it is determined that the control parameter is not valid, the control unit 170 receives non-approval of the control parameter (steps S21, S22, NO), returns to the process of step S20, and acquires the control parameter again. If the control parameter is not approved (NO in step S22), the control parameter may be continuously used for the control parameter before acquisition (step S20) without acquiring the control parameter again.

上記構成によれば、目標物に応じてセンサ200の制御パラメータを設定していることにより、目標物をセンサ200によってより的確に検出することができる。このため、決定した目標物の追跡を継続することができる。   According to the above configuration, the target can be detected more accurately by the sensor 200 by setting the control parameters of the sensor 200 according to the target. For this reason, tracking of the determined target can be continued.

(実施の形態4)
図7は、実施の形態4に係る目標探知支援システム100の一部の構成を示すブロック図である。図7に示すように、実施の形態4に係る目標探知支援システム100では、音響センサ210は、複数の送波器1および複数の受波器2を有している。音響情報処理部141は、拡張検出領域生成部14、重み付け設定部18、投票加算部19および存在領域特定部20を有している。なお、図7に示す音響情報処理部141に、たとえば、特願2013−225124号の物体位置検出装置を適用することができる。この場合、投票加算部19が、重み付け設定部18により設定されて重み付けを考慮し、拡張検出領域生成部14により生成された拡張検出領域15に対応する票数を設定して、存在領域特定部20が票数の高い領域を特定することによって、対象物の位置を求めている。ただし、対象物の位置を求める方法はこれに限定されず、他の公知の方法を用いることができる。
(Embodiment 4)
FIG. 7 is a block diagram illustrating a partial configuration of the target detection support system 100 according to the fourth embodiment. As shown in FIG. 7, in the target detection support system 100 according to Embodiment 4, the acoustic sensor 210 includes a plurality of transmitters 1 and a plurality of receivers 2. The acoustic information processing unit 141 includes an extension detection region generation unit 14, a weight setting unit 18, a vote addition unit 19, and an existence region specification unit 20. Note that, for example, the object position detection device of Japanese Patent Application No. 2013-225124 can be applied to the acoustic information processing unit 141 shown in FIG. In this case, the voting adder 19 sets the number of votes corresponding to the extended detection area 15 generated by the extended detection area generation section 14 in consideration of the weighting set by the weighting setting section 18 and the presence area specifying section 20. Identifies the area where the number of votes is high to determine the position of the object. However, the method for obtaining the position of the object is not limited to this, and other known methods can be used.

音響センサ210は、送波器1が音波を送信し、対象物で反射した音波を受波器2が受信すると、センサ情報を取得部130を介して音響情報処理部141へ出力する。センサ情報は、検出シンボル情報(検出情報)、センサ識別情報および観測誤差情報により構成されている。検出シンボル情報は、たとえば、送信時刻、受信時刻、受信信号の強度などを含んでいる。センサ識別情報は送波器識別情報および受波器識別情報を含んでいる。また、目標探知支援システム100の記憶部120において、送波器識別情報は送波器1の位置と対応付けられており、受波器識別情報は受波器2の位置および指向性と対応付けられている。観測誤差情報は、受波器2の感度特性に基づいた受信方位誤差、および、受波器2の時間分解能特性に基づいた伝搬距離誤差を含んでいる。   The acoustic sensor 210 outputs sensor information to the acoustic information processing unit 141 via the acquisition unit 130 when the transmitter 1 transmits the sound wave and the wave receiver 2 receives the sound wave reflected by the object. The sensor information includes detection symbol information (detection information), sensor identification information, and observation error information. The detected symbol information includes, for example, transmission time, reception time, received signal strength, and the like. The sensor identification information includes transmitter identification information and receiver identification information. In the storage unit 120 of the target detection support system 100, the transmitter identification information is associated with the position of the transmitter 1, and the receiver identification information is associated with the position and directivity of the receiver 2. It has been. The observation error information includes a reception azimuth error based on the sensitivity characteristic of the receiver 2 and a propagation distance error based on the time resolution characteristic of the receiver 2.

拡張検出領域生成部14は、センサ200の検出には誤差を含んでいるため、この誤差を考慮した拡張検出領域15をセンサ情報に基づいて生成する。拡張検出領域15は、検出情報に基づいて求められた対象物の位置(対象物の検出位置)7から、観測誤差情報に基づいたセンサ200の検出誤差の範囲(誤差分布)を拡張した領域であって、対象物が存在する可能性がある領域である。   Since the detection by the sensor 200 includes an error, the extended detection area generation unit 14 generates an extended detection area 15 in consideration of this error based on the sensor information. The extended detection area 15 is an area obtained by extending the detection error range (error distribution) of the sensor 200 based on the observation error information from the position (target detection position) 7 of the target obtained based on the detection information. In this area, there is a possibility that an object exists.

具体的には、図8に示すように、拡張検出領域生成部14は、記憶部120を参照して送波器識別情報および受波器識別情報から送波器1の位置、受波器2の位置および受波器2の指向性を求める。これらの情報、および、検出シンボル情報の送信時刻と受信時刻との時差によって、センサ200により検出された対象物の検出位置7を特定する。次に、対象物の検出位置7を中心に、長軸の長さに受信方位誤差16をとり、短軸の長さに伝搬距離誤差17をとった楕円を拡張検出領域15として生成する。   Specifically, as illustrated in FIG. 8, the extended detection region generation unit 14 refers to the storage unit 120 to determine the position of the transmitter 1, the receiver 2 from the transmitter identification information and the receiver identification information. And the directivity of the receiver 2 are obtained. The detection position 7 of the object detected by the sensor 200 is specified by these information and the time difference between the transmission time and the reception time of the detected symbol information. Next, an ellipse having a reception azimuth error 16 in the length of the major axis and a propagation distance error 17 in the length of the minor axis around the detection position 7 of the object is generated as the extended detection region 15.

重み付け設定部18は、センサ情報に基づいて票数の重み付けを行う。具体的には、図9に示すように、1つの送波器1から音波を送信し、この音波の反射波を2つの受波器2で受信している場合、複数の検出位置7が検出される。ここで、音波を反射した物体が1つである場合には、2つの受波器2はそれぞれ1つの音波を受信する。これにより、1つの受波器2に対して1つの検出位置7が特定される。ただし、水中には対象物以外の多数の物体があり、それらからの反射波と共に、1つの音波に対して複数のノイズを受波器2が受信する。このため、2つの受波器2に対して多数の検出位置7が検出される。なお、仮想楕円5は、音波の送信時刻と対象物から反射された音波の受信時刻との時差、送波器1の位置および受波器2の位置により描いた楕円である。この仮想楕円5上に対象物が存在すると仮定することができる。   The weighting setting unit 18 weights the number of votes based on the sensor information. Specifically, as shown in FIG. 9, when a sound wave is transmitted from one transmitter 1 and a reflected wave of this sound wave is received by two wave receivers 2, a plurality of detection positions 7 are detected. Is done. Here, when there is one object reflecting the sound wave, each of the two receivers 2 receives one sound wave. Thereby, one detection position 7 is specified for one receiver 2. However, there are a large number of objects other than the object in the water, and the wave receiver 2 receives a plurality of noises for one sound wave together with the reflected waves from them. For this reason, a large number of detection positions 7 are detected for the two receivers 2. The virtual ellipse 5 is an ellipse drawn by the time difference between the transmission time of the sound wave and the reception time of the sound wave reflected from the object, the position of the transmitter 1 and the position of the receiver 2. It can be assumed that an object exists on the virtual ellipse 5.

このように検出された複数の検出位置7のそれぞれを中心に拡張検出領域15が生成され、これらの拡張検出領域15の中から対象物がある領域を特定する。この場合、拡張検出領域15が重なっており、かつ、重なっている拡張検出領域15が異なる受波器2で検出されたものであれば、この重なっている部分に対象物が存在する可能性が高い。よって、まず、重なっていない拡張検出領域15の重み付けを、重なっている拡張検出領域15の重み付けより小さく、たとえば、0に設定する。次に、重なっている複数の拡張検出領域15については、同じ受波器2による拡張検出領域15であるか否かをセンサ情報の受波器識別情報などに基づいて判断する。この結果、重なっている拡張検出領域15が異なる受波器2によるものであれば、この重なり部分に対象物が存在する可能性が高いとして、同じ受波器2による重なっている拡張検出領域15より大きな重み付けを設定する。   An extended detection area 15 is generated around each of the plurality of detection positions 7 detected in this way, and an area where the object is located is specified from these extended detection areas 15. In this case, if the extended detection areas 15 are overlapped and the overlapping extended detection areas 15 are detected by different receivers 2, there is a possibility that an object exists in the overlapping portion. high. Therefore, first, the weight of the non-overlapping extension detection area 15 is set smaller than the weight of the overlapping extension detection area 15, for example, 0. Next, for a plurality of overlapping extended detection areas 15, it is determined whether or not they are extended detection areas 15 by the same receiver 2 based on the receiver identification information of the sensor information. As a result, if the overlapped extended detection areas 15 are from different receivers 2, it is highly possible that an object is present in the overlapping portion, and the extended detection areas 15 overlapped by the same receiver 2 are assumed. Set a larger weight.

なお、拡張検出領域15が同じ受波器2によるものか否かの判断は、拡張検出領域15内の点(検出点)を受波器2のIDコードで表すBIT処理、正規分布などの確率密度分布を検出点ごとに掛けあわせる処理などにより行われる。   It should be noted that whether or not the extended detection area 15 is the same receiver 2 is determined by the probability of a BIT process, a normal distribution, or the like in which points (detection points) in the extended detection area 15 are represented by the ID code of the receiver 2. This is performed by a process of multiplying the density distribution for each detection point.

また、重み付け設定部18は、受波器2の受信信号の強度、および/または、受波器2と拡張検出領域15との距離に基づいて重み付けを修正してもよい。たとえば、受波器2の受信信号の強度が所定値より小さい場合には、重み付けを小さくする。拡張検出領域15内の対象物の検出位置7と受波器2との距離が下限所定値より短いまたは上限所定値より長い場合には、重み付けを小さくする。   Further, the weighting setting unit 18 may correct the weighting based on the intensity of the received signal of the receiver 2 and / or the distance between the receiver 2 and the extended detection region 15. For example, when the intensity of the received signal of the receiver 2 is smaller than a predetermined value, the weighting is reduced. When the distance between the detection position 7 of the object in the extended detection area 15 and the receiver 2 is shorter than the lower limit predetermined value or longer than the upper limit predetermined value, the weighting is reduced.

投票加算部19は、重み付けを考慮して拡張検出領域15に対応する票数を投票空間23に設定する。具体的には、図10に示すように、投票空間23には複数のセル(投票箱)22が2次元に網の目状に並んでいる。この投票箱22に重み付けを考慮した4つの拡張検出領域15(15A、15B、15C、15D)に対応する票数を設定する。なお、投票箱22を3次元に並べて、3次元の投票空間23を設けてもよい。この場合、楕円を3次元に拡張した楕円体形状の拡張検出領域15に対応した票数を投票箱22に設定する。   The vote adding unit 19 sets the number of votes corresponding to the extended detection area 15 in the voting space 23 in consideration of weighting. Specifically, as shown in FIG. 10, a plurality of cells (ballot boxes) 22 are two-dimensionally arranged in a net shape in the voting space 23. The number of votes corresponding to the four extended detection areas 15 (15A, 15B, 15C, 15D) in consideration of weighting is set in the ballot box 22. Note that the three-dimensional voting space 23 may be provided by arranging the voting boxes 22 in three dimensions. In this case, the ballot box 22 is set with the number of votes corresponding to the ellipsoid-shaped extension detection region 15 obtained by extending the ellipse in three dimensions.

この投票箱22に投票する際、重み付けおよび拡張検出領域15の位置により票数を定めていく。まず、重なっていない拡張検出領域15については、重み付けが0に設定されている。このため、重なっていない拡張検出領域15の位置にある投票箱22には、投票しない、または、0票を投票する。   When voting on this ballot box 22, the number of votes is determined by weighting and the position of the extended detection area 15. First, the weighting is set to 0 for the extended detection areas 15 that do not overlap. For this reason, the voting box 22 at the position of the extended detection area 15 that does not overlap is not voted, or 0 votes are cast.

次に、重なっている拡張検出領域15にある投票箱22に重み付けに応じた票数を設定する。この重み付けは、拡張検出領域15が同じ受波器2によるものか否かにより重み付け設定部18により判断されている。なお、以下では、拡張検出領域15の長軸の向き、および、拡張検出領域15に対する重なり部分の面積の割合によって受波器2の判断がなされているが、これに限定されず、たとえば、受波器2の識別情報によっても判断される。また、拡張検出領域15A、15B、15C、15D内の検出位置7を規定する受信信号の強度は、同じまたはほぼ同じとする。また、拡張検出領域15A、15B、15C、15Dはそれぞれ近いため、拡張検出領域15A、15B、15C、15D内の各検出位置7と受波器2との距離がほぼ等しい。よって、受信信号の強度、および、検出位置7と受波器2との距離に基づいた重み付けの修正はなされていないものとする。   Next, the number of votes corresponding to the weight is set in the ballot box 22 in the overlapping extension detection area 15. This weighting is determined by the weighting setting unit 18 based on whether or not the extended detection region 15 is from the same receiver 2. In the following description, the receiver 2 is determined based on the orientation of the major axis of the extension detection region 15 and the ratio of the area of the overlapping portion with respect to the extension detection region 15. However, the present invention is not limited to this. It is also determined by the identification information of the waver 2. In addition, the intensity of the received signal defining the detection position 7 in the extended detection areas 15A, 15B, 15C, 15D is the same or substantially the same. Further, since the extended detection areas 15A, 15B, 15C, and 15D are close to each other, the distances between the detection positions 7 in the extended detection areas 15A, 15B, 15C, and 15D and the receiver 2 are substantially equal. Therefore, it is assumed that weighting correction based on the strength of the received signal and the distance between the detection position 7 and the receiver 2 has not been made.

拡張検出領域15Aが拡張検出領域15Bと重なっている。この拡張検出領域15A、15Bのうちの大部分が重なっており、また、各拡張検出領域15A、15Bの長軸の向きがそれぞれ一致または近似している。よって、各拡張検出領域15A、15Bは同じ受波器2に基づくものであると判断することができるため、重み付けが1に設定されている。よって、投票加算部19は、拡張検出領域15Aと拡張検出領域15Bとのみが重なっている範囲の投票箱22に、重み付け1と基本票1とに基づいた票数1を設定する。なお、拡張検出領域15C、15Dは、拡張検出領域15A、15Bと同様であるため、拡張検出領域15Cと拡張検出領域15Dとのみが重なっている範囲の投票箱22では、票数を1に設定する。   The extension detection area 15A overlaps the extension detection area 15B. Most of the extended detection areas 15A and 15B overlap, and the directions of the major axes of the extended detection areas 15A and 15B are the same or approximate. Therefore, since it can be determined that each of the extended detection areas 15A and 15B is based on the same receiver 2, the weight is set to 1. Therefore, the vote adding unit 19 sets the number of votes 1 based on the weight 1 and the basic vote 1 to the ballot box 22 in the range where only the extension detection area 15A and the extension detection area 15B overlap. Since the extended detection areas 15C and 15D are the same as the extended detection areas 15A and 15B, the number of votes is set to 1 in the ballot box 22 where only the extended detection area 15C and the extended detection area 15D overlap. .

また、拡張検出領域15Aが拡張検出領域15Cとも重なっている。この重なる範囲は、拡張検出領域15A、15Bが重なる範囲より小さく、また、拡張検出領域15Aの長軸の向きが拡張検出領域15Cの長軸の向きと一致しない。よって、各拡張検出領域15A、15Cは異なる受波器2に基づくものであると判断することができるため、重み付けが大きく設定されている。この場合、2つの拡張検出領域15が重なっているから、重み付けは単に2とされずに、それより大きい、たとえば、3に設定されている。よって、投票加算部19は、拡張検出領域15Aと拡張検出領域15Cとが重なっている範囲の投票箱22に、重み付け3と基本票1とに基づいた票数3を設定する。なお、拡張検出領域15A、15Dの重なり範囲、拡張検出領域15B、15Cの重なり範囲、拡張検出領域15B、15Dの重なり範囲も、拡張検出領域15A、15Cの重なり範囲と同様に、各重なり範囲の投票箱22に票数3を設定する。   Further, the extension detection area 15A also overlaps with the extension detection area 15C. This overlapping range is smaller than the overlapping range of the extension detection areas 15A and 15B, and the orientation of the major axis of the extension detection area 15A does not match the orientation of the major axis of the extension detection area 15C. Therefore, since it can be determined that each of the extended detection areas 15A and 15C is based on a different receiver 2, the weighting is set large. In this case, since the two extended detection areas 15 overlap, the weight is not simply set to 2, but is set to a larger value, for example, 3. Therefore, the vote adding unit 19 sets the number of votes 3 based on the weight 3 and the basic vote 1 in the ballot box 22 in the range where the extension detection area 15A and the extension detection area 15C overlap. Note that the overlapping range of the extended detection areas 15A and 15D, the overlapping range of the extended detection areas 15B and 15C, and the overlapping range of the extended detection areas 15B and 15D are similar to the overlapping range of the extended detection areas 15A and 15C. The number of votes 3 is set in the ballot box 22.

なお、投票加算部19は拡張検出領域15を投票空間23に反映させる際に、拡張検出領域15を規定する検出位置7についてドップラー情報を考慮することもできる。このドップラー情報によって、対象物が仮想楕円5の内側または外側へ移動する速度が求められる。このため、対象物の速度に応じて検出位置7およびそれに基づく拡張検出領域15をより精度よく導き出すことができる。なお、ある受波器2から得たドップラー情報を、他の受波器2から求められる検出位置7の特定に用いることができる。   The voting adder 19 can also consider Doppler information for the detection position 7 that defines the expanded detection region 15 when reflecting the expanded detection region 15 in the voting space 23. Based on this Doppler information, the speed at which the object moves inward or outward of the virtual ellipse 5 is obtained. For this reason, the detection position 7 and the extended detection area 15 based on the detection position 7 can be derived more accurately according to the speed of the object. The Doppler information obtained from a certain receiver 2 can be used to specify the detection position 7 obtained from another receiver 2.

存在領域特定部20は、投票空間23の票数が高い領域を対象物の物体存在領域24として特定する。図10に示す場合には、票数3の投票箱22がある領域を対象物の物体存在領域24とする。   The existence area specifying unit 20 specifies an area having a high number of votes in the voting space 23 as the object existence area 24 of the target object. In the case illustrated in FIG. 10, an area where the ballot box 22 having three votes is set as the object existence area 24 of the target object.

次に、図11を参照しながら、目標探知支援方法を説明する。図11は、実施の形態4に係る目標探知支援システム100の目標探知支援方法の一例を示すフローチャートである。図11に示すように、拡張検出領域生成部14は、音響センサ210から検出シンボル情報を含むセンサ情報を取得する(ステップS1)。拡張検出領域生成部14は、センサ情報に基づいて拡張検出領域15を生成する(ステップS2)。重み付け設定部18は、拡張検出領域15の向きやセンサ情報の受波器識別情報などにより、重なっている拡張検出領域15が同じ受波器2によるものか否かを判断する。そして、この判断結果によって、拡張検出領域15が重なっている範囲における重み付けを設定する(ステップS3)。投票加算部19は、重み付けを考慮しかつ拡張検出領域15に対応する票数を投票空間23に設定する(ステップS4)。ここで、上述のステップS1〜S4の処理を、検出シンボル情報の数、つまり、拡張検出領域15の数だけ繰り返す。そして、存在領域特定部20は、投票空間23において票数が多い領域を特定する(ステップS5)。特定された領域を対象物の存在領域(位置)24として音響情報処理部141は目標候補情報処理部150へ出力する(ステップS6)。   Next, the target detection support method will be described with reference to FIG. FIG. 11 is a flowchart illustrating an example of the target detection support method of the target detection support system 100 according to the fourth embodiment. As illustrated in FIG. 11, the extended detection area generation unit 14 acquires sensor information including detection symbol information from the acoustic sensor 210 (step S1). The extended detection area generation unit 14 generates an extended detection area 15 based on the sensor information (step S2). The weighting setting unit 18 determines whether or not the overlapping extension detection regions 15 are from the same receiver 2 based on the direction of the extension detection region 15 and the receiver identification information of the sensor information. Based on the determination result, the weighting in the range where the extension detection areas 15 overlap is set (step S3). The voting adder 19 sets the number of votes corresponding to the extended detection area 15 in the voting space 23 in consideration of weighting (step S4). Here, the processes in steps S1 to S4 described above are repeated by the number of detected symbol information, that is, the number of extended detection areas 15. Then, the existence area specifying unit 20 specifies an area having a large number of votes in the voting space 23 (step S5). The acoustic information processing unit 141 outputs the identified region to the target candidate information processing unit 150 as the existence region (position) 24 of the target object (step S6).

上記構成によれば、受波器2の異同などに基づいた重み付けにより、迅速かつ精度良く対象物の位置を検出することができる。また、重み付けを修正する要因(受信信号の強度、検出位置7と受波器2との距離など)をオペレータが判断することにより、オペレータの判断に従って対象物の位置をより柔軟に検出することができる。   According to the above configuration, the position of the object can be detected quickly and accurately by weighting based on the difference between the receivers 2. In addition, the operator can more flexibly detect the position of the object according to the operator's judgment by determining the factors for correcting the weighting (the intensity of the received signal, the distance between the detection position 7 and the receiver 2, etc.). it can.

また、対象物の位置が点ではなく広がりを持つ領域として出力される。よって、他のセンサ200による対象物の情報との対応付けが容易になり、目標候補の情報をより精度よく生成することができる。   In addition, the position of the object is output as an area having a spread instead of a point. Therefore, the association with the information of the object by the other sensor 200 is facilitated, and the information of the target candidate can be generated with higher accuracy.

(実施の形態5)
図12は、実施の形態5に係る目標探知支援システム100の主な構成を示すブロック図である。図12に示すように、実施の形態5に係る目標探知支援システム100は、検出情報記憶部180をさらに備えている。なお、実施の形態5に係る検出情報記憶部180を他の実施の形態1〜4に係る目標探知支援システム100の構成に設けることもできる。
(Embodiment 5)
FIG. 12 is a block diagram illustrating a main configuration of target detection support system 100 according to the fifth embodiment. As shown in FIG. 12, the target detection support system 100 according to Embodiment 5 further includes a detection information storage unit 180. Note that the detection information storage unit 180 according to the fifth embodiment may be provided in the configuration of the target detection support system 100 according to the other first to fourth embodiments.

取得部130は、各種センサ200からのセンサ情報をセンサ識別情報に応じた検出情報処理部140へ出力する。検出情報処理部140は、センサ情報に基づいて対象物の情報を生成すると共に、センサ情報を検出情報記憶部180に記憶する。なお、取得部130は、センサ情報を検出情報処理部140へ出力すると共に、センサ情報を検出情報記憶部180に記憶してもよい。また、センサ情報のうちの全ての情報を検出情報記憶部180に記憶しなくてもよい。たとえば、センサ識別情報を記憶せずに、検出情報およびセンサ位置情報を記憶してもよい。   The acquisition unit 130 outputs sensor information from the various sensors 200 to the detection information processing unit 140 corresponding to the sensor identification information. The detection information processing unit 140 generates information on the object based on the sensor information and stores the sensor information in the detection information storage unit 180. Note that the acquisition unit 130 may output the sensor information to the detection information processing unit 140 and store the sensor information in the detection information storage unit 180. In addition, it is not necessary to store all of the sensor information in the detection information storage unit 180. For example, detection information and sensor position information may be stored without storing sensor identification information.

検出情報記憶部180は、センサ200からの検出情報を記憶する。検出情報記憶部180は、たとえば、音響情報記憶部181、レーダー情報記憶部182、光波情報記憶部183、逆探知情報記憶部184、磁気情報記憶部185、船舶識別情報記憶部186、通信情報記憶部187、敵味方情報記憶部188により構成されている。1つのセンサ200に1つの検出情報記憶部180が対応して設けられている。ただし、複数のセンサ200に対して1つの検出情報記憶部180が設けられていてもよい。また、検出情報記憶部180は、記憶部120と別途設けられているが、記憶部120と一体的に設けられていてもよい。   The detection information storage unit 180 stores detection information from the sensor 200. The detection information storage unit 180 includes, for example, an acoustic information storage unit 181, a radar information storage unit 182, a light wave information storage unit 183, a reverse detection information storage unit 184, a magnetic information storage unit 185, a ship identification information storage unit 186, and a communication information storage. The unit 187 and the enemy teammate information storage unit 188 are configured. One detection information storage unit 180 is provided corresponding to one sensor 200. However, one detection information storage unit 180 may be provided for the plurality of sensors 200. The detection information storage unit 180 is provided separately from the storage unit 120, but may be provided integrally with the storage unit 120.

図13は、実施の形態5に係る目標探知支援システム100の目標探知支援方法の一例を示すフローチャートである。図13に示すフローでも、図4に示した各ステップの処理を実行する。ただし、図13に示すフローでは、ステップS18の処理の後に、決定した目標物を追跡し、追跡できなかった場合に目標物の情報を再生成する処理(ステップS30〜S34)を実行する。なお、図13に示すフローにおいて、図2と同様に、ステップS19の処理が省略されていてもよい。また、図13の示すフローにおいて、図6に示すステップS20〜S23の処理をステップS30とS32との間に実行してもよい。   FIG. 13 is a flowchart illustrating an example of the target detection support method of the target detection support system 100 according to the fifth embodiment. Also in the flow shown in FIG. 13, the processing of each step shown in FIG. 4 is executed. However, in the flow shown in FIG. 13, after the process of step S <b> 18, the determined target is tracked, and when the tracking cannot be performed, the process of regenerating target information (steps S <b> 30 to S <b> 34) is executed. In the flow shown in FIG. 13, the process in step S19 may be omitted as in FIG. Further, in the flow shown in FIG. 13, the processes of steps S20 to S23 shown in FIG. 6 may be executed between steps S30 and S32.

具体的には、目標物が決定すると(ステップS18)、この目標物に関する情報を各種センサ情報から生成部151が生成して、目標物を追跡する(ステップS30)。そして、目標物に関する情報を出力部153が出力して表示部320に映し出すことにより、オペレータがその情報に基づいて目標物を監視することができる。   Specifically, when the target is determined (step S18), the generation unit 151 generates information related to the target from various sensor information and tracks the target (step S30). The output unit 153 outputs information about the target and displays it on the display unit 320, so that the operator can monitor the target based on the information.

目標物の追跡をしている間に(ステップS31:NO)、生成部151が目標物に関する情報を生成できなかった場合、目標物を追跡できなかったとして(ステップS32:NO)、ステップS33の処理に進む。ここでは、目標物に関する情報を過去のセンサ情報から再度生成し直すために、オペレータは目標物の情報を生成し直す条件(再生成条件)を入力部310により設定する。これにより、受付部160は入力部310から再生成条件を受け付ける(ステップS33)。再生成条件としては、たとえば、読み出す検出情報の検出時刻(呼出値)、および、検出情報を処理するための条件(調整値)が挙げられる。調整値としては、たとえば、実施の形態4に係る重み付け設定部18(図7)により設定される重み付けが挙げられる。   While the target is being tracked (step S31: NO), if the generation unit 151 cannot generate information on the target, the target cannot be tracked (step S32: NO). Proceed to processing. Here, in order to regenerate information related to the target from the past sensor information, the operator sets a condition (regeneration condition) for regenerating the target information using the input unit 310. Thereby, the reception unit 160 receives the regeneration condition from the input unit 310 (step S33). Examples of the regeneration condition include a detection time (call value) of detection information to be read and a condition (adjustment value) for processing the detection information. Examples of the adjustment value include weights set by the weight setting unit 18 (FIG. 7) according to the fourth embodiment.

検出情報処理部140は、受付部160から再生成条件を受けて、再生成条件の呼出値に応じて検出情報を検出情報記憶部180から読み出す(ステップS34)。この際に、検出情報とともに、センサ識別情報やセンサ位置情報などを読み出してもよい。そして、検出情報処理部140は、読み出した情報および調整値に基づいて対象物の情報を取得し直す(ステップS12)。たとえば、調整値が音響センサ210の重み付けの場合には、新たに設定された重み付けに従って拡張検出領域15(図10)に対応する票数を投票空間23(図10)に設定し、票数が多い物体存在領域24(図10)を対象物の位置として取得する。これより、新たに取得された対象物の位置に基づいて、目標候補の情報が生成されて分析され(ステップS13〜S15)、分析の結果が表示部320に出力される。これにより、オペレータは、過去の情報を見て、目標候補や目標物を判断することができる。   The detection information processing unit 140 receives the regeneration condition from the reception unit 160, and reads the detection information from the detection information storage unit 180 according to the call value of the regeneration condition (step S34). At this time, sensor identification information, sensor position information, and the like may be read out together with the detection information. Then, the detection information processing unit 140 acquires the information on the target object again based on the read information and the adjustment value (Step S12). For example, when the adjustment value is weighting of the acoustic sensor 210, the number of votes corresponding to the extended detection area 15 (FIG. 10) is set in the voting space 23 (FIG. 10) according to the newly set weighting, and the object having a large number of votes The existence area 24 (FIG. 10) is acquired as the position of the object. Thus, based on the position of the newly acquired object, target candidate information is generated and analyzed (steps S13 to S15), and the analysis result is output to the display unit 320. As a result, the operator can determine target candidates and targets by looking at past information.

上記実施の形態によれば、オペレータからの再生成条件を受け付けることにより、各種センサ200の検出情報から対象物の情報を再生成することができる。この再生成された対象物の情報により、オペレータの判断を反映した新たな目標候補の情報を生成し、オペレータに提供することができる。このように、オペレータの判断材料が増えるため、より精度の良く目標物を探知することができる。   According to the above-described embodiment, the information on the object can be regenerated from the detection information of the various sensors 200 by receiving the regeneration condition from the operator. Based on the information on the regenerated object, new target candidate information reflecting the operator's judgment can be generated and provided to the operator. As described above, since the operator's judgment material increases, the target can be detected with higher accuracy.

なお、上記全実施の形態は、互いに相手を排除しない限り、互いに組み合わせてもよい。   Note that all the above embodiments may be combined with each other as long as they do not exclude each other.

上記説明から、当業者にとっては、本発明の多くの改良や他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行する最良の態様を当業者に教示する目的で提供されたものである。本発明の精神を逸脱することなく、その構造及び/又は機能の詳細を実質的に変更できる。   From the foregoing description, many modifications and other embodiments of the present invention are obvious to one skilled in the art. Accordingly, the foregoing description should be construed as illustrative only and is provided for the purpose of teaching those skilled in the art the best mode of carrying out the invention. The details of the structure and / or function may be substantially changed without departing from the spirit of the invention.

本発明の目標探知支援システム100およびその方法は、水中における目標物をより精度よく見つけ出すことができる目標探知支援システム100およびその方法等として有用である。   The target detection support system 100 and the method thereof according to the present invention are useful as the target detection support system 100 and the method thereof that can find a target in water with higher accuracy.

14 拡張検出領域生成部
15、15A、15B、15C、15D 拡張検出領域
16 受信方位誤差
17 伝搬距離誤差
19 投票加算部
20 存在領域特定部
100 目標探知支援システム
140〜148 検出情報処理部(処理部)
151 生成部
152 分析部
153 出力部
160 受付部
170 管制部
180〜188 検出情報記憶部
200 センサ
DESCRIPTION OF SYMBOLS 14 Extended detection area production | generation part 15, 15A, 15B, 15C, 15D Extended detection area 16 Reception azimuth | direction error 17 Propagation distance error 19 Vote addition part 20 Existence area specific | specification part 100 Target detection assistance system 140-148 Detection information processing part (processing part) )
151 Generating Unit 152 Analyzing Unit 153 Output Unit 160 Receiving Unit 170 Control Unit 180-188 Detection Information Storage Unit 200 Sensor

Claims (7)

水中にある目標物の探知を支援するシステムであって、
複数種類のセンサのそれぞれにより検出された対象物の検出情報を取得する処理部と、
前記検出情報に基づいて目標候補の情報を生成する生成部と、
前記目標候補の情報を所定のフィルタを用いて分析する分析部と、
前記分析の結果を出力する出力部と、
前記目標候補の中から選択を受け付ける受付部と、を備える目標探知支援システム。
A system that supports the detection of targets in the water,
A processing unit for acquiring detection information of an object detected by each of a plurality of types of sensors;
A generating unit that generates target candidate information based on the detection information;
An analysis unit that analyzes the target candidate information using a predetermined filter;
An output unit for outputting the result of the analysis;
A target detection support system comprising: a reception unit that receives a selection from the target candidates.
前記受付部は、前記目標候補の中から選択を受け付ける前に、前記フィルタの条件の再設定を受け付ける、請求項1に記載の目標探知支援システム。   The target detection support system according to claim 1, wherein the reception unit receives resetting of the filter condition before receiving selection from the target candidates. 選択された前記目標候補の情報に基づいて前記センサを制御するパラメータを作成する管制部をさらに備える、請求項1または2に記載の目標探知支援システム。   The target detection support system according to claim 1, further comprising a control unit that creates a parameter for controlling the sensor based on the selected target candidate information. 前記検出情報を記憶する記憶部をさらに備え、
前記目標候補の中から選択を受け付けた後に、前記目標候補の情報の再生成条件を前記受付部が受け付けた場合、前記生成部は、前記再生成条件に従って前記記憶部から読み出された前記検出情報に基づいて前記目標候補の情報を再生成する、請求項1〜3のいずれか一項に記載の目標探知支援システム。
A storage unit for storing the detection information;
After receiving a selection from among the target candidates, when the receiving unit receives a regeneration condition for the information on the target candidate, the generation unit reads the detection read from the storage unit according to the regeneration condition The target detection support system according to any one of claims 1 to 3, wherein the target candidate information is regenerated based on the information.
前記出力部は、前記目標候補の情報に関する特徴を、前記目標候補の位置とともに出力する、請求項1〜4のいずれか一項に記載の目標探知支援システム。   The target detection support system according to any one of claims 1 to 4, wherein the output unit outputs characteristics related to the target candidate information together with the position of the target candidate. 前記センサは、送波器および複数の受波器を含む音響センサを含み、
前記処理部は、
前記音響センサから前記検出情報および観測誤差情報を取得し、前記検出情報に基づいた対象物の位置に前記観測誤差情報に基づいた誤差分布を反映させた拡張検出領域を生成する拡張検出領域生成部と、
前記拡張検出領域に対応した票数を投票空間に設定する投票加算部と、
前記投票空間において前記票数の多い領域を前記対象物の存在領域として特定する領域特定部と、を有している、請求項1〜5のいずれか一項に記載の目標探知支援システム。
The sensor includes an acoustic sensor including a transmitter and a plurality of receivers;
The processor is
An extended detection region generating unit that acquires the detection information and observation error information from the acoustic sensor, and generates an extended detection region in which an error distribution based on the observation error information is reflected at a position of an object based on the detection information When,
A vote adding unit that sets the number of votes corresponding to the extended detection area in a voting space;
6. The target detection support system according to claim 1, further comprising: an area specifying unit that specifies an area with a large number of votes as an existence area of the object in the voting space.
水中にある目標物の探知を支援する目標探知支援方法であって、
複数種類のセンサのそれぞれにより検出された対象物の検出情報を取得し、
前記検出情報に基づいて目標候補の情報を生成し、
前記目標候補の情報を所定のフィルタを用いて分析した結果を出力し、
前記目標候補の中から選択を受け付ける目標探知支援方法。
A target detection support method for supporting detection of a target in water,
Obtaining detection information of objects detected by each of multiple types of sensors,
Generating target candidate information based on the detection information;
Output the result of analyzing the target candidate information using a predetermined filter,
A target detection support method for receiving a selection from the target candidates.
JP2014069305A 2014-03-28 2014-03-28 Target detection support system and method Active JP6298341B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014069305A JP6298341B2 (en) 2014-03-28 2014-03-28 Target detection support system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014069305A JP6298341B2 (en) 2014-03-28 2014-03-28 Target detection support system and method

Publications (2)

Publication Number Publication Date
JP2015190896A true JP2015190896A (en) 2015-11-02
JP6298341B2 JP6298341B2 (en) 2018-03-20

Family

ID=54425488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014069305A Active JP6298341B2 (en) 2014-03-28 2014-03-28 Target detection support system and method

Country Status (1)

Country Link
JP (1) JP6298341B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197051A (en) * 2018-05-09 2019-11-14 タレス Target, method for tracking target especially for tracking maritime target, and radar for implementing such method
CN112912759A (en) * 2018-10-24 2021-06-04 株式会社电装 Object tracking device
JP7436290B2 (en) 2020-05-28 2024-02-21 川崎重工業株式会社 Identification information management system and identification information collection method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02110393A (en) * 1989-09-06 1990-04-23 Marine Instr Co Ltd Track and fish-school display apparatus for trawler
JPH05223934A (en) * 1992-02-12 1993-09-03 Japan Radio Co Ltd Fishfinder
JPH1090411A (en) * 1996-09-13 1998-04-10 Furuno Electric Co Ltd Underwater detecting and displaying device
JP2000292538A (en) * 1999-04-07 2000-10-20 Mitsubishi Electric Corp Obstacle detector for vehicle
JP2003048595A (en) * 2001-08-03 2003-02-18 Furuno Electric Co Ltd Other-ship display system
JP2003288698A (en) * 2002-03-27 2003-10-10 Mitsui Eng & Shipbuild Co Ltd Nearby vessel information integrating method and device
JP2004034805A (en) * 2002-07-02 2004-02-05 Mitsubishi Heavy Ind Ltd Course display terminal, course evaluation device, and course determining method
JP2004290127A (en) * 2003-03-28 2004-10-21 Honda Electronic Co Ltd Method for transmitting/receiving fishing information and apparatus for transmitting/receiving fishing information
WO2007069721A1 (en) * 2005-12-16 2007-06-21 Ihi Corporation Three-dimensional shape data storing/displaying method and device, and three-dimensional shape measuring method and device
US20100284248A1 (en) * 2009-05-11 2010-11-11 Furuno Electric Co., Ltd. Method of displaying underwater detection image and underwater detection device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02110393A (en) * 1989-09-06 1990-04-23 Marine Instr Co Ltd Track and fish-school display apparatus for trawler
JPH05223934A (en) * 1992-02-12 1993-09-03 Japan Radio Co Ltd Fishfinder
JPH1090411A (en) * 1996-09-13 1998-04-10 Furuno Electric Co Ltd Underwater detecting and displaying device
JP2000292538A (en) * 1999-04-07 2000-10-20 Mitsubishi Electric Corp Obstacle detector for vehicle
JP2003048595A (en) * 2001-08-03 2003-02-18 Furuno Electric Co Ltd Other-ship display system
JP2003288698A (en) * 2002-03-27 2003-10-10 Mitsui Eng & Shipbuild Co Ltd Nearby vessel information integrating method and device
JP2004034805A (en) * 2002-07-02 2004-02-05 Mitsubishi Heavy Ind Ltd Course display terminal, course evaluation device, and course determining method
JP2004290127A (en) * 2003-03-28 2004-10-21 Honda Electronic Co Ltd Method for transmitting/receiving fishing information and apparatus for transmitting/receiving fishing information
WO2007069721A1 (en) * 2005-12-16 2007-06-21 Ihi Corporation Three-dimensional shape data storing/displaying method and device, and three-dimensional shape measuring method and device
US20100284248A1 (en) * 2009-05-11 2010-11-11 Furuno Electric Co., Ltd. Method of displaying underwater detection image and underwater detection device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197051A (en) * 2018-05-09 2019-11-14 タレス Target, method for tracking target especially for tracking maritime target, and radar for implementing such method
JP7339767B2 (en) 2018-05-09 2023-09-06 タレス Methods for tracking targets, especially maritime targets, and radars implementing such methods
CN112912759A (en) * 2018-10-24 2021-06-04 株式会社电装 Object tracking device
JP7436290B2 (en) 2020-05-28 2024-02-21 川崎重工業株式会社 Identification information management system and identification information collection method

Also Published As

Publication number Publication date
JP6298341B2 (en) 2018-03-20

Similar Documents

Publication Publication Date Title
JP6239664B2 (en) Ambient environment estimation apparatus and ambient environment estimation method
JP7182869B2 (en) Target detection device
KR102161246B1 (en) Bistatic sonar system having bottom mounted hydrophones and method for source deployment based on ocean environment using the same
JP2014002084A (en) Underwater detection device, underwater display system, program and underwater display method
JP5621499B2 (en) Pulse radar equipment
JP2008268183A (en) Underwater detection device
US11112499B2 (en) Synthetic antenna sonar and method for forming synthetic antenna beams
JP6298341B2 (en) Target detection support system and method
EP2937716B1 (en) Method for localizing a marine mammal in an underwater environment implemented by a PAM system, corresponding device, computer program product and non-transitory computer-readable carrier medium
JP6840566B2 (en) Object detector
JP6154219B2 (en) Echo signal processing device, wave radar device, echo signal processing method, and echo signal processing program
CN115698750A (en) High resolution and computationally efficient radar technology
JP5648417B2 (en) Target management apparatus and target management method
JP6180065B2 (en) Object position detection apparatus and method
CA2883062C (en) Method for localizing a marine mammal in an underwater environment implemented by a pam system, corresponding device, computer program product and non-transitory computer-readable carrier medium
JP5991599B2 (en) Target detection device
JP5892215B2 (en) Target management apparatus and target management method
JP2012141189A (en) Representative position detection device, display device, radar device, representative position detection method and representative position detection program
JP6774085B2 (en) Active sensor signal processing system, signal processing method and signal processing program
JP7006875B1 (en) Learning models, signal processor, projectiles, and programs
JP2015232509A (en) Signal processor, rader system, signal processing method, and signal processing program
JP2015190915A (en) Object moving azimuth, and velocity estimation device and method
JP5950534B2 (en) Ultrasonic distance image generator
JP2015118038A (en) Display control device, display control method and program
JP4912741B2 (en) Radar arrangement calculation apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180223

R150 Certificate of patent or registration of utility model

Ref document number: 6298341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250