JP2021103087A - Motion sensor selection device, target detection system and motion sensor selection method - Google Patents

Motion sensor selection device, target detection system and motion sensor selection method Download PDF

Info

Publication number
JP2021103087A
JP2021103087A JP2019233419A JP2019233419A JP2021103087A JP 2021103087 A JP2021103087 A JP 2021103087A JP 2019233419 A JP2019233419 A JP 2019233419A JP 2019233419 A JP2019233419 A JP 2019233419A JP 2021103087 A JP2021103087 A JP 2021103087A
Authority
JP
Japan
Prior art keywords
target
motion sensor
input
sound wave
sensor selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019233419A
Other languages
Japanese (ja)
Other versions
JP7328885B2 (en
Inventor
村田 亘
Wataru Murata
亘 村田
幹也 高野
Mikiya Takano
幹也 高野
雅人 木田
Masato Kida
雅人 木田
隆良 田中
Takayoshi Tanaka
隆良 田中
貴裕 須賀
Takahiro Suga
貴裕 須賀
陽一郎 中村
Yoichiro Nakamura
陽一郎 中村
一継 藤原
Kazutsugu Fujiwara
一継 藤原
克敏 日隈
Katsutoshi Hikuma
克敏 日隈
幸弘 小倉
Yukihiro Ogura
幸弘 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP2019233419A priority Critical patent/JP7328885B2/en
Publication of JP2021103087A publication Critical patent/JP2021103087A/en
Application granted granted Critical
Publication of JP7328885B2 publication Critical patent/JP7328885B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To build a motion sensor selection model in a short time by machine learning, and to realize early start of operation.SOLUTION: A motion sensor selection device includes an input unit, a motion sensor selection model, and a motion sensor selection unit. The input unit accepts input of input information for at least one target that includes a target state quantity for at least one of position, course, and speed with respect to each of targets. The motion sensor selection model is the one in which machine learning is performed to select at least one sensor to be selected from a plurality of sensors from base information including the target state quantity of the one target over a time span. The motion sensor selection unit decomposes the input information about multiple targets entered in the input unit into information related to the one target, inputs each of the decomposed information into the motion sensor selection model and integrates a plurality of the output selection results, and selects a sensor to operate as the motion sensor.SELECTED DRAWING: Figure 4

Description

本発明は、主として、複数のセンサから探知に適するセンサを選択するための動作センサ選択装置、及び当該動作センサ選択装置を備える目標探知システムに関する。 The present invention mainly relates to an motion sensor selection device for selecting a sensor suitable for detection from a plurality of sensors, and a target detection system including the motion sensor selection device.

従来から、ソノブイ等を介して、水中の物体を探知するシステムが知られている。特許文献1は、この種の探知システムを開示する。 Conventionally, a system for detecting an underwater object via a sonobuoy or the like has been known. Patent Document 1 discloses this type of detection system.

特許文献1の水中航走体の位置決定システムは、運用海域内に水中航走体に装備されたピンガーからの音響信号を受信するソノブイを複数個配置することで、3個以上のソノブイにより受信した音響信号に基づいて、水中航走体の位置をリアルタイムで算出する構成となっている。 The position-fixing system for the underwater vehicle of Patent Document 1 is received by three or more sonobuoys by arranging a plurality of sonobuoys that receive acoustic signals from the pinger equipped on the underwater vehicle in the operating sea area. The position of the underwater vehicle is calculated in real time based on the generated acoustic signal.

特開2004−245779号公報Japanese Unexamined Patent Publication No. 2004-245779

上記特許文献1の構成とは異なり、探知範囲(運用海域)内に複数の音波発生用ソノブイ、音波受波用ソノブイ等のセンサを配置し、積極的に音波を発生して水中航走体、水上航走体、沈船、海底地形等(以下、単に「水中物体」という)の目標を探知するシステムも用いられている。このようなシステムにおいて、水中物体をより正確に探知するために、水中物体の分布状況等に応じて、動作すべき適切なセンサを自動的に選択する構成が望まれていた。 Unlike the configuration of Patent Document 1, a plurality of sensors such as a sound wave generating sonobui and a sound wave receiving sonobui are arranged within the detection range (operating sea area) to actively generate sound waves to form an underwater vehicle. Systems are also used to detect targets such as surface navigators, sunken ships, and seafloor topography (hereinafter simply referred to as "underwater objects"). In such a system, in order to detect an underwater object more accurately, a configuration has been desired in which an appropriate sensor to operate is automatically selected according to the distribution state of the underwater object and the like.

近年発展している人工知能に関していえば、様々な状況を学習した学習済モデルを構築することで、様々な状況に適するソノブイの自動選択を実現することができる。しかし、人工知能を用いる場合は一般的に、学習しようとする状況が複雑である程、学習済モデルを構築するための学習時間が多く掛かる。学習済モデルの構築に時間を要すると、学習済モデルを用いる装置及びシステムの早期運用が難しくなる。 With regard to artificial intelligence, which has been developing in recent years, it is possible to realize automatic selection of sonobuoys suitable for various situations by constructing a learned model that has learned various situations. However, when artificial intelligence is used, in general, the more complicated the situation to be learned, the longer it takes to learn to build a trained model. If it takes time to construct the trained model, it becomes difficult to operate the device and the system using the trained model at an early stage.

本発明は以上の事情に鑑みてされたものであり、その目的は、機械学習により動作センサ選択モデルを短時間で構築することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to construct a motion sensor selection model by machine learning in a short time.

本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段とその効果を説明する。 The problem to be solved by the present invention is as described above, and next, the means for solving this problem and its effect will be described.

本発明の第1の観点によれば、以下の構成の動作センサ選択装置が提供される。即ち、この動作センサ選択装置は、対象領域に存在する1以上の目標を探知するために用いられるセンサが当該対象領域に複数配置される場合に、前記複数のセンサのうち動作すべき前記センサを動作センサとして選択する。動作センサ選択装置は、入力部と、動作センサ選択モデルと、動作センサ選択部と、を備える。前記入力部は、少なくとも1つの前記目標に関して、各前記目標に関する位置、針路及び速力のうち少なくとも何れかに関する前記目標状態量を含む情報である入力情報の入力を受け付ける。前記動作センサ選択モデルは、1つの前記目標についての、ある時間幅における前記目標状態量を含むベース情報から、前記複数のセンサのうち選択すべき少なくとも1つの前記センサを選択するための機械学習を行ったものである。前記動作センサ選択部は、前記動作センサ選択モデルを用いて、前記入力部に入力された前記入力情報から動作すべき前記センサを選択する。前記動作センサ選択部は、前記入力部に入力された複数の前記目標に関する前記入力情報を、1つの前記目標に関する情報に分解して、分解されたそれぞれの情報を前記動作センサ選択モデルに入力し、当該動作センサ選択モデルから出力された複数の選択結果を統合し、動作すべき前記センサを動作センサとして選択する。 According to the first aspect of the present invention, an operation sensor selection device having the following configuration is provided. That is, when a plurality of sensors used for detecting one or more targets existing in the target area are arranged in the target area, the motion sensor selection device selects the sensor to be operated among the plurality of sensors. Select as motion sensor. The motion sensor selection device includes an input unit, a motion sensor selection model, and a motion sensor selection section. The input unit receives input of input information which is information including the target state quantity regarding at least one of the position, course, and speed with respect to each target with respect to at least one target. The motion sensor selection model performs machine learning for selecting at least one of the plurality of sensors to be selected from the base information including the target state quantity in a certain time width for one target. I went there. The motion sensor selection unit uses the motion sensor selection model to select the sensor to operate from the input information input to the input unit. The motion sensor selection unit decomposes the input information regarding the plurality of targets input to the input unit into one information regarding the target, and inputs the decomposed information into the motion sensor selection model. , A plurality of selection results output from the motion sensor selection model are integrated, and the sensor to be operated is selected as the motion sensor.

これにより、学習フェーズにおいて動作センサ選択モデルを構築する際に、学習データを、1つだけの目標に関する状況に限定することができる。この結果、学習データの数が爆発的に増大することを回避して、動作センサ選択モデルの学習時間を顕著に短縮し、動作センサ選択装置の早期運用を図ることができる。推論フェーズにおいては、複数の目標に関する状況を1つの目標毎に分解して動作センサ選択モデルに入力し、動作センサ選択モデルの出力結果を統合することで、複数の目標が現れる複雑な状況にも適切に対応することができる。 Thereby, when constructing the motion sensor selection model in the learning phase, the learning data can be limited to the situation relating to only one goal. As a result, it is possible to avoid an explosive increase in the number of training data, significantly shorten the learning time of the motion sensor selection model, and achieve early operation of the motion sensor selection device. In the inference phase, the situation related to multiple goals is decomposed for each goal and input to the motion sensor selection model, and the output results of the motion sensor selection model are integrated, so that even in a complicated situation where multiple goals appear. Can be dealt with appropriately.

本発明の第2の観点によれば、以下のような動作センサ選択方法が提供される。即ち、この動作センサ選択方法は、対象領域に存在する1以上の目標を探知するために用いられるセンサが当該対象領域に複数配置される場合に、前記複数のセンサのうち動作すべき前記センサを動作センサとして選択する。動作センサ選択方法は、第1工程と、第2工程と、第3工程と、を含む。前記第1工程では、少なくとも1つの前記目標に関して、各前記目標に関する位置、針路及び速力のうち少なくとも何れかに関する前記目標状態量を含む情報である入力情報の入力を受け付ける。前記第2工程では、前記第1工程において入力された複数の前記目標に関する前記入力情報を、1つの前記目標に関する情報に分解して、分解されたそれぞれの情報を動作センサ選択モデルに入力する。前記動作センサ選択モデルは、1つの前記目標についての、ある時間幅における前記目標状態量を含むベース情報から、前記複数のセンサのうち選択すべき少なくとも1つの前記センサを選択するための機械学習を行った学習済モデルである。前記第3工程では、前記動作センサ選択モデルから出力された複数の選択結果を統合し、動作すべき前記センサを選択する。 According to the second aspect of the present invention, the following motion sensor selection method is provided. That is, in this motion sensor selection method, when a plurality of sensors used for detecting one or more targets existing in the target area are arranged in the target area, the sensor to be operated among the plurality of sensors is selected. Select as motion sensor. The motion sensor selection method includes a first step, a second step, and a third step. In the first step, with respect to at least one target, input of input information which is information including the target state quantity regarding at least one of the position, course, and speed related to each target is received. In the second step, the input information regarding the plurality of targets input in the first step is decomposed into one information regarding the target, and each of the decomposed information is input to the motion sensor selection model. The motion sensor selection model performs machine learning for selecting at least one of the plurality of sensors to be selected from the base information including the target state quantity in a certain time width for one target. It is a trained model that was done. In the third step, a plurality of selection results output from the motion sensor selection model are integrated, and the sensor to be operated is selected.

これにより、学習フェーズにおいて動作センサ選択モデルを構築する際に、学習データを1つだけの目標に関する状況に限定することができる。この結果、学習データの数が爆発的に増大することを回避して、動作センサ選択モデルの学習時間を顕著に短縮し、動作センサ選択装置の早期運用を図ることができる。推論フェーズにおいては、複数の目標に関する状況を1つの目標毎に分解して動作センサ選択モデルに入力し、動作センサ選択モデルの出力結果を統合することで、複数の目標が現れる複雑な状況にも適切に対応することができる。 Thereby, when constructing the motion sensor selection model in the learning phase, the learning data can be limited to the situation relating to only one goal. As a result, it is possible to avoid an explosive increase in the number of training data, significantly shorten the learning time of the motion sensor selection model, and achieve early operation of the motion sensor selection device. In the inference phase, the situation related to multiple goals is decomposed for each goal and input to the motion sensor selection model, and the output results of the motion sensor selection model are integrated, so that even in a complicated situation where multiple goals appear. Can be dealt with appropriately.

本発明によれば、機械学習により動作センサ選択モデルを短時間で構築することができる。 According to the present invention, a motion sensor selection model can be constructed in a short time by machine learning.

本発明の第1実施形態に係る目標探知システムの概略を示す説明図。The explanatory view which shows the outline of the target detection system which concerns on 1st Embodiment of this invention. 発音対象推定モデルの構築作業を示す図。The figure which shows the construction work of the pronunciation target estimation model. 発音対象推定モデルの構築に要する時間を説明する図。The figure explaining the time required to construct the pronunciation target estimation model. 発音対象選択部が発音対象推定モデルを用いて複数目標状況に適する音波発生体を選択する動作を示す図。The figure which shows the operation which the sound wave target selection part selects a sound wave generator suitable for a plurality of target situations using a sound wave target estimation model. 本実施形態に関し、学習フェーズ及び推論フェーズに必要な時間を、参照例と比較して示す図。The figure which shows the time required for a learning phase and an inference phase in comparison with a reference example about this embodiment. 本実施形態と参照例のそれぞれについて、精度と学習回数との関係を示すグラフ。The graph which shows the relationship between the accuracy and the number of learnings for each of this Embodiment and a reference example. 本発明の第2実施形態に係る目標探知システムの概略を示す図。The figure which shows the outline of the target detection system which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る目標探知システムの概略を示す図。The figure which shows the outline of the target detection system which concerns on 3rd Embodiment of this invention.

次に、図面を参照して本発明の実施の形態を説明する。図1は、本発明の第1実施形態に係る目標探知システム100の概略を示す説明図である。 Next, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an explanatory diagram showing an outline of a target detection system 100 according to a first embodiment of the present invention.

図1に示す目標探知システム100は、探知対象となる、水中航走体、水上船舶、沈船、海底地形等の水中物体1の存在や位置等を特定するために用いられる。水中物体1は、目標又は特定目標と言い換えることもできる。目標探知システム100は、目視できない水中領域を例えば音波により探知する。この目標探知システム100は、図1に示すように、主として、複数の音波探知体2と、複数の音波発生体(センサ)3と、探知制御装置4と、を備える。 The target detection system 100 shown in FIG. 1 is used to identify the existence and position of an underwater object 1 such as an underwater vehicle, a surface vessel, a wreck, and a seabed topography to be detected. The underwater object 1 can also be rephrased as a target or a specific target. The target detection system 100 detects an invisible underwater area by, for example, a sound wave. As shown in FIG. 1, the target detection system 100 mainly includes a plurality of sound wave detectors 2, a plurality of sound wave generators (sensors) 3, and a detection control device 4.

音波探知体2は、例えば、公知のパッシブソノブイから構成される。音波探知体2は、音波発生体3から発した音波の、水中物体1からの反射波を受信する。音波探知体2は、受信した反射波を信号処理して、探知制御装置4に送信する探知情報を生成する。音波探知体2は、例えば、水面に浮いている通信アンテナ等を介して、生成した探知情報を探知制御装置4に無線送信する。 The sound wave detector 2 is composed of, for example, a known passive sonobuoy. The sound wave detector 2 receives the reflected wave of the sound wave emitted from the sound wave generator 3 from the underwater object 1. The sound wave detector 2 processes the received reflected wave as a signal to generate detection information to be transmitted to the detection control device 4. The sound wave detector 2 wirelessly transmits the generated detection information to the detection control device 4 via, for example, a communication antenna floating on the water surface.

この探知情報は、例えば、反射波の受信時間、受信した反射波の方向、受信した反射波の周波数、周波数偏移等を含む。音波探知体2は、生成した探知情報を、音波探知体2自身を識別できる識別情報とともに、探知制御装置4等に送信する。音波探知体2の識別情報としては、例えば識別番号を挙げることができる。 This detection information includes, for example, the reception time of the reflected wave, the direction of the received reflected wave, the frequency of the received reflected wave, the frequency deviation, and the like. The sound wave detector 2 transmits the generated detection information to the detection control device 4 and the like together with the identification information that can identify the sound wave detector 2 itself. Examples of the identification information of the sound wave detector 2 include an identification number.

なお、音波探知体2は、探知情報に代えて、受信した反射波を、別途に設けられた図略の信号処理装置に送信しても良い。この場合、信号処理装置は、音波探知体2から受信した反射波を信号処理する。この信号処理装置は、探知制御装置4に備えられても良いし、探知制御装置4とは別に設けられても良い。 The sound wave detector 2 may transmit the received reflected wave to a separately provided signal processing device (not shown) instead of the detection information. In this case, the signal processing device signals the reflected wave received from the sound wave detector 2. This signal processing device may be provided in the detection control device 4, or may be provided separately from the detection control device 4.

音波発生体3は、例えば、公知のアクティブソノブイから構成され、予め設定された周波数、パルス波形、パルス幅等の諸元(以下、単に「諸元」という)の音波を発生する。音波発生体3は、例えば、水面に浮いている通信アンテナ等を介して、探知制御装置4からの発音制御指示を受信する。音波発生体3は、受信した発音制御指示に従って音波を発生する。 The sound wave generator 3 is composed of, for example, a known active sonobuoy, and generates sound waves having specifications such as a preset frequency, pulse waveform, and pulse width (hereinafter, simply referred to as “specifications”). The sound wave generator 3 receives a sound wave control instruction from the detection control device 4 via, for example, a communication antenna floating on the water surface. The sound wave generator 3 generates sound waves according to the received sound wave control instruction.

音波探知体2及び音波発生体3は、例えば、ソノブイであり、予め定められた探知領域(対象領域)に対して航空機や船舶等の目標探知体10から敷設される。ソノブイを敷設する際、当該ソノブイ(音波探知体2及び音波発生体3)を一意に特定するための識別情報と、敷設位置と、が関連付けられて記憶される。 The sound wave detector 2 and the sound wave generator 3 are, for example, sonobuoys, and are laid from a target detector 10 such as an aircraft or a ship in a predetermined detection area (target area). When laying the sonobuoy, the identification information for uniquely identifying the sonobuoy (sound wave detector 2 and sound wave generator 3) and the laying position are stored in association with each other.

探知制御装置4は、目標探知体10に搭載されている。探知制御装置4は、刻々と変化する探知状況に適するように、音波を発生させる音波発生体3を複数の音波発生体3から選択する。この探知状況は、探知領域における、水中物体1の位置、針路、速力等の少なくとも何れか1つの情報を含む。探知領域に存在する(あるいは、存在する可能性がある)水中物体1は、1つの場合もあれば、複数の場合もある。探知制御装置4は、音波探知体2から受信した探知情報を分析する。 The detection control device 4 is mounted on the target detector 10. The detection control device 4 selects a sound wave generator 3 for generating sound waves from a plurality of sound wave generators 3 so as to be suitable for the ever-changing detection situation. This detection situation includes at least one piece of information such as the position, course, and speed of the underwater object 1 in the detection area. There may be one or more underwater objects 1 that exist (or may exist) in the detection area. The detection control device 4 analyzes the detection information received from the sound wave detector 2.

探知制御装置(動作センサ選択装置)4は、図1に示すように、発音対象選択部(動作センサ選択部)5と、無線送受信部6と、探知情報分析部7と、入力部8と、を備える。 As shown in FIG. 1, the detection control device (motion sensor selection device) 4 includes a sound generation target selection unit (motion sensor selection unit) 5, a wireless transmission / reception unit 6, a detection information analysis unit 7, an input unit 8, and the like. To be equipped.

探知制御装置4は、公知のコンピュータとして構成されており、CPU、ROM、RAM、HDD等を備える。HDDには、発音対象の音波発生体3の選択、探知情報の分析等を実現するためのプログラムが記憶されている。このプログラムは、本発明の発音対象推定方法(動作センサ選択方法)を実現するものである。上記のハードウェアとソフトウェアの協働により、探知制御装置4を、発音対象選択部5、無線送受信部6、探知情報分析部7、及び入力部8として動作させることができる。 The detection control device 4 is configured as a known computer, and includes a CPU, ROM, RAM, HDD, and the like. The HDD stores a program for realizing selection of the sound wave generator 3 to be sounded, analysis of detection information, and the like. This program realizes the pronunciation target estimation method (motion sensor selection method) of the present invention. By the cooperation of the above hardware and software, the detection control device 4 can be operated as a sound generation target selection unit 5, a wireless transmission / reception unit 6, a detection information analysis unit 7, and an input unit 8.

発音対象選択部5は、複数の音波発生体3から、探知状況に適する音波発生体3を少なくとも1つ選択するために用いられる。この選択にあたっては、事前に構築された学習済モデルである発音対象推定モデル(動作センサ選択モデル)9が用いられる。なお、発音対象選択部5は、適切な音波発生体3を選択するだけでなく、選択した音波発生体3の諸元を決定しても良い。この音波発生体3の選択の詳細は後述する。 The sound wave target selection unit 5 is used to select at least one sound wave generator 3 suitable for the detection situation from the plurality of sound wave generators 3. In this selection, a pronunciation target estimation model (motion sensor selection model) 9, which is a pre-built learned model, is used. The sound wave target selection unit 5 may not only select an appropriate sound wave generator 3 but also determine the specifications of the selected sound wave generator 3. Details of the selection of the sound wave generator 3 will be described later.

無線送受信部6は、公知の無線通信技術を利用して、発音対象選択部5により選択された音波発生体3に発音制御信号を送信する。当該発音制御信号は、所定の諸元の音波を発生するように音波発生体3を動作させる制御信号である。更に、無線送受信部6は、音波探知体2で反射波を処理して得られた探知情報(あるいは、音波探知体2において受信した反射波自体)を受信する。 The wireless transmission / reception unit 6 transmits a sound wave control signal to the sound wave generator 3 selected by the sound wave target selection unit 5 by using a known wireless communication technique. The sound wave control signal is a control signal that operates the sound wave generator 3 so as to generate sound waves of predetermined specifications. Further, the wireless transmission / reception unit 6 receives the detection information (or the reflected wave itself received by the sound wave detector 2) obtained by processing the reflected wave by the sound wave detector 2.

探知情報分析部7は、音波探知体2から受信された探知情報を分析することで、音波探知体2で受信した反射波に基づいて水中物体1等の情報である探知対象情報を生成する。この探知対象情報は、例えば、探知した水中物体1の位置(座標)、針路、速力を含む。同時に2以上の水中物体1が探知された場合、探知対象情報は、それぞれの水中物体1の位置等の情報を含む。 The detection information analysis unit 7 analyzes the detection information received from the sound wave detector 2 to generate detection target information which is information such as an underwater object 1 based on the reflected wave received by the sound wave detector 2. This detection target information includes, for example, the position (coordinates), course, and speed of the detected underwater object 1. When two or more underwater objects 1 are detected at the same time, the detection target information includes information such as the position of each underwater object 1.

入力部8は、探知情報分析部7が出力した探知対象情報の入力を受け付ける(第1工程)。従って、探知対象情報は、入力情報の一種である。この探知対象情報は、1又は複数の水中物体1について、各水中物体1に関する位置、針路及び速力のうち少なくとも何れかに関する状態量を含む情報である。 The input unit 8 receives the input of the detection target information output by the detection information analysis unit 7 (first step). Therefore, the detection target information is a kind of input information. This detection target information is information including a state quantity regarding at least one of a position, a course, and a velocity with respect to each underwater object 1 with respect to one or a plurality of underwater objects 1.

続いて、発音対象選択部5が発音対象推定モデル9を用いて、複数の音波発生体3から探知状況に適する音波発生体3を選択する詳細について、図2から図4等を参照して説明する。この探知状況は、少なくとも1つの水中物体1が存在することを想定したものである。それぞれの水中物体1の様子は、状態量(例えば位置、針路、速力等)で表すことができる。1以上の水中物体1について、位置、針路、速力等のうち何れかが異なれば、別々の探知状況として取り扱われる。以下の説明においては、水中物体1が1つしか存在しない探知状況を「単体目標状況」と称し、複数の水中物体1が存在する探知状況を「複数目標状況」と称することがある。また、水中物体1の状態量を「目標状態量」と称することがある。探知状況のうち単体目標状況を示すデータは、1つの水中物体1に関する目標状態量のデータを含む。複数目標状況を示すデータは、複数の水中物体1のそれぞれに関する目標状態量のデータを含む。 Subsequently, the details of the sound wave target selection unit 5 selecting the sound wave generator 3 suitable for the detection situation from the plurality of sound wave generators 3 by using the sound wave target estimation model 9 will be described with reference to FIGS. 2 to 4 and the like. To do. This detection situation assumes that at least one underwater object 1 exists. The state of each underwater object 1 can be represented by a state quantity (for example, position, course, speed, etc.). If any one or more of the underwater objects 1 are different in position, course, speed, etc., they are treated as different detection situations. In the following description, a detection situation in which only one underwater object 1 exists may be referred to as a “single target situation”, and a detection situation in which a plurality of underwater objects 1 exist may be referred to as a “plurality target situation”. Further, the state quantity of the underwater object 1 may be referred to as a "target state quantity". Among the detection statuses, the data indicating the single target status includes the data of the target state quantity for one underwater object 1. The data indicating the plurality of target states includes data on the target state quantity for each of the plurality of underwater objects 1.

図1から図4までの例においては、11個の音波発生体3が探知領域内に敷設されている。以下の説明において、当該11個の音波発生体3のそれぞれを特定するために、図1においては、それぞれの音波発生体に下線付きの番号を付している。以下の説明においては、図1に示す音波発生体の番号に対応して、それぞれの音波発生体3を第1番目の音波発生体3−1、第2番目の音波発生体3−2、・・・、第11番目の音波発生体3−11と称することがある。 In the examples of FIGS. 1 to 4, 11 sound wave generators 3 are laid in the detection region. In the following description, in order to identify each of the 11 sound wave generators 3, each sound wave generator is underlined in FIG. In the following description, the respective sound wave generators 3 are referred to as the first sound wave generator 3-1 and the second sound wave generator 3-2, respectively, corresponding to the numbers of the sound wave generators shown in FIG. ..., Sometimes referred to as the eleventh sound wave generator 3-11.

本実施形態の発音対象推定モデル9は、機械学習(例えば、公知の強化学習)により構築される。発音対象推定モデル9は、例えば、探知制御装置4の発音対象選択部5に実装される前に、それぞれの単体目標状況を学習することにより構築されている。 The pronunciation target estimation model 9 of the present embodiment is constructed by machine learning (for example, known reinforcement learning). The pronunciation target estimation model 9 is constructed, for example, by learning each single target situation before being implemented in the pronunciation target selection unit 5 of the detection control device 4.

この学習に用いる学習用データセット(ベース情報)には、例えば、図2等に示すような15個の音波探知体2及び11個の音波発生体3が敷設された探知領域に、1つの水中物体1のみが現れた場合を考え、この水中物体1の、ある時間幅における位置、針路、速力等の目標状態量を示す情報が含まれる。即ち、学習データの集合は、1つの水中物体1の単体目標状況(1),(2),・・・,(P)の集合に相当する。 The learning data set (base information) used for this learning includes, for example, one underwater detection area in which 15 sound wave detectors 2 and 11 sound wave generators 3 are laid as shown in FIG. Considering the case where only the object 1 appears, information indicating the target state quantity such as the position, course, and speed of the underwater object 1 in a certain time width is included. That is, the set of learning data corresponds to the set of single target situations (1), (2), ..., (P) of one underwater object 1.

発音対象推定モデル9は、1つの単体目標状況に対して、それぞれの音波発生体3及びその諸元を選択する場合におけるQ値(適合度)のそれぞれを計算している。Q値は、強化学習の一種であるQ学習において良く知られている状態行動価値を意味する。 The sound wave target estimation model 9 calculates each of the Q values (goodness of fit) when each sound wave generator 3 and its specifications are selected for one single target situation. The Q value means the state behavior value that is well known in Q-learning, which is a kind of reinforcement learning.

簡単に説明すると、強化学習では、ある環境がエージェント(行動主体)に与えられる。エージェントは、環境に対して様々な行動aの試行を繰り返すことで、行動を最適化する。環境では、行動aと、行動aに応じた状態sの変化が定義される。エージェントがある行動aを行った結果、ある状態sに到達すると、エージェントに環境から報酬が与えられる。ある状態sにおいて、ある行動aをエージェントがとった場合の価値がQ値であり、Q(s,a)と表すことができる。Q値は、今回の行動aによって即時に得られる報酬だけでなく、次回以降の行動aによって得られる可能性がある報酬も考慮するように計算される。本実施形態において、エージェントは、原則として、Q値が最大となる行動を選択する。Q値が大きい程、状態sに対して行動aを行うことが適する度合いが高いということができるため、Q値は適合度の一種である。発音対象推定モデル9の学習とは、行動の価値評価(具体的には、Q値)の学習を意味する。 Briefly, in reinforcement learning, an environment is given to an agent (behavior). The agent optimizes the behavior by repeating the trial of various behaviors a with respect to the environment. In the environment, the action a and the change of the state s according to the action a are defined. When the agent reaches a certain state s as a result of performing a certain action a, the agent is rewarded from the environment. In a certain state s, the value when the agent takes a certain action a is the Q value, which can be expressed as Q (s, a). The Q value is calculated to take into account not only the reward immediately obtained by the action a this time, but also the reward that may be obtained by the action a from the next time onward. In this embodiment, the agent, in principle, selects the action that maximizes the Q value. Since it can be said that the larger the Q value, the higher the degree of suitability for performing the action a for the state s, the Q value is a kind of goodness of fit. The learning of the pronunciation target estimation model 9 means the learning of the value evaluation (specifically, the Q value) of the behavior.

本実施形態の発音対象推定モデル9を学習させる場合において、状態sは、単体目標状況に相当し、行動aは、発音する音波発生体3の選択に相当する。発音対象推定モデル9の学習フェーズにおいては、エージェントが単体目標状況において何れかの音波発生体3を発音させた結果、シミュレーションによって水中物体1の探知を良好に行うことができた場合、エージェントに報酬が与えられる。発音対象推定モデル9は、図3に示すように、何れの音波発生体3を選択した場合でもQ値がほぼ一定に収束するまで、1つの単体目標状況に対して、試行錯誤を通じて複数回(グラフに示すL回)学習する。ただし、学習終了の条件として、他の条件を用いることもできる。 In the case of training the sound wave target estimation model 9 of the present embodiment, the state s corresponds to a single target situation, and the action a corresponds to the selection of the sound wave generator 3 to be sounded. In the learning phase of the sound generation target estimation model 9, if the agent sounds any sound wave generator 3 in a single target situation, and as a result, the underwater object 1 can be detected well by simulation, the agent is rewarded. Is given. As shown in FIG. 3, the sound wave target estimation model 9 is used multiple times (by trial and error) for one single target situation until the Q value converges to be almost constant regardless of which sound wave generator 3 is selected. (L times shown in the graph) Learn. However, other conditions can be used as the condition for completing the learning.

Q値は、Q関数を近似する手法として知られているニューラルネットワークを用いて計算することができる。ニューラルネットワークは、入力層と、中間層と、出力層と、を有する。それぞれの層は、脳の神経細胞を模擬した複数のユニットによって構成されている。隣り合う層の間でユニット同士は接続され、それぞれの接続において、情報の伝達し易さを示す重みが定義されている。本実施形態では、発音対象推定モデル9として、中間層が2層以上であるニューラルネットワークのモデルが採用されている。ニューラルネットワークの入力層に状態sが入力されると、出力層は行動aのそれぞれのQ値を出力する。学習フェーズにおいては、状態sをニューラルネットワークに入力した場合の出力結果に基づいてエージェントが環境に対して行動aを実際に試行することで、ニューラルネットワークの出力の誤差を求めることができる。得られた誤差を用いて公知の誤差逆伝播法を適用することで、上述の重みが更新される。上記の処理を反復することで、学習を行うことができる。 The Q value can be calculated using a neural network known as a method of approximating the Q function. The neural network has an input layer, an intermediate layer, and an output layer. Each layer is composed of multiple units that simulate nerve cells in the brain. Units are connected between adjacent layers, and each connection defines a weight that indicates the ease with which information can be transmitted. In the present embodiment, as the sound generation target estimation model 9, a model of a neural network having two or more intermediate layers is adopted. When the state s is input to the input layer of the neural network, the output layer outputs each Q value of the action a. In the learning phase, the error of the output of the neural network can be obtained by the agent actually trying the action a against the environment based on the output result when the state s is input to the neural network. The above weights are updated by applying a known backpropagation method using the obtained error. Learning can be performed by repeating the above process.

ここで、学習フェーズを完了させるために必要な時間を考える。図3に示すように、1つの水中物体1に着目した場合の学習データの数(言い換えれば、学習させる単体目標状況の数)をPとし、発音対象推定モデル9に単体目標状況が入力されてから音波発生体3の選択結果を出力するまでに要する計算時間をTとし、1つの単体目標状況に対して学習する必要回数をLとする。この場合、発音対象推定モデル9を構築するために発音対象推定モデル9を学習させる学習時間は、単体目標状況の数Pと、計算時間Tと、学習回数Lと、の積(PLT)となる。本実施形態では学習データの数Pを上述のとおり小さく抑えることができるため、発音対象選択部5が用いる発音対象推定モデル9を短い学習時間で構築することができる。 Now consider the time required to complete the learning phase. As shown in FIG. 3, the number of training data (in other words, the number of single target situations to be trained) when focusing on one underwater object 1 is P, and the single target situation is input to the sound generation target estimation model 9. Let T be the calculation time required to output the selection result of the sound generator 3 from, and let L be the number of times required to learn for one single target situation. In this case, the learning time for learning the pronunciation target estimation model 9 in order to construct the pronunciation target estimation model 9 is the product (PLT) of the number P of the single target situation, the calculation time T, and the number of learnings L. .. In the present embodiment, since the number P of learning data can be kept small as described above, the pronunciation target estimation model 9 used by the pronunciation target selection unit 5 can be constructed in a short learning time.

発音対象推定モデル9の推論フェーズにおいては、単体目標状況が与えられた場合に、複数の音波発生体3の中から最もQ値が大きくなる音波発生体3を、発音すべき音波発生体3として出力する。 In the inference phase of the sound wave target estimation model 9, the sound wave generator 3 having the largest Q value among the plurality of sound wave generators 3 is designated as the sound wave generator 3 to be sounded when a single target situation is given. Output.

ここで、入力部8を介して発音対象選択部5に与えられる探知状況としては、1つの水中物体1のみが現れている場合もあれば、複数の水中物体1が現れている場合もある。 Here, as the detection situation given to the sound generation target selection unit 5 via the input unit 8, only one underwater object 1 may appear, or a plurality of underwater objects 1 may appear.

最初に、発音対象選択部5に入力された探知状況が単体目標状況である場合を考える。この場合、発音対象選択部5は、当該単体目標状況をそのまま発音対象推定モデル9に入力し、発音対象推定モデル9が出力した選択結果をそのまま、発音すべき音波発生体3として出力する。 First, consider the case where the detection status input to the sound generation target selection unit 5 is a single target status. In this case, the sound wave target selection unit 5 inputs the single target situation as it is into the sound wave target estimation model 9, and outputs the selection result output by the sound wave target estimation model 9 as it is as the sound wave generator 3 to be sounded.

次に、発音対象選択部5に入力された探知状況が複数目標状況である場合、具体的には、探知対象となる水中物体1が複数現れている場合を考える。この場合、発音対象選択部5は、図4に示すように、入力された複数目標状況を、水中物体1の数だけの単体目標状況に分解する。単体目標状況が複数得られると、発音対象選択部5は、単体目標状況のそれぞれを発音対象推定モデル9に入力する(第2工程)。図4の例においては、5つの水中物体1が現れている複数目標状況が、5つの単体目標状況に分解される。発音対象推定モデル9には、このように分解して得られた単体目標状況(1)、単体目標状況(2)、・・・、単体目標状況(5)のそれぞれが入力される。 Next, consider the case where the detection status input to the sound generation target selection unit 5 is a plurality of target situations, specifically, a case where a plurality of underwater objects 1 to be detected appear. In this case, as shown in FIG. 4, the sound generation target selection unit 5 decomposes the input multiple target situations into single target situations as many as the number of underwater objects 1. When a plurality of single target situations are obtained, the sound target selection unit 5 inputs each of the single target situations into the sound target estimation model 9 (second step). In the example of FIG. 4, the plurality of target situations in which the five underwater objects 1 appear are decomposed into five single target situations. Each of the single target situation (1), the single target situation (2), ..., And the single target situation (5) obtained by the decomposition in this way is input to the sound generation target estimation model 9.

発音対象推定モデル9は、入力された単体目標状況(1)〜(5)のそれぞれに対して、上述と同様に、複数の音波発生体3の候補の中から最もQ値が大きくなる音波発生体3を、発音すべき対象として出力する。図4の例においては、単体目標状況(1)、及び単体目標状況(2)において、第5番目の音波発生体3−5が発音すべき対象として出力されている。単体目標状況(3)〜(5)に関しても同様に、発音すべき対象の音波発生体3が発音対象推定モデル9から出力される。以下では、単体目標状況(1)〜(5)のそれぞれに関して動作するのに適するものとして発音対象推定モデル9から出力される音波発生体3を、単体動作適合対象と呼ぶことがある。 In the sound wave target estimation model 9, the sound wave generation having the largest Q value among the candidates of the plurality of sound wave generators 3 is generated for each of the input single target situations (1) to (5) in the same manner as described above. The body 3 is output as an object to be pronounced. In the example of FIG. 4, in the single target situation (1) and the single target situation (2), the fifth sound wave generator 3-5 is output as an object to be sounded. Similarly, for the single target situations (3) to (5), the sound wave generator 3 to be sounded is output from the sound wave target estimation model 9. In the following, the sound wave generator 3 output from the sound wave target estimation model 9 as being suitable for operating in each of the single target situations (1) to (5) may be referred to as a single operation conforming target.

発音対象選択部5は、発音対象推定モデル9が出力した複数の選択結果を統合することで、複数目標状況において発音することが総合的に最も適当である音波発生体3を出力する(第3工程)。以下、このように複数目標状況に適するものとして発音対象選択部5から出力される音波発生体3を、動作適合対象(動作センサ)と呼ぶことがある。例えば、発音対象推定モデル9から発音すべき対象として出力された回数を音波発生体3ごとにカウントし、複数の音波発生体3のうち、発音すべき対象とされた回数が最も多い音波発生体3を、入力された複数目標状況において発音すべき対象として選択することが考えられる。図4では、上記の多数決的な手法により、第5番目の音波発生体3−5が、発音対象選択部5に入力された複数目標状況において発音すべき対象として出力される例が示されている。 The sound wave target selection unit 5 outputs the sound wave generator 3 that is most suitable for sound wave in a plurality of target situations by integrating the plurality of selection results output by the sound wave target estimation model 9 (third). Process). Hereinafter, the sound wave generator 3 output from the sound wave target selection unit 5 as being suitable for the plurality of target situations may be referred to as an motion conforming target (motion sensor). For example, the number of times output from the sound wave target estimation model 9 as an object to be sounded is counted for each sound wave generator 3, and among the plurality of sound wave generators 3, the sound wave generator having the largest number of times to be sounded is to be sounded. It is conceivable to select 3 as an object to be pronounced in the input multiple target situations. FIG. 4 shows an example in which the fifth sound wave generator 3-5 is output as a target to be sounded in a plurality of target situations input to the sound wave target selection unit 5 by the above-mentioned majority method. There is.

ただし、複数の単体目標状況について発音対象推定モデル9が出力した選択結果を取りまとめる方法としては、上記に限定されない。例えば、発音対象推定モデル9が、複数目標状況を分解して得られたそれぞれの単体目標状況に対して、各音波発生体3を選択した場合のQ値を発音対象選択部5に出力することが考えられる。この場合、発音対象選択部5は、Q値の総和を音波発生体3ごとに計算し、この総和(適合度総和)が最大となる音波発生体3を、入力された複数目標状況において発音すべき対象として選択する。 However, the method of collecting the selection results output by the sound generation target estimation model 9 for a plurality of single target situations is not limited to the above. For example, the sound wave target estimation model 9 outputs the Q value when each sound wave generator 3 is selected to the sound wave target selection unit 5 for each single target situation obtained by decomposing a plurality of target situations. Can be considered. In this case, the sound wave target selection unit 5 calculates the sum of the Q values for each sound wave generator 3, and sounds the sound wave generator 3 having the maximum sum (total degree of conformity) in the input multiple target situations. Select as the target to be.

具体的には、図4の例においては、発音対象推定モデル9は、単体目標状況(1)に対して、第1番目から第11番目の音波発生体3−1〜3−11を発音させる場合のQ値のそれぞれを計算し、発音対象選択部5に出力する。Q値は、上述のニューラルネットワークの出力値をそのまま用いれば良い。発音対象推定モデル9におけるQ値の出力は、残りの単体目標状況(2)〜(5)のそれぞれについても同様に行われる。発音対象選択部5は、得られたQ値を、11個の音波発生体3−1〜3−11毎に集計する。こうして、Q値の総和が11個求められる。複数目標状況において発音すべき対象を選択するとき、発音対象選択部5は、11個の音波発生体3のうち、上記のQ値の総和が最大となる音波発生体3を、入力された複数目標状況において発音すべき対象として選択する。 Specifically, in the example of FIG. 4, the sound wave target estimation model 9 causes the first to eleventh sound wave generators 3-1 to 3-11 to sound with respect to the single target situation (1). Each of the Q values in the case is calculated and output to the sound wave target selection unit 5. As the Q value, the output value of the above-mentioned neural network may be used as it is. The output of the Q value in the sound generation target estimation model 9 is similarly performed for each of the remaining single target situations (2) to (5). The sound wave target selection unit 5 totals the obtained Q values for each of the 11 sound wave generators 3-1 to 3-11. In this way, the total sum of 11 Q values is obtained. When selecting an object to be sounded in a plurality of target situations, the sound wave target selection unit 5 inputs a plurality of sound wave generators 3 having the maximum sum of the above Q values among the 11 sound wave generators 3. Select as the target to be pronounced in the target situation.

探知制御装置4は、無線送受信部6を介して、上記のように発音対象選択部5により選択された音波発生体3に発音制御信号を送信する。発音対象選択部5により選択された音波発生体3は、通信アンテナを介して発音対象選択部5から受信した発音制御信号に従って音波を発生する。音波探知体2は、音波発生体3から発した音波の、水中物体1等からの反射音を受信して、信号処理で得られた探知情報を、通信アンテナを介して探知情報分析部7に送信する。探知情報分析部7は、探知情報を分析し、目標候補リストを更新する。最新の目標候補リストが反映された探知状況は、発音対象選択部5に入力される。 The detection control device 4 transmits a sound wave control signal to the sound wave generator 3 selected by the sound wave target selection unit 5 as described above via the wireless transmission / reception unit 6. The sound wave generator 3 selected by the sound wave target selection unit 5 generates sound waves according to the sound wave control signal received from the sound wave target selection unit 5 via the communication antenna. The sound wave detector 2 receives the reflected sound of the sound wave emitted from the sound wave generator 3 from the underwater object 1 and the like, and transmits the detection information obtained by signal processing to the detection information analysis unit 7 via the communication antenna. Send. The detection information analysis unit 7 analyzes the detection information and updates the target candidate list. The detection status reflecting the latest target candidate list is input to the pronunciation target selection unit 5.

このように、発音対象選択部5は、水中物体1や音波探知体2及び音波発生体3の動き(移動、出現/消失等)等によって随時に変化する探知状況に応じて、発音すべき音波発生体3を随時に選択することができる。 In this way, the sound wave target selection unit 5 should produce sound waves according to the detection situation that changes at any time due to the movement (movement, appearance / disappearance, etc.) of the underwater object 1, the sound wave detector 2, and the sound wave generator 3. The generator 3 can be selected at any time.

本実施形態の目標探知システム100においては、発音対象選択部5は状況に応じて、探知状況に最も適する音波発生体3の代わりに、2番目以降に適する音波発生体3を選択することもできる。 In the target detection system 100 of the present embodiment, the sound wave target selection unit 5 may select the sound wave generator 3 suitable for the second and subsequent sound wave generators 3 instead of the sound wave generator 3 most suitable for the detection situation, depending on the situation. ..

例えば、入力された単体目標状況に対して、発音対象選択部5で発音することが最も適すると判断された音波発生体3が、直近に所定回数以上連続して発音していたとする。この場合、発音対象選択部5は、2番目に適する音波発生体3を、入力された単体目標状況において発音すべき対象として出力する。 For example, it is assumed that the sound wave generator 3, which is determined to be most suitable for sound wave by the sound wave target selection unit 5 with respect to the input single target situation, has sounded continuously for a predetermined number of times or more in the latest. In this case, the sound wave target selection unit 5 outputs the second most suitable sound wave generator 3 as a target to be sounded in the input single target situation.

複数目標状況が入力された場合も同様に、発音対象選択部5は、直近に所定回数以上連続して発音していた音波発生体3を除外した上で、当該複数目標状況において発音すべき音波発生体3を選択する。 Similarly, when a plurality of target situations are input, the sound wave target selection unit 5 excludes the sound wave generator 3 that has been continuously sounded more than a predetermined number of times most recently, and then the sound wave to be sounded in the plurality of target situations. Select generator 3.

このように、直近に所定回数以上連続して発音しているという条件(動作除外条件)を満たす音波発生体3が存在する場合は、選択される音波発生体3が、分解された単体目標状況において選択された回数が最も多い音波発生体3、或いはQ値の総和が最も大きい音波発生体3とは異なる場合もある。 In this way, when there is a sound wave generator 3 that satisfies the condition (operation exclusion condition) that the sound wave is continuously sounded a predetermined number of times or more in the latest, the selected sound wave generator 3 is decomposed into a single target state. It may be different from the sound wave generator 3 having the largest number of times selected in, or the sound wave generator 3 having the largest total Q value.

このような選択を行うことで、1つの音波発生体3が連続して多数回音波を発生することを回避することができる。これにより、音波発生体3の動作で発生する例えば熱の影響を軽減して、音波発生体3の機能を好適に維持することができる。 By making such a selection, it is possible to prevent one sound wave generator 3 from continuously generating a large number of sound waves. Thereby, for example, the influence of heat generated by the operation of the sound wave generator 3 can be reduced, and the function of the sound wave generator 3 can be suitably maintained.

次に、本実施形態の発音対象選択部5が有する優位な点について、処理に必要な時間の観点から、図5及び図6等を参照して詳細に説明する。 Next, the advantages of the sounding target selection unit 5 of the present embodiment will be described in detail with reference to FIGS. 5 and 6 from the viewpoint of the time required for processing.

図5には、最大2つの水中物体1が現れる場合を取り扱うことが可能な目標探知システムを実現するために、単体目標状況だけを学習する本実施形態と、単体目標状況に加えて複数目標状況を学習する参照例と、の比較が示されている。 In FIG. 5, in order to realize a target detection system capable of handling the case where a maximum of two underwater objects 1 appear, the present embodiment in which only a single target situation is learned, and a plurality of target situations in addition to the single target situation are shown. A comparison is shown with a reference example for learning.

最初に、学習フェーズを検討する。1つの水中物体1のみが現れた場合における学習データ数をPとした場合、2つの水中物体1が同時に現れた場合の学習データ数はPの2乗となる。本実施形態では、単体目標状況だけを学習するため、学習データ数はPで済む。一方、参照例では、単体目標状況に加えて複数目標状況を学習するため、学習データ数はP+P2になる。 First, consider the learning phase. When the number of learning data when only one underwater object 1 appears is P, the number of learning data when two underwater objects 1 appear at the same time is the square of P. In the present embodiment, since only the single target situation is learned, the number of learning data is P. On the other hand, in the reference example, since multiple target situations are learned in addition to the single target situation, the number of training data is P + P 2 .

従って、発音対象推定モデル9において、単体目標状況又は複数目標状況が入力されてから選択結果を出力するために必要な時間をTとし、出力を収束させるのに必要な学習回数をLとすると、参照例では、学習済モデルを構築するために必要となる学習時間が(P+P2)LTになる。このように、参照例では、本発明の発音対象選択部5が用いる発音対象推定モデル9を構築するための学習時間PLTに比べて、学習時間が長くなる。 Therefore, in the pronunciation target estimation model 9, let T be the time required to output the selection result after the single target situation or the plurality of target situations are input, and let L be the number of learnings required to converge the output. In the reference example, the learning time required to build the trained model is (P + P 2 ) LT. As described above, in the reference example, the learning time is longer than the learning time PLT for constructing the pronunciation target estimation model 9 used by the pronunciation target selection unit 5 of the present invention.

今回は最大2つの場合で説明しているが、最大3つ、4つ、・・・の場合を考えると、参照例における学習時間は指数オーダーで爆発的に増大する。一般化すると、目標となる水中物体1の最大数をNとしたとき、本実施形態及び参照例で必要となる学習時間は、以下の式(1)に従う。

Figure 2021103087
This time, the explanation is given in the case of a maximum of two, but considering the cases of a maximum of three, four, ..., The learning time in the reference example explosively increases in the exponential order. Generally speaking, when the maximum number of target underwater objects 1 is N, the learning time required in this embodiment and the reference example follows the following equation (1).
Figure 2021103087

続いて、推論フェーズを検討する。本実施形態は、水中物体1が2つ現れる場合は、複数目標状況を分解して得られた2つの単体目標状況を発音対象推定モデル9にそれぞれ入力して音波発生体3の選択結果を得る必要がある。従って、単純に考えて、参照例の最大2倍の時間が必要になる。一方、参照例では、水中物体1が2つ現れる場合でも、1つの場合と同じ時間で、総合的な観点で発音するのに適した音波発生体3の選択結果を得ることができる。 Next, consider the inference phase. In the present embodiment, when two underwater objects 1 appear, the two single target situations obtained by decomposing the plurality of target situations are input to the sound wave target estimation model 9, respectively, and the selection result of the sound wave generator 3 is obtained. There is a need. Therefore, simply thinking, it takes up to twice as long as the reference example. On the other hand, in the reference example, even when two underwater objects 1 appear, it is possible to obtain a selection result of the sound wave generator 3 suitable for sound wave from a comprehensive viewpoint in the same time as in the case of one.

目標となる水中物体1の最大数をNとしたとき、本実施形態及び参照例で必要となる推論時間は、以下の式(2)に従う。

Figure 2021103087
ただし、学習済モデルの複雑さ及び探知制御装置4の処理能力にもよるが、推論に必要な時間は学習時間と比較すると大幅に短く、かつ並列計算も可能であるため、本実施形態が大きく不利になることはないと考えられる。 When the maximum number of target underwater objects 1 is N, the inference time required in this embodiment and the reference example follows the following equation (2).
Figure 2021103087
However, although it depends on the complexity of the trained model and the processing capacity of the detection control device 4, the time required for inference is significantly shorter than the training time, and parallel calculation is also possible, so that this embodiment is large. It is unlikely that it will be disadvantageous.

図5の下部の表には、N=2、P=36、L=1000とした場合に、参照例及び本実施形態の学習時間、推論時間、及び精度に関して本願発明者が行った実験結果が記載されている。この実験では、本実施形態の構成で、複数目標状況において発音すべき音波発生体3を選択する基準として、音波発生体3ごとのQ値の総和を基準とした。 The table at the bottom of FIG. 5 shows the results of experiments conducted by the inventor of the present application regarding the learning time, inference time, and accuracy of the reference example and the present embodiment when N = 2, P = 36, and L = 1000. Are listed. In this experiment, in the configuration of the present embodiment, the sum of the Q values of each sound wave generator 3 was used as a reference for selecting the sound wave generator 3 to be sounded in a plurality of target situations.

この表に示すように、本実施形態では、推論に必要な時間の増大を支障がない範囲(0.1〜0.2秒)に留めつつ、学習時間を大幅に短縮することができる。従って、システムの運用を早期に開始することができる。また、本実施形態では、参照例と比較して本実施形態の選択精度が同等以上であり、発音すべき音波発生体3の選択精度に関して、本実施形態は参照例と同等以上の性能を有していることが確かめられた。 As shown in this table, in the present embodiment, the learning time can be significantly shortened while keeping the increase in the time required for inference within a range (0.1 to 0.2 seconds) that does not hinder. Therefore, the operation of the system can be started at an early stage. Further, in the present embodiment, the selection accuracy of the present embodiment is equal to or higher than that of the reference example, and the present embodiment has the same or higher performance as the reference example with respect to the selection accuracy of the sound wave generator 3 to be sounded. It was confirmed that it was doing.

図6には、参照例及び本実施形態のそれぞれについて、選択精度の学習回数による推移が示されている。十分な回数の学習によって、参照例では精度が約75%に収束し、本実施形態では精度が約82%に収束した。図6のグラフによれば、本実施形態では参照例と比較して、少ない学習回数で良好な選択精度に到達していることが分かる。 FIG. 6 shows the transition of the selection accuracy according to the number of times of learning for each of the reference example and the present embodiment. By learning a sufficient number of times, the accuracy converged to about 75% in the reference example, and the accuracy converged to about 82% in the present embodiment. According to the graph of FIG. 6, it can be seen that in the present embodiment, good selection accuracy is reached with a smaller number of learnings as compared with the reference example.

以上に説明したように、本実施形態において、探知領域に存在する1以上の水中物体1を探知するために用いられる音波発生体3が探知領域に複数配置されている。探知制御装置4は、複数の音波発生体3のうち発音すべき音波発生体3を動作適合対象として選択する。探知制御装置4は、入力部8と、発音対象推定モデル9と、発音対象選択部5と、を備える。入力部8は、少なくとも1つの水中物体1について、それぞれの水中物体1に関する位置、針路及び速力のうち少なくとも何れかに関する目標状態量を含む情報である探知対象情報の入力を受け付ける。発音対象推定モデル9は、1つの水中物体1についての、ある時間幅における目標状態量を含む学習用データセットから、複数の音波発生体3のうち選択すべき少なくとも1つの音波発生体3を選択するための機械学習を行ったものである。発音対象選択部5は、発音対象推定モデル9を用いて、入力部8に入力された探知対象情報から動作すべき音波発生体3を選択する。発音対象選択部5は、入力部8に入力された複数の水中物体1に関する探知対象情報を、1つの水中物体1に関する情報に分解して、分解されたそれぞれの情報を発音対象推定モデル9に入力し、発音対象推定モデル9から出力された複数の選択結果を統合し、動作すべき音波発生体3を動作適合対象として選択する。 As described above, in the present embodiment, a plurality of sound wave generators 3 used for detecting one or more underwater objects 1 existing in the detection region are arranged in the detection region. The detection control device 4 selects the sound wave generator 3 to be sounded from the plurality of sound wave generators 3 as the operation matching target. The detection control device 4 includes an input unit 8, a sounding target estimation model 9, and a sounding target selection unit 5. The input unit 8 receives input of detection target information, which is information including a target state quantity regarding at least one of the position, course, and velocity of each underwater object 1 for at least one underwater object 1. The sound wave target estimation model 9 selects at least one sound wave generator 3 to be selected from a plurality of sound wave generators 3 from a learning data set including a target state quantity in a certain time width for one underwater object 1. It is a machine learning to do. The sound wave target selection unit 5 uses the sound wave target estimation model 9 to select the sound wave generator 3 to be operated from the detection target information input to the input unit 8. The sound generation target selection unit 5 decomposes the detection target information regarding the plurality of underwater objects 1 input to the input unit 8 into information regarding one underwater object 1, and converts each of the decomposed information into the sound generation target estimation model 9. A plurality of selection results input and output from the sound generation target estimation model 9 are integrated, and the sound generator 3 to be operated is selected as the operation conforming target.

これにより、学習フェーズにおいて発音対象推定モデル9を構築する際に、学習データを1つの水中物体1に関する状況(単体目標状況)に限定することができる。この結果、学習データの数が爆発的に増大することを回避して、発音対象推定モデル9の学習時間を顕著に短縮し、発音対象選択部5(ひいては探知制御装置4)の早期運用を図ることができる。推論フェーズにおいては、複数の水中物体1に関する複数目標状況を単体目標状況毎に(1つの水中物体1毎に)分解して発音対象推定モデル9に入力し、発音対象推定モデル9の出力結果を統合することで、複数の水中物体1が現れる複雑な状況でも、発音すべき音波発生体3を適切に選択することができる。 Thereby, when constructing the pronunciation target estimation model 9 in the learning phase, the learning data can be limited to the situation (single target situation) relating to one underwater object 1. As a result, the learning time of the pronunciation target estimation model 9 is remarkably shortened by avoiding the explosive increase in the number of training data, and the pronunciation target selection unit 5 (and thus the detection control device 4) is operated at an early stage. be able to. In the inference phase, a plurality of target situations relating to a plurality of underwater objects 1 are decomposed for each single target situation (for each underwater object 1) and input to the sounding target estimation model 9, and the output result of the sounding target estimation model 9 is output. By integrating, the sound generator 3 to be sounded can be appropriately selected even in a complicated situation where a plurality of underwater objects 1 appear.

また、本実施形態において、発音対象選択部5は、選択された音波発生体3の諸元を更に決定する。 Further, in the present embodiment, the sound wave target selection unit 5 further determines the specifications of the selected sound wave generator 3.

これにより、水中物体1に関する状況に応じて、音波発生体3が発生する音波の諸元(例えば、周波数、パルス波形、パルス幅等)を適切に決めることができる。 Thereby, the specifications (for example, frequency, pulse waveform, pulse width, etc.) of the sound wave generated by the sound wave generator 3 can be appropriately determined according to the situation regarding the underwater object 1.

また、本実施形態において、探知制御装置4は、入力部8に入力された複数の水中物体1に関する探知対象情報(複数目標状況に関する探知対象情報)に対して、発音対象推定モデル9が出力した複数の選択結果のうち、選択された回数が最も多い音波発生体3を、動作適合対象として出力する。 Further, in the present embodiment, the detection control device 4 outputs the sound wave target estimation model 9 to the detection target information (detection target information regarding the plurality of target situations) regarding the plurality of underwater objects 1 input to the input unit 8. Among the plurality of selection results, the sound wave generator 3 having the largest number of selections is output as an operation matching target.

これにより、複数目標状況に適する音波発生体3を、簡単な処理で選択することができる。 Thereby, the sound wave generator 3 suitable for the plurality of target situations can be selected by a simple process.

ただし、本実施形態は、以下のように変更することもできる。即ち、発音対象推定モデル9の出力には、1つの水中物体1についての目標状態量に対して、複数の音波発生体3のそれぞれを選択した場合のQ値のそれぞれが含まれている。発音対象選択部5は、入力部8に入力された複数の水中物体1に関する探知対象情報(複数目標状況に関する探知対象情報)を、1つの水中物体1に関する情報に分解して、分解されたそれぞれの情報を発音対象推定モデル9に入力し、発音対象推定モデル9の出力に含まれる各音波発生体3のQ値のそれぞれを加算した総和を音波発生体3ごとに求めて、Q値の総和が最大となる音波発生体3を、動作適合対象として出力する。 However, this embodiment can be changed as follows. That is, the output of the sound generation target estimation model 9 includes each of the Q values when each of the plurality of sound wave generators 3 is selected with respect to the target state quantity for one underwater object 1. The sound generation target selection unit 5 decomposes the detection target information (detection target information regarding a plurality of target situations) regarding a plurality of underwater objects 1 input to the input unit 8 into information regarding one underwater object 1, and each of them is decomposed. Is input to the sound generation target estimation model 9, and the sum of the Q values of each sound generator 3 included in the output of the sound generation target estimation model 9 is calculated for each sound generator 3, and the sum of the Q values is calculated. The sound generator 3 having the maximum value is output as an operation matching target.

これにより、複数目標状況に適する音波発生体3を、的確に選択することができる。 As a result, the sound wave generator 3 suitable for the plurality of target situations can be accurately selected.

また、本実施形態の探知制御装置4は、複数のうち一部の音波発生体3が、予め設定された動作除外条件を満たす場合に、当該音波発生体3を除外して動作適合対象を選択する。 Further, the detection control device 4 of the present embodiment excludes the sound wave generator 3 and selects an operation conforming target when some of the sound wave generators 3 satisfy the preset operation exclusion condition. To do.

これにより、実際の運用状況に応じて、発音対象選択部5の選択結果を調整することが可能になる。 This makes it possible to adjust the selection result of the sounding target selection unit 5 according to the actual operation situation.

また、本実施形態の目標探知システム100は、探知制御装置4と、複数の音波発生体3と、を用い、更に音波探知体2を用いて、複数の音波発生体3が配置された探知領域内の水中物体1を探知する。 Further, the target detection system 100 of the present embodiment uses the detection control device 4 and the plurality of sound wave generators 3, and further uses the sound wave detector 2 to detect a detection region in which the plurality of sound wave generators 3 are arranged. Detects the underwater object 1 inside.

これにより、探知領域内の状況に応じて、水中物体1を正確に探知することができる。 As a result, the underwater object 1 can be accurately detected according to the situation in the detection area.

以上に本発明の好適な実施の形態を説明したが、上記の構成は例えば以下のように変更することができる。 Although the preferred embodiment of the present invention has been described above, the above configuration can be changed as follows, for example.

発音対象選択部5は、複数の音波発生体3の候補から、目標を探知するために適切な音波発生体3を選択したが、更に、選択した音波発生体3の周波数、パルス波形、パルス幅等の諸元を決定しても良い。 The sound wave target selection unit 5 selects an appropriate sound wave generator 3 for detecting a target from a plurality of candidates for the sound wave generator 3, and further, the frequency, pulse waveform, and pulse width of the selected sound wave generator 3. Etc. may be determined.

発音対象推定モデル9は、ニューラルネットワークに限定されず、例えば決定ルールを採用することもできる。 The pronunciation target estimation model 9 is not limited to the neural network, and for example, a determination rule can be adopted.

発音対象推定モデル9の学習手法としては、強化学習に限定されず、例えば遺伝的機械学習を採用することもできる。 The learning method of the pronunciation target estimation model 9 is not limited to reinforcement learning, and for example, genetic machine learning can be adopted.

例えば複数のコンピュータ(ハードウェア)から発音対象選択部5を構成する等して、推論フェーズにおいて、同一の発音対象推定モデル9が複数並行して動作可能に構成されても良い。この場合、複数目標状況における推論時間を全体的に短くすることができる。 For example, the same sounding target estimation model 9 may be configured to be able to operate in parallel in the inference phase by configuring the sounding target selection unit 5 from a plurality of computers (hardware). In this case, the inference time in a plurality of target situations can be shortened as a whole.

単体目標状況には、目標状態量の他に、例えば潮流情報、風情報、水温情報等が含まれても良い。 In addition to the target state quantity, the single target status may include, for example, tidal current information, wind information, water temperature information, and the like.

複数目標状況に適する音波発生体3を多数決的な手法で選択する場合であって、発音対象推定モデル9によって選択された回数が最大となる音波発生体3が複数存在するときは、例えば、Q値の大きい方を選択しても良い。 When the sound wave generators 3 suitable for a plurality of target situations are selected by a majority rule, and there are a plurality of sound wave generators 3 selected by the sound generation target estimation model 9 at the maximum number, for example, Q. The larger value may be selected.

単体目標状況に対して音波発生体3を発音させることが適する度合い(適合度)として、Q値以外の値が用いられても良い。 A value other than the Q value may be used as the degree (goodness of fit) for making the sound wave generator 3 sound with respect to the single target situation.

動作除外条件としては、直近に所定回数以上連続して発音したことに限定されず、他の条件が用いられても良い。 The operation exclusion condition is not limited to the fact that the pronunciation is continuously performed a predetermined number of times or more in the latest, and other conditions may be used.

発音対象推定モデル9のような学習済モデルは、音波発生体3以外に、他の装置の動作に適用することもできる。 A trained model such as the sound wave target estimation model 9 can be applied to the operation of other devices other than the sound wave generator 3.

発音対象選択部5は、発音対象推定モデル9を用いて、入力部8に入力された探知対象情報から動作すべき音波発生体3を2以上選択しても良い。 The sound wave target selection unit 5 may select two or more sound wave generators 3 to be operated from the detection target information input to the input unit 8 by using the sound wave target estimation model 9.

探知制御装置4の全部又は一部は、航空機等の目標探知体10以外に、船舶や地上設備に配備されても良い。 All or part of the detection control device 4 may be deployed on a ship or ground equipment in addition to the target detector 10 such as an aircraft.

目標探知システム100は、水中物体1の探知以外に、他の物体の探知等にも適用することができる。 The target detection system 100 can be applied not only to the detection of the underwater object 1 but also to the detection of other objects.

続いて、本発明の目標探知システム100を用いる他の実施形態について、図7及び図8等を参照して簡単に説明する。以下の説明においては、第1実施形態と同一又は類似の説明を省略する場合がある。 Subsequently, another embodiment using the target detection system 100 of the present invention will be briefly described with reference to FIGS. 7 and 8 and the like. In the following description, the same or similar description as that of the first embodiment may be omitted.

図7に示す第2実施形態の目標探知システム100は、例えば、センサとしてのレーダ3aを用いて、空中航走体、生物、積乱雲等の空中物体1aを探知する。レーダ3aは複数設置されている。それぞれのレーダ3aは、地上に配置されている。 The target detection system 100 of the second embodiment shown in FIG. 7 detects an aerial object 1a such as an aerial vehicle, a living thing, and a cumulonimbus cloud by using, for example, a radar 3a as a sensor. A plurality of radars 3a are installed. Each radar 3a is located on the ground.

本実施形態の探知制御装置4は、例えば、図略の地上設備に搭載される。しかし、これに限定されず、探知制御装置4の一部又は全体が空中航走体等に搭載されても良い。探知制御装置4は、刻々と変化する探知状況に適するように、探知信号である電波を発生させるレーダ3aを、複数のレーダ3aから選択する。更に、探知制御装置4は、選択したレーダ3aの諸元(例えば波形、照射時間、照射方位、周波数等)を決定する。 The detection control device 4 of the present embodiment is mounted on, for example, the ground equipment shown in the figure. However, the present invention is not limited to this, and a part or the whole of the detection control device 4 may be mounted on an aerial vehicle or the like. The detection control device 4 selects a radar 3a that generates a radio wave as a detection signal from a plurality of radars 3a so as to be suitable for an ever-changing detection situation. Further, the detection control device 4 determines the specifications (for example, waveform, irradiation time, irradiation direction, frequency, etc.) of the selected radar 3a.

探知状況は、少なくとも1つの空中物体1aが存在することを想定したものである。以下の説明においては、空中物体1aが1つしか存在しない探知状況を「単体目標状況」と称し、複数の空中物体1aが存在する探知状況を「複数目標状況」と称することがある。それぞれの空中物体1aの様子は、状態量(例えば位置、針路、速力等)で表すことができる。 The detection situation assumes that at least one aerial object 1a exists. In the following description, a detection situation in which only one aerial object 1a exists may be referred to as a "single target situation", and a detection situation in which a plurality of aerial objects 1a exist may be referred to as a "plurality target situation". The state of each aerial object 1a can be represented by a state quantity (for example, position, course, velocity, etc.).

本実施形態の探知制御装置4は、発音対象推定モデル9の代わりに、図略の動作レーダ推定モデル(動作センサ選択モデル)を備える。動作レーダ推定モデルが学習に用いる学習用データセットには、例えば、図7に示すような4つ(これに限定されない)のレーダ3aが設置された探知領域に、1つの空中物体1aのみが現れた場合を考え、この空中物体1aの、ある時間幅における位置、針路、速力等の目標状態量が含まれる。このように、動作レーダ推定モデルが学習する探知状況は、単体目標状況だけとなっている。 The detection control device 4 of the present embodiment includes a motion radar estimation model (motion sensor selection model) shown in the figure instead of the sound generation target estimation model 9. In the training data set used by the motion radar estimation model for training, for example, only one aerial object 1a appears in the detection area where four (but not limited to) radars 3a as shown in FIG. 7 are installed. In consideration of the case, the target state quantity such as the position, course, and speed of the aerial object 1a in a certain time width is included. In this way, the detection status learned by the motion radar estimation model is only the single target status.

本実施形態の探知制御装置4は、発音対象選択部5の代わりに、図略の動作レーダ選択部(動作センサ選択部)を備える。動作レーダ選択部は、音波発生体3の代わりに、探知領域内に設置された複数のレーダ3aから、電波を照射すべきレーダ3aを選択する。このとき、入力部8に入力された探知対象情報が複数目標状況に係るものであった場合は、動作レーダ選択部は、探知対象情報を1つの空中物体1aに関する情報(単体目標状況に相当する情報)に分解して動作レーダ推定モデルに入力し、当該動作レーダ推定モデルから出力された複数の選択結果を統合し、動作すべきレーダ3aを動作適合対象として選択する。 The detection control device 4 of the present embodiment includes an operation radar selection unit (motion sensor selection unit) (not shown) instead of the sound generation target selection unit 5. The operation radar selection unit selects a radar 3a to be irradiated with radio waves from a plurality of radars 3a installed in the detection area instead of the sound wave generator 3. At this time, if the detection target information input to the input unit 8 is related to a plurality of target situations, the motion radar selection unit uses the detection target information as information related to one aerial object 1a (corresponding to a single target situation). Information) is decomposed and input to the operation radar estimation model, a plurality of selection results output from the operation radar estimation model are integrated, and the radar 3a to be operated is selected as the operation conforming target.

これにより、空中物体1aの動き(移動、出現/消失)等に適するレーダ3a及びその動作(照射方位、照射時間、電波の波形、周波数等)を決めることができるため、探知領域内に存在する空中物体1aをより正確に捜索及び追尾することができる。また、動作レーダ推定モデルの学習時間が短いため、システムの運用を早期に開始できる。 As a result, the radar 3a suitable for the movement (movement, appearance / disappearance) of the aerial object 1a and its operation (irradiation direction, irradiation time, radio wave waveform, frequency, etc.) can be determined, so that the radar 3a exists in the detection area. The aerial object 1a can be searched and tracked more accurately. Moreover, since the learning time of the motion radar estimation model is short, the operation of the system can be started early.

図8に示す第3実施形態の目標探知システム100は、例えば、センサとしてのカメラ3bを用いて、人(例えば不審者)、車等の監視対象1bを監視する監視システムとして構成される。 The target detection system 100 of the third embodiment shown in FIG. 8 is configured as a monitoring system that monitors a monitoring target 1b of a person (for example, a suspicious person), a vehicle, or the like by using, for example, a camera 3b as a sensor.

本実施形態の探知制御装置4は、例えば、図8に示すような監視室内に設けられる。しかし、これに限定されず、探知制御装置4の一部又は全体が車両等に搭載されても良い。探知制御装置4は、図8に示すように、監視員40により操作される監視装置41を備える。監視装置41は、複数のカメラ3bが撮影した映像から1つ又は複数を選択して、ディスプレイ42に表示することができる。通常、複数のカメラ3bは全て、監視のために常時撮影を行っている。しかし、カメラ3bの撮影映像がディスプレイ42に表示されているとき、監視装置41との関係で当該カメラ3bが実質的に動作しており、そうでないときはカメラ3bが実質的に停止しているということができる。 The detection control device 4 of the present embodiment is provided in, for example, a monitoring room as shown in FIG. However, the present invention is not limited to this, and a part or the whole of the detection control device 4 may be mounted on a vehicle or the like. As shown in FIG. 8, the detection control device 4 includes a monitoring device 41 operated by a watchman 40. The monitoring device 41 can select one or a plurality of images captured by the plurality of cameras 3b and display them on the display 42. Normally, all of the plurality of cameras 3b are constantly taking pictures for monitoring. However, when the captured image of the camera 3b is displayed on the display 42, the camera 3b is substantially operating in relation to the monitoring device 41, and if not, the camera 3b is substantially stopped. It can be said.

探知制御装置4は、監視員40により指示された(又はカメラ3bにより撮影された映像に基づいて判定された)不審者等の監視対象1bに関する探知状況に適するように、ディスプレイ42に映像を表示するカメラ3bを選択する。更に、探知制御装置4は、選択したカメラ3bの諸元(例えばカメラ3bの向き、ズーミング等)を決定しても良い。 The detection control device 4 displays an image on the display 42 so as to be suitable for the detection situation regarding the monitoring target 1b such as a suspicious person instructed by the observer 40 (or determined based on the image taken by the camera 3b). Select the camera 3b to be used. Further, the detection control device 4 may determine the specifications of the selected camera 3b (for example, the orientation of the camera 3b, zooming, etc.).

探知状況は、少なくとも1つの監視対象1bが存在することを想定したものである。以下の説明においては、監視対象1bが1つしか存在しない探知状況を「単体目標状況」と称し、複数の監視対象1bが存在する探知状況を「複数目標状況」と称することがある。それぞれの監視対象1bの様子は、状態量(例えば位置、針路、速力等)で表すことができる。 The detection status assumes that at least one monitoring target 1b exists. In the following description, a detection situation in which only one monitoring target 1b exists may be referred to as a “single target situation”, and a detection situation in which a plurality of monitoring targets 1b exist may be referred to as a “multiple target situation”. The state of each monitoring target 1b can be represented by a state quantity (for example, position, course, speed, etc.).

本実施形態の探知制御装置4は、発音対象推定モデル9の代わりに、図略の映像選択推定モデル(動作センサ選択モデル)を備える。映像選択推定モデルが学習に用いる学習用データセットは、単体目標状況だけである。映像選択推定モデルの学習フェーズにおいては、例えば、エージェントが単体目標状況において何れかのカメラ3bの映像をディスプレイ42に表示させた結果、監視対象1bである不審者の顔をディスプレイ42において捉えることができた場合、エージェントに報酬が与えられる。 The detection control device 4 of the present embodiment includes a video selection estimation model (motion sensor selection model) illustrated in place of the sound generation target estimation model 9. The learning data set used by the video selection estimation model for training is only a single target situation. In the learning phase of the image selection estimation model, for example, as a result of the agent displaying the image of any camera 3b on the display 42 in the single target situation, the face of the suspicious person who is the monitoring target 1b can be captured on the display 42. If done, the agent will be rewarded.

本実施形態の探知制御装置4は、発音対象選択部5の代わりに、図略の映像選択部(動作センサ選択部)を備える。映像選択部は、音波発生体3の代わりに、探知領域内に設置された複数のカメラ3bから、撮影映像をディスプレイ42に表示すべきカメラ3bを選択する。このとき、入力部8に入力された探知対象情報が複数目標状況に係るものであった場合は、映像選択部は、探知対象情報を1つの監視対象1bに関する情報(単体目標状況に相当する情報)に分解して映像選択推定モデルに入力し、当該映像選択推定モデルから出力された複数の選択結果を統合し、映像ソースとなるべきカメラ3bを動作適合対象として選択する。 The detection control device 4 of the present embodiment includes a video selection unit (motion sensor selection unit) (not shown) instead of the sound generation target selection unit 5. Instead of the sound wave generator 3, the image selection unit selects the camera 3b to display the captured image on the display 42 from the plurality of cameras 3b installed in the detection area. At this time, if the detection target information input to the input unit 8 is related to a plurality of target situations, the video selection unit uses the detection target information as information related to one monitoring target 1b (information corresponding to a single target situation). ), Input to the video selection estimation model, integrate the plurality of selection results output from the video selection estimation model, and select the camera 3b that should be the video source as the motion matching target.

これにより、監視員40は、本実施形態の目標探知システム100を用いて、不審者等の監視対象1bに対する捜索及び追尾を容易にかつ正確に行うことができる。また、映像選択推定モデルの学習時間が短いため、システムの運用を早期に開始できる。 As a result, the observer 40 can easily and accurately search and track the monitored object 1b of a suspicious person or the like by using the target detection system 100 of the present embodiment. Moreover, since the learning time of the video selection estimation model is short, the operation of the system can be started early.

監視員40は、ディスプレイ42の表示内容を参照して、防犯ゲート3cを操作したり、監視対象1bの近くの警備員に指示したりすることもできる。防犯ゲート3cの操作は、機械学習により自動化することもできる。 The observer 40 can also operate the security gate 3c or give an instruction to a guard near the monitored object 1b by referring to the display contents of the display 42. The operation of the security gate 3c can also be automated by machine learning.

1 水中物体(目標)
2 音波探知体
3 音波発生体(センサ)
4 探知制御装置(動作センサ選択装置)
5 発音対象選択部(動作センサ選択部)
6 無線送受信部
7 探知情報分析部
8 入力部
9 発音対象推定モデル(動作センサ選択モデル)
10 目標探知体
100 目標探知システム
1 Underwater object (target)
2 Sound wave detector 3 Sound wave generator (sensor)
4 Detection control device (motion sensor selection device)
5 Sound target selection unit (motion sensor selection unit)
6 Wireless transmitter / receiver 7 Detection information analysis unit 8 Input unit 9 Sound generation target estimation model (motion sensor selection model)
10 Target detector 100 Target detector system

Claims (7)

対象領域に存在する1以上の目標を探知するために用いられるセンサが当該対象領域に複数配置され、前記複数のセンサのうち動作すべき前記センサを動作センサとして選択する動作センサ選択装置であって、
少なくとも1つの前記目標に関して、各前記目標に関する位置、針路及び速力のうち少なくとも何れかに関する目標状態量を含む情報である入力情報の入力を受け付ける入力部と、
1つの前記目標についての、ある時間幅における前記目標状態量を含むベース情報から、前記複数のセンサのうち選択すべき少なくとも1つの前記センサを選択するための機械学習を行った動作センサ選択モデルと、
前記動作センサ選択モデルを用いて、前記入力部に入力された前記入力情報から動作すべき前記センサを選択する動作センサ選択部と、
を備え、
前記動作センサ選択部は、前記入力部に入力された複数の前記目標に関する前記入力情報を、1つの前記目標に関する情報に分解して、分解されたそれぞれの情報を前記動作センサ選択モデルに入力し、当該動作センサ選択モデルから出力された複数の選択結果を統合し、動作すべき前記センサを動作センサとして選択することを特徴とする動作センサ選択装置。
A motion sensor selection device in which a plurality of sensors used for detecting one or more targets existing in a target area are arranged in the target area, and the sensor to be operated is selected as the motion sensor among the plurality of sensors. ,
An input unit that accepts input of input information that is information including a target state quantity for at least one of the position, course, and speed related to each target with respect to at least one target.
An operation sensor selection model obtained by machine learning for selecting at least one of the plurality of sensors to be selected from the base information including the target state quantity in a certain time width for one target. ,
Using the motion sensor selection model, a motion sensor selection section that selects the sensor to operate from the input information input to the input section, and a motion sensor selection section.
With
The motion sensor selection unit decomposes the input information regarding the plurality of targets input to the input unit into one information regarding the target, and inputs the decomposed information into the motion sensor selection model. , A motion sensor selection device characterized in that a plurality of selection results output from the motion sensor selection model are integrated and the sensor to be operated is selected as the motion sensor.
請求項1に記載の動作センサ選択装置であって、
前記動作センサ選択部は、選択された前記動作センサの諸元を更に決定することを特徴とする動作センサ選択装置。
The motion sensor selection device according to claim 1.
The motion sensor selection unit is a motion sensor selection device, which further determines the specifications of the selected motion sensor.
請求項1又は2に記載の動作センサ選択装置であって、
前記動作センサ選択部は、前記入力部に入力された複数の前記目標に関する前記入力情報に対して、前記動作センサ選択モデルが出力した複数の前記選択結果のうち、選択された回数が最も多い前記センサを、前記動作センサとして出力することを特徴とする動作センサ選択装置。
The motion sensor selection device according to claim 1 or 2.
The motion sensor selection unit has the largest number of selections among the plurality of selection results output by the motion sensor selection model with respect to the input information regarding the plurality of targets input to the input unit. An operation sensor selection device characterized by outputting a sensor as the operation sensor.
請求項1又は2に記載の動作センサ選択装置であって、
前記動作センサ選択モデルの出力には、1つの前記目標についての前記目標状態量に対して、前記複数のセンサのそれぞれを選択した場合の適合度のそれぞれが含まれており、
前記動作センサ選択部は、前記入力部に入力された複数の前記目標に関する前記入力情報を、1つの前記目標に関する情報に分解して、分解されたそれぞれの情報を前記動作センサ選択モデルに入力し、前記動作センサ選択モデルの出力に含まれる各前記センサの前記適合度のそれぞれを加算した適合度総和を前記センサごとに求めて、前記適合度総和が最大となる前記センサを、前記動作センサとして出力することを特徴とする動作センサ選択装置。
The motion sensor selection device according to claim 1 or 2.
The output of the motion sensor selection model includes each of the goodness of fit when each of the plurality of sensors is selected with respect to the target state quantity for one target.
The motion sensor selection unit decomposes the input information regarding the plurality of targets input to the input unit into one information regarding the target, and inputs the decomposed information into the motion sensor selection model. The total degree of conformity obtained by adding each of the degree of conformity of each of the sensors included in the output of the operation sensor selection model is obtained for each sensor, and the sensor having the maximum total degree of conformity is used as the operation sensor. An operation sensor selection device characterized by outputting.
請求項1から4までの何れか一項に記載の動作センサ選択装置であって、
複数のうち一部の前記センサが、予め設定された動作除外条件を満たす場合に、当該センサを除外して前記動作センサを選択することを特徴とする動作センサ選択装置。
The motion sensor selection device according to any one of claims 1 to 4.
An operation sensor selection device, characterized in that, when some of the plurality of sensors satisfy a preset operation exclusion condition, the operation sensor is selected by excluding the sensor.
請求項1から5までの何れか一項に記載の動作センサ選択装置と、複数の前記センサと、を用いて、複数の前記センサが配置された探知領域内の特定目標を探知することを特徴とする目標探知システム。 The motion sensor selection device according to any one of claims 1 to 5 and the plurality of the sensors are used to detect a specific target in the detection region in which the plurality of the sensors are arranged. Target detection system. 対象領域に存在する1以上の目標を探知するために用いられるセンサが当該対象領域に複数配置され、前記複数のセンサのうち動作すべき前記センサを動作センサとして選択する動作センサ選択方法であって、
少なくとも1つの前記目標に関して、各前記目標に関する位置、針路及び速力のうち少なくとも何れかに関する目標状態量を含む情報である入力情報の入力を受け付ける第1工程と、
前記第1工程において入力された複数の前記目標に関する前記入力情報を、1つの前記目標に関する情報に分解して、分解されたそれぞれの情報を動作センサ選択モデルに入力し、前記動作センサ選択モデルは、1つの前記目標についての、ある時間幅における前記目標状態量を含むベース情報から、前記複数のセンサのうち選択すべき少なくとも1つの前記センサを選択するための機械学習を行った学習済モデルである第2工程と、
前記動作センサ選択モデルから出力された複数の選択結果を統合し、動作すべき前記センサを選択する第3工程と、
を含むことを特徴とする動作センサ選択方法。
A motion sensor selection method in which a plurality of sensors used for detecting one or more targets existing in a target area are arranged in the target area, and the sensor to be operated is selected as the motion sensor among the plurality of sensors. ,
A first step of accepting input of input information which is information including a target state quantity regarding at least one of the position, course, and speed with respect to each of the targets with respect to at least one of the targets.
The input information regarding the plurality of targets input in the first step is decomposed into one information regarding the target, and each of the decomposed information is input to the motion sensor selection model. A trained model in which machine learning is performed to select at least one sensor to be selected from the plurality of sensors from the base information including the target state quantity in a certain time width for one target. A second step and
A third step of integrating a plurality of selection results output from the motion sensor selection model and selecting the sensor to operate, and
A method for selecting an motion sensor, which comprises.
JP2019233419A 2019-12-24 2019-12-24 MOTION SENSOR SELECTION DEVICE, TARGET DETECTION SYSTEM AND MOTION SENSOR SELECTION METHOD Active JP7328885B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019233419A JP7328885B2 (en) 2019-12-24 2019-12-24 MOTION SENSOR SELECTION DEVICE, TARGET DETECTION SYSTEM AND MOTION SENSOR SELECTION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019233419A JP7328885B2 (en) 2019-12-24 2019-12-24 MOTION SENSOR SELECTION DEVICE, TARGET DETECTION SYSTEM AND MOTION SENSOR SELECTION METHOD

Publications (2)

Publication Number Publication Date
JP2021103087A true JP2021103087A (en) 2021-07-15
JP7328885B2 JP7328885B2 (en) 2023-08-17

Family

ID=76755036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019233419A Active JP7328885B2 (en) 2019-12-24 2019-12-24 MOTION SENSOR SELECTION DEVICE, TARGET DETECTION SYSTEM AND MOTION SENSOR SELECTION METHOD

Country Status (1)

Country Link
JP (1) JP7328885B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159459A (en) * 2011-02-02 2012-08-23 Nec Corp Method and device for supporting planning of underwater object search
JP2013137254A (en) * 2011-12-28 2013-07-11 Kawasaki Heavy Ind Ltd Wave transmission scheduling device and wave transmission scheduling method
JP2015118038A (en) * 2013-12-19 2015-06-25 日本電気株式会社 Display control device, display control method and program
JP2015190914A (en) * 2014-03-28 2015-11-02 川崎重工業株式会社 Transmitter/receiver placement determination apparatus and transmitter/receiver placement determination method
JP2017181448A (en) * 2016-03-31 2017-10-05 日本電気株式会社 Active sonar control device, transmission control method, and program
JP2019166961A (en) * 2018-03-23 2019-10-03 Hapsモバイル株式会社 Autonomous distributed control of submergible robot for wide-area underwater survey via haps

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159459A (en) * 2011-02-02 2012-08-23 Nec Corp Method and device for supporting planning of underwater object search
JP2013137254A (en) * 2011-12-28 2013-07-11 Kawasaki Heavy Ind Ltd Wave transmission scheduling device and wave transmission scheduling method
JP2015118038A (en) * 2013-12-19 2015-06-25 日本電気株式会社 Display control device, display control method and program
JP2015190914A (en) * 2014-03-28 2015-11-02 川崎重工業株式会社 Transmitter/receiver placement determination apparatus and transmitter/receiver placement determination method
JP2017181448A (en) * 2016-03-31 2017-10-05 日本電気株式会社 Active sonar control device, transmission control method, and program
JP2019166961A (en) * 2018-03-23 2019-10-03 Hapsモバイル株式会社 Autonomous distributed control of submergible robot for wide-area underwater survey via haps

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
児玉 直樹: ""航空宇宙システム分野における製品・技術展開"", 川崎重工技報, vol. 第179号, JPN7023002947, 1 May 2018 (2018-05-01), JP, pages 2 - 7, ISSN: 0005121772 *

Also Published As

Publication number Publication date
JP7328885B2 (en) 2023-08-17

Similar Documents

Publication Publication Date Title
KR101594044B1 (en) Method and apparatus for detection and classification of a swimming object
US20190204416A1 (en) Target object detecting device, method of detecting a target object and computer readable medium
US20140372073A1 (en) Two-stage filtering based method for multiple target tracking
Narimani et al. Robotics vision-based system for an underwater pipeline and cable tracker
Vidhya et al. An Effective Evaluation of SONARS using Arduino and Display on Processing IDE
Sreekala et al. Deep convolutional neural network with Kalman filter based objected tracking and detection in underwater communications
Ribeiro et al. Multiobjective optimization design procedures for data-driven unmanned aerial vehicles automatic target recognition systems
JP7328885B2 (en) MOTION SENSOR SELECTION DEVICE, TARGET DETECTION SYSTEM AND MOTION SENSOR SELECTION METHOD
JP2019175287A (en) Evading navigation decision method of moving entity, evading navigation decision system, and evading navigation decision program
Bays et al. Automated scheduling and mission visualization for mine countermeasure operations
Sporyshev et al. Reinforcement learning approach for cooperative AUVs in underwater surveillance operations
Anderson et al. An overview of MIT-Olin’s approach in the AUVSI RobotX Competition
KR20210149484A (en) Vessel remote management system and method using vibration sensor and sound sensor
JP7006875B1 (en) Learning models, signal processor, projectiles, and programs
Robbiano et al. Information-Theoretic Interactive Sensing and Inference for Autonomous Systems
El-Shafie et al. Performance evaluation of a non-linear error model for underwater range computation utilizing GPS sonobuoys
Al-Tekreeti Unmanned surface vehicle (USV) with obstacle avoidance system
EP4138036A1 (en) Learning model, signal processing device, flying body, and program
Robbiano et al. Information-theoretic approach to navigation for efficient detection and classification of underwater objects
Kragelund Optimal sensor-based motion planning for autonomous vehicle teams
US20240019570A1 (en) Setting radar parameters for generating point clouds based upon raw radar data
Lovik et al. Underwater protection system
Loebis An intelligent navigation system for an autonomous underwater vehicle
KR20230150006A (en) Learning-based target identification apparatus, methods and systems
Fabbri et al. Assessing the potential of autonomous multi-agent surveillance in asset protection from underwater threats

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230804

R150 Certificate of patent or registration of utility model

Ref document number: 7328885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150