JP2021103087A - Motion sensor selection device, target detection system and motion sensor selection method - Google Patents
Motion sensor selection device, target detection system and motion sensor selection method Download PDFInfo
- Publication number
- JP2021103087A JP2021103087A JP2019233419A JP2019233419A JP2021103087A JP 2021103087 A JP2021103087 A JP 2021103087A JP 2019233419 A JP2019233419 A JP 2019233419A JP 2019233419 A JP2019233419 A JP 2019233419A JP 2021103087 A JP2021103087 A JP 2021103087A
- Authority
- JP
- Japan
- Prior art keywords
- target
- motion sensor
- input
- sound wave
- sensor selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 94
- 238000001514 detection method Methods 0.000 title claims description 135
- 238000010187 selection method Methods 0.000 title claims description 6
- 238000010801 machine learning Methods 0.000 claims abstract description 12
- 238000000034 method Methods 0.000 claims description 12
- 230000007717 exclusion Effects 0.000 claims description 4
- 230000013016 learning Effects 0.000 description 53
- 230000009471 action Effects 0.000 description 11
- 239000003795 chemical substances by application Substances 0.000 description 11
- 238000012544 monitoring process Methods 0.000 description 11
- 238000012549 training Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000002787 reinforcement Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 239000002360 explosive Substances 0.000 description 3
- 238000012806 monitoring device Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Abstract
Description
本発明は、主として、複数のセンサから探知に適するセンサを選択するための動作センサ選択装置、及び当該動作センサ選択装置を備える目標探知システムに関する。 The present invention mainly relates to an motion sensor selection device for selecting a sensor suitable for detection from a plurality of sensors, and a target detection system including the motion sensor selection device.
従来から、ソノブイ等を介して、水中の物体を探知するシステムが知られている。特許文献1は、この種の探知システムを開示する。
Conventionally, a system for detecting an underwater object via a sonobuoy or the like has been known.
特許文献1の水中航走体の位置決定システムは、運用海域内に水中航走体に装備されたピンガーからの音響信号を受信するソノブイを複数個配置することで、3個以上のソノブイにより受信した音響信号に基づいて、水中航走体の位置をリアルタイムで算出する構成となっている。
The position-fixing system for the underwater vehicle of
上記特許文献1の構成とは異なり、探知範囲(運用海域)内に複数の音波発生用ソノブイ、音波受波用ソノブイ等のセンサを配置し、積極的に音波を発生して水中航走体、水上航走体、沈船、海底地形等(以下、単に「水中物体」という)の目標を探知するシステムも用いられている。このようなシステムにおいて、水中物体をより正確に探知するために、水中物体の分布状況等に応じて、動作すべき適切なセンサを自動的に選択する構成が望まれていた。
Unlike the configuration of
近年発展している人工知能に関していえば、様々な状況を学習した学習済モデルを構築することで、様々な状況に適するソノブイの自動選択を実現することができる。しかし、人工知能を用いる場合は一般的に、学習しようとする状況が複雑である程、学習済モデルを構築するための学習時間が多く掛かる。学習済モデルの構築に時間を要すると、学習済モデルを用いる装置及びシステムの早期運用が難しくなる。 With regard to artificial intelligence, which has been developing in recent years, it is possible to realize automatic selection of sonobuoys suitable for various situations by constructing a learned model that has learned various situations. However, when artificial intelligence is used, in general, the more complicated the situation to be learned, the longer it takes to learn to build a trained model. If it takes time to construct the trained model, it becomes difficult to operate the device and the system using the trained model at an early stage.
本発明は以上の事情に鑑みてされたものであり、その目的は、機械学習により動作センサ選択モデルを短時間で構築することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to construct a motion sensor selection model by machine learning in a short time.
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段とその効果を説明する。 The problem to be solved by the present invention is as described above, and next, the means for solving this problem and its effect will be described.
本発明の第1の観点によれば、以下の構成の動作センサ選択装置が提供される。即ち、この動作センサ選択装置は、対象領域に存在する1以上の目標を探知するために用いられるセンサが当該対象領域に複数配置される場合に、前記複数のセンサのうち動作すべき前記センサを動作センサとして選択する。動作センサ選択装置は、入力部と、動作センサ選択モデルと、動作センサ選択部と、を備える。前記入力部は、少なくとも1つの前記目標に関して、各前記目標に関する位置、針路及び速力のうち少なくとも何れかに関する前記目標状態量を含む情報である入力情報の入力を受け付ける。前記動作センサ選択モデルは、1つの前記目標についての、ある時間幅における前記目標状態量を含むベース情報から、前記複数のセンサのうち選択すべき少なくとも1つの前記センサを選択するための機械学習を行ったものである。前記動作センサ選択部は、前記動作センサ選択モデルを用いて、前記入力部に入力された前記入力情報から動作すべき前記センサを選択する。前記動作センサ選択部は、前記入力部に入力された複数の前記目標に関する前記入力情報を、1つの前記目標に関する情報に分解して、分解されたそれぞれの情報を前記動作センサ選択モデルに入力し、当該動作センサ選択モデルから出力された複数の選択結果を統合し、動作すべき前記センサを動作センサとして選択する。 According to the first aspect of the present invention, an operation sensor selection device having the following configuration is provided. That is, when a plurality of sensors used for detecting one or more targets existing in the target area are arranged in the target area, the motion sensor selection device selects the sensor to be operated among the plurality of sensors. Select as motion sensor. The motion sensor selection device includes an input unit, a motion sensor selection model, and a motion sensor selection section. The input unit receives input of input information which is information including the target state quantity regarding at least one of the position, course, and speed with respect to each target with respect to at least one target. The motion sensor selection model performs machine learning for selecting at least one of the plurality of sensors to be selected from the base information including the target state quantity in a certain time width for one target. I went there. The motion sensor selection unit uses the motion sensor selection model to select the sensor to operate from the input information input to the input unit. The motion sensor selection unit decomposes the input information regarding the plurality of targets input to the input unit into one information regarding the target, and inputs the decomposed information into the motion sensor selection model. , A plurality of selection results output from the motion sensor selection model are integrated, and the sensor to be operated is selected as the motion sensor.
これにより、学習フェーズにおいて動作センサ選択モデルを構築する際に、学習データを、1つだけの目標に関する状況に限定することができる。この結果、学習データの数が爆発的に増大することを回避して、動作センサ選択モデルの学習時間を顕著に短縮し、動作センサ選択装置の早期運用を図ることができる。推論フェーズにおいては、複数の目標に関する状況を1つの目標毎に分解して動作センサ選択モデルに入力し、動作センサ選択モデルの出力結果を統合することで、複数の目標が現れる複雑な状況にも適切に対応することができる。 Thereby, when constructing the motion sensor selection model in the learning phase, the learning data can be limited to the situation relating to only one goal. As a result, it is possible to avoid an explosive increase in the number of training data, significantly shorten the learning time of the motion sensor selection model, and achieve early operation of the motion sensor selection device. In the inference phase, the situation related to multiple goals is decomposed for each goal and input to the motion sensor selection model, and the output results of the motion sensor selection model are integrated, so that even in a complicated situation where multiple goals appear. Can be dealt with appropriately.
本発明の第2の観点によれば、以下のような動作センサ選択方法が提供される。即ち、この動作センサ選択方法は、対象領域に存在する1以上の目標を探知するために用いられるセンサが当該対象領域に複数配置される場合に、前記複数のセンサのうち動作すべき前記センサを動作センサとして選択する。動作センサ選択方法は、第1工程と、第2工程と、第3工程と、を含む。前記第1工程では、少なくとも1つの前記目標に関して、各前記目標に関する位置、針路及び速力のうち少なくとも何れかに関する前記目標状態量を含む情報である入力情報の入力を受け付ける。前記第2工程では、前記第1工程において入力された複数の前記目標に関する前記入力情報を、1つの前記目標に関する情報に分解して、分解されたそれぞれの情報を動作センサ選択モデルに入力する。前記動作センサ選択モデルは、1つの前記目標についての、ある時間幅における前記目標状態量を含むベース情報から、前記複数のセンサのうち選択すべき少なくとも1つの前記センサを選択するための機械学習を行った学習済モデルである。前記第3工程では、前記動作センサ選択モデルから出力された複数の選択結果を統合し、動作すべき前記センサを選択する。 According to the second aspect of the present invention, the following motion sensor selection method is provided. That is, in this motion sensor selection method, when a plurality of sensors used for detecting one or more targets existing in the target area are arranged in the target area, the sensor to be operated among the plurality of sensors is selected. Select as motion sensor. The motion sensor selection method includes a first step, a second step, and a third step. In the first step, with respect to at least one target, input of input information which is information including the target state quantity regarding at least one of the position, course, and speed related to each target is received. In the second step, the input information regarding the plurality of targets input in the first step is decomposed into one information regarding the target, and each of the decomposed information is input to the motion sensor selection model. The motion sensor selection model performs machine learning for selecting at least one of the plurality of sensors to be selected from the base information including the target state quantity in a certain time width for one target. It is a trained model that was done. In the third step, a plurality of selection results output from the motion sensor selection model are integrated, and the sensor to be operated is selected.
これにより、学習フェーズにおいて動作センサ選択モデルを構築する際に、学習データを1つだけの目標に関する状況に限定することができる。この結果、学習データの数が爆発的に増大することを回避して、動作センサ選択モデルの学習時間を顕著に短縮し、動作センサ選択装置の早期運用を図ることができる。推論フェーズにおいては、複数の目標に関する状況を1つの目標毎に分解して動作センサ選択モデルに入力し、動作センサ選択モデルの出力結果を統合することで、複数の目標が現れる複雑な状況にも適切に対応することができる。 Thereby, when constructing the motion sensor selection model in the learning phase, the learning data can be limited to the situation relating to only one goal. As a result, it is possible to avoid an explosive increase in the number of training data, significantly shorten the learning time of the motion sensor selection model, and achieve early operation of the motion sensor selection device. In the inference phase, the situation related to multiple goals is decomposed for each goal and input to the motion sensor selection model, and the output results of the motion sensor selection model are integrated, so that even in a complicated situation where multiple goals appear. Can be dealt with appropriately.
本発明によれば、機械学習により動作センサ選択モデルを短時間で構築することができる。 According to the present invention, a motion sensor selection model can be constructed in a short time by machine learning.
次に、図面を参照して本発明の実施の形態を説明する。図1は、本発明の第1実施形態に係る目標探知システム100の概略を示す説明図である。
Next, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an explanatory diagram showing an outline of a
図1に示す目標探知システム100は、探知対象となる、水中航走体、水上船舶、沈船、海底地形等の水中物体1の存在や位置等を特定するために用いられる。水中物体1は、目標又は特定目標と言い換えることもできる。目標探知システム100は、目視できない水中領域を例えば音波により探知する。この目標探知システム100は、図1に示すように、主として、複数の音波探知体2と、複数の音波発生体(センサ)3と、探知制御装置4と、を備える。
The
音波探知体2は、例えば、公知のパッシブソノブイから構成される。音波探知体2は、音波発生体3から発した音波の、水中物体1からの反射波を受信する。音波探知体2は、受信した反射波を信号処理して、探知制御装置4に送信する探知情報を生成する。音波探知体2は、例えば、水面に浮いている通信アンテナ等を介して、生成した探知情報を探知制御装置4に無線送信する。
The
この探知情報は、例えば、反射波の受信時間、受信した反射波の方向、受信した反射波の周波数、周波数偏移等を含む。音波探知体2は、生成した探知情報を、音波探知体2自身を識別できる識別情報とともに、探知制御装置4等に送信する。音波探知体2の識別情報としては、例えば識別番号を挙げることができる。
This detection information includes, for example, the reception time of the reflected wave, the direction of the received reflected wave, the frequency of the received reflected wave, the frequency deviation, and the like. The
なお、音波探知体2は、探知情報に代えて、受信した反射波を、別途に設けられた図略の信号処理装置に送信しても良い。この場合、信号処理装置は、音波探知体2から受信した反射波を信号処理する。この信号処理装置は、探知制御装置4に備えられても良いし、探知制御装置4とは別に設けられても良い。
The
音波発生体3は、例えば、公知のアクティブソノブイから構成され、予め設定された周波数、パルス波形、パルス幅等の諸元(以下、単に「諸元」という)の音波を発生する。音波発生体3は、例えば、水面に浮いている通信アンテナ等を介して、探知制御装置4からの発音制御指示を受信する。音波発生体3は、受信した発音制御指示に従って音波を発生する。
The
音波探知体2及び音波発生体3は、例えば、ソノブイであり、予め定められた探知領域(対象領域)に対して航空機や船舶等の目標探知体10から敷設される。ソノブイを敷設する際、当該ソノブイ(音波探知体2及び音波発生体3)を一意に特定するための識別情報と、敷設位置と、が関連付けられて記憶される。
The
探知制御装置4は、目標探知体10に搭載されている。探知制御装置4は、刻々と変化する探知状況に適するように、音波を発生させる音波発生体3を複数の音波発生体3から選択する。この探知状況は、探知領域における、水中物体1の位置、針路、速力等の少なくとも何れか1つの情報を含む。探知領域に存在する(あるいは、存在する可能性がある)水中物体1は、1つの場合もあれば、複数の場合もある。探知制御装置4は、音波探知体2から受信した探知情報を分析する。
The
探知制御装置(動作センサ選択装置)4は、図1に示すように、発音対象選択部(動作センサ選択部)5と、無線送受信部6と、探知情報分析部7と、入力部8と、を備える。
As shown in FIG. 1, the detection control device (motion sensor selection device) 4 includes a sound generation target selection unit (motion sensor selection unit) 5, a wireless transmission /
探知制御装置4は、公知のコンピュータとして構成されており、CPU、ROM、RAM、HDD等を備える。HDDには、発音対象の音波発生体3の選択、探知情報の分析等を実現するためのプログラムが記憶されている。このプログラムは、本発明の発音対象推定方法(動作センサ選択方法)を実現するものである。上記のハードウェアとソフトウェアの協働により、探知制御装置4を、発音対象選択部5、無線送受信部6、探知情報分析部7、及び入力部8として動作させることができる。
The
発音対象選択部5は、複数の音波発生体3から、探知状況に適する音波発生体3を少なくとも1つ選択するために用いられる。この選択にあたっては、事前に構築された学習済モデルである発音対象推定モデル(動作センサ選択モデル)9が用いられる。なお、発音対象選択部5は、適切な音波発生体3を選択するだけでなく、選択した音波発生体3の諸元を決定しても良い。この音波発生体3の選択の詳細は後述する。
The sound wave
無線送受信部6は、公知の無線通信技術を利用して、発音対象選択部5により選択された音波発生体3に発音制御信号を送信する。当該発音制御信号は、所定の諸元の音波を発生するように音波発生体3を動作させる制御信号である。更に、無線送受信部6は、音波探知体2で反射波を処理して得られた探知情報(あるいは、音波探知体2において受信した反射波自体)を受信する。
The wireless transmission /
探知情報分析部7は、音波探知体2から受信された探知情報を分析することで、音波探知体2で受信した反射波に基づいて水中物体1等の情報である探知対象情報を生成する。この探知対象情報は、例えば、探知した水中物体1の位置(座標)、針路、速力を含む。同時に2以上の水中物体1が探知された場合、探知対象情報は、それぞれの水中物体1の位置等の情報を含む。
The detection
入力部8は、探知情報分析部7が出力した探知対象情報の入力を受け付ける(第1工程)。従って、探知対象情報は、入力情報の一種である。この探知対象情報は、1又は複数の水中物体1について、各水中物体1に関する位置、針路及び速力のうち少なくとも何れかに関する状態量を含む情報である。
The
続いて、発音対象選択部5が発音対象推定モデル9を用いて、複数の音波発生体3から探知状況に適する音波発生体3を選択する詳細について、図2から図4等を参照して説明する。この探知状況は、少なくとも1つの水中物体1が存在することを想定したものである。それぞれの水中物体1の様子は、状態量(例えば位置、針路、速力等)で表すことができる。1以上の水中物体1について、位置、針路、速力等のうち何れかが異なれば、別々の探知状況として取り扱われる。以下の説明においては、水中物体1が1つしか存在しない探知状況を「単体目標状況」と称し、複数の水中物体1が存在する探知状況を「複数目標状況」と称することがある。また、水中物体1の状態量を「目標状態量」と称することがある。探知状況のうち単体目標状況を示すデータは、1つの水中物体1に関する目標状態量のデータを含む。複数目標状況を示すデータは、複数の水中物体1のそれぞれに関する目標状態量のデータを含む。
Subsequently, the details of the sound wave
図1から図4までの例においては、11個の音波発生体3が探知領域内に敷設されている。以下の説明において、当該11個の音波発生体3のそれぞれを特定するために、図1においては、それぞれの音波発生体に下線付きの番号を付している。以下の説明においては、図1に示す音波発生体の番号に対応して、それぞれの音波発生体3を第1番目の音波発生体3−1、第2番目の音波発生体3−2、・・・、第11番目の音波発生体3−11と称することがある。
In the examples of FIGS. 1 to 4, 11
本実施形態の発音対象推定モデル9は、機械学習(例えば、公知の強化学習)により構築される。発音対象推定モデル9は、例えば、探知制御装置4の発音対象選択部5に実装される前に、それぞれの単体目標状況を学習することにより構築されている。
The pronunciation
この学習に用いる学習用データセット(ベース情報)には、例えば、図2等に示すような15個の音波探知体2及び11個の音波発生体3が敷設された探知領域に、1つの水中物体1のみが現れた場合を考え、この水中物体1の、ある時間幅における位置、針路、速力等の目標状態量を示す情報が含まれる。即ち、学習データの集合は、1つの水中物体1の単体目標状況(1),(2),・・・,(P)の集合に相当する。
The learning data set (base information) used for this learning includes, for example, one underwater detection area in which 15
発音対象推定モデル9は、1つの単体目標状況に対して、それぞれの音波発生体3及びその諸元を選択する場合におけるQ値(適合度)のそれぞれを計算している。Q値は、強化学習の一種であるQ学習において良く知られている状態行動価値を意味する。
The sound wave
簡単に説明すると、強化学習では、ある環境がエージェント(行動主体)に与えられる。エージェントは、環境に対して様々な行動aの試行を繰り返すことで、行動を最適化する。環境では、行動aと、行動aに応じた状態sの変化が定義される。エージェントがある行動aを行った結果、ある状態sに到達すると、エージェントに環境から報酬が与えられる。ある状態sにおいて、ある行動aをエージェントがとった場合の価値がQ値であり、Q(s,a)と表すことができる。Q値は、今回の行動aによって即時に得られる報酬だけでなく、次回以降の行動aによって得られる可能性がある報酬も考慮するように計算される。本実施形態において、エージェントは、原則として、Q値が最大となる行動を選択する。Q値が大きい程、状態sに対して行動aを行うことが適する度合いが高いということができるため、Q値は適合度の一種である。発音対象推定モデル9の学習とは、行動の価値評価(具体的には、Q値)の学習を意味する。
Briefly, in reinforcement learning, an environment is given to an agent (behavior). The agent optimizes the behavior by repeating the trial of various behaviors a with respect to the environment. In the environment, the action a and the change of the state s according to the action a are defined. When the agent reaches a certain state s as a result of performing a certain action a, the agent is rewarded from the environment. In a certain state s, the value when the agent takes a certain action a is the Q value, which can be expressed as Q (s, a). The Q value is calculated to take into account not only the reward immediately obtained by the action a this time, but also the reward that may be obtained by the action a from the next time onward. In this embodiment, the agent, in principle, selects the action that maximizes the Q value. Since it can be said that the larger the Q value, the higher the degree of suitability for performing the action a for the state s, the Q value is a kind of goodness of fit. The learning of the pronunciation
本実施形態の発音対象推定モデル9を学習させる場合において、状態sは、単体目標状況に相当し、行動aは、発音する音波発生体3の選択に相当する。発音対象推定モデル9の学習フェーズにおいては、エージェントが単体目標状況において何れかの音波発生体3を発音させた結果、シミュレーションによって水中物体1の探知を良好に行うことができた場合、エージェントに報酬が与えられる。発音対象推定モデル9は、図3に示すように、何れの音波発生体3を選択した場合でもQ値がほぼ一定に収束するまで、1つの単体目標状況に対して、試行錯誤を通じて複数回(グラフに示すL回)学習する。ただし、学習終了の条件として、他の条件を用いることもできる。
In the case of training the sound wave
Q値は、Q関数を近似する手法として知られているニューラルネットワークを用いて計算することができる。ニューラルネットワークは、入力層と、中間層と、出力層と、を有する。それぞれの層は、脳の神経細胞を模擬した複数のユニットによって構成されている。隣り合う層の間でユニット同士は接続され、それぞれの接続において、情報の伝達し易さを示す重みが定義されている。本実施形態では、発音対象推定モデル9として、中間層が2層以上であるニューラルネットワークのモデルが採用されている。ニューラルネットワークの入力層に状態sが入力されると、出力層は行動aのそれぞれのQ値を出力する。学習フェーズにおいては、状態sをニューラルネットワークに入力した場合の出力結果に基づいてエージェントが環境に対して行動aを実際に試行することで、ニューラルネットワークの出力の誤差を求めることができる。得られた誤差を用いて公知の誤差逆伝播法を適用することで、上述の重みが更新される。上記の処理を反復することで、学習を行うことができる。
The Q value can be calculated using a neural network known as a method of approximating the Q function. The neural network has an input layer, an intermediate layer, and an output layer. Each layer is composed of multiple units that simulate nerve cells in the brain. Units are connected between adjacent layers, and each connection defines a weight that indicates the ease with which information can be transmitted. In the present embodiment, as the sound generation
ここで、学習フェーズを完了させるために必要な時間を考える。図3に示すように、1つの水中物体1に着目した場合の学習データの数(言い換えれば、学習させる単体目標状況の数)をPとし、発音対象推定モデル9に単体目標状況が入力されてから音波発生体3の選択結果を出力するまでに要する計算時間をTとし、1つの単体目標状況に対して学習する必要回数をLとする。この場合、発音対象推定モデル9を構築するために発音対象推定モデル9を学習させる学習時間は、単体目標状況の数Pと、計算時間Tと、学習回数Lと、の積(PLT)となる。本実施形態では学習データの数Pを上述のとおり小さく抑えることができるため、発音対象選択部5が用いる発音対象推定モデル9を短い学習時間で構築することができる。
Now consider the time required to complete the learning phase. As shown in FIG. 3, the number of training data (in other words, the number of single target situations to be trained) when focusing on one
発音対象推定モデル9の推論フェーズにおいては、単体目標状況が与えられた場合に、複数の音波発生体3の中から最もQ値が大きくなる音波発生体3を、発音すべき音波発生体3として出力する。
In the inference phase of the sound wave
ここで、入力部8を介して発音対象選択部5に与えられる探知状況としては、1つの水中物体1のみが現れている場合もあれば、複数の水中物体1が現れている場合もある。
Here, as the detection situation given to the sound generation
最初に、発音対象選択部5に入力された探知状況が単体目標状況である場合を考える。この場合、発音対象選択部5は、当該単体目標状況をそのまま発音対象推定モデル9に入力し、発音対象推定モデル9が出力した選択結果をそのまま、発音すべき音波発生体3として出力する。
First, consider the case where the detection status input to the sound generation
次に、発音対象選択部5に入力された探知状況が複数目標状況である場合、具体的には、探知対象となる水中物体1が複数現れている場合を考える。この場合、発音対象選択部5は、図4に示すように、入力された複数目標状況を、水中物体1の数だけの単体目標状況に分解する。単体目標状況が複数得られると、発音対象選択部5は、単体目標状況のそれぞれを発音対象推定モデル9に入力する(第2工程)。図4の例においては、5つの水中物体1が現れている複数目標状況が、5つの単体目標状況に分解される。発音対象推定モデル9には、このように分解して得られた単体目標状況(1)、単体目標状況(2)、・・・、単体目標状況(5)のそれぞれが入力される。
Next, consider the case where the detection status input to the sound generation
発音対象推定モデル9は、入力された単体目標状況(1)〜(5)のそれぞれに対して、上述と同様に、複数の音波発生体3の候補の中から最もQ値が大きくなる音波発生体3を、発音すべき対象として出力する。図4の例においては、単体目標状況(1)、及び単体目標状況(2)において、第5番目の音波発生体3−5が発音すべき対象として出力されている。単体目標状況(3)〜(5)に関しても同様に、発音すべき対象の音波発生体3が発音対象推定モデル9から出力される。以下では、単体目標状況(1)〜(5)のそれぞれに関して動作するのに適するものとして発音対象推定モデル9から出力される音波発生体3を、単体動作適合対象と呼ぶことがある。
In the sound wave
発音対象選択部5は、発音対象推定モデル9が出力した複数の選択結果を統合することで、複数目標状況において発音することが総合的に最も適当である音波発生体3を出力する(第3工程)。以下、このように複数目標状況に適するものとして発音対象選択部5から出力される音波発生体3を、動作適合対象(動作センサ)と呼ぶことがある。例えば、発音対象推定モデル9から発音すべき対象として出力された回数を音波発生体3ごとにカウントし、複数の音波発生体3のうち、発音すべき対象とされた回数が最も多い音波発生体3を、入力された複数目標状況において発音すべき対象として選択することが考えられる。図4では、上記の多数決的な手法により、第5番目の音波発生体3−5が、発音対象選択部5に入力された複数目標状況において発音すべき対象として出力される例が示されている。
The sound wave
ただし、複数の単体目標状況について発音対象推定モデル9が出力した選択結果を取りまとめる方法としては、上記に限定されない。例えば、発音対象推定モデル9が、複数目標状況を分解して得られたそれぞれの単体目標状況に対して、各音波発生体3を選択した場合のQ値を発音対象選択部5に出力することが考えられる。この場合、発音対象選択部5は、Q値の総和を音波発生体3ごとに計算し、この総和(適合度総和)が最大となる音波発生体3を、入力された複数目標状況において発音すべき対象として選択する。
However, the method of collecting the selection results output by the sound generation
具体的には、図4の例においては、発音対象推定モデル9は、単体目標状況(1)に対して、第1番目から第11番目の音波発生体3−1〜3−11を発音させる場合のQ値のそれぞれを計算し、発音対象選択部5に出力する。Q値は、上述のニューラルネットワークの出力値をそのまま用いれば良い。発音対象推定モデル9におけるQ値の出力は、残りの単体目標状況(2)〜(5)のそれぞれについても同様に行われる。発音対象選択部5は、得られたQ値を、11個の音波発生体3−1〜3−11毎に集計する。こうして、Q値の総和が11個求められる。複数目標状況において発音すべき対象を選択するとき、発音対象選択部5は、11個の音波発生体3のうち、上記のQ値の総和が最大となる音波発生体3を、入力された複数目標状況において発音すべき対象として選択する。
Specifically, in the example of FIG. 4, the sound wave
探知制御装置4は、無線送受信部6を介して、上記のように発音対象選択部5により選択された音波発生体3に発音制御信号を送信する。発音対象選択部5により選択された音波発生体3は、通信アンテナを介して発音対象選択部5から受信した発音制御信号に従って音波を発生する。音波探知体2は、音波発生体3から発した音波の、水中物体1等からの反射音を受信して、信号処理で得られた探知情報を、通信アンテナを介して探知情報分析部7に送信する。探知情報分析部7は、探知情報を分析し、目標候補リストを更新する。最新の目標候補リストが反映された探知状況は、発音対象選択部5に入力される。
The
このように、発音対象選択部5は、水中物体1や音波探知体2及び音波発生体3の動き(移動、出現/消失等)等によって随時に変化する探知状況に応じて、発音すべき音波発生体3を随時に選択することができる。
In this way, the sound wave
本実施形態の目標探知システム100においては、発音対象選択部5は状況に応じて、探知状況に最も適する音波発生体3の代わりに、2番目以降に適する音波発生体3を選択することもできる。
In the
例えば、入力された単体目標状況に対して、発音対象選択部5で発音することが最も適すると判断された音波発生体3が、直近に所定回数以上連続して発音していたとする。この場合、発音対象選択部5は、2番目に適する音波発生体3を、入力された単体目標状況において発音すべき対象として出力する。
For example, it is assumed that the
複数目標状況が入力された場合も同様に、発音対象選択部5は、直近に所定回数以上連続して発音していた音波発生体3を除外した上で、当該複数目標状況において発音すべき音波発生体3を選択する。
Similarly, when a plurality of target situations are input, the sound wave
このように、直近に所定回数以上連続して発音しているという条件(動作除外条件)を満たす音波発生体3が存在する場合は、選択される音波発生体3が、分解された単体目標状況において選択された回数が最も多い音波発生体3、或いはQ値の総和が最も大きい音波発生体3とは異なる場合もある。
In this way, when there is a
このような選択を行うことで、1つの音波発生体3が連続して多数回音波を発生することを回避することができる。これにより、音波発生体3の動作で発生する例えば熱の影響を軽減して、音波発生体3の機能を好適に維持することができる。
By making such a selection, it is possible to prevent one
次に、本実施形態の発音対象選択部5が有する優位な点について、処理に必要な時間の観点から、図5及び図6等を参照して詳細に説明する。
Next, the advantages of the sounding
図5には、最大2つの水中物体1が現れる場合を取り扱うことが可能な目標探知システムを実現するために、単体目標状況だけを学習する本実施形態と、単体目標状況に加えて複数目標状況を学習する参照例と、の比較が示されている。
In FIG. 5, in order to realize a target detection system capable of handling the case where a maximum of two
最初に、学習フェーズを検討する。1つの水中物体1のみが現れた場合における学習データ数をPとした場合、2つの水中物体1が同時に現れた場合の学習データ数はPの2乗となる。本実施形態では、単体目標状況だけを学習するため、学習データ数はPで済む。一方、参照例では、単体目標状況に加えて複数目標状況を学習するため、学習データ数はP+P2になる。
First, consider the learning phase. When the number of learning data when only one
従って、発音対象推定モデル9において、単体目標状況又は複数目標状況が入力されてから選択結果を出力するために必要な時間をTとし、出力を収束させるのに必要な学習回数をLとすると、参照例では、学習済モデルを構築するために必要となる学習時間が(P+P2)LTになる。このように、参照例では、本発明の発音対象選択部5が用いる発音対象推定モデル9を構築するための学習時間PLTに比べて、学習時間が長くなる。
Therefore, in the pronunciation
今回は最大2つの場合で説明しているが、最大3つ、4つ、・・・の場合を考えると、参照例における学習時間は指数オーダーで爆発的に増大する。一般化すると、目標となる水中物体1の最大数をNとしたとき、本実施形態及び参照例で必要となる学習時間は、以下の式(1)に従う。
続いて、推論フェーズを検討する。本実施形態は、水中物体1が2つ現れる場合は、複数目標状況を分解して得られた2つの単体目標状況を発音対象推定モデル9にそれぞれ入力して音波発生体3の選択結果を得る必要がある。従って、単純に考えて、参照例の最大2倍の時間が必要になる。一方、参照例では、水中物体1が2つ現れる場合でも、1つの場合と同じ時間で、総合的な観点で発音するのに適した音波発生体3の選択結果を得ることができる。
Next, consider the inference phase. In the present embodiment, when two
目標となる水中物体1の最大数をNとしたとき、本実施形態及び参照例で必要となる推論時間は、以下の式(2)に従う。
図5の下部の表には、N=2、P=36、L=1000とした場合に、参照例及び本実施形態の学習時間、推論時間、及び精度に関して本願発明者が行った実験結果が記載されている。この実験では、本実施形態の構成で、複数目標状況において発音すべき音波発生体3を選択する基準として、音波発生体3ごとのQ値の総和を基準とした。
The table at the bottom of FIG. 5 shows the results of experiments conducted by the inventor of the present application regarding the learning time, inference time, and accuracy of the reference example and the present embodiment when N = 2, P = 36, and L = 1000. Are listed. In this experiment, in the configuration of the present embodiment, the sum of the Q values of each
この表に示すように、本実施形態では、推論に必要な時間の増大を支障がない範囲(0.1〜0.2秒)に留めつつ、学習時間を大幅に短縮することができる。従って、システムの運用を早期に開始することができる。また、本実施形態では、参照例と比較して本実施形態の選択精度が同等以上であり、発音すべき音波発生体3の選択精度に関して、本実施形態は参照例と同等以上の性能を有していることが確かめられた。
As shown in this table, in the present embodiment, the learning time can be significantly shortened while keeping the increase in the time required for inference within a range (0.1 to 0.2 seconds) that does not hinder. Therefore, the operation of the system can be started at an early stage. Further, in the present embodiment, the selection accuracy of the present embodiment is equal to or higher than that of the reference example, and the present embodiment has the same or higher performance as the reference example with respect to the selection accuracy of the
図6には、参照例及び本実施形態のそれぞれについて、選択精度の学習回数による推移が示されている。十分な回数の学習によって、参照例では精度が約75%に収束し、本実施形態では精度が約82%に収束した。図6のグラフによれば、本実施形態では参照例と比較して、少ない学習回数で良好な選択精度に到達していることが分かる。 FIG. 6 shows the transition of the selection accuracy according to the number of times of learning for each of the reference example and the present embodiment. By learning a sufficient number of times, the accuracy converged to about 75% in the reference example, and the accuracy converged to about 82% in the present embodiment. According to the graph of FIG. 6, it can be seen that in the present embodiment, good selection accuracy is reached with a smaller number of learnings as compared with the reference example.
以上に説明したように、本実施形態において、探知領域に存在する1以上の水中物体1を探知するために用いられる音波発生体3が探知領域に複数配置されている。探知制御装置4は、複数の音波発生体3のうち発音すべき音波発生体3を動作適合対象として選択する。探知制御装置4は、入力部8と、発音対象推定モデル9と、発音対象選択部5と、を備える。入力部8は、少なくとも1つの水中物体1について、それぞれの水中物体1に関する位置、針路及び速力のうち少なくとも何れかに関する目標状態量を含む情報である探知対象情報の入力を受け付ける。発音対象推定モデル9は、1つの水中物体1についての、ある時間幅における目標状態量を含む学習用データセットから、複数の音波発生体3のうち選択すべき少なくとも1つの音波発生体3を選択するための機械学習を行ったものである。発音対象選択部5は、発音対象推定モデル9を用いて、入力部8に入力された探知対象情報から動作すべき音波発生体3を選択する。発音対象選択部5は、入力部8に入力された複数の水中物体1に関する探知対象情報を、1つの水中物体1に関する情報に分解して、分解されたそれぞれの情報を発音対象推定モデル9に入力し、発音対象推定モデル9から出力された複数の選択結果を統合し、動作すべき音波発生体3を動作適合対象として選択する。
As described above, in the present embodiment, a plurality of
これにより、学習フェーズにおいて発音対象推定モデル9を構築する際に、学習データを1つの水中物体1に関する状況(単体目標状況)に限定することができる。この結果、学習データの数が爆発的に増大することを回避して、発音対象推定モデル9の学習時間を顕著に短縮し、発音対象選択部5(ひいては探知制御装置4)の早期運用を図ることができる。推論フェーズにおいては、複数の水中物体1に関する複数目標状況を単体目標状況毎に(1つの水中物体1毎に)分解して発音対象推定モデル9に入力し、発音対象推定モデル9の出力結果を統合することで、複数の水中物体1が現れる複雑な状況でも、発音すべき音波発生体3を適切に選択することができる。
Thereby, when constructing the pronunciation
また、本実施形態において、発音対象選択部5は、選択された音波発生体3の諸元を更に決定する。
Further, in the present embodiment, the sound wave
これにより、水中物体1に関する状況に応じて、音波発生体3が発生する音波の諸元(例えば、周波数、パルス波形、パルス幅等)を適切に決めることができる。
Thereby, the specifications (for example, frequency, pulse waveform, pulse width, etc.) of the sound wave generated by the
また、本実施形態において、探知制御装置4は、入力部8に入力された複数の水中物体1に関する探知対象情報(複数目標状況に関する探知対象情報)に対して、発音対象推定モデル9が出力した複数の選択結果のうち、選択された回数が最も多い音波発生体3を、動作適合対象として出力する。
Further, in the present embodiment, the
これにより、複数目標状況に適する音波発生体3を、簡単な処理で選択することができる。
Thereby, the
ただし、本実施形態は、以下のように変更することもできる。即ち、発音対象推定モデル9の出力には、1つの水中物体1についての目標状態量に対して、複数の音波発生体3のそれぞれを選択した場合のQ値のそれぞれが含まれている。発音対象選択部5は、入力部8に入力された複数の水中物体1に関する探知対象情報(複数目標状況に関する探知対象情報)を、1つの水中物体1に関する情報に分解して、分解されたそれぞれの情報を発音対象推定モデル9に入力し、発音対象推定モデル9の出力に含まれる各音波発生体3のQ値のそれぞれを加算した総和を音波発生体3ごとに求めて、Q値の総和が最大となる音波発生体3を、動作適合対象として出力する。
However, this embodiment can be changed as follows. That is, the output of the sound generation
これにより、複数目標状況に適する音波発生体3を、的確に選択することができる。
As a result, the
また、本実施形態の探知制御装置4は、複数のうち一部の音波発生体3が、予め設定された動作除外条件を満たす場合に、当該音波発生体3を除外して動作適合対象を選択する。
Further, the
これにより、実際の運用状況に応じて、発音対象選択部5の選択結果を調整することが可能になる。
This makes it possible to adjust the selection result of the sounding
また、本実施形態の目標探知システム100は、探知制御装置4と、複数の音波発生体3と、を用い、更に音波探知体2を用いて、複数の音波発生体3が配置された探知領域内の水中物体1を探知する。
Further, the
これにより、探知領域内の状況に応じて、水中物体1を正確に探知することができる。
As a result, the
以上に本発明の好適な実施の形態を説明したが、上記の構成は例えば以下のように変更することができる。 Although the preferred embodiment of the present invention has been described above, the above configuration can be changed as follows, for example.
発音対象選択部5は、複数の音波発生体3の候補から、目標を探知するために適切な音波発生体3を選択したが、更に、選択した音波発生体3の周波数、パルス波形、パルス幅等の諸元を決定しても良い。
The sound wave
発音対象推定モデル9は、ニューラルネットワークに限定されず、例えば決定ルールを採用することもできる。
The pronunciation
発音対象推定モデル9の学習手法としては、強化学習に限定されず、例えば遺伝的機械学習を採用することもできる。
The learning method of the pronunciation
例えば複数のコンピュータ(ハードウェア)から発音対象選択部5を構成する等して、推論フェーズにおいて、同一の発音対象推定モデル9が複数並行して動作可能に構成されても良い。この場合、複数目標状況における推論時間を全体的に短くすることができる。
For example, the same sounding
単体目標状況には、目標状態量の他に、例えば潮流情報、風情報、水温情報等が含まれても良い。 In addition to the target state quantity, the single target status may include, for example, tidal current information, wind information, water temperature information, and the like.
複数目標状況に適する音波発生体3を多数決的な手法で選択する場合であって、発音対象推定モデル9によって選択された回数が最大となる音波発生体3が複数存在するときは、例えば、Q値の大きい方を選択しても良い。
When the
単体目標状況に対して音波発生体3を発音させることが適する度合い(適合度)として、Q値以外の値が用いられても良い。
A value other than the Q value may be used as the degree (goodness of fit) for making the
動作除外条件としては、直近に所定回数以上連続して発音したことに限定されず、他の条件が用いられても良い。 The operation exclusion condition is not limited to the fact that the pronunciation is continuously performed a predetermined number of times or more in the latest, and other conditions may be used.
発音対象推定モデル9のような学習済モデルは、音波発生体3以外に、他の装置の動作に適用することもできる。
A trained model such as the sound wave
発音対象選択部5は、発音対象推定モデル9を用いて、入力部8に入力された探知対象情報から動作すべき音波発生体3を2以上選択しても良い。
The sound wave
探知制御装置4の全部又は一部は、航空機等の目標探知体10以外に、船舶や地上設備に配備されても良い。
All or part of the
目標探知システム100は、水中物体1の探知以外に、他の物体の探知等にも適用することができる。
The
続いて、本発明の目標探知システム100を用いる他の実施形態について、図7及び図8等を参照して簡単に説明する。以下の説明においては、第1実施形態と同一又は類似の説明を省略する場合がある。
Subsequently, another embodiment using the
図7に示す第2実施形態の目標探知システム100は、例えば、センサとしてのレーダ3aを用いて、空中航走体、生物、積乱雲等の空中物体1aを探知する。レーダ3aは複数設置されている。それぞれのレーダ3aは、地上に配置されている。
The
本実施形態の探知制御装置4は、例えば、図略の地上設備に搭載される。しかし、これに限定されず、探知制御装置4の一部又は全体が空中航走体等に搭載されても良い。探知制御装置4は、刻々と変化する探知状況に適するように、探知信号である電波を発生させるレーダ3aを、複数のレーダ3aから選択する。更に、探知制御装置4は、選択したレーダ3aの諸元(例えば波形、照射時間、照射方位、周波数等)を決定する。
The
探知状況は、少なくとも1つの空中物体1aが存在することを想定したものである。以下の説明においては、空中物体1aが1つしか存在しない探知状況を「単体目標状況」と称し、複数の空中物体1aが存在する探知状況を「複数目標状況」と称することがある。それぞれの空中物体1aの様子は、状態量(例えば位置、針路、速力等)で表すことができる。
The detection situation assumes that at least one
本実施形態の探知制御装置4は、発音対象推定モデル9の代わりに、図略の動作レーダ推定モデル(動作センサ選択モデル)を備える。動作レーダ推定モデルが学習に用いる学習用データセットには、例えば、図7に示すような4つ(これに限定されない)のレーダ3aが設置された探知領域に、1つの空中物体1aのみが現れた場合を考え、この空中物体1aの、ある時間幅における位置、針路、速力等の目標状態量が含まれる。このように、動作レーダ推定モデルが学習する探知状況は、単体目標状況だけとなっている。
The
本実施形態の探知制御装置4は、発音対象選択部5の代わりに、図略の動作レーダ選択部(動作センサ選択部)を備える。動作レーダ選択部は、音波発生体3の代わりに、探知領域内に設置された複数のレーダ3aから、電波を照射すべきレーダ3aを選択する。このとき、入力部8に入力された探知対象情報が複数目標状況に係るものであった場合は、動作レーダ選択部は、探知対象情報を1つの空中物体1aに関する情報(単体目標状況に相当する情報)に分解して動作レーダ推定モデルに入力し、当該動作レーダ推定モデルから出力された複数の選択結果を統合し、動作すべきレーダ3aを動作適合対象として選択する。
The
これにより、空中物体1aの動き(移動、出現/消失)等に適するレーダ3a及びその動作(照射方位、照射時間、電波の波形、周波数等)を決めることができるため、探知領域内に存在する空中物体1aをより正確に捜索及び追尾することができる。また、動作レーダ推定モデルの学習時間が短いため、システムの運用を早期に開始できる。
As a result, the
図8に示す第3実施形態の目標探知システム100は、例えば、センサとしてのカメラ3bを用いて、人(例えば不審者)、車等の監視対象1bを監視する監視システムとして構成される。
The
本実施形態の探知制御装置4は、例えば、図8に示すような監視室内に設けられる。しかし、これに限定されず、探知制御装置4の一部又は全体が車両等に搭載されても良い。探知制御装置4は、図8に示すように、監視員40により操作される監視装置41を備える。監視装置41は、複数のカメラ3bが撮影した映像から1つ又は複数を選択して、ディスプレイ42に表示することができる。通常、複数のカメラ3bは全て、監視のために常時撮影を行っている。しかし、カメラ3bの撮影映像がディスプレイ42に表示されているとき、監視装置41との関係で当該カメラ3bが実質的に動作しており、そうでないときはカメラ3bが実質的に停止しているということができる。
The
探知制御装置4は、監視員40により指示された(又はカメラ3bにより撮影された映像に基づいて判定された)不審者等の監視対象1bに関する探知状況に適するように、ディスプレイ42に映像を表示するカメラ3bを選択する。更に、探知制御装置4は、選択したカメラ3bの諸元(例えばカメラ3bの向き、ズーミング等)を決定しても良い。
The
探知状況は、少なくとも1つの監視対象1bが存在することを想定したものである。以下の説明においては、監視対象1bが1つしか存在しない探知状況を「単体目標状況」と称し、複数の監視対象1bが存在する探知状況を「複数目標状況」と称することがある。それぞれの監視対象1bの様子は、状態量(例えば位置、針路、速力等)で表すことができる。
The detection status assumes that at least one
本実施形態の探知制御装置4は、発音対象推定モデル9の代わりに、図略の映像選択推定モデル(動作センサ選択モデル)を備える。映像選択推定モデルが学習に用いる学習用データセットは、単体目標状況だけである。映像選択推定モデルの学習フェーズにおいては、例えば、エージェントが単体目標状況において何れかのカメラ3bの映像をディスプレイ42に表示させた結果、監視対象1bである不審者の顔をディスプレイ42において捉えることができた場合、エージェントに報酬が与えられる。
The
本実施形態の探知制御装置4は、発音対象選択部5の代わりに、図略の映像選択部(動作センサ選択部)を備える。映像選択部は、音波発生体3の代わりに、探知領域内に設置された複数のカメラ3bから、撮影映像をディスプレイ42に表示すべきカメラ3bを選択する。このとき、入力部8に入力された探知対象情報が複数目標状況に係るものであった場合は、映像選択部は、探知対象情報を1つの監視対象1bに関する情報(単体目標状況に相当する情報)に分解して映像選択推定モデルに入力し、当該映像選択推定モデルから出力された複数の選択結果を統合し、映像ソースとなるべきカメラ3bを動作適合対象として選択する。
The
これにより、監視員40は、本実施形態の目標探知システム100を用いて、不審者等の監視対象1bに対する捜索及び追尾を容易にかつ正確に行うことができる。また、映像選択推定モデルの学習時間が短いため、システムの運用を早期に開始できる。
As a result, the
監視員40は、ディスプレイ42の表示内容を参照して、防犯ゲート3cを操作したり、監視対象1bの近くの警備員に指示したりすることもできる。防犯ゲート3cの操作は、機械学習により自動化することもできる。
The
1 水中物体(目標)
2 音波探知体
3 音波発生体(センサ)
4 探知制御装置(動作センサ選択装置)
5 発音対象選択部(動作センサ選択部)
6 無線送受信部
7 探知情報分析部
8 入力部
9 発音対象推定モデル(動作センサ選択モデル)
10 目標探知体
100 目標探知システム
1 Underwater object (target)
2
4 Detection control device (motion sensor selection device)
5 Sound target selection unit (motion sensor selection unit)
6 Wireless transmitter /
10
Claims (7)
少なくとも1つの前記目標に関して、各前記目標に関する位置、針路及び速力のうち少なくとも何れかに関する目標状態量を含む情報である入力情報の入力を受け付ける入力部と、
1つの前記目標についての、ある時間幅における前記目標状態量を含むベース情報から、前記複数のセンサのうち選択すべき少なくとも1つの前記センサを選択するための機械学習を行った動作センサ選択モデルと、
前記動作センサ選択モデルを用いて、前記入力部に入力された前記入力情報から動作すべき前記センサを選択する動作センサ選択部と、
を備え、
前記動作センサ選択部は、前記入力部に入力された複数の前記目標に関する前記入力情報を、1つの前記目標に関する情報に分解して、分解されたそれぞれの情報を前記動作センサ選択モデルに入力し、当該動作センサ選択モデルから出力された複数の選択結果を統合し、動作すべき前記センサを動作センサとして選択することを特徴とする動作センサ選択装置。 A motion sensor selection device in which a plurality of sensors used for detecting one or more targets existing in a target area are arranged in the target area, and the sensor to be operated is selected as the motion sensor among the plurality of sensors. ,
An input unit that accepts input of input information that is information including a target state quantity for at least one of the position, course, and speed related to each target with respect to at least one target.
An operation sensor selection model obtained by machine learning for selecting at least one of the plurality of sensors to be selected from the base information including the target state quantity in a certain time width for one target. ,
Using the motion sensor selection model, a motion sensor selection section that selects the sensor to operate from the input information input to the input section, and a motion sensor selection section.
With
The motion sensor selection unit decomposes the input information regarding the plurality of targets input to the input unit into one information regarding the target, and inputs the decomposed information into the motion sensor selection model. , A motion sensor selection device characterized in that a plurality of selection results output from the motion sensor selection model are integrated and the sensor to be operated is selected as the motion sensor.
前記動作センサ選択部は、選択された前記動作センサの諸元を更に決定することを特徴とする動作センサ選択装置。 The motion sensor selection device according to claim 1.
The motion sensor selection unit is a motion sensor selection device, which further determines the specifications of the selected motion sensor.
前記動作センサ選択部は、前記入力部に入力された複数の前記目標に関する前記入力情報に対して、前記動作センサ選択モデルが出力した複数の前記選択結果のうち、選択された回数が最も多い前記センサを、前記動作センサとして出力することを特徴とする動作センサ選択装置。 The motion sensor selection device according to claim 1 or 2.
The motion sensor selection unit has the largest number of selections among the plurality of selection results output by the motion sensor selection model with respect to the input information regarding the plurality of targets input to the input unit. An operation sensor selection device characterized by outputting a sensor as the operation sensor.
前記動作センサ選択モデルの出力には、1つの前記目標についての前記目標状態量に対して、前記複数のセンサのそれぞれを選択した場合の適合度のそれぞれが含まれており、
前記動作センサ選択部は、前記入力部に入力された複数の前記目標に関する前記入力情報を、1つの前記目標に関する情報に分解して、分解されたそれぞれの情報を前記動作センサ選択モデルに入力し、前記動作センサ選択モデルの出力に含まれる各前記センサの前記適合度のそれぞれを加算した適合度総和を前記センサごとに求めて、前記適合度総和が最大となる前記センサを、前記動作センサとして出力することを特徴とする動作センサ選択装置。 The motion sensor selection device according to claim 1 or 2.
The output of the motion sensor selection model includes each of the goodness of fit when each of the plurality of sensors is selected with respect to the target state quantity for one target.
The motion sensor selection unit decomposes the input information regarding the plurality of targets input to the input unit into one information regarding the target, and inputs the decomposed information into the motion sensor selection model. The total degree of conformity obtained by adding each of the degree of conformity of each of the sensors included in the output of the operation sensor selection model is obtained for each sensor, and the sensor having the maximum total degree of conformity is used as the operation sensor. An operation sensor selection device characterized by outputting.
複数のうち一部の前記センサが、予め設定された動作除外条件を満たす場合に、当該センサを除外して前記動作センサを選択することを特徴とする動作センサ選択装置。 The motion sensor selection device according to any one of claims 1 to 4.
An operation sensor selection device, characterized in that, when some of the plurality of sensors satisfy a preset operation exclusion condition, the operation sensor is selected by excluding the sensor.
少なくとも1つの前記目標に関して、各前記目標に関する位置、針路及び速力のうち少なくとも何れかに関する目標状態量を含む情報である入力情報の入力を受け付ける第1工程と、
前記第1工程において入力された複数の前記目標に関する前記入力情報を、1つの前記目標に関する情報に分解して、分解されたそれぞれの情報を動作センサ選択モデルに入力し、前記動作センサ選択モデルは、1つの前記目標についての、ある時間幅における前記目標状態量を含むベース情報から、前記複数のセンサのうち選択すべき少なくとも1つの前記センサを選択するための機械学習を行った学習済モデルである第2工程と、
前記動作センサ選択モデルから出力された複数の選択結果を統合し、動作すべき前記センサを選択する第3工程と、
を含むことを特徴とする動作センサ選択方法。 A motion sensor selection method in which a plurality of sensors used for detecting one or more targets existing in a target area are arranged in the target area, and the sensor to be operated is selected as the motion sensor among the plurality of sensors. ,
A first step of accepting input of input information which is information including a target state quantity regarding at least one of the position, course, and speed with respect to each of the targets with respect to at least one of the targets.
The input information regarding the plurality of targets input in the first step is decomposed into one information regarding the target, and each of the decomposed information is input to the motion sensor selection model. A trained model in which machine learning is performed to select at least one sensor to be selected from the plurality of sensors from the base information including the target state quantity in a certain time width for one target. A second step and
A third step of integrating a plurality of selection results output from the motion sensor selection model and selecting the sensor to operate, and
A method for selecting an motion sensor, which comprises.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019233419A JP7328885B2 (en) | 2019-12-24 | 2019-12-24 | MOTION SENSOR SELECTION DEVICE, TARGET DETECTION SYSTEM AND MOTION SENSOR SELECTION METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019233419A JP7328885B2 (en) | 2019-12-24 | 2019-12-24 | MOTION SENSOR SELECTION DEVICE, TARGET DETECTION SYSTEM AND MOTION SENSOR SELECTION METHOD |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021103087A true JP2021103087A (en) | 2021-07-15 |
JP7328885B2 JP7328885B2 (en) | 2023-08-17 |
Family
ID=76755036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019233419A Active JP7328885B2 (en) | 2019-12-24 | 2019-12-24 | MOTION SENSOR SELECTION DEVICE, TARGET DETECTION SYSTEM AND MOTION SENSOR SELECTION METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7328885B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012159459A (en) * | 2011-02-02 | 2012-08-23 | Nec Corp | Method and device for supporting planning of underwater object search |
JP2013137254A (en) * | 2011-12-28 | 2013-07-11 | Kawasaki Heavy Ind Ltd | Wave transmission scheduling device and wave transmission scheduling method |
JP2015118038A (en) * | 2013-12-19 | 2015-06-25 | 日本電気株式会社 | Display control device, display control method and program |
JP2015190914A (en) * | 2014-03-28 | 2015-11-02 | 川崎重工業株式会社 | Transmitter/receiver placement determination apparatus and transmitter/receiver placement determination method |
JP2017181448A (en) * | 2016-03-31 | 2017-10-05 | 日本電気株式会社 | Active sonar control device, transmission control method, and program |
JP2019166961A (en) * | 2018-03-23 | 2019-10-03 | Hapsモバイル株式会社 | Autonomous distributed control of submergible robot for wide-area underwater survey via haps |
-
2019
- 2019-12-24 JP JP2019233419A patent/JP7328885B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012159459A (en) * | 2011-02-02 | 2012-08-23 | Nec Corp | Method and device for supporting planning of underwater object search |
JP2013137254A (en) * | 2011-12-28 | 2013-07-11 | Kawasaki Heavy Ind Ltd | Wave transmission scheduling device and wave transmission scheduling method |
JP2015118038A (en) * | 2013-12-19 | 2015-06-25 | 日本電気株式会社 | Display control device, display control method and program |
JP2015190914A (en) * | 2014-03-28 | 2015-11-02 | 川崎重工業株式会社 | Transmitter/receiver placement determination apparatus and transmitter/receiver placement determination method |
JP2017181448A (en) * | 2016-03-31 | 2017-10-05 | 日本電気株式会社 | Active sonar control device, transmission control method, and program |
JP2019166961A (en) * | 2018-03-23 | 2019-10-03 | Hapsモバイル株式会社 | Autonomous distributed control of submergible robot for wide-area underwater survey via haps |
Non-Patent Citations (1)
Title |
---|
児玉 直樹: ""航空宇宙システム分野における製品・技術展開"", 川崎重工技報, vol. 第179号, JPN7023002947, 1 May 2018 (2018-05-01), JP, pages 2 - 7, ISSN: 0005121772 * |
Also Published As
Publication number | Publication date |
---|---|
JP7328885B2 (en) | 2023-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101594044B1 (en) | Method and apparatus for detection and classification of a swimming object | |
US20190204416A1 (en) | Target object detecting device, method of detecting a target object and computer readable medium | |
US20140372073A1 (en) | Two-stage filtering based method for multiple target tracking | |
Narimani et al. | Robotics vision-based system for an underwater pipeline and cable tracker | |
Vidhya et al. | An Effective Evaluation of SONARS using Arduino and Display on Processing IDE | |
Sreekala et al. | Deep convolutional neural network with Kalman filter based objected tracking and detection in underwater communications | |
Ribeiro et al. | Multiobjective optimization design procedures for data-driven unmanned aerial vehicles automatic target recognition systems | |
JP7328885B2 (en) | MOTION SENSOR SELECTION DEVICE, TARGET DETECTION SYSTEM AND MOTION SENSOR SELECTION METHOD | |
JP2019175287A (en) | Evading navigation decision method of moving entity, evading navigation decision system, and evading navigation decision program | |
Bays et al. | Automated scheduling and mission visualization for mine countermeasure operations | |
Sporyshev et al. | Reinforcement learning approach for cooperative AUVs in underwater surveillance operations | |
Anderson et al. | An overview of MIT-Olin’s approach in the AUVSI RobotX Competition | |
KR20210149484A (en) | Vessel remote management system and method using vibration sensor and sound sensor | |
JP7006875B1 (en) | Learning models, signal processor, projectiles, and programs | |
Robbiano et al. | Information-Theoretic Interactive Sensing and Inference for Autonomous Systems | |
El-Shafie et al. | Performance evaluation of a non-linear error model for underwater range computation utilizing GPS sonobuoys | |
Al-Tekreeti | Unmanned surface vehicle (USV) with obstacle avoidance system | |
EP4138036A1 (en) | Learning model, signal processing device, flying body, and program | |
Robbiano et al. | Information-theoretic approach to navigation for efficient detection and classification of underwater objects | |
Kragelund | Optimal sensor-based motion planning for autonomous vehicle teams | |
US20240019570A1 (en) | Setting radar parameters for generating point clouds based upon raw radar data | |
Lovik et al. | Underwater protection system | |
Loebis | An intelligent navigation system for an autonomous underwater vehicle | |
KR20230150006A (en) | Learning-based target identification apparatus, methods and systems | |
Fabbri et al. | Assessing the potential of autonomous multi-agent surveillance in asset protection from underwater threats |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221014 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230804 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7328885 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |