JPH11142098A - Method and device for detection of impact location of released bomb - Google Patents

Method and device for detection of impact location of released bomb

Info

Publication number
JPH11142098A
JPH11142098A JP30857997A JP30857997A JPH11142098A JP H11142098 A JPH11142098 A JP H11142098A JP 30857997 A JP30857997 A JP 30857997A JP 30857997 A JP30857997 A JP 30857997A JP H11142098 A JPH11142098 A JP H11142098A
Authority
JP
Japan
Prior art keywords
signal
simulated
target
image data
bomb
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP30857997A
Other languages
Japanese (ja)
Inventor
Takayoshi Yamamoto
隆義 山本
Akira Mochizuki
明 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Power Ltd
Original Assignee
Babcock Hitachi KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Babcock Hitachi KK filed Critical Babcock Hitachi KK
Priority to JP30857997A priority Critical patent/JPH11142098A/en
Publication of JPH11142098A publication Critical patent/JPH11142098A/en
Pending legal-status Critical Current

Links

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method wherein the impact location of a simulation bomb in an air-to-ground bombing training can be measured unmannedly at a favorable precision, and a device to perform the method. SOLUTION: Around a target 1, three fixed cameras (photographing device) 2, 3, 4 are approx. evenly arranged, and also, a sound sensor 5 is buried in the ground the target 1, and at the same time, in a control chamber, a computer system 7 having an analyzing device 11, a display device 12 for monitoring, a printing device 13 which prints desired data, a signal identifying apparatus 14 which discriminates an impact signal of a simulation bomb from output signals of the sound sensor 5, an image processing related apparatus 15, and a power source 16, is provided. A release signal of a simulation bomb is generated by the signal identifying apparatus from the output signals of the sound sensor 5, and an image processing is performed by retrieving the image data from the fixed cameras to the analyzing device with the release signal as a trigger, and the impact location is detected.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、空対地射爆訓練に
おける投下爆弾の着弾位置を画像処理によって求める方
法と、それを実行する装置とに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for determining a landing position of a dropped bomb in air-to-ground firing training by image processing, and an apparatus for executing the method.

【0002】[0002]

【従来の技術】空対地射撃訓練には、爆弾の頭部に発煙
筒が仕掛けられ、着弾と同時に発煙を生じる模擬弾を、
訓練機より予め地上に設置された直径が100m〜15
0mの標的に向けて投下するものがある。
2. Description of the Related Art In air-to-ground shooting training, a simulated ammunition that emits smoke at the same time as a bomb is set up on the head of a bomb,
The diameter previously set on the ground from the training machine is 100m ~ 15
Some drop at a target of 0m.

【0003】従来より、かかる空対地射爆訓練における
弾着位置評価方法としては、標的周囲の複数個所に監視
員を配置し、模擬弾投下後、発煙筒から発生する煙を頼
りに監視員が双眼鏡などを用いて目視で着弾位置を確認
し、後刻各監視員が得た着弾位置情報を照合することに
よって正しい着弾位置を割り出すという方法が一般的で
あった。しかし、この方法によると、着弾位置の監視に
多くの人員を必要とする、監視員を誤爆の危険にさらす
おそれがある、さらには、射撃訓練の結果をリアルタイ
ムで訓練員に知らせることができないので訓練効率を高
められないなどの不都合がある。
[0003] Conventionally, as a method of evaluating the impact position in such an air-to-ground explosion drill, an observer is placed at a plurality of locations around a target, and after a simulated bullet is dropped, the observer relies on smoke generated from a smoke tube. In general, a method of visually confirming the impact position using binoculars or the like, and then collating the impact position information obtained by each observer to determine a correct impact position has been common. However, this method requires a large number of personnel to monitor the impact position, may put the observer at risk of accidental explosion, and may not inform the trainee of the results of shooting training in real time. There are inconveniences such as the inability to increase training efficiency.

【0004】近年に至っては、模擬弾の着弾位置の割り
出しをコンピュータにて行う装置が種々提案されてい
る。その一例としては、米国のカートライト社が製品化
しているWISS(Weapons Inpact Scoring Set)を挙
げることができる。この投下爆弾の着弾位置検出装置
は、標的の周囲に2台の撮像装置を互いに離隔して配置
しておき、それらの撮像装置から送られてくる画像デー
タを監視員がモニタで監視し、弾着による発煙筒の煙が
発生したとき、その煙の発生位置を監視員がモニタ上で
ポイント付けし、そのデータを基にコンピュータが模擬
弾の弾着位置を割り出すというものである。この装置に
よれば、標的の周囲に監視員を配置しなくても良いの
で、監視員の数を減らせ、誤爆による危険も回避でき
る。また、射撃訓練の結果をリアルタイムで訓練員に知
らせることもできるので、訓練を効率化できる。
[0004] In recent years, various devices have been proposed in which a computer determines the impact position of a simulated bullet. One example is the WISS (Weapons Inpact Scoring Set) commercialized by Cartwright Company, USA. In this drop bomb landing position detection device, two imaging devices are arranged around a target at a distance from each other, and a monitor monitors image data sent from these imaging devices on a monitor, and When smoke is generated in the smoke cane caused by the arrival, the position of the smoke is pointed on the monitor by the observer, and the computer determines the position of the simulated ammunition based on the data. According to this device, since it is not necessary to arrange a guard around the target, the number of guards can be reduced, and the danger due to accidental explosion can be avoided. Further, since the result of the shooting training can be notified to the trainee in real time, the training can be made more efficient.

【0005】[0005]

【発明が解決しようとする課題】しかるに、この装置に
よっても、モニタの監視員を必要とするため、着弾位置
を割り出しを完全に自動化できない。また、モニタ上で
の煙の発生位置のポイント付けを人間が行うので、熟練
度の相違やポイント付けを行うタイミングの個人差など
によって、精度を充分に高められないといった不都合が
ある。
However, even with this device, a person in charge of monitoring the monitor is required, so that it is not possible to completely automatically determine the impact position. In addition, since humans point the smoke generation position on the monitor, there is an inconvenience that the accuracy cannot be sufficiently improved due to differences in skill levels and individual differences in timing of point addition.

【0006】本発明は、かかる従来技術の不備を解消す
るためになされたものであって、その目的は、模擬弾の
着弾位置を無人で精度良く測定する方法と、それを実行
する装置とを提供することにある。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned deficiencies of the prior art, and an object of the present invention is to provide an unmanned and accurate method for measuring the impact position of a simulated ammunition and an apparatus for executing the method. To provide.

【0007】[0007]

【課題を解決するための手段】本発明は、前記目的を達
成するため、着弾位置検出装置に関しては、標的の周囲
に設置された複数台の撮像装置と、これらの各撮像装置
から取り込まれた画像データを画像処理して模擬弾の着
弾位置を演算するコンピュータと、模擬弾の投下時を検
出して模擬弾投下信号を出力する信号発生器とを有し、
信号発生器からの模擬弾投下信号をトリガとして前記複
数台の撮像装置を作動させ、標的及びその周囲の画像デ
ータを前記コンピュータに取り込み、画像処理によって
投下模擬弾の着弾位置を自動的に求める構成にした。
According to the present invention, in order to achieve the above-mentioned object, a plurality of image pickup devices installed around a target and a plurality of image pickup devices installed from each of these image pickup devices are provided. A computer that performs image processing on the image data to calculate the landing position of the simulated ammunition, and a signal generator that detects when the simulated bullet is released and outputs a simulated bullet release signal,
A configuration in which the plurality of imaging devices are activated by using a simulated bullet release signal from a signal generator as a trigger, image data of a target and surroundings is taken into the computer, and an impact position of the simulated bullet is automatically obtained by image processing. I made it.

【0008】前記信号発生器としては、標的の周囲に
埋設された音響センサと、該音響センサの出力信号値が
予め定められた基準信号値よりも大きくなったときに模
擬弾投下信号を出力する信号分別器とからなるもの、
標的の近傍に接近した訓練機の機体を撮影する撮像装置
と、該撮像装置からの画像データを画像処理して、訓練
機の位置、姿勢又は飛跡などから模擬弾の投下時を検出
し、それに同期して模擬弾投下信号を出力する画像処理
装置とからなるもの、訓練機に搭載され、模擬弾の投
下操作に同期して模擬弾投下信号を無線送信するものな
どを用いることができる。なお、標的の周囲に2台の撮
像装置を備えれば、1回当り1つずつ投下される模擬弾
の着弾位置を検出することができ、標的の周囲に3台の
撮像装置を備えれば、1回当り複数個ずつ投下される模
擬弾の各着弾位置も検出できる。
As the signal generator, an acoustic sensor buried around a target and, when an output signal value of the acoustic sensor becomes larger than a predetermined reference signal value, outputs a simulated bullet release signal. Consisting of a signal classifier,
An imaging device that captures the body of a training aircraft approaching the vicinity of the target, and image processing of image data from the imaging device to detect the time of dropping a simulated bullet from the position, posture, or track of the training aircraft, An image processing device that outputs a simulated bullet release signal in synchronism, or a device mounted on a training machine and wirelessly transmitting a simulated bullet release signal in synchronization with a simulated bullet release operation can be used. In addition, if two imaging devices are provided around the target, it is possible to detect the landing positions of the simulated bullets that are dropped one at a time, and if three imaging devices are provided around the target, It is also possible to detect the landing positions of the simulation bullets that are dropped a plurality of times each time.

【0009】一方、着弾位置検出方法に関しては、周囲
に複数台の撮像装置が設置された標的内に向けて着弾と
同時に発煙を生じる模擬弾を投下し、模擬弾の投下時を
検出する信号発生器から模擬弾投下信号が出力されたと
き、その信号をトリガとして前記複数台の撮像装置を作
動させ、標的及びその周囲の画像データを前記コンピュ
ータに取り込んで当該画像データ上の発煙位置の座標を
算出し、次いでこの座標情報と前記複数台の撮像装置の
設定位置情報とから前記模擬弾の着弾位置を求める構成
にした。
On the other hand, with regard to the impact position detection method, a simulated ammunition that emits smoke at the same time as an impact is dropped into a target having a plurality of image pickup devices provided therearound, and a signal is generated to detect when the simulated ammunition is dropped. When a simulated bullet release signal is output from the vessel, the signal is used as a trigger to activate the plurality of imaging devices, capture image data of the target and its surroundings into the computer, and calculate the coordinates of the smoke position on the image data. Then, the landing position of the simulated bullet is determined from the coordinate information and the set position information of the plurality of imaging devices.

【0010】画像処理方法としては、着弾位置の解析精
度を高めるため、複数台の撮像装置のそれぞれより短い
時間間隔をおいて撮像された複数の画像データをコンピ
ュータに取り込み、撮像時間が異なる各画像データの差
分データから発煙位置の座標を算出することが好まし
い。特に、煙に動きをより正確に把握できることから、
短い時間間隔をおいて撮像された2つの画像データをそ
れぞれA及びBとしたとき、(A−B)の差分データ及
び(B−A)の差分データをとり、次いでこれらの差分
データを加算することによって被写体である煙の動きを
全て抽出し、その重心を求めることによって着弾位置を
求めることが好ましい。
As an image processing method, in order to improve the accuracy of the analysis of the landing position, a plurality of image data taken at shorter time intervals than each of a plurality of image pickup devices is taken into a computer, and each image data having a different image pickup time is taken. It is preferable to calculate the coordinates of the smoke position from the difference data of the data. In particular, because you can more accurately grasp the movement due to smoke,
Assuming that two image data taken at short time intervals are A and B, respectively, the difference data of (AB) and the difference data of (BA) are taken, and then these difference data are added. Therefore, it is preferable to extract all the movements of the smoke as the subject, and obtain the impact position by obtaining the center of gravity.

【0011】模擬弾が着弾すると、その衝突エネルギに
よって地中を伝播する衝撃音を発生するので、これを音
響センサで捉えることによって、模擬弾の着弾時を特定
できる。また、訓練機から模擬弾を投下する際には、訓
練機の位置、姿勢又は飛跡などが通常の状態から変化す
るので、これを撮像装置にて捉えて画像処理することに
よっても、模擬弾の着弾時をほぼ特定できる。さらに、
訓練機から模擬弾の投下操作に同期して模擬弾投下信号
を無線送信しても、模擬弾の着弾時をほぼ特定できる。
When a simulated bullet lands, an impact sound that propagates in the ground is generated by its collision energy. By capturing the impulsive sound with an acoustic sensor, it is possible to specify when the simulated bullet lands. Also, when dropping a simulated ammunition from a training machine, the position, posture, or track of the training machine changes from the normal state. You can almost specify the time of impact. further,
Even when a simulated bullet release signal is wirelessly transmitted from the training machine in synchronization with the simulated bullet release operation, it is possible to substantially specify the time when the simulated bullet is landed.

【0012】標的の周囲に設置された複数台の撮像装置
は、信号発生器からの模擬弾投下信号をトリガとして、
模擬弾の着弾に同期させて起動できる。一方、模擬弾か
らは着弾と同時に、弾頭に組み込まれた発煙筒から煙が
発生する。したがって、模擬弾が標的内に投下された場
合には、常に、着弾直後の標的及び発煙筒から立ち上る
煙を含む標的周囲の画像データを各撮像装置によって捉
えることができる。
A plurality of imaging devices installed around the target use a simulated bullet release signal from a signal generator as a trigger,
It can be activated in synchronization with the arrival of a simulation bullet. On the other hand, the simulated ammunition emits smoke from the flares incorporated in the warhead simultaneously with the impact. Therefore, when the simulated bullet is dropped into the target, the image data around the target including the target immediately after impact and the smoke rising from the smoke can always be captured by each imaging device.

【0013】また、各撮像装置から着弾直後の標的及び
その周囲の画像データを短い時間間隔をおいて連続的に
コンピュータに取り込み、各時点における各画像データ
の差画像を演算すれば、ゆれ動く発煙筒からの煙の部分
のみを抽出することができるので、画像データ上の煙の
部分(着弾位置)の座標を自動的に求めることができ
る。さらに、このようにして求められた着弾位置の座標
と、各撮像装置の設置位置並びに撮像方向とから、標的
に対する着弾位置を演算によって自動的に求めることが
できる。
In addition, the target immediately after impact and the surrounding image data from each imaging device are continuously taken into the computer at short time intervals, and the difference image of each image data at each time point is calculated. Since only the smoke portion from the smoke tube can be extracted, the coordinates of the smoke portion (landing position) on the image data can be automatically obtained. Further, the landing position with respect to the target can be automatically obtained by calculation from the coordinates of the landing position thus obtained, the installation position of each imaging device, and the imaging direction.

【0014】よって、本発明の方法及び装置によれば、
投下爆弾の着弾位置を自動的に監視できることから監視
員の減少又は廃止を図れると共に、投下爆弾の着弾位置
をリアルタイムで演算することができ、射撃結果を直ち
に訓練員にフィードバックできることから訓練の高能率
化を図ることができる。また、模擬弾の着弾時を基準と
して撮像装置を起動するようにしたので、測定時点に個
人誤差の入る余地がなく、高精度の着弾位置検出を実現
できる。
Thus, according to the method and apparatus of the present invention,
The ability to automatically monitor the location of the dropped bombs reduces or eliminates surveillance personnel, and also allows the location of the dropped bombs to be calculated in real time, providing immediate feedback on the firing results to the trainees. Can be achieved. In addition, since the imaging device is activated based on the time at which the simulated bullet is landed, there is no room for individual error at the time of measurement, and highly accurate landing position detection can be realized.

【0015】なお、標的の周囲に3台の撮像装置を配置
すると、いわゆる三角測量法を応用できるので、訓練機
から複数個の模擬弾を同時に投下した場合における各模
擬弾の着弾位置をも演算によって自動的に求めることが
できる。
If three imaging devices are arranged around the target, a so-called triangulation method can be applied. Therefore, the landing positions of the simulated bullets when a plurality of simulated bullets are simultaneously dropped from the training machine are also calculated. Can be determined automatically by

【0016】[0016]

【発明の実施の形態】以下、本発明の一実施例を、図1
〜図5に基づいて説明する。図1は実施例に係る着弾位
置検出装置の構成図、図2は着弾位置検出方法を示すフ
ローチャート、図3は画像処理の流れを模式的に示す説
明図、図4は三角測量を応用した着弾位置検出方法の説
明図、図5は訓練機の飛跡と模擬弾投下のタイミングと
を示す説明図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will now be described with reference to FIG.
This will be described with reference to FIG. FIG. 1 is a configuration diagram of an impact position detecting apparatus according to an embodiment, FIG. 2 is a flowchart showing an impact position detecting method, FIG. 3 is an explanatory diagram schematically showing a flow of image processing, and FIG. 4 is an impact applying triangulation. FIG. 5 is an explanatory diagram of the position detection method, and FIG. 5 is an explanatory diagram showing the track of the training machine and the timing of simulated bullet release.

【0017】図1に示すように、本例の着弾位置検出装
置は、標的1の周囲にほぼ等分に配置された3台の固定
カメラ(撮像装置)2,3,4と、標的1の周囲の地中
に埋設された音響センサ5と、音響センサ5の出力信号
を増幅するプリアンプ6と、管制室内に設けられたコン
ピュータシステム7とから構成されている。コンピュー
タシステム7は、装置全体を制御する制御プログラムや
画像処理プログラムそれに着弾位置の演算プログラム等
が格納された解析装置11と、モニタ用の表示装置12
と、所望のデータを打ち出す印字装置13と、音響セン
サ5の出力信号から模擬弾の着弾信号を弁別する信号分
別器14と、画像処理関連機器15と、電源16とから
なる。
As shown in FIG. 1, the landing position detecting device of the present embodiment comprises three fixed cameras (imaging devices) 2, 3, and 4 arranged approximately equally around the target 1, and the target 1 It comprises an acoustic sensor 5 buried in the surrounding ground, a preamplifier 6 for amplifying an output signal of the acoustic sensor 5, and a computer system 7 provided in a control room. The computer system 7 includes an analysis device 11 in which a control program for controlling the entire device, an image processing program, an impact position calculation program, and the like are stored, and a monitor display device 12.
A printing device 13 for emitting desired data, a signal classifier 14 for discriminating a landing signal of a simulated ammunition from an output signal of the acoustic sensor 5, an image processing-related device 15, and a power supply 16.

【0018】各固定カメラ2,3,4は、その入射光軸
が標的1の中心Oに向けられ、標的1の全体を視野内に
納められるようにしぼり等が調整されている。音響セン
サ5は、訓練機から投下された模擬弾が標的1内に着弾
したときに生じる地中を伝播する衝撃音を検知可能な感
度に調整され、プリアンプ6は、音響センサ5からの出
力信号を信号分別器14にて処理しやすい値に増幅する
ように増幅率が設定される。これら固定カメラ2,3,
4は、画像処理関連機器15を介して解析装置11に接
続され、音響センサ5は、プリアンプ6及び信号分別器
14を介して解析装置11に接続されている。
Each of the fixed cameras 2, 3, and 4 has its incident optical axis directed to the center O of the target 1, and its squeezing and the like are adjusted so that the entire target 1 can be accommodated in the field of view. The acoustic sensor 5 is adjusted to have a sensitivity capable of detecting an impact sound propagating in the ground generated when a simulated bullet dropped from the training machine lands in the target 1. The preamplifier 6 outputs an output signal from the acoustic sensor 5. Is amplified to a value that can be easily processed by the signal classifier 14. These fixed cameras 2,3
4 is connected to the analyzer 11 via the image processing-related equipment 15, and the acoustic sensor 5 is connected to the analyzer 11 via the preamplifier 6 and the signal separator 14.

【0019】信号分別器14は、音響センサ5から出力
され、プリアンプ6にて増幅された信号を入力し、当該
信号レベルが予め定められた所定値を超えたとき、着弾
検知信号を解析装置11に出力する。
The signal discriminator 14 receives the signal output from the acoustic sensor 5 and amplified by the preamplifier 6 and, when the signal level exceeds a predetermined value, converts the landing detection signal into an analysis device 11. Output to

【0020】解析装置11は、図2に示すように、信号
分別器14から着弾検知信号が入力されると、手順S−
1で、内蔵された制御プログラムに基づいて固定カメラ
2,3,4に起動信号を出力し、手順S−2、S−3
で、各固定カメラ2,3,4から短い時間間隔をおいて
2枚の画像データA,Bを順次取り込む{図3(a),
(b)参照}。次いで、手順S−4で、取り込まれた2
枚の画像データA,Bから差画像1{=A−B;図3
(c)参照}と差画像2{=B−A;図3(d)参照}
を求め、さらに手順S−5で差画像3{=差画像1+差
画像2;図3(e)参照}を求める。しかる後に、手順
S−6で差画像3を2値化処理{図3(f)参照}し、
手順S−7で白の抽出領域の重心位置を求め{図3
(g)参照}、手順S−8で当該重心位置の画像データ
上の座標を割り出す{図3(h)参照}。次いで、手順
S−9に移行し、3台の固定カメラ2,3,4でとらえ
た各画像データ上の重心位置の座標と、各固定カメラの
設定位置及び視野方向とから重心位置の一致点を演算
し、真の着弾位置を割り出す。最後に、手順S−10
で、演算結果をモニタ用の表示装置12に表示する。ま
た、必要に応じて、印字装置13によってそのデータを
記録紙に記録することもできる。
When the landing detection signal is input from the signal classifier 14 as shown in FIG.
In step 1, an activation signal is output to the fixed cameras 2, 3, and 4 based on a built-in control program.
Then, two image data A and B are sequentially taken from each of the fixed cameras 2, 3 and 4 at short time intervals {FIG.
See (b). Next, in step S-4, the captured 2
Difference image 1 {= AB from image data A and B; FIG.
(C) reference and difference image 2 = BA; see FIG. 3 (d)
Then, in step S-5, difference image 3 {= difference image 1 + difference image 2; see FIG. 3 (e)}. Thereafter, in step S-6, the difference image 3 is binarized (see FIG. 3 (f)).
In step S-7, the position of the center of gravity of the white extraction region is determined {FIG.
(G), the coordinates of the position of the center of gravity on the image data are determined in step S-8 (see FIG. 3 (h)). Then, the process proceeds to step S-9, where the coordinates of the barycentric position on the image data captured by the three fixed cameras 2, 3, 4 and the set point of each fixed camera and the direction of the field of view coincide with each other. To calculate the true landing position. Finally, step S-10
Then, the calculation result is displayed on the monitor display device 12. If necessary, the data can be recorded on recording paper by the printing device 13.

【0021】模擬弾の弾頭から立ち上る煙はゆれ動くの
で、短い時間間隔をおいて撮影された2枚の画像データ
A,Bの差画像を演算すると、煙の動きを抽出できる。
この場合、差画像1(=A−B)のみを演算すると、図
3(b),(c)から明らかなように、画像データBの
方が画像データAよりも明るい輝度をもつ領域は、差が
負値となって輝度が0とみなされるので、この領域にお
いて煙の動きがない場合と同様の結果となる。一方、差
画像2(=B−A)のみを演算した場合もこれと同様で
あって、図3(b),(c)から明らかなように、画像
データAの方が画像データBよりも明るい輝度をもつ領
域は、差が負値となって輝度が0とみなされ、この領域
において煙の動きがない場合と同様の結果となる。した
がって、このような差演算では、煙の動きを正しく抽出
できない。そこで、差画像3(=差画像1+差画像2)
を演算すると、図3(e)に示すように、各差演算で負
値となる領域を共に保存できるので、煙の動き、すなわ
ち模擬弾の着弾位置をより正確に抽出できる。
The smoke rising from the warhead of the simulated ammunition fluctuates, so that by calculating a difference image between two pieces of image data A and B taken at short time intervals, the movement of the smoke can be extracted.
In this case, when only the difference image 1 (= AB) is calculated, as is clear from FIGS. 3B and 3C, the area where the image data B has a higher brightness than the image data A is Since the difference becomes a negative value and the luminance is regarded as 0, the same result as in the case where there is no movement of smoke in this area is obtained. On the other hand, the same applies to the case where only the difference image 2 (= BA) is calculated. As is clear from FIGS. 3B and 3C, the image data A is more than the image data B. In a region having a bright luminance, the difference becomes a negative value and the luminance is regarded as 0, and the same result as in the case where there is no movement of smoke in this region is obtained. Therefore, in such a difference calculation, the movement of the smoke cannot be correctly extracted. Therefore, difference image 3 (= difference image 1 + difference image 2)
Is calculated, as shown in FIG. 3 (e), the area which becomes a negative value in each difference calculation can be stored together, so that the smoke movement, that is, the landing position of the simulation bullet can be extracted more accurately.

【0022】差画像3は、模擬弾から立ち上る煙の周辺
領域の輝度が、背景領域の輝度よりも高くなるので、こ
れを適当なしきい値で2値化すると、図3(f)に示す
ように、煙の周辺領域を白く抽出できる。それらの白点
の重心位置を求めることは、画像処理の定法にしたがっ
て容易に行える。また、その重心位置の画像データに対
する座標を求めることも、画像処理の定法にしたがって
容易に行える。さらに、3台の固定カメラ2,3,4で
とらえた各画像データ上の重心位置の座標と、各固定カ
メラの設定位置及び視野方向とから標的1上の重心位置
の座標を演算することも、三角測量の定法にしたがって
容易に行える。よって、実施例に係る装置及び方法によ
れば、真の着弾位置を自動的に求めることができる。
In the difference image 3, since the brightness of the surrounding area of the smoke rising from the simulated bullet becomes higher than the brightness of the background area, if this is binarized with an appropriate threshold value, as shown in FIG. In addition, the area around the smoke can be extracted white. Determining the position of the center of gravity of these white points can be easily performed according to a standard method of image processing. In addition, the coordinates of the position of the center of gravity with respect to the image data can be easily obtained according to a standard method of image processing. Further, it is also possible to calculate the coordinates of the position of the center of gravity on the target 1 from the coordinates of the position of the center of gravity on each image data captured by the three fixed cameras 2, 3, and 4, and the set position and the viewing direction of each fixed camera. , And can be easily performed according to the triangulation method. Therefore, according to the apparatus and method according to the embodiment, the true landing position can be automatically obtained.

【0023】本実施例によれば、投下爆弾の着弾位置を
自動的に監視できることから監視員の減少又は廃止を図
れると共に、投下爆弾の着弾位置をリアルタイムで演算
することができ、射撃結果を直ちに訓練員にフィードバ
ックできることから訓練の高能率化を図ることができ
る。また、模擬弾が着弾したときの衝撃音をトリガとし
て撮像装置を起動するようにしたので、測定時点に個人
誤差の入る余地がなく、高精度の着弾位置検出を実現で
きる。
According to this embodiment, since the position of the dropped bomb can be automatically monitored, the number of guards can be reduced or eliminated, and the position of the dropped bomb can be calculated in real time. Since the feedback can be provided to the trainees, the efficiency of the training can be improved. In addition, since the imaging device is activated by using an impact sound when a simulated bullet lands, the detection device has no room for an individual error at the time of measurement, and a highly accurate landing position detection can be realized.

【0024】なお、本例装置のように、標的1の周囲に
3台の固定カメラ2,3,4を備えると、訓練機から複
数個の模擬弾が同時に投下された場合にも、三角測量法
によって各模擬弾の着弾位置を正確に求めることができ
る。
When three fixed cameras 2, 3, and 4 are provided around the target 1 as in the apparatus of this example, the triangulation can be performed even when a plurality of simulated bullets are simultaneously dropped from the training machine. The landing position of each simulated bullet can be accurately obtained by the method.

【0025】図4に、その着弾位置検出方法を示す。標
的1内に4発の模擬弾イ、ロ、ハ、ニがほぼ同時に投下
された場合、各模擬弾からの発煙は、それぞれ3台の固
定カメラ2,3,4でとらえられる。その発煙位置の画
像データの重心位置{前出の図3(e)参照}をそれぞ
れ、、、とすると、第1の固定カメラ2でとら
えられた画像データの重心位置と、第2の固定カメラ
3でとらえられた画像データの重心位置と、第3の固
定カメラ4でとらえられた画像データの重心位置との
一致点が模擬弾イの真の着弾地点である。他の模擬弾の
真の着弾地点についても、図4(b)に示すデータから
同様に求めることができる。
FIG. 4 shows a method of detecting the landing position. When four simulated bullets (a), (b), (c), and (c) are dropped into the target 1 at substantially the same time, smoke from each simulated bullet is captured by three fixed cameras 2, 3, and 4, respectively. Assuming that the position of the center of gravity of the image data at the smoke emitting position {see FIG. 3 (e) above} respectively, the position of the center of gravity of the image data captured by the first fixed camera 2 and the position of the second fixed camera The point of coincidence between the position of the center of gravity of the image data captured by the third camera 3 and the position of the center of gravity of the image data captured by the third fixed camera 4 is the true landing point of the simulation bullet A. The true landing points of other simulation bullets can be similarly obtained from the data shown in FIG.

【0026】以下に、本発明の他の実施例を列挙する。Hereinafter, other embodiments of the present invention will be described.

【0027】(1)前記実施例においては、標的1の周
囲に3台の固定カメラ2,3,4を備えたが、訓練機か
ら投下される模擬弾が1回の訓練について1つである場
合には、標的1の周囲に配置される固定カメラの台数を
2台にすることもできる。
(1) In the above embodiment, three fixed cameras 2, 3, and 4 are provided around the target 1, but one simulation bullet is dropped from the training machine for one training. In such a case, the number of fixed cameras arranged around the target 1 can be two.

【0028】(2)前記実施例においては、各固定カメ
ラから短い時間間隔をおいて2枚の画像データを解析装
置11に取り込み、これを画像処理することによって発
煙位置を抽出したが、各固定カメラについて1枚の画像
データのみを取り込み、画像処理によって発煙位置を抽
出することもできる。
(2) In the above-mentioned embodiment, two image data are taken into the analysis device 11 at short time intervals from each fixed camera, and the smoke position is extracted by performing image processing on the image data. It is also possible to take in only one piece of image data for the camera and extract the smoke position by image processing.

【0029】(3)前記実施例においては、差画像1
(=A−B)と差画像2(=B−A)とを求めた後、さ
らに差画像3(=差画像1+差画像2)を求めることに
よって発煙位置を抽出したが、差画像1(=A−B)又
は差画像2(=B−A)から発煙位置を抽出することも
できる。
(3) In the above embodiment, the difference image 1
After calculating (= AB) and the difference image 2 (= BA), a smoke position was extracted by further calculating a difference image 3 (= difference image 1 + difference image 2). = AB) or the difference image 2 (= BA), the smoke emission position can be extracted.

【0030】(4)前記実施例においては、模擬弾が着
弾したときの衝撃音を音響センサ5で捉えて画像取り込
みのトリガとしたが、訓練機から模擬弾投下操作に同期
して模擬弾投下信号を解析装置11に無線で入力し、こ
れをトリガとして画像データの取り込みを行うこともで
きる。また、他の方法としては、発煙検知用の固定カメ
ラとは別個に配置された撮像装置にて標的近傍に接近し
た訓練機の機体を撮影し、模擬弾投下に同期して特殊な
姿勢をとったときの画像データから画像処理によって模
擬弾投下信号を生成し、これをトリガとして画像データ
の取り込みを行うこともできる。例えば、模擬弾投下時
には、図5に示すように、訓練機の運動ベクトルが大き
く変化するので、これを利用したロジックにて模擬弾投
下信号を生成することができる。勿論、これらの場合に
は、模擬弾の飛行時間を考慮して模擬弾投下信号を遅延
させ、着弾時に模擬弾投下信号を解析装置11に入力さ
せることもできる。
(4) In the above-described embodiment, the impulsive sound when the simulated ammunition lands is captured by the acoustic sensor 5 to trigger the image capture. However, the simulated ammunition is released from the training machine in synchronization with the simulated ammunition release operation. A signal may be wirelessly input to the analyzer 11, and image data may be captured using the signal as a trigger. Another method is to take an image of the training aircraft approaching the target with an imaging device that is arranged separately from the fixed camera for smoke detection, and take a special posture in synchronization with the simulated bullet release. It is also possible to generate a simulated bullet release signal from the image data at the time of image processing by image processing and use this as a trigger to capture the image data. For example, when a simulated bullet is dropped, as shown in FIG. 5, the motion vector of the training machine changes greatly. Therefore, a simulated bullet drop signal can be generated by logic using this. Of course, in these cases, it is also possible to delay the simulated bullet release signal in consideration of the flight time of the simulated bullet, and to input the simulated bullet release signal to the analyzer 11 upon impact.

【0031】[0031]

【発明の効果】以上説明したように、本発明によれば、
投下爆弾の着弾位置を自動的に監視できることから監視
員の減少又は廃止を図れると共に、投下爆弾の着弾位置
をリアルタイムで演算することができ、射撃結果を直ち
に訓練員にフィードバックできることから訓練の高能率
化を図ることができる。また、模擬弾投下信号を生成
し、該信号をトリガとして撮像装置を起動するようにし
たので、測定時点に個人誤差の入る余地がなく、高精度
の着弾位置検出を実現できる。
As described above, according to the present invention,
The ability to automatically monitor the location of the dropped bombs reduces or eliminates surveillance personnel, and also allows the location of the dropped bombs to be calculated in real time, providing immediate feedback on the firing results to the trainees. Can be achieved. In addition, since a simulated bullet release signal is generated and the imaging device is started using the signal as a trigger, there is no room for an individual error at the time of measurement, and highly accurate landing position detection can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施例に係る着弾位置検出装置の構成図であ
る。
FIG. 1 is a configuration diagram of an impact position detection device according to an embodiment.

【図2】実施例に係る着弾位置検出方法のフローチャー
トである。
FIG. 2 is a flowchart of a landing position detection method according to the embodiment.

【図3】実施例に係る画像処理方法を模式的に示す説明
図である。
FIG. 3 is an explanatory diagram schematically showing an image processing method according to the embodiment.

【図4】同時に投下された4発の模擬弾の着弾位置検出
方法を示す説明図である。
FIG. 4 is an explanatory diagram showing a landing position detection method of four simulated bullets dropped at the same time.

【図5】訓練機の飛跡と模擬弾の投下タイミングを示す
説明図である。
FIG. 5 is an explanatory diagram showing a track of a training machine and a drop timing of a simulation bullet.

【符号の説明】[Explanation of symbols]

1 標的 2,3,4 固定カメラ(撮像装置) 5 音響センサ 6 プリアンプ 7 コンピュータシステム 11 解析装置 12 表示装置 13 印字装置 14 信号分別器 15 画像処理関連機器 16 電源 DESCRIPTION OF SYMBOLS 1 Target 2, 3, 4 Fixed camera (imaging device) 5 Acoustic sensor 6 Preamplifier 7 Computer system 11 Analysis device 12 Display device 13 Printing device 14 Signal discriminator 15 Image processing related equipment 16 Power supply

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 標的の周囲に設置された複数台の撮像装
置と、これらの各撮像装置から取り込まれた画像データ
を画像処理して模擬弾の着弾位置を演算するコンピュー
タと、模擬弾の投下時を検出して模擬弾投下信号を出力
する信号発生器とからなり、該信号発生器からの模擬弾
投下信号をトリガとして前記複数台の撮像装置を作動さ
せ、標的及びその周囲の画像データを前記コンピュータ
に取り込み、画像処理によって投下模擬弾の着弾位置を
自動的に求めることを特徴とする投下爆弾の着弾位置検
出装置。
1. A plurality of imaging devices installed around a target, a computer that performs image processing on image data taken from each of these imaging devices to calculate a landing position of a simulated bullet, and a simulated bullet release A signal generator that detects time and outputs a simulated bullet release signal, and activates the plurality of image pickup devices with the simulated bullet release signal from the signal generator as a trigger to convert target and surrounding image data. An impact position detecting device for a dropped bomb, which is loaded into the computer and automatically calculates the impact position of the simulated dropped bomb by image processing.
【請求項2】 請求項1に記載の装置において、前記信
号発生器が、前記標的の周囲に埋設された音響センサ
と、該音響センサの出力信号値が予め定められた基準信
号値よりも大きくなったときに模擬弾投下信号を出力す
る信号分別器とからなることを特徴とする投下爆弾の着
弾位置検出装置。
2. The apparatus according to claim 1, wherein the signal generator includes an acoustic sensor embedded around the target, and an output signal value of the acoustic sensor is greater than a predetermined reference signal value. And a signal discriminator for outputting a simulated bomb release signal when the bomb has dropped.
【請求項3】 請求項1に記載の装置において、前記信
号発生器が、前記標的の近傍に接近した訓練機の機体を
撮影する撮像装置と、該撮像装置からの画像データを画
像処理して、訓練機の位置、姿勢又は飛跡などから模擬
弾の投下時を検出し、それに同期して模擬弾投下信号を
出力する画像処理装置とからなることを特徴とする投下
爆弾の着弾位置検出装置。
3. The apparatus according to claim 1, wherein the signal generator is configured to capture an image of an aircraft of a training machine approaching the vicinity of the target, and to perform image processing on image data from the image capturing apparatus. And an image processing device that detects when a simulated bullet is released from the position, attitude, or track of the training machine, and outputs a simulated bullet release signal in synchronization therewith.
【請求項4】 請求項1に記載の装置において、前記信
号発生器が、訓練機に搭載され、模擬弾の投下操作に同
期して模擬弾投下信号を無線送信する無線送信器からな
ることを特徴とする投下爆弾の着弾位置検出装置。
4. The apparatus according to claim 1, wherein the signal generator comprises a wireless transmitter mounted on the training machine and wirelessly transmitting a simulated bullet release signal in synchronization with a simulated bullet release operation. Characteristic device for detecting the position of a dropped bomb.
【請求項5】 請求項1に記載の装置において、前記標
的の周囲に3台の撮像装置をほぼ等分に設置し、標的内
に同時に投下された複数の模擬弾の着弾位置を前記コン
ピュータにて自動的に求めることを特徴とする投下爆弾
の着弾位置検出装置。
5. The apparatus according to claim 1, wherein three image pickup devices are provided at substantially equal intervals around the target, and landing positions of a plurality of simulated projectiles dropped simultaneously in the target are recorded on the computer. A drop bomb landing position detection device that automatically obtains the position.
【請求項6】 周囲に複数台の撮像装置が設置された標
的内に向けて着弾と同時に発煙を生じる模擬弾を投下
し、模擬弾の投下時を検出する信号発生器から模擬弾投
下信号が出力されたとき、その信号をトリガとして前記
複数台の撮像装置を作動させ、標的及びその周囲の画像
データを前記コンピュータに取り込んで当該画像データ
上の発煙位置の座標を算出し、次いでこの座標情報と前
記複数台の撮像装置の設定位置情報とから前記模擬弾の
着弾位置を求めることを特徴とする投下爆弾の着弾位置
検出方法。
6. A simulated ammunition dropping signal is emitted from a signal generator that emits a simulated ammunition that emits smoke simultaneously with impact on a target having a plurality of imaging devices installed around the same, and detects when the simulated ammunition is dropped. When the signal is output, the signal is used as a trigger to operate the plurality of imaging devices, capture the target and surrounding image data into the computer, calculate the coordinates of the smoke emission position on the image data, and then calculate the coordinate information. And determining a landing position of the simulation bomb based on the set position information of the plurality of imaging devices.
【請求項7】 請求項6に記載の方法において、前記複
数台の撮像装置のそれぞれより短い時間間隔をおいて撮
像された複数の画像データを前記コンピュータに取り込
み、撮像時間が異なる各画像データの差分データから発
煙位置の座標を算出することを特徴とする投下爆弾の着
弾位置検出方法。
7. The method according to claim 6, wherein a plurality of image data captured at a shorter time interval than each of the plurality of image capturing devices is taken into the computer, and each of the image data having a different image capturing time is taken. A method for detecting a landing position of a dropped bomb, comprising calculating coordinates of a smoking position from difference data.
【請求項8】 請求項7に記載の方法において、短い時
間間隔をおいて撮像された2つの画像データをそれぞれ
A及びBとしたとき、(A−B)の差分データ及び(B
−A)の差分データをとり、次いでこれらの差分データ
を加算することによって、被写体である煙の動きを全て
抽出することを特徴とする投下爆弾の着弾位置検出方
法。
8. The method according to claim 7, wherein when two image data taken at short time intervals are A and B, respectively, the difference data of (A−B) and (B)
-A method for detecting the landing position of a dropped bomb, wherein the difference data of (A) is obtained, and then the difference data is added to extract all movements of smoke as a subject.
JP30857997A 1997-11-11 1997-11-11 Method and device for detection of impact location of released bomb Pending JPH11142098A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30857997A JPH11142098A (en) 1997-11-11 1997-11-11 Method and device for detection of impact location of released bomb

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30857997A JPH11142098A (en) 1997-11-11 1997-11-11 Method and device for detection of impact location of released bomb

Publications (1)

Publication Number Publication Date
JPH11142098A true JPH11142098A (en) 1999-05-28

Family

ID=17982737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30857997A Pending JPH11142098A (en) 1997-11-11 1997-11-11 Method and device for detection of impact location of released bomb

Country Status (1)

Country Link
JP (1) JPH11142098A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100460522B1 (en) * 2001-04-12 2004-12-08 김재흠 Analysis Method of Target Impact Point for Heavy firearms And System for Use in Such Method
KR100614279B1 (en) * 2004-08-09 2006-08-23 (주) 지우솔루션 Apparatus and Method for Generating Analysis Model and Analysis System Using the Same
JP2008504591A (en) * 2004-05-28 2008-02-14 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド Method and apparatus for recognizing objects in an image
JP2011085337A (en) * 2009-10-16 2011-04-28 Mitsubishi Heavy Ind Ltd Impact point observing method and system
KR20160062321A (en) * 2014-11-24 2016-06-02 대한민국(국방부 공군제83정보통신정비창장) Apparatus and method for scoring at air-to-surface shooting range
KR20210068930A (en) 2019-12-02 2021-06-10 한화디펜스 주식회사 Remote weapon
CN114858013A (en) * 2022-04-13 2022-08-05 莆田市军源特种装备科技有限公司 Projectile body throwing distance measuring method based on intelligent visual identification
KR20230123297A (en) * 2022-02-16 2023-08-23 엘아이지넥스원 주식회사 Method and system for extracting impact location of guided air vehicle and moving target using image information

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100460522B1 (en) * 2001-04-12 2004-12-08 김재흠 Analysis Method of Target Impact Point for Heavy firearms And System for Use in Such Method
JP2008504591A (en) * 2004-05-28 2008-02-14 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド Method and apparatus for recognizing objects in an image
KR100614279B1 (en) * 2004-08-09 2006-08-23 (주) 지우솔루션 Apparatus and Method for Generating Analysis Model and Analysis System Using the Same
JP2011085337A (en) * 2009-10-16 2011-04-28 Mitsubishi Heavy Ind Ltd Impact point observing method and system
KR20160062321A (en) * 2014-11-24 2016-06-02 대한민국(국방부 공군제83정보통신정비창장) Apparatus and method for scoring at air-to-surface shooting range
KR20210068930A (en) 2019-12-02 2021-06-10 한화디펜스 주식회사 Remote weapon
KR20230123297A (en) * 2022-02-16 2023-08-23 엘아이지넥스원 주식회사 Method and system for extracting impact location of guided air vehicle and moving target using image information
CN114858013A (en) * 2022-04-13 2022-08-05 莆田市军源特种装备科技有限公司 Projectile body throwing distance measuring method based on intelligent visual identification
CN114858013B (en) * 2022-04-13 2024-05-17 莆田市军源特种装备科技有限公司 Projectile body distance casting and measuring method based on intelligent visual recognition

Similar Documents

Publication Publication Date Title
WO2011122762A2 (en) Firearm simulation system simulating leading fire, laser-emitting device, and target detection device
KR100252523B1 (en) Emergency root decision method and device of projector
EP3034987A1 (en) System for identifying a position of impact of a weapon shot on a target
JP2001264016A (en) Motion-measuring instrument for ball
KR101194724B1 (en) Screen simulation apparatus using virtual arrow
US20210372738A1 (en) Device and method for shot analysis
KR101921249B1 (en) Method and Apparatus for Live Round Shooting Simulation
US20220049931A1 (en) Device and method for shot analysis
JPH11142098A (en) Method and device for detection of impact location of released bomb
KR101200350B1 (en) A Shooting system
JP5342855B2 (en) Simulated combat device for shooting training
KR101185068B1 (en) Archery electronic scoring system
JP2021001823A (en) Detector and detection method
US20070287132A1 (en) System and method of simulating firing of immobilization weapons
EP2604967B1 (en) Airburst simulation system and method of simulation for airburst
JPH10213432A (en) Apparatus for determining light-emitting source
KR101241283B1 (en) Fire simulation system using Sensing device
CA3222405A1 (en) Personalized combat simulation equipment
JP5342854B2 (en) Simulated combat device for shooting training
KR102493325B1 (en) System and method for estimating target impact point for a direct weapon
KR101912754B1 (en) Shooting and display system for shooting target
KR101739959B1 (en) Apparatus for Obtaining Target Image Using Rotational Falling Motion
JP2000171199A (en) Passive impact splash standardizing apparatus
US20220221257A1 (en) Geometrically paired live instrumentation training hand grenade
JP2006207876A (en) Shooting training system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051011

A02 Decision of refusal

Effective date: 20060314

Free format text: JAPANESE INTERMEDIATE CODE: A02