JPH11183096A - Landing observation image processor - Google Patents

Landing observation image processor

Info

Publication number
JPH11183096A
JPH11183096A JP35443797A JP35443797A JPH11183096A JP H11183096 A JPH11183096 A JP H11183096A JP 35443797 A JP35443797 A JP 35443797A JP 35443797 A JP35443797 A JP 35443797A JP H11183096 A JPH11183096 A JP H11183096A
Authority
JP
Japan
Prior art keywords
image
flying
observation
processing unit
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP35443797A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Tomioka
義幸 富岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP35443797A priority Critical patent/JPH11183096A/en
Publication of JPH11183096A publication Critical patent/JPH11183096A/en
Pending legal-status Critical Current

Links

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable stable determination of the landing position of a projectile by a method wherein a landing point of a flying projectile is computed to match any moment of flying time thereof when the projectile should reach a target using estimated items of trajectory and the position of the flying projectile before the landing thereof is extracted to forecast the position of the projectile at the landing moment. SOLUTION: The position of a flying projectile of an extracted image 31 in an image extraction timing signal 29 at an observation time generation processing section 42 is observed just as in a flying projectile image. From this extracted image, the flying projectile image is extracted by a flying projectile image extraction processing section 43 to determine the observation position 44 of the flying projectile image within the image. A flying trajectory items estimation processing section 45 determines a horizontal position conversion value x1 and a vertical position conversion value y1 from the observation position 44 of the flying projectile image. Using the estimated trajectory items 49 determined, a landing point forecast processing section 50 determines an estimated landing position based on a horizontal landing position conversion value xp and a vertical landing position conversion value yp. The estimated landing position thus obtained is outputted as forecast landing point 51 corresponding to the position in the image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、標的に対して発
射された砲弾の弾着観測が必要であるシステムにおいて
飛翔中の砲弾を画像にて観測することにより弾着位置を
予測する弾着観測画像処理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a landing observation system for predicting a landing position by observing a flying shell in an image in a system which requires observation of a shell shot at a target. The present invention relates to an image processing device.

【0002】[0002]

【従来の技術】図11は弾着観測画像処理装置が適用さ
れるシステムの一例を示す。このシステムは、標的1に
砲弾2を命中させるように動作するものであり、発射砲
3を搭載した発射器4と撮像カメラ5と測遠器6は機械
的、電機的に位置関係が連動する連動機構7により位置
決めされている。撮像カメラ5にて標的1を視軸方位8
に捕捉し、同方向のレーザ照射方向9にレーザ等による
測遠器6により標的1までの射距離10が計測される。
又、発射器4は、撮像カメラ5で捕らえた標的1方向へ
指向するように操作指令11の入力を受け、駆動制御部
12により、標的1方向の発射器指向方向13へ指向す
る。砲弾2は主として射距離10と砲弾固有の発射速度
を関数とする放物線状の弾道軌跡をとることから砲弾2
を標的1に命中させる為に必要な発射砲3の見越角方位
14を射距離10及び砲弾2の特性を決定する飛翔体種
類15の入力を受け弾道計算部16にて計算し、見越角
指令17を駆動制御部12に出力する。見越角指令17
の入力を受けた駆動制御部12からの制御信号18によ
り発射砲3は、見越角方位14の方向を指向する。この
ように設定された状態で砲弾2を発射するための撃発ト
リガ19が入力されると、砲弾2は発射砲3から発射さ
れ、標的1へ向かって飛翔する。この飛翔砲弾2が標的
1の付近のどこに弾着したかを観測することは、安全管
理、次の弾再射撃のための見越角修正等にとって重要な
ものとなり、撮像カメラ5からの入力画像20を用いて
弾着位置を観測する弾着観測画像処理装置21が用いら
れる。弾着観測画像処理装置21による弾着観測には、
射距離10と発射速度から得られる砲弾2が標的1に到
達するのに要する飛翔時間22等の弾道計算部16から
の入力と観測のタイミングを与える撃発トリガ19等の
入力を用いて、砲弾2が弾着する時刻での砲弾位置を画
像から観測する方法が用いられる。又、この時、入力画
像20から抽出した弾着位置と標的1方向の画像状況と
を合成した表示画像23を表示部24へ表示出力する。
又、25は発射砲3、発射器4及び撮像カメラ5の現在
角である。又、26は、視軸方位、弾道諸元等の発射諸
元である。又、図12は従来の弾着観測画像処理装置を
示す構成図である。図において、27は標的1方向を撮
像する撮像カメラ5からの入力画像20を入力とし、標
的1を画像内から抽出し、その標的1内の射撃点を追尾
するように動作する目標追尾処理部、28は撃発トリガ
19の入力を受け、飛翔時間22後の画像抽出タイミン
グ信号29を出力する弾道時刻カウンタ、30は入力画
像20から画像抽出タイミング信号29の入力時刻での
画像フレームを取り込み記憶し、抽出画像31を出力す
る画像フレームメモリ部、32は抽出画像31から弾着
時刻での砲弾飛翔位置を弾着点として抽出する弾着点抽
出処理部、33は視軸方位現在角34を基準方向とし、
上記目標追尾処理部27から出力される追尾位置データ
35と上記弾着点抽出処理部32からの弾着位置観測デ
ータ36を入力画像20上にシンボル等にて表示合成
し、表示画像23を出力する表示合成処理部である。
2. Description of the Related Art FIG. 11 shows an example of a system to which a landing observation image processing apparatus is applied. This system operates so that a target 2 is hit with a shell 2. A projectile 4 equipped with a firing gun 3, an imaging camera 5, and a distance measuring device 6 are mechanically and electrically linked in a positional relationship. Positioned by the interlocking mechanism 7. Viewing target 1 with imaging camera 5 in visual axis direction 8
And a distance 10 to the target 1 is measured by a telemeter 6 using a laser or the like in the same laser irradiation direction 9.
Further, the projectile 4 receives an operation command 11 so as to be directed in the direction of the target 1 captured by the imaging camera 5, and is directed by the drive control unit 12 in the direction 13 of the projectile in the direction of the target 1. The shell 2 mainly has a parabolic trajectory trajectory that is a function of the firing distance 10 and the firing speed inherent to the shell.
The trajectory calculation unit 16 calculates the azimuth angle 14 of the firing gun 3 necessary for hitting the target 1 with the projectile 10 that determines the firing distance 10 and the characteristics of the shell 2. An angle command 17 is output to the drive control unit 12. Accrual angle command 17
The firing gun 3 is directed in the direction of the accrual angle azimuth 14 by the control signal 18 from the drive control unit 12 which has received the input. When the firing trigger 19 for firing the shell 2 is input in the state set as described above, the shell 2 is fired from the firing gun 3 and flies toward the target 1. Observing where the flying cannonball 2 has landed near the target 1 is important for safety management, correction of the accrual angle for the next re-fire, etc., and the input image from the imaging camera 5 An impact observation image processing device 21 for observing the impact position using 20 is used. For the arrival observation by the arrival observation image processing device 21,
Using the input from the trajectory calculation unit 16 such as the flight time 22 required for the shell 2 obtained from the shooting distance 10 and the firing speed to reach the target 1 and the input of the firing trigger 19 giving the timing of observation, the shell 2 A method of observing the position of the shell at the time of landing from the image is used. At this time, a display image 23 obtained by synthesizing the impact position extracted from the input image 20 and the image state in the target 1 direction is output to the display unit 24.
Reference numeral 25 denotes a current angle of the firing gun 3, the firing device 4, and the imaging camera 5. Reference numeral 26 denotes launch parameters such as visual axis orientation and trajectory parameters. FIG. 12 is a block diagram showing a conventional landing observation image processing apparatus. In the figure, reference numeral 27 denotes a target tracking processing unit which receives an input image 20 from the imaging camera 5 that captures an image of the target 1, extracts the target 1 from the image, and operates to track a shooting point in the target 1. , 28 receive the input of the firing trigger 19 and output a ballistic time counter 29 which outputs an image extraction timing signal 29 after the flight time 22. 30 captures and stores the image frame at the input time of the image extraction timing signal 29 from the input image 20. An image frame memory unit that outputs an extracted image 31; 32, an impact point extraction processing unit that extracts a shell flight position at the impact time as an impact point from the extracted image 31; 33, a reference to the visual axis azimuth current angle 34 Direction and
The tracking position data 35 output from the target tracking processing unit 27 and the landing position observation data 36 from the landing point extraction processing unit 32 are displayed and synthesized on the input image 20 using symbols or the like, and the display image 23 is output. This is a display synthesis processing unit.

【0003】従来の弾着観測画像処理装置は上記のよう
に構成され、次のように動作する。砲弾2の発射時刻で
ある撃発トリガ19の発生から、砲弾2が標的1に到達
する時刻である飛翔時間22後の画像抽出タイミング信
号29を弾着時刻カウンタ28から入力することによ
り、弾着時刻での画像を入力画像20から画像フレーム
メモリ部30へ取り込む。この取り込んだ抽出画像31
から砲弾観測位置を抽出することにより砲弾2が標的1
に弾着する時刻での砲弾位置、即ち弾着位置を知ること
ができる。又、表示合成処理部33では、この抽出され
た弾着位置観測データ36と標的1を追尾処理した追尾
位置データ35の各データを視軸方位現在角34を基準
位置とし、入力画像20上にシンボル等にて合成表示し
た表示画像23とし出力することにより弾着状況の確認
を行うことができる。
[0003] The conventional landing observation image processing apparatus is configured as described above and operates as follows. From the occurrence of the firing trigger 19, which is the firing time of the shell 2, the image extraction timing signal 29 after the flight time 22, which is the time at which the shell 2 reaches the target 1, is input from the landing time counter 28, so that the landing time Is taken from the input image 20 into the image frame memory unit 30. This captured image 31
Ammunition 2 is extracted from the target 1
The user can know the position of the shell at the time of landing. In addition, the display combining processing unit 33 uses the data of the extracted landing position observation data 36 and the tracking position data 35 obtained by performing tracking processing of the target 1 with the visual axis azimuth current angle 34 as a reference position, and displays the data on the input image 20. By outputting as a display image 23 synthesized and displayed with symbols or the like, it is possible to confirm the state of impact.

【0004】図13に飛翔外乱となる空気抵抗、風等の
影響を無視した場合の砲弾2の発射から弾着までの基本
的な飛翔状況について示す。標的1が標的水平距離37
に有るとき、砲弾2を標的1に命中させるためには、砲
弾2の発射速度に応じて、見越角方位14に発射砲3の
仰角をとる。38は発射時砲弾、39は飛翔中砲弾、4
0は弾着時刻砲弾の放物線状となる砲弾飛翔経路41上
の位置を示す。
FIG. 13 shows a basic flight situation from the firing of the shell 2 to the impact when the effects of air resistance, wind, and the like, which become a flight disturbance, are ignored. Target 1 is target horizontal distance 37
In order to cause the shell 2 to hit the target 1, the elevation angle of the firing gun 3 is set to the anticipation angle azimuth 14 according to the firing speed of the shell 2. 38 is a shell at launch, 39 is a shell in flight, 4
0 indicates a position on the bullet flight path 41 which becomes a parabola of the bullet at the time of impact.

【0005】図14は砲弾発射時及び砲弾弾着時の表示
画像23を示すものである。図14(a)は砲弾発射時
での表示画像23であり、表示画像23内に入力画像2
0にて撮像されている標的1と視軸方位現在角34、追
尾位置データ35のシンボルが合成表示されていること
を示す。標的1が移動している場合や風等による砲弾の
曲がり等の見越修正量を考慮する等の場合には、追尾位
置データ35と視軸方位現在角34には見越修正量分の
位置偏差を生ずる。又、図14(b)は砲弾弾着時での
表示画像23であり、砲弾発射時の表示画像に対して観
測抽出された弾着位置観測データ36のシンボルが合成
表示されていることを示し、これにより砲弾の弾着点、
命中点を観測することができる。
FIG. 14 shows a display image 23 when a shell is fired and when a shell is attached. FIG. 14A shows a display image 23 when a shell is fired, and the input image 2 is included in the display image 23.
0 indicates that the target 1 being imaged, the visual axis azimuth current angle 34, and the symbol of the tracking position data 35 are combined and displayed. In the case where the target 1 is moving or the amount of accrual correction such as bending of a shell due to wind or the like is considered, the tracking position data 35 and the visual axis azimuth current angle 34 include positions corresponding to the amount of accrual correction. Produces a deviation. FIG. 14B shows a display image 23 when a bullet is shot, and shows that the symbol of the shot position observation data 36 that is observed and extracted from the display image when the shot is fired is combined and displayed. , This gives the point of impact of the shell,
You can observe the hit point.

【0006】又、弾着時の弾着画像を画像フレームメモ
リ部30に取り込むためには、砲弾発射時刻に発生する
撃発トリガ19の発生タイミングから砲弾が弾着するま
での飛翔時間22を得ることが必要となる。図13で示
される砲弾の飛翔中の位置を発射方向への水平方向位置
をx、鉛直方向位置をyとし、見越角をα、砲弾2の発
射速度をv、重力加速度をgとすると発射時刻からの経
過時間tでの水平方向位置x、鉛直方向位置yは、各々
次式により求まる。
Further, in order to load the landing image at the time of landing into the image frame memory section 30, it is necessary to obtain the flight time 22 from the timing of the firing trigger 19 generated at the firing time of the shell to the landing of the shell. Is required. When the position in flight of the shell shown in FIG. 13 is x in the horizontal direction in the firing direction, y in the vertical direction, α is the accrual angle, v is the firing speed of shell 2, and g is the gravitational acceleration. The horizontal position x and the vertical position y at the elapsed time t from the time are obtained by the following equations.

【0007】[0007]

【数1】 (Equation 1)

【0008】[0008]

【数2】 (Equation 2)

【0009】又、この時、射距離10となる標的水平距
離37をL、砲弾2が標的1に到達する弾着時刻となる
飛翔時間22をTとすると、L及びTは各々次式により
求められる。
At this time, assuming that the target horizontal distance 37, which is the firing distance 10, is L, and the flight time 22, which is the time at which the shell 2 arrives at the target 1, is T, L and T are respectively obtained by the following equations. Can be

【0010】[0010]

【数3】 (Equation 3)

【0011】[0011]

【数4】 (Equation 4)

【0012】従って、弾道計算部16では、砲弾固有の
発射速度vは既知諸元であり、射距離10は測遠器6に
より観測入力される諸元であるので、命中に必要な見越
角αと飛翔時間Tを求めることができ、この飛翔時間2
2にて画像を取り込めば弾着時刻の画像を得ることがで
きる。
Therefore, in the trajectory calculation unit 16, the firing speed v specific to the shell is a known parameter, and the firing range 10 is a parameter observed and input by the telemeter 6, so that the accrual angle required for a hit is obtained. α and the flight time T can be obtained.
If an image is captured in step 2, an image at the time of impact can be obtained.

【0013】[0013]

【発明が解決しようとする課題】上記のような従来の弾
着観測画像処理装置では、弾着時刻における画像の抽出
を行うことにより弾着点の観測を実行するものである。
In the conventional landing observation image processing apparatus as described above, the landing point is observed by extracting an image at the landing time.

【0014】図15は発射砲弾の飛翔例を示したもので
ある。図15(a)は砲弾2が弾着時刻に標的1に命中
した場合を示す。図15(b)は砲弾2が弾着時刻に標
的1の上方を通過した場合を示す。図15(c)は砲弾
2が弾着時刻前に標的1の手前に弾着した場合を示す。
このように、実際の砲弾の飛翔においては、設定弾道諸
元の誤差等の影響により、弾着時刻に砲弾2が標的1位
置に存在しない場合が発生する。射距離10は測遠器6
の測距精度等に依存し、発射速度は発射火薬等の発火の
環境条件、砲弾の個体差等に依存して諸元が変動するも
のであり、実際の発射速度が、設定した諸元に対して、
小さかった場合は、図15(c)に示すように標的1の
手前に弾着時刻前に弾着してしまうことになり、弾着時
刻の画像を取り込む従来の方式では、弾着を観測するこ
とができないといった問題があった。
FIG. 15 shows an example of the flight of a projectile. FIG. 15A shows a case where the shell 2 hits the target 1 at the time of impact. FIG. 15B shows a case where the shell 2 has passed above the target 1 at the time of impact. FIG. 15C shows a case where the shell 2 has landed before the target 1 before the time of landing.
As described above, in the actual flight of the shell, there is a case where the shell 2 does not exist at the target 1 position at the time of impact due to the influence of the error of the set trajectory specification and the like. The shooting range 10 is the telemeter 6
The firing speed varies depending on the environmental conditions of firing of explosives, the individual difference of shells, etc., and the actual firing speed depends on the set specifications. for,
If it is smaller, it will land before the target 1 before the landing time as shown in FIG. 15C. In the conventional method of capturing the image of the landing time, the landing is observed. There was a problem that it was not possible.

【0015】図16は弾着時刻での取得画像例を示した
ものである。図16(a)は砲弾2が標的1に命中した
時の弾着発光98が大きい場合の状況を示し、このよう
な場合では、弾着発光が大きく広がっている等の影響に
より、正確な弾着点の抽出及び観測が困難となる。図1
6(b)は砲弾2が標的1付近を通過中の状況を示して
いる。遠方の標的1付近での砲弾2は微小サイズであ
り、又、遠方であるといったことから、気象条件等の影
響により、弾着付近飛翔砲弾画像99が見えなくなるた
めに抽出及び観測が困難となるといった問題があった。
FIG. 16 shows an example of an image obtained at the time of impact. FIG. 16A shows a situation where the impact light emission 98 when the shell 2 hits the target 1 is large, and in such a case, an accurate impact due to the large spread of the impact light emission is given. It is difficult to extract and observe landing points. FIG.
6 (b) shows a situation where the shell 2 is passing near the target 1. The shell 2 near the distant target 1 has a very small size and is distant, so that it is difficult to extract and observe the shot shell image 99 near the landing due to the influence of weather conditions and the like. There was such a problem.

【0016】この発明はかかる問題点を解決するために
なされたものであり、砲弾が弾着時刻前に弾着しても、
弾着時刻に標的上方等を飛翔中であっても、いずれの場
合でも弾着時刻での弾着点がどの位置にあるべきかを求
めるために、弾着以前の飛翔中の砲弾位置を抽出し、弾
着時刻での砲弾位置を予測することにより安定に弾着位
置の把握を可能とすることを目的としている。
The present invention has been made in order to solve such a problem, and even if a shell hits before the time of hitting,
Even if you are flying above the target at the time of impact, in any case, to find the position of the impact point at the impact time, extract the shell position during flight before the impact It is another object of the present invention to stably grasp the position of the shot by predicting the position of the shot at the shot time.

【0017】又、この発明は、弾着発光により弾着位置
の観測が困難である場合でも、遠方の飛翔砲弾の観測が
画像上で困難である場合であっても弾着時刻での弾着点
がどの位置にあるべきかを求めるために、飛翔砲弾位置
が標的までの最遠方となる弾着以前の飛翔中の砲弾位置
を抽出し、弾着時刻での砲弾位置を予測することにより
安定に弾着位置の把握を可能とすることを目的としてい
る。
Further, the present invention can be applied to a case where it is difficult to observe the position of an impact due to impact light emission, and even if it is difficult to observe a distant flying cannonball on an image. To find out where the point should be, stabilize by extracting the shell position in flight before landing where the flying shell position is farthest to the target and predicting the shell position at the time of arrival The purpose of this is to make it possible to grasp the impact position.

【0018】[0018]

【課題を解決するための手段】第1の発明による弾着観
測画像処理装置は、実際の弾着状況、砲弾が遠方になる
ことによる観測性劣化等の影響が少ない弾着時刻以前の
飛翔中のある1タイミングでの画像抽出タイミング信号
を発生する手段と、画像抽出タイミング信号により抽出
された画像から飛翔中の砲弾位置を抽出し、抽出した飛
翔砲弾の画像上の飛翔砲弾位置から飛翔砲弾の弾道軌跡
を決定する弾道諸元を推定する手段と、推定した弾道諸
元を用いて飛翔砲弾が標的に到達すべき飛翔時間時点で
の弾着点を算出する手段とを設けたものである。
According to the first aspect of the present invention, a landing observation image processing apparatus is provided for a flight before a landing time, which is less affected by an actual landing state and observability deterioration due to a distant shell. Means for generating an image extraction timing signal at a certain timing, extracting the position of the projectile in flight from the image extracted by the image extraction timing signal, and extracting the position of the projectile from the position of the extracted projectile on the image of the projectile. Means are provided for estimating trajectory parameters for determining a trajectory trajectory, and for calculating a landing point at a flight time at which a flying bullet should reach a target using the estimated trajectory parameters.

【0019】また、第2の発明による弾着観測画像処理
装置は、実際の弾着状況、砲弾が遠方になることによる
観測性劣化等の影響が少ない弾着時刻以前の飛翔中のあ
るn回の画像抽出タイミング信号を発生する手段と、n
回の画像抽出タイミング信号でのnフレーム分の抽出画
像を取り込む手段と、抽出画像からn個の飛翔中の砲弾
位置を抽出する手段と、抽出した飛翔砲弾の画像上のn
個の飛翔砲弾位置から飛翔砲弾の弾道軌跡を決定するn
個の弾道諸元を推定し、観測精度を向上させるために、
得られたn個の推定弾道諸元の平均値を弾道諸元として
求める手段と、平均された弾道諸元を用いて飛翔砲弾が
標的に到達すべき飛翔時間時点での弾着点を算出する手
段とを設けたものである。
Further, the landing observation image processing apparatus according to the second aspect of the present invention provides an actual landing state and n times of flight before the landing time which are less affected by observability degradation due to the distant shell. Means for generating an image extraction timing signal of
Means for taking in n frames of the extracted images in the image extraction timing signal for each time, means for extracting n flying shell positions from the extracted images, and n on the image of the extracted flying shells
Determining the trajectory of the projectile from the projectile positions
In order to estimate individual ballistics and improve observation accuracy,
Means for calculating the average value of the obtained n estimated ballistic parameters as ballistic parameters, and calculating the impact point at the time of flight at which the flying shell should reach the target using the averaged ballistic parameters Means.

【0020】また、第3の発明による弾着観測画像処理
装置は、実際の弾着状況、砲弾が遠方になることによる
観測性劣化等の影響が少ない弾着時刻以前の飛翔中のあ
る2回の画像抽出タイミング信号を発生する手段と、2
回の画像抽出タイミング信号での2フレーム分の抽出画
像を取り込む手段と、抽出画像から2個の飛翔中の砲弾
位置を抽出する手段と、抽出した飛翔砲弾の画像上の2
個の飛翔砲弾位置から飛翔砲弾の弾道軌跡を砲弾飛翔方
向に直線近似する飛翔弾道直線近似処理手段と、飛翔弾
道直線近似処理手段にて推定した直線近似弾道式を用い
て飛翔砲弾が標的に到達すべき飛翔時間時点での弾着点
を算出する手段とを設けたものである。
Further, the landing observation image processing apparatus according to the third aspect of the present invention provides an actual landing state and a flight twice before the landing time, which are less affected by observability deterioration due to the distant shell. Means for generating an image extraction timing signal of
Means for capturing two frames of the extracted image by the image extraction timing signal of each time, means for extracting two flying shell positions from the extracted image,
The flying trajectory reaches the target using the flight trajectory straight line approximation processing means that linearly approximates the trajectory of the flying munition from the positions of the flying munitions in the bullet trajectory direction, and the linear approximation trajectory formula estimated by the flight ballistic straight line approximation processing means Means for calculating a point of impact at the time of flight to be performed.

【0021】また、第4の発明による弾着観測画像処理
装置は、実際の弾着状況、砲弾が遠方になることによる
観測性劣化等の影響が少ない弾着時刻以前の飛翔中のあ
るm回の画像抽出タイミング信号を発生する手段と、m
回の画像抽出タイミング信号でのmフレーム分の抽出画
像を取り込む手段と、抽出画像からm個の飛翔中の砲弾
位置を抽出する手段と、抽出した飛翔砲弾の画像上のm
個の飛翔砲弾位置から飛翔砲弾の弾道軌跡を砲弾飛翔方
向に曲線近似する飛翔弾道曲線近似処理手段と、飛翔弾
道曲線近似処理手段にて推定した曲線近似弾道式を用い
て飛翔砲弾が標的に到達すべき飛翔時間時点での弾着点
を算出する手段とを設けたものである。
Further, the landing observation image processing apparatus according to the fourth aspect of the present invention provides an actual landing state and a certain number of times of flight during the flight before the landing time which are less affected by observability deterioration due to the distant shell. Means for generating an image extraction timing signal of
Means for capturing m frames of the extracted images in the image extraction timing signal, means for extracting m flying shell positions from the extracted images, and m on the image of the extracted flying shells
The flying trajectory reaches the target using the flying trajectory curve approximation processing means that approximates the trajectory of the flying munition in the direction of the trajectory from the positions of the flying munitions and the curve approximation trajectory formula estimated by the flying trajectory curve approximation processing means Means for calculating a point of impact at the time of flight to be performed.

【0022】また、第5の発明による弾着観測画像処理
装置は、入力画像から飛翔砲弾の抽出精度を向上させる
ために、他のクラッタの抽出を抑圧し画像中での移動物
体である飛翔砲弾のみを精度よく抽出する方法として、
前回画像フレームと現在画像フレームとの差分をとり差
分画像を抽出画像として取り込む手段を設けたものであ
る。
Further, the landing observation image processing apparatus according to the fifth aspect of the present invention suppresses the extraction of other clutter and improves the accuracy of the extraction of flying shells from the input image by reducing the flying shells which are moving objects in the image. As a method to extract only
A means for obtaining a difference between the previous image frame and the current image frame and taking in the difference image as an extracted image is provided.

【0023】また、第6の発明による弾着観測画像処理
装置は、入力画像から飛翔砲弾の抽出精度を向上させる
ために、画像内で観測される砲弾飛翔経路範囲がある程
度限定されることから、抽出画像内で飛翔砲弾の抽出処
理領域を限定し、他のクラッタ等の抽出を抑圧するため
の抽出領域選択手段を設けたものである。
In the hitting observation image processing apparatus according to the sixth aspect of the present invention, the range of the shot trajectory observed in the image is limited to some extent in order to improve the extraction accuracy of the shot shot from the input image. An extraction region selection means is provided for limiting the extraction processing region of the flying cannonball in the extraction image and suppressing the extraction of other clutter and the like.

【0024】また、第7の発明による弾着観測画像処理
装置は、入力画像から飛翔砲弾の抽出精度を向上させる
ために、飛翔砲弾の画像観測サイズはある程度限定され
ることから、他のクラッタの抽出を抑圧し飛翔砲弾のみ
を効果的に抽出するための抽出サイズを与える抽出サイ
ズ選択処理手段と抽出画像内から選択された抽出サイズ
に応じて飛翔砲弾を抽出する手段とを設けたものであ
る。
In the hit observation image processing apparatus according to the seventh aspect of the invention, the size of the image observation of the flying shell is limited to some extent in order to improve the accuracy of extracting the flying shell from the input image. There is provided an extraction size selection processing means for providing an extraction size for suppressing extraction and effectively extracting only a flying cannonball, and a means for extracting a flying cannonball according to an extraction size selected from within an extraction image. .

【0025】[0025]

【発明の実施の形態】実施の形態1.図1はこの発明の
実施の形態1を示す構成図である。図において19,2
0,22,23,27,29,30,31,33,34
及び35は上記従来装置と同一のものである。42は撃
発トリガ19の発生から飛翔時間22の間のある時刻に
画像抽出タイミング信号29を発生する観測時刻生成処
理部、43は画像抽出タイミング信号29にて画像フレ
ームメモリ部30に抽出された抽出画像31から飛翔中
の砲弾画像を抽出し、飛翔砲弾画像観測位置44を求め
出力する飛翔砲弾抽出処理部、45は撮像カメラ5の視
軸方位8となる弾道計算部16から与えられる視軸方位
現在角34と飛翔砲弾方向とのパララックス量である砲
諸元46を用いて飛翔砲弾画像観測位置44に対応した
砲弾飛翔方向の水平方向位置、鉛直方向位置への換算値
x1,y1を求め、このx1,y1と観測した飛翔時刻
48と射距離10からなる既知弾道諸元47とから推定
弾道諸元49を求める飛翔弾道諸元推定処理部、50は
飛翔弾道諸元推定処理部45からの推定弾道諸元49を
用いて飛翔砲弾が標的1に到達する時刻での弾着予測点
51を算出する弾着点予測処理部である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 FIG. 1 is a configuration diagram showing Embodiment 1 of the present invention. In the figure, 19, 2
0, 22, 23, 27, 29, 30, 31, 33, 34
And 35 are the same as the above-mentioned conventional device. An observation time generation processing unit 42 generates an image extraction timing signal 29 at a certain time during the flight time 22 from the occurrence of the firing trigger 19, and an extraction 43 extracted in the image frame memory unit 30 by the image extraction timing signal 29. A flying ammunition extraction processing unit that extracts a flying ammunition image from the image 31 and obtains and outputs a flying ammunition image observation position 44. A visual axis direction 45 given by the trajectory calculation unit 16 that becomes the visual axis direction 8 of the imaging camera 5 Using the gun specification 46 which is the parallax amount between the current angle 34 and the direction of the projectile, the horizontal and vertical positions x1, y1 of the projectile corresponding to the projectile image observation position 44 are calculated. A flight trajectory specification estimating unit for obtaining an estimated trajectory specification 49 from the x1, y1 and the known trajectory specification 47 including the observed flight time 48 and the shooting distance 10; Flying projectile using the estimated ballistic specifications 49 from the original estimation processing unit 45 is point of impact prediction processing unit for calculating a bullet deposition prediction point 51 at time to reach the target 1.

【0026】上記のように構成された弾着観測画像処理
装置において、ある時刻での観測画像から抽出した飛翔
砲弾位置から弾着点を算出する動作について説明する。
図8は発射器4に搭載された撮像カメラ5と発射砲3を
標的1方向から見た正面図である。砲弾2を発射する発
射器4方向と撮像カメラ5の視軸方向とは、一般に同軸
上にあることはなく、図のようにずれた位置となるパラ
ラックスを有している。図9(a)には表示画像にて観
測される飛翔砲弾の画像内砲弾飛翔軌跡52を示す。標
的1方向に放物線状に飛翔する砲弾は、上記パララック
スにより、図8の構成をとる時、画像内では右上方か
ら、標的1方向に落下して行くような飛翔軌跡として観
測される。また、弾着付近飛翔軌跡53で示すような範
囲においては、鉛直方向に直線的に落下して行くように
観測される。パララックスは、適用するシステム等にお
いて一定であるため、画像内での観測画像位置と、標的
1方向への飛翔位置との関係は一義的に決定でき、観測
画像位置から水平方向位置x、鉛直方向位置yへの換算
が可能である。
A description will be given of the operation of the above-configured landing observation image processing apparatus for calculating the landing point from the flying shell position extracted from the observation image at a certain time.
FIG. 8 is a front view of the imaging camera 5 and the firing gun 3 mounted on the launcher 4 as viewed from the target 1 direction. In general, the direction of the projectile 4 that fires the shell 2 and the direction of the visual axis of the imaging camera 5 are not coaxial, and have a parallax that is shifted as shown in the figure. FIG. 9A shows an intra-image bullet trajectory 52 of a flying bullet observed in the display image. When the configuration shown in FIG. 8 is adopted by the above-described parallax, a shell that flies in a parabolic shape in the direction of the target 1 is observed as a flying trajectory that falls in the direction of the target 1 from the upper right in the image. In addition, in the range shown by the flight locus 53 near the impact, it is observed that it falls straight down in the vertical direction. Since the parallax is constant in the applied system or the like, the relationship between the observed image position in the image and the flying position in the target 1 direction can be uniquely determined, and the horizontal position x, the vertical position, and the vertical position can be determined from the observed image position. Conversion to the directional position y is possible.

【0027】観測時刻生成処理部42の画像抽出タイミ
ング信号29における抽出画像31の飛翔砲弾位置は、
図9(a)に示す飛翔砲弾画像54のように観測され
る。この画像から飛翔砲弾画像54を飛翔砲弾抽出処理
部43にて抽出し、画像内での飛翔砲弾画像観測位置4
4を求める。飛翔弾道諸元推定処理部45は飛翔砲弾画
像観測位置44から、水平方向位置換算値x1、鉛直方
向位置換算値y1を求める。画像抽出タイミング信号2
9の発生時刻である飛翔時刻48をt1とすると、求め
る推定弾道諸元の推定見越角α’、推定発射速度v’は
各々次式により求めることができる。
The flying bullet position of the extracted image 31 in the image extraction timing signal 29 of the observation time generation processing unit 42 is
This is observed as a flying shell image 54 shown in FIG. The flying projectile image 54 is extracted from this image by the flying projectile extraction processing unit 43, and the flying projectile image observation position 4 in the image is extracted.
Ask for 4. The flight trajectory specification estimation processing unit 45 obtains a horizontal position converted value x1 and a vertical position converted value y1 from the flying cannonball image observation position 44. Image extraction timing signal 2
Assuming that the flight time 48, which is the occurrence time of No. 9, is t1, the estimated accrual angle α 'and the estimated firing speed v' of the estimated ballistic parameters to be obtained can be obtained by the following equations.

【0028】[0028]

【数5】 (Equation 5)

【0029】[0029]

【数6】 (Equation 6)

【0030】また、この時の推定飛翔時刻T’は元の射
距離Lが同じであると考えた場合、次式で求めることが
できる。
Further, the estimated flight time T 'at this time can be obtained by the following equation, assuming that the original shooting distance L is the same.

【0031】[0031]

【数7】 (Equation 7)

【0032】以上にて求められた推定弾道諸元49を用
いて弾着点予測処理部50では、推定弾着位置を水平方
向弾着位置換算値xp、鉛直方向弾着位置換算値ypと
して、各々次式により求める。
Using the estimated trajectory specifications 49 obtained as described above, the impact point prediction processing section 50 calculates the estimated impact position as a horizontal impact position converted value xp and a vertical impact position converted value yp. Each is calculated by the following equation.

【0033】[0033]

【数8】 (Equation 8)

【0034】[0034]

【数9】 (Equation 9)

【0035】また、得られた推定弾着位置を画像内位置
での弾着予測点51として出力する。このようにして、
飛翔中の砲弾画像を用いて弾着予測点を求めることを可
能とする弾着観測画像処理装置が構成される。
The obtained estimated landing position is output as a predicted landing point 51 at a position in the image. In this way,
An impact observation image processing apparatus capable of determining an impact prediction point using a flying bullet image is configured.

【0036】実施の形態2.図2はこの発明の実施の形
態2を示す構成図である。図において19,20,2
2,23,27,33,34及び35は上記従来装置と
同一のものである。また、46,47及び51は図1と
同一のものである。55は撃発トリガ19の発生から飛
翔時間22の間のあるn回の時刻に各々画像抽出n回タ
イミング信号56を発生する観測時刻n回生成処理部、
57はn回の各々の画像抽出n回タイミング信号56に
応じた時刻でのnフレーム分の画像を取り込む画像n枚
フレームメモリ部、58は画像n枚フレームメモリ部5
7に抽出された抽出n枚画像59からn個の飛翔中の砲
弾画像を抽出し、n個の飛翔砲弾画像n個観測位置60
を求め出力する飛翔砲弾n個抽出処理部、61は撮像カ
メラ5の視軸方位8となる視軸方位現在角34と飛翔砲
弾方向とのパララックス量である砲諸元46を用いて各
n個の飛翔砲弾画像n個観測位置60に対応した砲弾飛
翔方向の水平方向位置、鉛直方向位置への換算値x1〜
xn、y1〜ynを求め、このx1〜xn、y1〜yn
と、各n回の観測に対応した飛翔n回観測時刻62と射
距離10からなる既知弾道諸元47とから各n個の推定
n個弾道諸元63を求める飛翔弾道諸元n個推定処理
部、64は飛翔弾道諸元n個推定処理部からのn個の推
定n個弾道諸元63の平均値を推定弾道諸元として用い
て飛翔砲弾が標的1に到達する時刻での弾着予測点を算
出する平均化弾着点予測処理部である。
Embodiment 2 FIG. 2 is a configuration diagram showing a second embodiment of the present invention. In the figure, 19, 20, 2
Reference numerals 2, 23, 27, 33, 34 and 35 are the same as those in the conventional apparatus. Also, 46, 47 and 51 are the same as those in FIG. 55 is an observation time n-times generation processing unit that generates an image extraction n-times timing signal 56 at a certain n times during the flight time 22 from the occurrence of the firing trigger 19,
Reference numeral 57 denotes an n-frame frame memory unit for capturing n frames of images at a time corresponding to the n-time image extraction n-times timing signal 56, and 58 an n-frame frame memory unit 5
7, n flying shell images are extracted from the extracted n images 59, and n flying shell images n observation positions 60 are extracted.
The extraction processing unit 61 for obtaining and outputting the n is a number of each of n each using the gun visual axis azimuth current angle 34 which is the visual axis azimuth 8 of the imaging camera 5 and the gun specification 46 which is the parallax amount between the flying shell ammunition directions. Conversion values x1 to the horizontal position and the vertical position in the shell projecting direction corresponding to the n flying projectile images n observation positions 60
xn, y1 to yn are obtained, and x1 to xn, y1 to yn are obtained.
And n flight trajectory specifications estimating processing for obtaining n estimated n trajectory specifications 63 from the n flight times observation time 62 corresponding to each n observations and the known trajectory data 47 including the shooting distance 10 The unit 64 uses the average value of the n estimated n trajectory specifications 63 from the n trajectory specifications estimation processing unit as the estimated trajectory data, and estimates the landing at the time when the flying shell reaches the target 1 This is an averaged landing point prediction processing unit that calculates points.

【0037】上記のように構成された弾着観測画像処理
装置では、実施の形態1での1回の観測時刻における観
測画像からの飛翔砲弾位置の抽出が1個であるのに対し
て、n回の観測時刻毎にn個の飛翔砲弾位置の抽出を行
うこと以外は、各々の飛翔砲弾画像観測位置を求める動
作は同様である。画像の観測サンプリングレートは、撮
像カメラ5の撮像フレームレートとなるが、高速飛翔す
る砲弾に対しては、サンプリング時間による観測誤差の
影響が大きくなることが有り得る。n個の観測データを
使用する目的は、このサンプリング時間による誤差の影
響を減ずるために観測値から得られる推定弾道諸元の算
出に平均値を適用することにより、弾着点予測の精度の
向上を図るためである。
In the landing observation image processing apparatus configured as described above, the number of flying shell positions extracted from the observation image at one observation time in the first embodiment is one, whereas n The operation for obtaining the observation position of each flying shell image is the same, except that n flying shell positions are extracted at each observation time. Although the observation sampling rate of the image is the imaging frame rate of the imaging camera 5, the effect of the observation error due to the sampling time on a high-speed flying shell can be large. The purpose of using n observation data is to improve the accuracy of the impact point prediction by applying the average value to the calculation of the estimated ballistic parameters obtained from the observation values in order to reduce the influence of the error due to this sampling time. It is for planning.

【0038】飛翔砲弾n個抽出処理部58にて得られる
n個の飛翔砲弾画像n個観測位置60をx1〜xn、y
1〜ynとし、各n回の画像抽出n回タイミング信号5
6の各々の発生時刻である飛翔n回観測時刻62をt1
〜tnとすると、求める推定弾道諸元の推定見越角α
1’〜αn’、推定発射速度v1’〜vn’はkを1〜
nとなる添字とし各々次式により求めることができる。
The n number of n shot projectile images obtained by the n number of shot projectiles extraction processing unit 58 are defined as x1 to xn, y.
1 to yn, and n times of image extraction n times of each timing signal 5
The observation time 62, which is the n times of flight, which is the occurrence time of
To tn, the estimated accrual angle α of the estimated ballistic data to be obtained
1 ′ to αn ′, and estimated firing speeds v1 ′ to vn ′, k is 1 to
The subscripts can be obtained by the following equations.

【0039】[0039]

【数10】 (Equation 10)

【0040】[0040]

【数11】 [Equation 11]

【0041】以上にて求められた推定n個弾道諸元63
を入力とし、平均化弾着点予測処理部64では、得られ
た各n個の推定見越角と推定発射速度の平均値を各々
α’’、v’’として求める。この時の推定飛翔時刻
T’’は次式で求めることができる。
The estimated n trajectory specifications 63 obtained as described above
, And the averaged impact point prediction processing unit 64 obtains the average values of the obtained n estimated accrual angles and the estimated firing speeds as α ″ and v ″, respectively. The estimated flight time T ″ at this time can be obtained by the following equation.

【0042】[0042]

【数12】 (Equation 12)

【0043】以上にて求められた推定弾道諸元を用いて
平均化弾着点予測処理部64では、推定弾着位置を水平
方向弾着位置換算値xp、鉛直方向弾着位置換算値yp
として、各々次式により求める。
Using the estimated trajectory parameters obtained as described above, the averaged impact point prediction processing unit 64 calculates the estimated impact position as the horizontal impact position converted value xp and the vertical impact position converted value yp.
Are obtained by the following equations.

【0044】[0044]

【数13】 (Equation 13)

【0045】[0045]

【数14】 [Equation 14]

【0046】また、得られた推定弾着位置を画像内位置
での弾着予測点51として出力する。このようにして、
飛翔中の砲弾画像を用いて観測タイミングにより生じる
観測誤差の影響を低減した精度の高い弾着点予測が可能
である弾着観測画像処理装置が構成される。
The obtained estimated landing position is output as a predicted landing point 51 at a position in the image. In this way,
An impact observation image processing apparatus capable of highly accurately predicting an impact point by reducing the influence of an observation error caused by an observation timing using a projectile image in flight is configured.

【0047】実施の形態3.図3はこの発明の実施の形
態3を示す構成図である。図において19,20,2
2,23,27,33,34及び35は上記従来装置と
同一のものである。また、46,51は図1と同一のも
のである。また、65,70及び72は実施の形態2に
おける観測タイミング発生回数nが2である場合に相当
する。71は2個の飛翔砲弾位置である飛翔砲弾画像2
個観測位置70に対応した砲弾飛翔方向の水平方向位
置、鉛直方向位置への換算値x1,x2及びy1,y2
を求め、このx1,x2,y1,y2と、各2回の観測
に対応した飛翔2回観測時刻72とから飛翔砲弾の弾道
軌跡を砲弾飛翔方向に直線近似する飛翔弾道直線近似処
理部、73は飛翔弾道直線近似処理部71から得られた
直線近似諸元74を用いて飛翔砲弾が標的1に到達する
時刻である飛翔時間22における弾着予測点51を算出
する直線近似弾着点予測処理部である。
Embodiment 3 FIG. 3 is a configuration diagram showing a third embodiment of the present invention. In the figure, 19, 20, 2
Reference numerals 2, 23, 27, 33, 34 and 35 are the same as those in the conventional apparatus. Reference numerals 46 and 51 are the same as those in FIG. 65, 70 and 72 correspond to the case where the number n of times of observation timing occurrence in the second embodiment is 2. Reference numeral 71 denotes a flying projectile image 2 which is a position of two flying projectiles
Conversion values x1, x2 and y1, y2 into the horizontal position and the vertical position in the shell flight direction corresponding to the individual observation position 70
And a flight trajectory linear approximation processing unit 73 for linearly approximating the trajectory of the flying cannonball in the bullet flight direction from the x1, x2, y1, y2 and the two flight times 72 corresponding to the two observations. Is a linear approximation impact point prediction process for calculating the impact prediction point 51 at the flight time 22 which is the time when the flying shell reaches the target 1 using the linear approximation data 74 obtained from the flight trajectory linear approximation processing unit 71 Department.

【0048】上記のように構成された弾着観測画像処理
装置の動作を説明する。図9(a)に示す通り砲弾が標
的1に近づくにつれ観測画像にて得られる砲弾着弾付近
飛翔軌跡53は直線的なものとなる。また、図10には
砲弾飛翔方向での放物線状の砲弾飛翔軌跡と弾着付近で
の飛翔軌跡を直線近似する直線近似砲弾軌跡75を示
す。また、直線近似弾道軌跡75は、未知定数をa1,
b0,b1とすると時刻tにおける水平方向位置x、鉛
直方向位置yとして各々次式で与えられる。
The operation of the above-described impact observation image processing apparatus will be described. As shown in FIG. 9A, as the shell approaches the target 1, the trajectory 53 near the shell landing obtained in the observation image becomes linear. FIG. 10 shows a parabolic bullet trajectory in the bullet trajectory direction and a linear approximation trajectory 75 for linearly approximating the trajectory near the impact. Further, the linear approximation trajectory trajectory 75 has unknown constants a1,
Assuming b0 and b1, the horizontal position x and the vertical position y at time t are given by the following equations, respectively.

【0049】[0049]

【数15】 (Equation 15)

【0050】[0050]

【数16】 (Equation 16)

【0051】従って、飛翔弾道を直線近似する場合は、
撃発トリガ19の発生から弾着までの飛翔時間22の間
の内、弾着時刻の手前で弾着付近の別々の時刻での2点
の砲弾飛翔位置を観測すれば、未知定数を求めることが
できる。得られた定数値を代入した直線近似弾道軌跡の
式から飛翔時間22での水平方向位置、鉛直方向位置を
求めれば弾着予測点51を得ることができる。
Therefore, when the flight trajectory is approximated by a straight line,
Observing the two bullet firing positions at different times near the impact before the impact time during the flight time 22 from the occurrence of the firing trigger 19 to the impact, the unknown constant can be obtained. it can. If the horizontal position and the vertical position at the flight time 22 are determined from the equation of the linear approximate trajectory trajectory into which the obtained constant value is substituted, the landing prediction point 51 can be obtained.

【0052】このような動作を可能とするため、観測時
刻2回生成処理部65は、弾着時刻付近にて2回の画像
抽出2回タイミング信号66を発生するように動作す
る。飛翔弾道直線近似処理部71は飛翔砲弾2回抽出処
理部68にて得られた2個の飛翔砲弾画像2個観測位置
70と2回の観測時刻である飛翔2回観測時刻72とか
ら、直線弾道軌跡の式の未知定数a1,b0,b1を決
定し、直線近似諸元74として出力する。直線近似弾着
点予測処理部73は決定した定数値a1,b0,b1を
直線弾道軌跡の式に代入し、飛翔時間22における水平
方向位置、鉛直方向位置を算出し弾着予測点51を出力
するように動作する。このようにして、飛翔中の砲弾の
2点の観測による直線近似弾道軌跡から弾道諸元に係わ
らずに弾着点を予測することが可能な弾着観測画像処理
装置が構成される。
To enable such an operation, the twice-observation-time generation processing unit 65 operates so as to generate two image extraction twice timing signals 66 near the impact time. The flight trajectory straight line approximation processing unit 71 obtains a straight line from the two flight cannonball image two observation positions 70 obtained by the two flight cannonball image extraction processing unit 68 and the flight twice observation time 72 that is the two observation times. The unknown constants a1, b0, and b1 of the trajectory equation are determined, and are output as linear approximation data 74. The linear approximate impact point prediction processing unit 73 substitutes the determined constant values a1, b0, and b1 into the equation of the linear trajectory trajectory, calculates the horizontal position and the vertical position at the flight time 22 and outputs the impact prediction point 51. To work. In this manner, an impact observation image processing apparatus capable of predicting an impact point from a linear approximate trajectory trajectory obtained by observing two points of a shell in flight, regardless of the trajectory data, is configured.

【0053】実施の形態4.図4はこの発明の実施の形
態4を示す構成図である。図において19,20,2
2,23,27,33,34及び35は上記従来装置と
同一のものである。また、46,51は図1と同一のも
のである。また、76〜81及び83は実施の形態2に
おける観測タイミング発生回数nがmである場合に相当
する。82mは個の飛翔砲弾位置である飛翔砲弾画像m
個観測位置81に対応した砲弾飛翔方向の水平方向位
置、鉛直方向位置への換算値x1〜xm及びy1〜ym
を求め、このx1〜xm,y1〜ymと、各々m回の観
測に対応した飛翔m回観測時刻83とから飛翔砲弾の弾
道軌跡を砲弾飛翔方向に曲線近似する飛翔弾道曲線近似
処理部、84は飛翔弾道曲線近似処理部82から得られ
た曲線近似諸元85を用いて飛翔砲弾が標的1に到達す
る時刻である飛翔時間22における弾着予測点51を算
出する曲線近似弾着点予測処理部である。
Embodiment 4 FIG. 4 is a configuration diagram showing a fourth embodiment of the present invention. In the figure, 19, 20, 2
Reference numerals 2, 23, 27, 33, 34 and 35 are the same as those in the conventional apparatus. Reference numerals 46 and 51 are the same as those in FIG. Reference numerals 76 to 81 and 83 correspond to the case where the number n of times of observation timing occurrence in the second embodiment is m. 82m is a flying bullet image m which is the position of each flying bullet
Conversion values x1 to xm and y1 to ym converted to the horizontal position and the vertical position in the shell flight direction corresponding to the individual observation position 81
And a flight trajectory curve approximation processing unit 84 for approximating the trajectory of the flying cannonball in the shell flight direction from the x1 to xm, y1 to ym, and the m observation times 83 corresponding to m observations, respectively. Is a curve approximation impact point prediction process for calculating an impact prediction point 51 at a flight time 22 that is a time at which a flying shell reaches the target 1 using the curve approximation data 85 obtained from the flight trajectory curve approximation processing unit 82 Department.

【0054】上記のように構成された弾着観測画像処理
装置の動作を説明する。飛翔砲弾の曲線近似弾道軌跡
は、未知定数をc1,d1〜dmとすると時刻tにおけ
る水平方向位置x、鉛直方向位置yとして各々次式で与
えられる。また、tに付加する添字はtの累乗であるこ
とを示す。
The operation of the landing observation image processing apparatus configured as described above will be described. The curved approximate trajectory trajectory of the flying cannonball is given by the following formula as a horizontal position x and a vertical position y at time t, respectively, where unknown constants are c1 and d1 to dm. The subscript added to t indicates that it is a power of t.

【0055】[0055]

【数17】 [Equation 17]

【0056】[0056]

【数18】 (Equation 18)

【0057】従って、飛翔弾道を曲線近似する場合は、
撃発トリガ19の発生から弾着までの飛翔時間22の間
でm点の砲弾飛翔位置を観測すれば、未知定数を求める
ことができる。得られた定数値を代入した曲線近似弾道
軌跡の式から飛翔時間22での水平方向位置、鉛直方向
位置を求めれば弾着予測点51を得ることができる。
Therefore, when the flight trajectory is approximated by a curve,
An unknown constant can be obtained by observing the m-point bullet flight position during the flight time 22 from the generation of the firing trigger 19 to the impact. If the horizontal position and the vertical position at the flight time 22 are determined from the equation of the curve approximate trajectory trajectory into which the obtained constant value is substituted, the landing prediction point 51 can be obtained.

【0058】このような動作を可能とするため、観測時
刻m回生成処理部76は、砲弾飛翔中にm回の画像抽出
m回タイミング信号77を発生するように動作する。飛
翔弾道曲線近似処理部82は飛翔砲弾m回抽出処理部7
9にて得られたm個の飛翔砲弾画像m個観測位置81と
m回の観測時刻である飛翔m回観測時刻83とから、曲
線弾道軌跡の式の未知定数c1,d1〜dmを決定し、
曲線近似諸元85として出力する。曲線近似弾着点予測
処理部84は決定した定数値c1,d1〜dmを曲線弾
道軌跡の式に代入し、飛翔時間22における水平方向位
置、鉛直方向位置を算出し弾着予測点51を出力するよ
うに動作する。このようにして、飛翔中の砲弾のm点の
観測による曲線近似弾道軌跡から弾道諸元に係わらずに
精度の高い弾着点を予測することが可能な弾着観測画像
処理装置が構成される。
In order to enable such an operation, the observation time m-times generation processing unit 76 operates so as to generate the m-time image extraction m-times timing signal 77 during the flight of the shell. The flight trajectory curve approximation processing unit 82 is a m-th time flight processing bullet extraction processing unit
The unknown constants c1, d1 to dm of the formula of the curved trajectory trajectory are determined from the m observation positions 81 of the m flying cannonball images obtained in 9 and the m observation times 83, which is the m observation times. ,
Output as curve approximation data 85. The curve approximate impact point prediction processing unit 84 substitutes the determined constant values c1, d1 to dm into the equation of the curved trajectory trajectory, calculates the horizontal position and the vertical position at the flight time 22, and outputs the impact prediction point 51. To work. In this way, a landing observation image processing apparatus capable of predicting a landing point with high accuracy from a curve approximate trajectory trajectory obtained by observing the m point of a shell in flight, regardless of the trajectory specifications, is configured. .

【0059】実施の形態5.図5はこの発明の実施の形
態5を示す構成図である。図において86〜91以外
は、実施の形態1と同一である。86は現在時刻に対し
て1フレーム前の画像データを蓄積しておく前回画像フ
レームメモリ、87は前回画像フレームメモリ86の前
回画像フレームデータ88と現在時刻での画像データで
ある入力画像20との差分を演算する画像差分処理部、
89は画像差分処理部87にて得られた差分画像90の
内、観測時刻生成処理部42からの画像抽出タイミング
信号29による時刻での差分画像90を取り込み抽出差
分画像91を出力する差分画像フレームメモリである。
Embodiment 5 FIG. FIG. 5 is a configuration diagram showing a fifth embodiment of the present invention. In the figure, components other than 86 to 91 are the same as those in the first embodiment. Reference numeral 86 denotes a previous image frame memory for storing image data one frame before the current time, and 87 denotes a relationship between the previous image frame data 88 of the previous image frame memory 86 and the input image 20 which is the image data at the current time. An image difference processing unit that calculates a difference,
Reference numeral 89 denotes a difference image frame that takes in the difference image 90 at the time according to the image extraction timing signal 29 from the observation time generation processing unit 42 and outputs the extracted difference image 91 from the difference images 90 obtained by the image difference processing unit 87. Memory.

【0060】飛翔砲弾は微小サイズであり、野外等の複
雑背景環境下で観測画像から飛翔砲弾をのみを抽出する
ことは困難となる。他の環境クラッタが静止状態である
場合、飛翔砲弾は移動物体であることから、1フレーム
前の前回画像データと現在時刻の画像データとの差分を
とると、静止状態の環境クラッタが除去され、移動によ
り、画像内の位置変化、輝度変化のある飛翔砲弾のみが
効率的に抽出されることとなる。この場合、輝度変化の
消失部と発生部の2箇所が強調されるが、現在時刻の砲
弾位置としては、輝度変化の発生部が飛翔砲弾画像とな
る。このようにして得られた抽出差分画像91は、飛翔
砲弾部位が強調されているため飛翔砲弾抽出処理部43
にて精度よく飛翔砲弾観測画像位置44を得ることがで
き、結果として、飛翔中の砲弾画像を用いて精度よく弾
着予測点を求めることを可能とする弾着観測画像処理装
置が構成される。
The flying cannonball has a very small size, and it is difficult to extract only the flying cannonball from the observation image under a complicated background environment such as outdoors. If the other environment clutter is stationary, the flying cannonball is a moving object, so taking the difference between the previous image data one frame before and the image data at the current time removes the stationary environment clutter, Due to the movement, only the flying cannonball having the position change and the luminance change in the image is efficiently extracted. In this case, the two positions of the disappearance portion and the generation portion of the luminance change are emphasized. However, as the shell position at the current time, the generation portion of the luminance change becomes the flying bullet image. In the extracted difference image 91 obtained in this manner, since the flying shell part is emphasized, the flying shell extraction processing unit 43
Can accurately obtain the flying shell observation image position 44, and as a result, a landing observation image processing apparatus capable of accurately determining the landing prediction point using the flying shell image is configured. .

【0061】実施の形態6.図6はこの発明の実施の形
態6を示す構成図である。図において92及び93以外
は、実施の形態1と同一である。92は飛翔砲弾の抽出
処理領域を選択する抽出領域選択処理部であり画像フレ
ームメモリ部30からの抽出画像31の画像領域から飛
翔砲弾の存在する画像領域のみを選択し、選択領域抽出
画像93を飛翔砲弾抽出処理部43へ出力する。
Embodiment 6 FIG. FIG. 6 is a configuration diagram showing a sixth embodiment of the present invention. In the figure, except for 92 and 93, it is the same as the first embodiment. Reference numeral 92 denotes an extraction area selection processing unit for selecting an extraction processing area of a flying shell, and selects only an image area where a flying shell is present from the image area of the extraction image 31 from the image frame memory unit 30, and generates a selection area extraction image 93. Output to the flying shell extraction processing unit 43.

【0062】図9(b)に観測画像内での飛翔砲弾が通
過する領域である飛翔砲弾通過領域94を示す。図に示
すとおり飛翔砲弾が通過する領域は、ある程度限定され
ていることから、飛翔砲弾を画像内から抽出する場合、
画像の全領域から抽出する必要はなく、抽出処理領域を
絞り込むことを付加しておくことにより、複雑背景環境
下においても微小な飛翔砲弾を効果的に抽出することが
できる。このようにして、抽出画像31に対して、抽出
領域選択処理部92にて飛翔時刻48と既知弾道諸元4
7で与えられる砲弾の種類と飛翔特性とから得られる飛
翔砲弾通過領域94であるような選択領域抽出画像93
を選択抽出し飛翔砲弾抽出処理部43に出力し、この選
択領域抽出画像93内に抽出処理を限定することで飛翔
砲弾抽出処理部43にて精度よく飛翔砲弾観測画像位置
44を得ることができ、結果として、飛翔中の砲弾画像
を用いて精度よく弾着予測点を求めることを可能とする
弾着観測画像処理装置が構成される。
FIG. 9B shows a flying bullet passage area 94 in the observation image, which is a region through which the flying bullets pass. As shown in the figure, the area through which the projectiles pass is limited to some extent, so when extracting projectiles from the image,
It is not necessary to extract from the entire area of the image, and by adding that the extraction processing area is narrowed down, a minute flying cannonball can be effectively extracted even in a complicated background environment. In this way, the extraction time 31 and the known trajectory data 4
7 is a selected area extraction image 93 which is a flying shell passing area 94 obtained from the type of the shell and the flight characteristics given in FIG.
Is selectively extracted and output to the flying shell ammunition extraction processing section 43, and the extraction processing is limited within the selected area extraction image 93, so that the flying shell ammunition observation image position 44 can be accurately obtained by the flying shell ammunition extraction processing section 43. As a result, an impact observation image processing apparatus is configured that can accurately determine an impact prediction point using a flying bullet image.

【0063】実施の形態7.図7はこの発明の実施の形
態7を示す構成図である。図において95〜97以外
は、実施の形態1と同一である。95は飛翔時刻48と
既知弾道諸元47で与えられる砲弾種類及び飛翔特性と
から得られる飛翔砲弾の観測サイズを選択抽出する抽出
サイズ選択処理部、96は砲弾の抽出サイズ97のサイ
ズデータを元に画像フレームメモリ部30からの抽出画
像31の中から抽出サイズに該当する飛翔砲弾を抽出
し、飛翔砲弾観測画像位置44を出力するサイズ内飛翔
砲弾抽出処理部である。
Embodiment 7 FIG. FIG. 7 is a configuration diagram showing a seventh embodiment of the present invention. In the figure, the components other than 95 to 97 are the same as those of the first embodiment. Reference numeral 95 denotes an extraction size selection processing unit for selectively extracting the observation size of the flying shell obtained from the flight time 48 and the type of the shell and the flight characteristics given by the known ballistic specifications 47, and 96 based on the size data of the extraction size 97 of the shell. The in-size flying ammunition extraction processing section extracts the flying ammunition corresponding to the extraction size from the extracted image 31 from the image frame memory section 30 and outputs the flying ammunition observation image position 44.

【0064】飛翔砲弾の観測されるサイズは、砲弾の種
類と飛翔特性と観測される時刻によってある程度限定さ
れていることから、抽出サイズを絞り込むことを付加し
ておくことにより、複雑背景環境下においても効果的に
飛翔砲弾を他のクラッタと弁別して抽出することができ
る。このようにして、サイズ内飛翔砲弾抽出処理部96
にて精度よく飛翔砲弾観測画像位置44を得ることがで
き、結果として、飛翔中の砲弾画像を用いて精度よく弾
着予測点を求めることを可能とする弾着観測画像処理装
置が構成される。
Since the observed size of a flying shell is limited to some extent by the type of shell, the flight characteristics, and the time of observation, it is possible to narrow down the extraction size in a complex background environment. It is also possible to effectively discriminate and extract flying cannonballs from other clutter. Thus, the in-size flying shell ammunition extraction processing section 96
Can accurately obtain the flying shell observation image position 44, and as a result, a landing observation image processing apparatus capable of accurately determining the landing prediction point using the flying shell image is configured. .

【0065】[0065]

【発明の効果】第1の発明によれば、飛翔中の砲弾画像
から弾着点を予測できるため、弾着観測時刻での弾着画
像状況、砲弾の観測画像状態等に係わらず、安定に弾着
点を得ることが可能となる。
According to the first aspect of the present invention, since the point of impact can be predicted from the image of the shell during flight, it is stable regardless of the state of the shell image at the time of observation of the shell, the state of the observed image of the shell, and the like. It is possible to obtain a point of impact.

【0066】また、第2の発明によれば、飛翔中の複数
の砲弾画像から得られる観測値の平均値を用いて弾着点
を予測することから、観測タイミングによる観測誤差の
影響を低減した精度の高い弾着点を得ることが可能とな
る。
According to the second aspect of the present invention, the impact point is predicted using the average value of the observation values obtained from the plurality of shell images during flight, so that the influence of the observation error due to the observation timing is reduced. It is possible to obtain a highly accurate impact point.

【0067】また、第3の発明によれば、飛翔中の砲弾
画像から直線近似弾道軌跡を求めることにより弾着点を
予測することから、弾道諸元に係わらず安定に弾着点を
得ることが可能となる。
According to the third aspect of the present invention, since the impact point is predicted by obtaining the linear approximate trajectory trajectory from the image of the projectile during flight, the impact point can be stably obtained regardless of the trajectory data. Becomes possible.

【0068】また、第4の発明によれば、飛翔中の砲弾
画像から曲線近似弾道軌跡を求めることにより弾着点を
予測することから、弾道諸元に係わらず安定に弾着点を
得ることが可能となる。
Further, according to the fourth aspect of the present invention, since the impact point is predicted by obtaining a curve approximate trajectory trajectory from the image of the projectile during flight, the impact point can be stably obtained regardless of the trajectory data. Becomes possible.

【0069】また、第5の発明によれば、飛翔中の砲弾
画像を差分画像により強調処理した上、抽出処理を行う
ため、飛翔砲弾を精度よく抽出でき、精度の高い弾着点
を得ることが可能となる。
According to the fifth aspect of the present invention, since the image of the shell in flight is emphasized by the difference image and then the extraction processing is performed, the shell can be extracted with high accuracy and a highly accurate landing point can be obtained. Becomes possible.

【0070】また、第6の発明によれば、飛翔中の砲弾
画像を抽出処理領域の絞り込みを行った上、抽出処理を
行うため、飛翔砲弾を精度よく抽出でき、精度の高い弾
着点を得ることが可能となる。
Further, according to the sixth aspect of the present invention, since the image of the shell in flight is narrowed down to the extraction processing area, and then the extraction processing is performed, the flying shell can be extracted with high accuracy, and the point of impact with high accuracy can be determined. It is possible to obtain.

【0071】また、第7の発明によれば、飛翔中の砲弾
画像の抽出に対し飛翔状態等に応じた砲弾サイズを指定
した上、抽出処理を行うため、飛翔砲弾を精度よく抽出
でき、精度の高い弾着点を得ることが可能となる。
According to the seventh aspect of the present invention, since a shell size according to a flying state and the like is designated for extraction of a shell image during flight, extraction processing is performed, so that a shell shell can be accurately extracted. It is possible to obtain a high impact point.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明による弾着観測画像処理装置の実施
の形態1を示す図である。
FIG. 1 is a diagram showing a first embodiment of an impact observation image processing apparatus according to the present invention;

【図2】 この発明による弾着観測画像処理装置の実施
の形態2を示す図である。
FIG. 2 is a diagram showing a second embodiment of a landing observation image processing apparatus according to the present invention;

【図3】 この発明による弾着観測画像処理装置の実施
の形態3を示す図である。
FIG. 3 is a diagram showing Embodiment 3 of an impact observation image processing apparatus according to the present invention.

【図4】 この発明による弾着観測画像処理装置の実施
の形態4を示す図である。
FIG. 4 is a diagram showing a fourth embodiment of a landing observation image processing apparatus according to the present invention;

【図5】 この発明による弾着観測画像処理装置の実施
の形態5を示す図である。
FIG. 5 is a diagram showing a fifth embodiment of a landing observation image processing apparatus according to the present invention;

【図6】 この発明による弾着観測画像処理装置の実施
の形態6を示す図である。
FIG. 6 is a diagram showing a sixth embodiment of the landing observation image processing apparatus according to the present invention;

【図7】 この発明による弾着観測画像処理装置の実施
の形態7を示す図である。
FIG. 7 is a diagram showing a seventh embodiment of a landing observation image processing apparatus according to the present invention;

【図8】 この発明による発射器を正面から見た図であ
る。
FIG. 8 is a front view of the launcher according to the present invention.

【図9】 この発明による飛翔砲弾の画像内砲弾飛翔軌
跡を示す図である。
FIG. 9 is a diagram showing a projectile trajectory in an image of a flying projectile according to the present invention.

【図10】 この発明による飛翔砲弾軌跡の直線近似軌
跡を示す図である。
FIG. 10 is a diagram showing a linear approximation trajectory of a flying shell trajectory according to the present invention.

【図11】 弾着観測画像処理装置が適用されるシステ
ム例を示す図である。
FIG. 11 is a diagram illustrating an example of a system to which the hit observation image processing apparatus is applied.

【図12】 従来の弾着観測画像処理装置を示す図であ
る。
FIG. 12 is a diagram showing a conventional landing observation image processing apparatus.

【図13】 砲弾の発射から弾着までの基本的な飛翔状
況を示す図である。
FIG. 13 is a diagram showing a basic flight situation from firing of a shell to landing.

【図14】 従来の砲弾観測における表示画像を示す図
である。
FIG. 14 is a view showing a display image in a conventional shell observation.

【図15】 砲弾の各種の飛翔例を示す図である。FIG. 15 is a diagram showing various flight examples of a shell.

【図16】 従来の砲弾観測における弾着時の表示画像
を示す図である。
FIG. 16 is a diagram showing a display image at the time of hitting in conventional artillery observation.

【符号の説明】[Explanation of symbols]

1 標的、2 砲弾、3 発射砲、4 発射器、5 撮
像カメラ、6 測遠器、7 連動機構、8 視軸方位、
9 レーザ照射方向、10 射距離、11 操作指令、
12 駆動制御部、13 発射器指向方向、14 見越
角方位、15飛翔体種類、16 弾道計算部、17 見
越角指令、18 制御信号、19 撃発トリガ、20
入力画像、21 弾着観測画像処理装置、22 飛翔時
間、23 表示画像、24 表示部、25 現在角、2
6 発射諸元、27 目標追尾処理部、28 弾着時刻
カウンタ、29 画像抽出タイミング信号、30 画像
フレームメモリ部、31 抽出画像、32 弾着点抽出
処理部、33 表示合成処理部、34 視軸方位現在
角、35 追尾位置データ、36 弾着位置観測デー
タ、37 標的水平距離、38 発射時砲弾、39 飛
翔中砲弾、40 弾着時刻砲弾、41 砲弾飛翔経路、
42 観測時刻生成処理部、43 飛翔砲弾抽出処理
部、44 飛翔砲弾画像観測位置、45 飛翔弾道諸元
推定処理部、46砲諸元、47 既知弾道諸元、48
飛翔時刻、49 推定弾道諸元、50弾着点予測処理
部、51 弾着予測点、52 画像内砲弾飛翔軌跡、5
3 砲弾着弾付近飛翔軌跡、54 飛翔砲弾画像、55
観測時刻n回生成処理部、56画像抽出n回タイミン
グ信号、57 画像n枚フレームメモリ部、58 飛翔
砲弾n個抽出処理部、59 抽出n枚画像、60 飛翔
砲弾画像n個観測位置、61 飛翔砲弾諸元n個推定処
理部、62 飛翔n回観測時刻、63 推定n個弾道諸
元、64 平均化弾着予測処理部、65 観測時刻2回
生成処理部、66画像抽出2回タイミング信号、67
画像2枚フレームメモリ部、68 飛翔砲弾2個抽出処
理部、69 抽出n枚画像、70 飛翔砲弾画像2個観
測位置、71 飛翔砲弾直線近似処理部、72 飛翔2
回観測時刻、73 直線近似弾着点予測処理部、74
直線近似諸元、75 直線近似砲弾軌跡、76 観測時
刻m回生成処理部、77 画像抽出m回タイミング信
号、78 画像m枚フレームメモリ部、79 飛翔砲弾
m個抽出処理部、80 抽出m枚画像、81 飛翔砲弾
画像m個観測位置、82 飛翔砲弾曲線近似処理部、8
3 飛翔m回観測時刻、84 曲線近似弾着点予測処理
部、85 曲線近似諸元、86 前回画像フレームメモ
リ、87 画像差分処理部、88 前回画像フレームデ
ータ、89 差分画像フレームメモリ、90 差分画
像、91 抽出差分画像、92 抽出領域選択処理部、
93 選択領域抽出画像、94 飛翔砲弾通過領域、9
5 抽出サイズ選択処理部、96 サイズ内飛翔砲弾抽
出処理部、97 抽出サイズ、98弾着発光、99 弾
着付近飛翔砲弾画像。
1 target, 2 shells, 3 firing guns, 4 launchers, 5 imaging cameras, 6 telescopes, 7 interlocking mechanisms, 8 visual axis orientations,
9 Laser irradiation direction, 10 shooting distance, 11 operation commands,
Reference Signs List 12 drive control unit, 13 launcher pointing direction, 14 prevailing angle azimuth, 15 projectile type, 16 trajectory calculation unit, 17 prevailing angle command, 18 control signal, 19 firing trigger, 20
Input image, 21 shot observation image processing device, 22 flight time, 23 display image, 24 display unit, 25 current angle, 2
6 launch specifications, 27 target tracking processing unit, 28 landing time counter, 29 image extraction timing signal, 30 image frame memory unit, 31 extracted image, 32 landing point extraction processing unit, 33 display synthesis processing unit, 34 visual axis Azimuth current angle, 35 tracking position data, 36 shot position observation data, 37 target horizontal distance, 38 shot shell, 39 flying shell, 40 shot time shell, 41 shell flight path,
42 Observation time generation processing unit, 43 Flight ammunition extraction processing unit, 44 Flight ammunition image observation position, 45 Flight trajectory specification estimation processing unit, 46 Gun specification, 47 Known trajectory specification, 48
Flight time, 49 Estimated trajectory data, 50 shot point prediction processing unit, 51 shot point, 52 shot trajectory in image
3 Flight trajectory near the shell landing, 54 Flight shell image, 55
Observation time n-time generation processing unit, 56 image extraction n-time timing signal, 57 image n-frame memory unit, 58 n-projectile ammunition extraction-processing unit, 59 extracted n-image, 60 n-projectile image n observation position, 61 flight Projection unit for n projectiles, 62 observation times for n flight, 63 estimation for trajectory for n, 64 averaged impact prediction processing unit, 65 generation processing unit for twice observation time, 66 timing signal for image extraction twice, 67
2 images frame memory unit, 68 flying cannonball 2 extraction processing unit, 69 extracted n images, 70 flying cannonball image 2 observation positions, 71 flying cannonball straight line approximation processing unit, 72 flying2
Observation time, 73 straight line impact point prediction processing unit, 74
Linear approximation specifications, 75 Linear approximation shell trajectory, 76 observation time m generation processing unit, 77 image extraction m times timing signal, 78 image m frame memory unit, 79 flying m shells m extraction processing unit, 80 extracted m images 81, observation position of m flying shell images m, 82 flying shell curve approximation processing unit, 8
3 Observation time m times, 84 curve approximation impact point prediction processing unit, 85 curve approximation specifications, 86 previous image frame memory, 87 image difference processing unit, 88 previous image frame data, 89 difference image frame memory, 90 difference image , 91 extraction difference image, 92 extraction region selection processing unit,
93 Selected area extraction image, 94 Flight cannonball passage area, 9
5 Extraction size selection processing unit, 96-size projectile projectile processing unit, 97 extraction size, 98-projection emission, 99-projection projectile image.

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 撮像カメラからの入力画像を入力とし、
射撃目標方位を指向するための追尾処理部と、飛翔体の
発射時刻から飛翔体の飛翔中の観測時刻を1回生成する
観測時刻生成処理部と、上記観測時刻生成処理部から出
力される1回の観測時刻タイミングの画像を取り込む画
像フレームメモリ部と、上記画像フレームメモリ部上の
観測画像データから飛翔砲弾位置を抽出する飛翔砲弾抽
出処理部と、上記飛翔砲弾抽出処理部にて抽出した飛翔
砲弾の画像上の飛翔砲弾位置から飛翔砲弾の弾道軌跡を
決定するための弾道諸元を求める飛翔弾道諸元推定処理
部と、上記飛翔弾道諸元推定処理部にて推定した弾道諸
元を用いて飛翔砲弾が目標に着弾する飛翔時間時点での
弾着点を算出する弾着点予測処理部と、上記追尾処理部
からの追尾情報出力と弾着点予測処理部からの弾着点予
測情報と撮像カメラの視軸方位情報を撮像カメラからの
入力画像上にシンボル合成し表示部へ表示出力する表示
合成処理部とを備えたことを特徴とする弾着観測画像処
理装置。
1. An input image from an imaging camera is input,
A tracking processing unit for directing the shooting target azimuth, an observation time generation processing unit for generating an observation time during flight of the flying object from the launch time of the flying object once, and 1 output from the observation time generation processing unit An image frame memory unit that captures an image of the observation time timing, a flying shell ammunition extraction processing unit that extracts a flying shell position from observation image data on the image frame memory unit, and a flight extracted by the flying shell ammunition extraction processing unit Using a flight trajectory specification estimating processing unit for obtaining a trajectory specification for determining a trajectory trajectory of the flying cannonball from the position of the flying cannonball on the image of the cannonball, Point prediction processing unit that calculates the point of flight at the time of flight when the flying cannonball hits the target, and the tracking information output from the tracking processing unit and the landing point prediction information from the point-of-arrival prediction processing unit And imaging turtle Bullet deposition observed image processing apparatus characterized by comprising a display synthesis processing unit for displaying output to the symbol combiner display unit on the input image of the visual axis orientation information from the imaging camera.
【請求項2】 飛翔体の発射時刻から飛翔体の飛翔中の
観測時刻をn回生成する観測時刻n回生成処理部と、上
記観測時刻n回生成処理部から出力されるn回の観測時
刻タイミングの画像を取り込む画像n枚フレームメモリ
部と、上記画像n枚フレームメモリ部上の観測画像デー
タからn個の飛翔砲弾位置を抽出する飛翔砲弾n個抽出
処理部と、上記飛翔砲弾n個抽出処理部にて抽出した飛
翔砲弾の画像上の各n個の飛翔砲弾位置から飛翔砲弾の
弾道軌跡を決定するための弾道諸元を求める飛翔弾道諸
元n個推定処理部と、上記飛翔弾道諸元n個推定処理部
にて推定した弾道諸元の平均弾道諸元を用いて飛翔砲弾
が目標に着弾する飛翔時間時点での弾着点を算出する平
均化弾着点予測処理部とを備えたことを特徴とする請求
項1記載の弾着観測画像処理装置。
2. An observation time n-times generation processing unit that generates n times of observation of a flying object during flight from a launch time of the flying object, and n observation times output from the n times of observation time generation processing unit An n-frame frame memory unit for capturing the timing image, an n-shell projectile extracting unit for extracting n-shell projectile positions from the observation image data in the n-frame frame memory unit, and the n-shell extraction process A processing unit for estimating n trajectory parameters for determining a trajectory parameter for determining a trajectory of the trajectory from the n trajectory positions on the image of the trajectory extracted by the processing unit; An averaged ballistic point prediction processing unit that calculates a ballistic point at the time of flight when the flying shell lands on the target using the average ballistic parameters of the ballistic parameters estimated by the n-element estimation processing unit. 2. The impact observation according to claim 1, wherein Image processing device.
【請求項3】 飛翔体の発射時刻から飛翔体の飛翔中の
観測時刻を2回生成する観測時刻2回生成処理部と、上
記観測時刻2回生成処理部から出力される2回の観測時
刻タイミングの画像を取り込む画像2枚フレームメモリ
部と、上記画像2枚フレームメモリ部上の観測画像デー
タから2個の飛翔砲弾位置を抽出する飛翔砲弾2個抽出
処理部と、上記飛翔砲弾2個抽出処理部にて抽出した飛
翔砲弾の画像上の各2個の飛翔砲弾位置から飛翔砲弾の
弾道軌跡を砲弾飛翔方向に直線近似する飛翔弾道直線近
似処理部と、上記飛翔弾道直線近似処理部にて推定した
直線近似弾道式を用いて飛翔砲弾が目標に着弾する飛翔
時間時点での弾着点を算出する直線近似弾着点予測処理
部とを備えたことを特徴とする請求項1記載の弾着観測
画像処理装置。
3. An observation time twice generation processing unit for generating twice the observation time during flight of the flying object from the launch time of the flying object, and two observation times output from the observation time twice generation processing unit A two-image frame memory unit for capturing an image at a timing, a two-projectile projectile extraction processing unit for extracting two flying projectile positions from observation image data on the two-image frame memory unit, and the two-projection projectile extraction The flight trajectory straight line approximation processing unit that linearly approximates the trajectory trajectory of the flying cannonball from the position of each of the two flight cannonballs on the image of the flying cannonball extracted in the processing unit, 2. The bullet according to claim 1, further comprising: a linear approximation impact point prediction processing unit that calculates an impact point at a flight time at which the flying ammunition lands on the target using the estimated linear approximation trajectory formula. Landing observation image processing device.
【請求項4】 飛翔体の発射時刻から飛翔体の飛翔中の
観測時刻をm回生成する観測時刻m回生成処理部と、上
記観測時刻m回生成処理部から出力されるm回の観測時
刻タイミングの画像を取り込む画像m枚フレームメモリ
部と、上記画像m枚フレームメモリ部上の観測画像デー
タからm個の飛翔砲弾位置を抽出する飛翔砲弾m個抽出
処理部と、上記飛翔砲弾m個抽出処理部にて抽出した飛
翔砲弾の画像上の各m個の飛翔砲弾位置から飛翔砲弾の
弾道軌跡を砲弾飛翔方向に曲線近似する飛翔弾道曲線近
似処理部と、上記飛翔弾道曲線近似処理部にて推定した
曲線近似弾道式を用いて飛翔砲弾が目標に着弾する飛翔
時間時点での弾着点を算出する曲線近似弾着点予測処理
部とを備えたことを特徴とする請求項1記載の弾着観測
画像処理装置。
4. An observation time m-times generation processing unit for generating an observation time during flight of a flying object from an emission time of the flying object m times, and m observation times output from the observation time m-times generation processing unit An m image frame memory unit for capturing an image of timing, an m flying projectile extraction processing unit for extracting m flying projectile positions from observation image data in the m image frame memory unit, and the m flying projectile extraction The flight trajectory curve approximation processing unit that approximates the trajectory trajectory of the flight cannonball in the shell flight direction from the m positions of the mmunition projectiles on the image of the flight cannonball extracted by the processing unit, and the flight trajectory curve approximation processing unit 2. The bullet according to claim 1, further comprising a curve approximated point prediction processing unit that calculates a point of impact at a flight time at which the flying bullet lands on the target using the estimated curve approximated ballistic formula. Landing observation image processing device.
【請求項5】 飛翔砲弾画像の取り込み処理として、現
在時刻に対して1フレーム前の画像データを蓄積してお
く前回画像フレームメモリと、上記前回画像フレームと
現在時刻での画像データとの差分を演算する画像差分処
理部と、上記画像差分画像データを上記観測時刻生成処
理部からの観測タイミングにて取り込む差分画像フレー
ムメモリとを備えたことを特徴とする請求項1記載の弾
着観測画像処理装置。
5. A process for capturing a flying cannonball image, wherein a difference between a previous image frame memory for storing image data one frame before the current time and image data at the current time and the previous image frame is stored. 2. The landing observation image processing according to claim 1, further comprising: an image difference processing unit for calculating, and a difference image frame memory for taking in the image difference image data at an observation timing from the observation time generation processing unit. apparatus.
【請求項6】 上記画像フレームメモリ部の観測画像デ
ータに対して、飛翔砲弾の抽出処理を行う領域を制限す
る抽出領域選択処理部を備えたことを特徴とする請求項
1記載の弾着観測画像処理装置。
6. An impact observation apparatus according to claim 1, further comprising an extraction area selection processing section for restricting an area for performing a process of extracting a flying shell from the observation image data in the image frame memory section. Image processing device.
【請求項7】 飛翔砲弾の抽出処理に対して、画像上の
輝点抽出のサイズを制限する抽出サイズ選択処理部と、
上記抽出サイズ選択処理部からの抽出サイズ制限に応じ
た飛翔砲弾を画像内から抽出し飛翔砲弾位置を求めるサ
イズ内飛翔砲弾抽出処理部とを備えたことを特徴とする
請求項1記載の弾着観測画像処理装置。
7. An extraction size selection processing unit for restricting the size of bright spot extraction on an image for the extraction processing of a flying cannonball,
2. An impact shooting ammunition according to claim 1, further comprising an in-size flying ammunition extraction processing section for extracting a flying ammunition corresponding to an extraction size limit from the extraction size selection processing section from an image to obtain a flying ammunition position. Observation image processing device.
JP35443797A 1997-12-24 1997-12-24 Landing observation image processor Pending JPH11183096A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35443797A JPH11183096A (en) 1997-12-24 1997-12-24 Landing observation image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35443797A JPH11183096A (en) 1997-12-24 1997-12-24 Landing observation image processor

Publications (1)

Publication Number Publication Date
JPH11183096A true JPH11183096A (en) 1999-07-06

Family

ID=18437569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35443797A Pending JPH11183096A (en) 1997-12-24 1997-12-24 Landing observation image processor

Country Status (1)

Country Link
JP (1) JPH11183096A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011085337A (en) * 2009-10-16 2011-04-28 Mitsubishi Heavy Ind Ltd Impact point observing method and system
JP2012198040A (en) * 2011-03-18 2012-10-18 Mitsubishi Electric Corp Spotting apparatus
JP2013185756A (en) * 2012-03-08 2013-09-19 Mitsubishi Electric Corp Impact observation apparatus
WO2016024761A1 (en) * 2014-08-13 2016-02-18 김기범 Apparatus for detecting launch position of object using dhsc and method therefor
KR102072690B1 (en) * 2018-08-31 2020-02-03 국방과학연구소 A system for calculating point of impact for a vertical impact weapon using a single high speed camera and method of thereof
KR102279589B1 (en) * 2021-02-22 2021-07-20 한화시스템 주식회사 Target impact measuring apparatus, warship combat system having the same, and target impact measuring method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011085337A (en) * 2009-10-16 2011-04-28 Mitsubishi Heavy Ind Ltd Impact point observing method and system
JP2012198040A (en) * 2011-03-18 2012-10-18 Mitsubishi Electric Corp Spotting apparatus
JP2013185756A (en) * 2012-03-08 2013-09-19 Mitsubishi Electric Corp Impact observation apparatus
WO2016024761A1 (en) * 2014-08-13 2016-02-18 김기범 Apparatus for detecting launch position of object using dhsc and method therefor
KR102072690B1 (en) * 2018-08-31 2020-02-03 국방과학연구소 A system for calculating point of impact for a vertical impact weapon using a single high speed camera and method of thereof
KR102279589B1 (en) * 2021-02-22 2021-07-20 한화시스템 주식회사 Target impact measuring apparatus, warship combat system having the same, and target impact measuring method

Similar Documents

Publication Publication Date Title
US8794967B2 (en) Firearm training system
KR102041461B1 (en) Device for analyzing impact point improving the accuracy of ballistic and impact point by applying the shooting environment of actual personal firearm ing virtual reality and vitual shooting training simulation using the same
US8400619B1 (en) Systems and methods for automatic target tracking and beam steering
US9791243B2 (en) System and method for weapon effect simulation
US20060005447A1 (en) Processor aided firing of small arms
EP0929787B1 (en) Target aiming system
US20110315767A1 (en) Automatically adjustable gun sight
US20210372738A1 (en) Device and method for shot analysis
US6973865B1 (en) Dynamic pointing accuracy evaluation system and method used with a gun that fires a projectile under control of an automated fire control system
EP4109042A2 (en) Camera and radar systems and devices for ballistic parameter measurements from a single side of a target volume
US20220049931A1 (en) Device and method for shot analysis
CN105300171A (en) Shooting training aid system based on simulation bullet
EP4109034A2 (en) Camera systems and devices for ballistic parameter measurements in an outdoor environment
KR102237380B1 (en) Device for analyzing impact point and vitual shooting training simulation system using the same
US20160055652A1 (en) Systems to measure yaw, spin and muzzle velocity of projectiles, improve fire control fidelity, and reduce shot-to-shot dispersion in both conventional and air-bursting programmable projectiles
JPH11183096A (en) Landing observation image processor
US20200166309A1 (en) System and method for target acquisition, aiming and firing control of kinetic weapon
JPH09170898A (en) Guiding apparatus
CN105300172A (en) Compact type shooting training aid system
US3965582A (en) Gunnery practice method and apparatus
KR890000098B1 (en) Aircraft automatic boresight correction
JP2007333260A (en) Fire control system
EP1643206A1 (en) Simulation system, method and computer program
EP1580516A1 (en) Device and method for evaluating the aiming behaviour of a weapon
US20030161501A1 (en) Image distortion for gun sighting and other applications