JP2000249542A - Remote-locating device - Google Patents

Remote-locating device

Info

Publication number
JP2000249542A
JP2000249542A JP11049459A JP4945999A JP2000249542A JP 2000249542 A JP2000249542 A JP 2000249542A JP 11049459 A JP11049459 A JP 11049459A JP 4945999 A JP4945999 A JP 4945999A JP 2000249542 A JP2000249542 A JP 2000249542A
Authority
JP
Japan
Prior art keywords
image
unit
target
difference
landing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11049459A
Other languages
Japanese (ja)
Inventor
Masamichi Isokawa
正道 磯川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP11049459A priority Critical patent/JP2000249542A/en
Publication of JP2000249542A publication Critical patent/JP2000249542A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To achieve remote operation or automatic locating by extracting the difference between a current image that is outputted from an image pick-up camera and a past image that is outputted from a memory and detecting the brightness of the image for judging whether the difference indicates a target or an impact. SOLUTION: A remote control device 19 transmits the position information of an impact point being predicted in advance to a locating equipment control device 9 and directs automatic locating equipment 4 in an approximate direction. An image control part 11 performs output to an image memory 12 and a brightness processing control part 15 with an image form an image pickup camera 5 as a reference image. The image control part 11 outputs an image from the output image pick-up camera 5 to a difference extraction part 13. The difference extraction part 13 extracts the difference between the image from the image control part 11 and that from the image memory 12 and outputs it to a brightness judgment part 14. The brightness judgment part 14 judges the brightness of the difference, determines whether the difference indicates a target object or an impact, and outputs the result to a brightness processing control part 15. The judgment result is transmitted to an operation processing control part 23 and is overlaid for display on the reference image of an operation display part 24.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、野外において発
射砲弾の標的となる目標を標定する必要があるシステム
において用いられる観測地点からの目標位置を標定し、
その標定データを伝送する装置に関するものである。
BACKGROUND OF THE INVENTION The present invention relates to a method for locating a target position from an observation point used in a system which needs to locate a target to be fired by a projectile in the field.
The present invention relates to a device for transmitting the orientation data.

【0002】[0002]

【従来の技術】図5は野外において発射砲弾の標的とな
る目標を標定するシステムの一例である。尚、ここでは
発射砲弾の着弾点を標定する場合の動作について説明す
る。このシステムは、火砲46から発射された砲弾45
の着弾点の位置及び距離を手動標定器43を用いて標定
を行い、得られた標定データを標定器処理装置44で処
理し、目標の種類、数、修正量及び目標位置等の情報を
標定器処理装置44から離れた場所にある中央制御装置
47に伝送し、目標標定情報を確認するために用いられ
る。
2. Description of the Related Art FIG. 5 is an example of a system for locating a target to be fired in a field. Here, the operation in the case of locating the landing point of the shot shell will be described. This system includes a shell 45 fired from a gun 46
The position and distance of the impact point are located using the manual positioner 43, the obtained orientation data is processed by the orientation processor 44, and information such as the type, number, correction amount and target position of the target is located. The information is transmitted to the central control device 47 at a location remote from the processing unit 44 and is used for confirming the target orientation information.

【0003】図6は従来の目標を標定する装置を示す構
成図である。図において1は発射砲弾の標的となる目
標、2は目標1からの入射光、3は測距レーザ光、48
は目標1からの入射光3を撮像しビューファインダに映
像を映す目視撮像カメラ、49は手動で目標1の方向に
測距レーザ光3を発射し距離を計測し測距信号を出力す
る手動レーザ測距部、50は目視撮像カメラ48と手動
レーザ測距部49を固定し手動レーザ測距部49からの
距離、方位角及び高低角を表示し標定データを出力する
手動測角部であり、目視撮像カメラ48、手動レーザ測
距部49と手動測角部50で手動標定器43を構成して
いる。また、51は手動測角部50からの入力信号を処
理し必要に応じて信号を出力する標定データ処理制御
部、16は標定データ処理制御部51からの表示信号を
表示する標定表示部、17は入力データと音声信号を周
波数多重化した信号を出力する標定データ送信部、18
は入力信号をデータと音声信号に復元しデータと音声信
号を出力する操作データ受信部であり、標定データ処理
制御部51、標定表示部16、標定データ送信部17及
び操作データ受信部18で標定器処理装置44を構成し
ている。また、20は入力信号をデータと音声信号に復
元しデータと音声信号を出力する標定データ受信部、5
2は入力データと音声信号を周波数多重化した信号を出
力する中央データ送信部、53は入力信号を処理し必要
に応じて信号を出力する中央処理制御部、24は中央処
理制御部53からの表示信号を表示する操作表示部であ
り、標定データ受信部20、中央データ送信部52、中
央処理制御部53及び操作表示部24で中央制御装置4
7を構成している。
FIG. 6 is a block diagram showing a conventional device for locating a target. In the figure, 1 is a target which is a target of a fired projectile, 2 is incident light from the target 1, 3 is a distance measuring laser beam, 48
Is a visual imaging camera that images the incident light 3 from the target 1 and projects an image on the viewfinder; 49 is a manual laser that manually emits the ranging laser beam 3 in the direction of the target 1 to measure the distance and output a ranging signal. A distance measuring unit 50 is a manual angle measuring unit that fixes the visual imaging camera 48 and the manual laser distance measuring unit 49, displays a distance from the manual laser distance measuring unit 49, an azimuth angle and an elevation angle, and outputs orientation data. The manual imaging device 43 is constituted by the visual imaging camera 48, the manual laser distance measurement unit 49, and the manual angle measurement unit 50. Reference numeral 51 denotes an orientation data processing control unit that processes an input signal from the manual angle measurement unit 50 and outputs a signal as necessary. Reference numeral 16 denotes an orientation display unit that displays a display signal from the orientation data processing control unit 51. Is an orientation data transmission unit for outputting a signal obtained by frequency-multiplexing the input data and the audio signal;
Is an operation data receiving unit for restoring an input signal into data and a voice signal and outputting the data and the voice signal. The orientation data processing control unit 51, the orientation display unit 16, the orientation data transmitting unit 17, and the operation data receiving unit 18 perform orientation. The container processing device 44 is constituted. Reference numeral 20 denotes an orientation data receiving unit for restoring an input signal to a data and audio signal and outputting the data and the audio signal.
Reference numeral 2 denotes a central data transmission unit for outputting a signal obtained by frequency-multiplexing the input data and the audio signal; 53, a central processing control unit for processing the input signal and outputting a signal as necessary; An operation display unit for displaying a display signal. The orientation data reception unit 20, the central data transmission unit 52, the central processing control unit 53, and the operation display unit 24 include a central control unit 4.
7.

【0004】従来の目標を標定する装置は上記のように
構成され、次のように動作する。ここでは例として、発
射砲弾の着弾点を標定する場合について説明する。中央
処理制御部53はあらかじめ予想される着弾点の位置、
方向データを標定データ処理制御部51に送信し、手動
標定器43を予想される着弾点付近に向けておく。火砲
46から発射された砲弾45が着弾した時、手動レーザ
測距部49の測距レーザ光3の発射軸を着弾点39に移
動させ、測距レーザ光3を発射し距離を測距する。目視
撮像カメラ48は赤外線撮像機能を備えたものであり、
夜間標定する場合にも用いることが可能である。手動標
定器43で標定した目標位置、方向角、高低角の標定デ
ータは標定データ処理制御装置51に送信され、標定表
示部16に標定データが表示される。手動レーザ測距部
49のビューファインダにより確認した着弾点と測距レ
ーザ光3の発射軸との間の修正量を標定データ送信装置
17、標定データ受信部20を介して、中央処理制御部
53に送信する。受信した中央処理制御部53は、情報
を操作表示部24に表示し、修正量を基に砲弾の発射方
向を修正する。この装置には記載されていないが、実際
には中央処理制御部53は火砲46に砲弾の発射方向及
び修正値等を送信する。
A conventional target locating device is constructed as described above, and operates as follows. Here, as an example, a case will be described in which the landing point of a firing shell is located. The central processing control unit 53 calculates the position of the impact point predicted in advance,
The direction data is transmitted to the orientation data processing control unit 51, and the manual orientation device 43 is directed to the vicinity of the expected impact point. When the shell 45 fired from the gun 46 lands, the firing axis of the ranging laser beam 3 of the manual laser ranging unit 49 is moved to the landing point 39, and the ranging laser beam 3 is emitted to measure the distance. The visual imaging camera 48 has an infrared imaging function,
It can also be used for nighttime orientation. The orientation data of the target position, the direction angle, and the elevation angle, which are oriented by the manual orientation device 43, are transmitted to the orientation data processing control device 51, and the orientation data is displayed on the orientation display unit 16. The correction amount between the impact point confirmed by the viewfinder of the manual laser distance measuring unit 49 and the emission axis of the distance measuring laser beam 3 is determined by the central processing control unit 53 via the orientation data transmitting device 17 and the orientation data receiving unit 20. Send to The central processing control unit 53 that has received the information displays the information on the operation display unit 24, and corrects the firing direction of the shell based on the correction amount. Although not described in this device, the central processing control unit 53 actually transmits the firing direction of the shell, the correction value, and the like to the gun 46.

【0005】図7は従来の標定器の操作方法を示す図で
ある。図において、37は測距レーザ光発射軸、39は
着弾点、54はビューファインダ、55は移動前の着弾
点である。図7(a)は着弾時の観測状況を表すもので
あり、着弾点39が測距レーザ光発射軸37からずれた
位置にあることを示す。図7(b)は、着弾点39の位
置を測距するため、着弾点39に測距レーザ光発射軸3
7を一致させた状況を示すものである。このように、従
来の手動標定器43では着弾時に着弾点39を手動レー
ザ測距部49のビューファインダ54で確認し、着弾点
39を測距レーザ光発射軸37に移動させた後、手動レ
ーザ測距部49から測距レーザ光3を発射することによ
り、着弾点39を標定する。
FIG. 7 is a diagram showing a method of operating a conventional orientation device. In the figure, 37 is a distance measuring laser beam emission axis, 39 is a landing point, 54 is a viewfinder, and 55 is a landing point before movement. FIG. 7A shows the observation situation at the time of impact, and shows that the impact point 39 is located at a position deviated from the ranging laser light emission axis 37. FIG. 7B shows the distance measuring laser beam emitting axis 3 at the impact point 39 in order to measure the distance of the impact point 39.
7 shows a situation where 7 is matched. As described above, the conventional manual locator 43 confirms the impact point 39 at the time of impact with the view finder 54 of the manual laser distance measuring unit 49, and moves the impact point 39 to the distance measuring laser light emitting axis 37. The landing point 39 is located by emitting the distance measuring laser beam 3 from the distance measuring unit 49.

【0006】[0006]

【発明が解決しようとする課題】上記のような目標を標
定する装置では、目標1を標定する場合、目視撮像カメ
ラ48及び手動レーザ測距部49を目標1に測距レーザ
光発射軸37を合わせて標定する必要があるため、常に
標定する操作員は少なくとも一人いる必要がある。手動
レーザ測距部49は誤動作時、測距レーザ光3により操
作員に被害を及ぼす危険性がある。また、操作員は着弾
点の近くで標定するため、砲弾及び着弾時の衝撃の危険
にさらされている。このように、操作員は常に危険と隣
り合わせの状態であるという問題があった。また、目視
撮像カメラ48の映像を手動標定器43から標定器処理
装置44を介して、中央制御装置47に伝送しようとし
た場合、標定器処理装置44と中央制御装置47との間
の伝送路は野外電話線が用いられるため、高い伝送速度
を出すことができず、画像のような情報量の大きなデー
タを短時間で伝送することは困難であった。また、画像
をリアルタイムに標定器処理装置44から中央制御装置
47に伝送した場合、伝送路を常に占有してしまい、緊
急を要する情報の伝送を妨げてしまうという問題が生じ
てしまう。さらに、標定器処理装置44と中央制御装置
47との間の距離は数キロ離れており、野外電話線以外
の線路を新たに布設するのは困難であるという問題もあ
った。
In the apparatus for locating a target as described above, when locating the target 1, the visual imaging camera 48 and the manual laser distance measuring unit 49 are used to set the distance measuring laser beam emission axis 37 to the target 1. Since it is necessary to perform orientation together, there must be at least one operator at all times. When the manual laser distance measuring unit 49 malfunctions, there is a risk that the distance measuring laser beam 3 may damage the operator. Further, since the operator positions near the point of impact, the operator is exposed to the danger of a shell and impact upon impact. As described above, there is a problem that the operator is always in danger. When the image of the visual imaging camera 48 is transmitted from the manual orientation device 43 to the central control device 47 via the orientation device processing device 44, a transmission path between the orientation device processing device 44 and the central control device 47 is required. Since an outdoor telephone line is used, a high transmission rate cannot be achieved, and it has been difficult to transmit data with a large amount of information such as an image in a short time. Further, when an image is transmitted from the locator processing device 44 to the central control device 47 in real time, the transmission line is always occupied, and the transmission of urgent information is hindered. Furthermore, the distance between the orientation control unit 44 and the central control unit 47 is several kilometers, and there is a problem that it is difficult to lay a new line other than the outdoor telephone line.

【0007】この発明は上記のような問題を解決するた
めになされたものであり、2つの画像の差分値を求める
ことにより、目標を検出し遠隔操作もしくは自動操作で
目標に測距レーザ光発射軸を合わせることで、操作員の
安全性上の問題を解消する。また、画像の伝送には2つ
の画像の差分値の伝送を行うことにより伝送するデータ
量を最小限にし、野外電話線以外の線路を布設すること
なしに現有の低い伝送速度の線路を用いて目標の画像を
伝送し、目標を遠隔操作でまたは自動的に標定すること
ができることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem. A target is detected by calculating a difference value between two images, and a distance measuring laser beam is emitted to the target by remote control or automatic control. Aligning the axes eliminates operator safety issues. Further, in the image transmission, the amount of data to be transmitted is minimized by transmitting the difference value of the two images, and the existing low-speed transmission line is used without laying a line other than the outdoor telephone line. It is an object of the invention to be able to transmit an image of a target and to locate the target remotely or automatically.

【0008】[0008]

【課題を解決するための手段】第1の発明による遠隔標
定装置は、標定器の架台を上下左右に駆動させる手段
と、標定器の架台を制御する手段と、撮像カメラの画像
の出力先を制御する手段と、撮像カメラの画像をメモリ
に保存する手段と、撮像カメラから出力される現在の画
像とメモリから出力される過去の画像の差分を抽出する
手段と、画像の輝度を検出し目標か着弾かを判定する手
段と、標定器の架台を操作する手段とを設けたものであ
る。
According to a first aspect of the present invention, there is provided a remote locating apparatus for driving a gantry of a locator up, down, left and right, controlling a gantry of a locator, and outputting an image of a camera. Means for controlling, means for storing the image of the imaging camera in the memory, means for extracting the difference between the current image output from the imaging camera and the past image output from the memory, And means for operating the gantry of the locator.

【0009】又、第2の発明による目標標定装置は、撮
像カメラから出力される現在の画像とメモリから出力さ
れる過去の画像の差分から目標及び着弾点の位置を検出
し架台の目標及び着弾点までの移動量を計算する手段
と、目標及び着弾点での移動量により自動的に架台を目
標及び着弾点まで駆動させ目標及び着弾点を標定する手
段とを設けたものである。
A target locating device according to a second aspect of the present invention detects a target and a landing point from a difference between a current image output from an imaging camera and a past image output from a memory, and detects a target and an impact on a gantry. Means are provided for calculating the amount of movement to the point, and means for automatically driving the gantry to the target and the point of impact based on the amount of movement at the target and the point of impact, and locating the target and the point of impact.

【0010】又、第3の発明による目標標定装置は、砲
弾の発射から着弾までの時間を出力する弾道計算手段
と、画像の輝度を検出し検出結果を砲弾の発射から着弾
までの時間を用いて目標か着弾かを判定する手段とを設
けたものである。
The target locating device according to a third aspect of the present invention uses a trajectory calculating means for outputting the time from the firing of the shell to the landing, and the brightness of the image is detected, and the detection result is used based on the time from the firing of the shell to the landing. Means for judging whether the target or the landing.

【0011】[0011]

【発明の実施の形態】実施の形態1.図1はこの発明の
実施の形態1を示す構成図である。図において1,2,
3,16,17,18,20,24は、上記従来装置と
同一のものである。5は発射砲弾の標的となる目標及び
発射砲弾の着弾点を撮影し画像を出力する出力撮像カメ
ラ、6は目標を測距レーザ光により距離を計測し自動測
距信号の入力により自動で距離を計測する自動レーザ測
距部、7は出力撮像カメラ5と自動レーザ測距部6を固
定し自動レーザ測距部6からの距離、方位角及び高低角
を表示し標定データを出力し、制御信号の入出力を持つ
測角部、8は測角部7を上下左右に駆動させる可動式架
台であり、出力撮像カメラ5、自動レーザ測距部6、測
角部7及び可動式架台8で自動標定器4を構成してい
る。10は可動式架台8の駆動を制御する架台制御部、
11は出力撮像カメラ5の画像の出力先を制御する画像
制御部、12は出力撮像カメラ5の画像を保存する画像
メモリ、13は2枚の画像の差分を抽出する差分抽出
部、14は差分抽出部13から出力された画像の輝度を
検出し物体か着弾かを判定する輝度判定部、15は測距
データ、輝度判定結果、画像データ、操作指令データを
処理し制御する輝度処理制御部であり、架台制御部1
0、画像制御部11、画像メモリ12、差分抽出部1
3、輝度判定部14、輝度処理制御部15、標定表示部
16、標定データ送信部17及び操作データ受信部18
で標定器制御装置9を構成している。22は可動式架台
8を操作し操作指令データを出力する操作部、23は測
距データ、輝度判定結果、画像データ、着弾点予測デー
タを処理し制御する操作処理制御部、21は操作指令デ
ータと操作処理制御部23からのデータを入力としデー
タと音声を周波数多重化する操作データ送信部であり、
標定データ受信部20、操作データ送信部21、操作部
22、操作処理制御部23及び操作表示部24で遠隔操
作装置を構成している。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 FIG. 1 is a configuration diagram showing Embodiment 1 of the present invention. In the figure, 1, 2,
Reference numerals 3, 16, 17, 18, 20, and 24 are the same as those of the conventional device. Reference numeral 5 denotes an output imaging camera which captures a target serving as a target of the projectile and a projecting point of the projectile and outputs an image, and 6 measures the target by a distance measuring laser beam and automatically detects the distance by inputting an automatic distance measuring signal. An automatic laser distance measuring unit 7 for measuring fixes the output imaging camera 5 and the automatic laser distance measuring unit 6, displays a distance from the automatic laser distance measuring unit 6, an azimuth angle and an elevation angle, outputs orientation data, and outputs a control signal. An angle measuring unit 8 having an input / output of 8 is a movable gantry for driving the angle measuring unit 7 up, down, left and right, and is automatically operated by the output imaging camera 5, the automatic laser ranging unit 6, the angle measuring unit 7 and the movable gantry 8. The orientation unit 4 is configured. 10 is a gantry controller for controlling the driving of the movable gantry 8;
11 is an image control unit for controlling the output destination of the image of the output imaging camera 5, 12 is an image memory for storing the image of the output imaging camera 5, 13 is a difference extraction unit for extracting a difference between two images, and 14 is a difference A luminance determination unit 15 detects the luminance of the image output from the extraction unit 13 and determines whether the image is an object or a landing. A luminance processing control unit 15 processes and controls distance measurement data, a luminance determination result, image data, and operation command data. Yes, gantry controller 1
0, image control unit 11, image memory 12, difference extraction unit 1
3, brightness determination unit 14, brightness processing control unit 15, orientation display unit 16, orientation data transmission unit 17, and operation data reception unit 18.
Constitute the orientation control device 9. Reference numeral 22 denotes an operation unit that operates the movable base 8 and outputs operation command data, 23 denotes an operation processing control unit that processes and controls distance measurement data, luminance determination results, image data, and impact point prediction data, and 21 denotes operation command data. And an operation data transmission unit for inputting data from the operation processing control unit 23 and frequency multiplexing the data and the voice,
The orientation data receiving unit 20, the operation data transmitting unit 21, the operation unit 22, the operation processing control unit 23, and the operation display unit 24 constitute a remote operation device.

【0012】上記のように構成された遠隔標定装置の動
作を説明する。目標1を標定する場合、遠隔操作装置1
9はあらかじめ予想される着弾点の位置情報を標定器制
御装置9に送信し、概略方向に自動標定器4を向けてお
く。概略方向を出力撮像カメラ5で撮影した画像を画像
制御部11に出力し、画像制御部11は撮像カメラ5か
らの画像を基準画像として画像メモリ12と輝度処理制
御部15に出力する。輝度処理制御部15は基準画像を
標定データ送信部17と標定データ受信部20を介して
操作処理制御部23に出力し、操作処理制御部23は基
準画像を操作表示部24に表示する。次に画像制御部1
1は一定時間経過した後の出力撮像カメラ5からの画像
を差分抽出部13に出力する。同時に画像メモリ12は
保持している画像を差分抽出部13に出力する。差分抽
出部13は画像制御部11からの画像と画像メモリ12
からの画像との差分を抽出し、輝度判定部14に出力す
る。輝度判定部14は差分の輝度値を判定し差分が物体
か着弾かを決め、結果を輝度処理制御部15に出力す
る。判定結果は標定データ送信部17と標定データ受信
部20を介して操作処理制御部23に送信され、操作表
示部24に表示されている基準画像上に判定結果をオー
バーレイ表示する。その判定結果に基づき、操作員は操
作部22を操作して可動式架台8を可動させ、目標に測
距レーザ光発射軸37と合わせ標定を行う。操作部22
の操作信号は操作データ送信部21、操作データ受信部
18、輝度処理制御部15を介して架台制御部10に送
信される。このようにして操作員が自動標定器4を操作
することなく、離れた場所からの遠隔操作による標定が
可能となる遠隔標定装置が構成される。
The operation of the remote locating device configured as described above will be described. When locating the target 1, the remote control device 1
The reference numeral 9 transmits the position information of the impact point predicted in advance to the orientation control device 9, and directs the automatic orientation device 4 in the approximate direction. Outputting the image in the approximate direction is output to the image control unit 11, and the image control unit 11 outputs the image from the imaging camera 5 to the image memory 12 and the brightness processing control unit 15 as a reference image. The brightness processing control unit 15 outputs the reference image to the operation processing control unit 23 via the orientation data transmitting unit 17 and the orientation data receiving unit 20, and the operation processing control unit 23 displays the reference image on the operation display unit 24. Next, the image control unit 1
1 outputs the image from the output imaging camera 5 after a lapse of a predetermined time to the difference extracting unit 13. At the same time, the image memory 12 outputs the stored image to the difference extracting unit 13. The difference extraction unit 13 stores the image from the image control unit 11 and the image memory 12
, And outputs the difference to the luminance determination unit 14. The luminance determining unit 14 determines the luminance value of the difference, determines whether the difference is an object or an impact, and outputs the result to the luminance processing control unit 15. The determination result is transmitted to the operation processing control unit 23 via the orientation data transmission unit 17 and the orientation data reception unit 20, and the determination result is overlay-displayed on the reference image displayed on the operation display unit 24. Based on the result of the determination, the operator operates the operation unit 22 to move the movable gantry 8, and performs positioning with the target by aligning with the distance measuring laser beam emission axis 37. Operation unit 22
Is transmitted to the gantry control unit 10 via the operation data transmission unit 21, the operation data reception unit 18, and the brightness processing control unit 15. In this way, a remote locating device that enables remote locating from a remote location without the operator operating the automatic locator 4 is configured.

【0013】図4に2つの画像の差分値を求める方法を
説明する。ここでは例として、砲弾の着弾点を標定する
場合について説明する。図において36は基準画像、3
7が測距レーザ光発射軸、38は着弾画像、39は着弾
点、40は差分画像、41はオーバーレイ画像、42は
着弾点マークである。画像処理部11は常に出力撮像カ
メラ5からの画像を受信している。画像制御部11は操
作処理制御部23と画像メモリ12に図4(a)の基準
画像36を送信する。操作処理制御部23は操作表示部
24に基準画像36を表示する。着弾後、画像制御部1
1は、図4(b)の着弾画像38を差分抽出部13に出
力する。同時に画像メモリ12は基準画像36を差分抽
出部13に出力する。差分抽出部13は基準画像36と
着弾画像38の図4(c)の差分画像40を抽出し、差
が閾値以上なら輝度判定部14に出力する。輝度判定部
14は差分画像40の輝度を判定し、判定結果と差分画
像40の座標位置を操作処理制御部23に送信する。操
作処理制御部23は操作表示部24に表示されている基
準画像36上に輝度判定部14からの結果を着弾点マー
ク42として重ね書きし、図4(d)のオーバーレイ画
像41のように操作表示部24に表示する。このように
して目標の判定結果と目標の座標位置の送信を行うこと
で送信するデータ量を最小限にし、送信する装置間の伝
送路が低い伝送速度であってもオーバーレイ表示を行う
ことにより着弾点を確認することができる。
FIG. 4 illustrates a method for obtaining a difference value between two images. Here, as an example, a case where the impact point of a shell is located will be described. In the figure, 36 is a reference image, 3
Reference numeral 7 denotes a distance measurement laser beam emission axis, 38 denotes an impact image, 39 denotes an impact point, 40 denotes a difference image, 41 denotes an overlay image, and 42 denotes an impact point mark. The image processing unit 11 always receives an image from the output imaging camera 5. The image control unit 11 transmits the reference image 36 in FIG. 4A to the operation processing control unit 23 and the image memory 12. The operation processing control unit 23 displays the reference image 36 on the operation display unit 24. After landing, image control unit 1
1 outputs the landing image 38 of FIG. At the same time, the image memory 12 outputs the reference image 36 to the difference extraction unit 13. The difference extracting unit 13 extracts a difference image 40 in FIG. 4C of the reference image 36 and the landing image 38, and outputs the difference image 40 to the luminance determination unit 14 if the difference is equal to or larger than the threshold value. The luminance determination unit 14 determines the luminance of the difference image 40, and transmits the determination result and the coordinate position of the difference image 40 to the operation processing control unit 23. The operation processing control unit 23 overwrites the result from the luminance determination unit 14 on the reference image 36 displayed on the operation display unit 24 as the impact point mark 42, and performs the operation as in the overlay image 41 in FIG. It is displayed on the display unit 24. In this way, by transmitting the target determination result and the target coordinate position, the amount of data to be transmitted is minimized, and the landing is performed by performing the overlay display even when the transmission path between the transmitting apparatuses has a low transmission speed. You can check the points.

【0014】実施の形態2.図2はこの発明の実施の形
態2を示す構成図である。図において1,2,3,4,
5,6,7,8,11,12,14,15,16,1
7,18,19,20,21,22,23,24は図1
と同一のものである。27は差分画像から目標位置を検
出し、可動式架台8の移動量を計算し、レーザ測距部6
を操作する信号を出力する位置検出部、26は架台制御
部10に位置検出部27からの信号により可動式架台8
を駆動させる機能を備えた入力架台制御部、28は差分
抽出部13に位置検出部27へ差分値を出力する機能を
備えた出力差分抽出部であり、入力架台制御部26、位
置検出部27、画像制御部11、画像メモリ12、出力
差分抽出部、輝度判定部14、輝度制御部15、標定表
示部16、標定データ送信部17及び操作データ受信部
18で標定器自動制御装置25を構成している。
Embodiment 2 FIG. FIG. 2 is a configuration diagram showing a second embodiment of the present invention. In the figure, 1, 2, 3, 4,
5, 6, 7, 8, 11, 12, 14, 15, 16, 1
7, 18, 19, 20, 21, 22, 23 and 24 are shown in FIG.
Is the same as 27 detects the target position from the difference image, calculates the amount of movement of the movable gantry 8, and
The position detecting unit 26 outputs a signal for operating the movable mount 8 to the gantry control unit 10 in response to a signal from the position detecting unit 27.
An input gantry control unit having a function of driving the input gantry, and an output difference extracting unit 28 having a function of outputting a difference value to the position detecting unit 27 to the difference extracting unit 13, the input gantry controlling unit 26 and the position detecting unit 27 , The image control unit 11, the image memory 12, the output difference extraction unit, the luminance determination unit 14, the luminance control unit 15, the orientation display unit 16, the orientation data transmission unit 17, and the operation data reception unit 18 constitute the orientation control automatic control device 25. are doing.

【0015】上記のように構成された目標標定装置の動
作を説明する。出力差分抽出部28から出力される画像
から目標が画像中のどの位置にいるかを位置検出部27
で検出し、検出結果から目標を画像の中心に移動するま
での可動式架台8の移動量を算出し、上記移動量を自動
架台制御部26に出力する。上記移動量に基づき自動架
台制御部26は可動式架台8を駆動させ、自動的にレー
ザ測距部6を操作し標定することで、自動的に目標を標
定する遠隔標定装置を構成する。
The operation of the target locating device configured as described above will be described. From the image output from the output difference extraction unit 28, the position detection unit 27 determines where the target is in the image.
The moving amount of the movable gantry 8 until the target is moved to the center of the image is calculated from the detection result, and the moving amount is output to the automatic gantry controller 26. The automatic gantry controller 26 drives the movable gantry 8 based on the movement amount, and automatically operates and locates the laser distance measuring unit 6 to constitute a remote locating device for automatically locating the target.

【0016】実施の形態3.図3はこの発明の実施の形
態3を示す構成図である。図において1,2,3,4,
5,6,7,8,10,11,12,13,16,1
7,18,20,22,24は図1と同一のものであ
る。30は輝度判定部14に着弾時間判定機能を備えた
着弾時間輝度判定部、31は輝度処理判定部15に着弾
時間輝度判定部へ着弾時間を出力する機能を備えた着弾
時間処理制御部であり、架台制御部10、画像制御部1
1、画像メモリ12、差分抽出部13、着弾時間輝度判
定部30、着弾時間処理制御部31、標定表示部16、
標定データ送信部17及び操作データ受信部18で着弾
時間処理制御装置29を構成している。33は操作デー
タ送信部21に着弾時間を送信する機能を備えた着弾時
間データ送信部、34は発射から砲弾の着弾までの時間
を出力する着弾時間計算部、35は操作処理制御部23
に着弾時間計算部への着弾時間計算に必要なデータを出
力する機能を備えた着弾計算処理制御部であり、標定デ
ータ受信部20、着弾時間データ送信部33、着弾時間
計算部34、操作部22、着弾計算処理制御部35及び
操作表示部24で着弾時間計算遠隔制御部32を構成し
ている。
Embodiment 3 FIG. 3 is a configuration diagram showing a third embodiment of the present invention. In the figure, 1, 2, 3, 4,
5,6,7,8,10,11,12,13,16,1
7, 18, 20, 22, and 24 are the same as those in FIG. Reference numeral 30 denotes a landing time luminance determining unit having the luminance determining unit 14 having a landing time determining function, and 31 denotes a landing time processing control unit having the luminance processing determining unit 15 having a function of outputting a landing time to the landing time luminance determining unit. , Gantry control unit 10, image control unit 1
1, image memory 12, difference extraction unit 13, impact time luminance determination unit 30, impact time processing control unit 31, orientation display unit 16,
The orientation data transmission unit 17 and the operation data reception unit 18 constitute a landing time processing control device 29. Reference numeral 33 denotes a landing time data transmission unit having a function of transmitting a landing time to the operation data transmission unit 21; 34, a landing time calculation unit that outputs a time from firing to impact of a shell; and 35, an operation processing control unit 23.
Is a landing calculation processing control unit having a function of outputting data necessary for calculating landing time to the landing time calculation unit. The orientation data receiving unit 20, the landing time data transmission unit 33, the landing time calculation unit 34, the operation unit The landing calculation processing control unit 35 and the operation display unit 24 constitute a landing time calculation remote control unit 32.

【0017】上記のように構成された目標標定装置の動
作を説明する。着弾時間計算部34から出力された発射
から着弾までの時間は、着弾時間データ送信部33、操
作データ受信部18及び着弾時間処理制御部31を介し
て到着時間輝度判定部30に出力される。到着時間輝度
判定部30は差分抽出部13から出力された差分の輝度
値の判定基準に発射から着弾までの時間を加え、発射か
ら着弾までの時間の前後に着弾と判定されたものを着弾
と判定し、実施の形態1よりも物体と着弾の判定精度を
向上させる。
The operation of the target locating device configured as described above will be described. The time from firing to landing output from the landing time calculation unit 34 is output to the arrival time luminance determination unit 30 via the landing time data transmission unit 33, the operation data reception unit 18, and the landing time processing control unit 31. The arrival time luminance determination unit 30 adds the time from firing to landing to the determination criterion of the luminance value of the difference output from the difference extracting unit 13, and determines that the landing is determined before and after the time from firing to landing as landing. Judgment is made, and the judgment accuracy of the object and the impact is improved as compared with the first embodiment.

【0018】[0018]

【発明の効果】第1の発明によれば、2つの画像の差分
値を検出し目標及び着弾点を確認することにより、伝送
速度の低い伝送路でも標定器の遠隔操作が実現できる。
According to the first aspect of the present invention, the remote control of the locator can be realized even on a transmission line with a low transmission speed by detecting the difference between the two images and confirming the target and the point of impact.

【0019】又、第2の発明によれば、2つの画像の差
分値から目標位置を検出し目標位置までの移動量を計算
することにより、上記第1の発明に対し目標の自動標定
が可能となる。
According to the second aspect of the present invention, the target can be automatically located with respect to the first aspect of the invention by detecting the target position from the difference between the two images and calculating the amount of movement to the target position. Becomes

【0020】又、第3の発明によれば、砲弾の発射から
着弾までの時間を計算することにより、上記第1の発明
に対し目標識別の向上を図ることができる。
Further, according to the third aspect of the present invention, it is possible to improve the target identification as compared with the first aspect of the present invention by calculating the time from the firing of the shell to the landing of the shell.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明による遠隔標定装置の実施の形態1
を示す図である。
FIG. 1 is a first embodiment of a remote orientation device according to the present invention;
FIG.

【図2】 この発明による遠隔標定装置の実施の形態2
を示す図である。
FIG. 2 is a second embodiment of the remote location apparatus according to the present invention;
FIG.

【図3】 この発明による遠隔標定装置の実施の形態3
を示す図である。
FIG. 3 is a third embodiment of the remote orientation device according to the present invention;
FIG.

【図4】 この発明による2つの画像の差分値を求める
方法を示す図である。
FIG. 4 is a diagram showing a method for obtaining a difference value between two images according to the present invention.

【図5】 標定装置が適用されるシステム例を示す図で
ある。
FIG. 5 is a diagram illustrating an example of a system to which the orientation device is applied.

【図6】 従来の標定装置の実施の形態を示す図であ
る。
FIG. 6 is a diagram showing an embodiment of a conventional orientation device.

【図7】 従来の標定装置の操作方法を示す図である。FIG. 7 is a diagram showing an operation method of a conventional orientation device.

【符号の説明】[Explanation of symbols]

1 目標、2 入射光、3 測距レーザ光、4 自動標
定器、5 出力撮像カメラ、6 自動レーザ測距部、7
測角部、8 可動式架台、9 標定器制御装置、10
架台制御部、11 画像制御部、12 画像メモリ、
13 差分抽出部、14 輝度判定部、15 輝度処理
制御部、16 標定表示部、17 標定データ送信部、
18 操作データ受信部、19 遠隔操作装置、20
標定データ受信部、21 操作データ送信部、22 操
作部、23 操作処理制御部、24 操作表示部、25
標定器自動制御装置、26 入力架台制御部、27
位置検出部、28 出力差分抽出部、29 到着時間制
御装置、30 到着時間輝度判定部、31 到着時間処
理制御部、32 到着時間計算遠隔制御装置、33到着
時間データ送信部、34 着弾時間計算部、35 着弾
計算処理制御部、36 着弾時間計算部、36 基準画
像、37 測距レーザ光発射軸、38 着弾画像、39
着弾点、40 差分画像、41 オーバーレイ画像、
42 着弾点マーク、43 手動測距器、44 標定器
処理装置、45 砲弾、46 火砲、47 中央制御装
置、48 目視撮像カメラ、49 手動レーザ測距部、
50手動測角部、51 標定データ処理制御部、52
中央データ送信部、53中央処理制御部、54 ビュー
ファインダ、55 移動前の着弾点。
1 target, 2 incident light, 3 ranging laser light, 4 automatic locator, 5 output imaging camera, 6 automatic laser ranging unit, 7
Measuring unit, 8 Movable gantry, 9 Pointer control device, 10
Gantry controller, 11 image controller, 12 image memory,
13 difference extraction unit, 14 brightness determination unit, 15 brightness processing control unit, 16 orientation display unit, 17 orientation data transmission unit,
18 operation data receiving unit, 19 remote control device, 20
Orientation data receiving unit, 21 operation data transmission unit, 22 operation unit, 23 operation processing control unit, 24 operation display unit, 25
Automatic orientation control device, 26 input stand control unit, 27
Position detector, 28 output difference extractor, 29 arrival time controller, 30 arrival time luminance determiner, 31 arrival time processing controller, 32 arrival time calculator remote controller, 33 arrival time data transmitter, 34 landing time calculator 35 landing calculation processing control unit, 36 landing time calculation unit, 36 reference image, 37 ranging laser beam emission axis, 38 landing image, 39
Impact point, 40 difference image, 41 overlay image,
42 impact point mark, 43 manual range finder, 44 locator processor, 45 shell, 46 gun, 47 central controller, 48 visual imaging camera, 49 manual laser range finder,
50 manual angle measuring unit, 51 orientation data processing control unit, 52
Central data transmission unit, 53 central processing control unit, 54 viewfinder, 55 landing point before moving.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 発射砲弾の標的となる目標及び発射砲弾
の着弾点を撮影する撮像カメラと、操作指令データによ
り目標及び着弾点を測距レーザ光を発射し距離を計測す
るレーザ測距部と、上記撮像カメラと上記レーザ測距部
を固定し目標及び着弾点に対する方位角と高低角を計測
し上記レーザ測距部の測距値と方位角と高低角を出力す
る測角部と、上記測角部を上下左右に駆動させる可動式
架台と、上記撮像カメラの画像を入力とし画像の出力先
を制御する画像制御部と、上記撮像カメラの画像を保存
する画像メモリと、上記画像制御部から出力される現在
の画像と上記画像メモリから出力される過去の画像の差
分を抽出する差分抽出部と、上記差分抽出部から出力さ
れた画像の輝度を検出し差分が目標か着弾かを判定する
輝度判定部と、標定データ、画像データ及び操作指令デ
ータを処理し制御する処理制御手段と、標定データ、画
像データ及び操作指令データの送受信手段と、上記可動
式架台を遠隔操作する操作部と、上記操作部から出力さ
れる操作指令データにより上記可動式架台の駆動の制御
と上記レーザ測距部を操作し目標及び着弾点の標定を行
う架台制御部とを備えたことを特徴とする遠隔標定装
置。
1. An imaging camera for photographing a target which is a target of a projectile and a landing point of a projectile, a laser ranging unit for measuring a distance by emitting a laser beam for measuring a target and a point of impact according to operation command data. An angle measurement unit that fixes the imaging camera and the laser distance measurement unit, measures an azimuth and an elevation angle with respect to a target and a landing point, and outputs a distance measurement value, an azimuth angle, and an elevation angle of the laser distance measurement unit, A movable gantry for driving the angle measurement unit up, down, left and right, an image control unit for controlling an image output destination by receiving an image of the imaging camera, an image memory for storing an image of the imaging camera, and the image control unit And a difference extraction unit that extracts a difference between a current image output from the image memory and a past image output from the image memory, and detects whether the difference is a target or an impact by detecting the brightness of the image output from the difference extraction unit Brightness determination unit and orientation Processing control means for processing and controlling data, image data and operation command data, transmitting and receiving means for orientation data, image data and operation command data, an operation section for remotely operating the movable gantry, and output from the operation section A gantry control unit for controlling the driving of the movable gantry according to the operation command data and operating the laser ranging unit to locate a target and a landing point.
【請求項2】 上記差分抽出部から出力される画像から
目標及び着弾点の位置を検出し上記可動式架台の目標及
び着弾点までの移動量を計算する位置検出部と、上記位
置検出部から出力される移動量に対し上記可動式架台を
目標及び着弾点の位置まで駆動させ上記レーザ測距部を
操作し目標及び着弾点を標定する架台制御部を備えたこ
とを特徴とする請求項1記載の遠隔標定装置。
2. A position detecting section for detecting a position of a target and a landing point from an image output from the difference extracting section and calculating an amount of movement of the movable gantry to the target and a landing point; 2. A gantry control unit for driving the movable gantry to a position of a target and a landing point with respect to the output movement amount, operating the laser ranging unit, and locating the target and the landing point. A remote location device as described.
【請求項3】 砲弾の発射から着弾までの時間を出力す
る着弾時間計算部と、上記着弾時間計算部から出力され
る時間により上記差分抽出部から出力される差分画像が
目標か着弾かを判定する輝度判定部とを備えたことを特
徴とする請求項1記載の遠隔標定装置。
3. A landing time calculation unit for outputting a time from the firing of a shell to landing, and a determination is made as to whether the difference image output from the difference extraction unit is a target or a landing based on the time output from the landing time calculation unit. The remote location device according to claim 1, further comprising a brightness determination unit that performs the brightness determination.
JP11049459A 1999-02-26 1999-02-26 Remote-locating device Pending JP2000249542A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11049459A JP2000249542A (en) 1999-02-26 1999-02-26 Remote-locating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11049459A JP2000249542A (en) 1999-02-26 1999-02-26 Remote-locating device

Publications (1)

Publication Number Publication Date
JP2000249542A true JP2000249542A (en) 2000-09-14

Family

ID=12831736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11049459A Pending JP2000249542A (en) 1999-02-26 1999-02-26 Remote-locating device

Country Status (1)

Country Link
JP (1) JP2000249542A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011085337A (en) * 2009-10-16 2011-04-28 Mitsubishi Heavy Ind Ltd Impact point observing method and system
KR101544456B1 (en) * 2013-11-11 2015-08-13 국방과학연구소 Optical tracking system, portable optical tracking apparatus and operating method thereof
KR20160090203A (en) * 2015-01-21 2016-07-29 국방과학연구소 Apparauts for transmitting trigger signal and method for transmitting trigger signal
KR101888169B1 (en) * 2018-02-06 2018-08-13 엘아이지넥스원 주식회사 System or method for detecting self-destruct position

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011085337A (en) * 2009-10-16 2011-04-28 Mitsubishi Heavy Ind Ltd Impact point observing method and system
KR101544456B1 (en) * 2013-11-11 2015-08-13 국방과학연구소 Optical tracking system, portable optical tracking apparatus and operating method thereof
KR20160090203A (en) * 2015-01-21 2016-07-29 국방과학연구소 Apparauts for transmitting trigger signal and method for transmitting trigger signal
KR101700755B1 (en) * 2015-01-21 2017-01-31 국방과학연구소 Apparauts for transmitting trigger signal and method for transmitting trigger signal
KR101888169B1 (en) * 2018-02-06 2018-08-13 엘아이지넥스원 주식회사 System or method for detecting self-destruct position

Similar Documents

Publication Publication Date Title
KR100669250B1 (en) System and method for real-time calculating location
US10469754B2 (en) Position guiding device, position guiding method, and position guiding program
JP4771147B2 (en) Route guidance system
KR101501594B1 (en) Method for verifying a surveying instrument's external orientation
KR20100018363A (en) Automatic Location Tracking System for Moving Objects
US20210033394A1 (en) Surveying apparatus, surveying method, and surveying program
TWI458532B (en) System and method for detecting a shot direction of a light gun
CN112540384A (en) Obstacle detection method, device and equipment
WO2013141605A1 (en) System and method for aircraft type identification and docking guidance
JP4056777B2 (en) Autonomous mobile object traveling system and autonomous mobile object position correction method
US20090303327A1 (en) Security System
JP5858741B2 (en) Automatic tracking camera system
JP2830839B2 (en) Distance measuring device
KR20180106075A (en) The system and method for providing real-time golf game information including point-to-point distance and slope using two PTZ camera installed in a golf cart and automatic tracking of golf ball
JP2000249542A (en) Remote-locating device
JP2001264059A (en) Method of measuring displacement quantity of measured object
KR20160017400A (en) photographing system with RADAR and LASER
KR101763294B1 (en) Shooting Control System and Method Using Thereof
CN114938441A (en) Intelligent mobile terminal remote control method, system, equipment and storage medium
JP4923983B2 (en) Control device
JPH1123262A (en) Three-dimensional position measuring system
KR100928458B1 (en) A aerial photographing apparatus
JP2000171199A (en) Passive impact splash standardizing apparatus
JPH11142098A (en) Method and device for detection of impact location of released bomb
KR101754975B1 (en) apparatus for controlling position of battery