JP2013117362A - Missile guidance system - Google Patents

Missile guidance system Download PDF

Info

Publication number
JP2013117362A
JP2013117362A JP2011265986A JP2011265986A JP2013117362A JP 2013117362 A JP2013117362 A JP 2013117362A JP 2011265986 A JP2011265986 A JP 2011265986A JP 2011265986 A JP2011265986 A JP 2011265986A JP 2013117362 A JP2013117362 A JP 2013117362A
Authority
JP
Japan
Prior art keywords
flying object
target
guidance
flying
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011265986A
Other languages
Japanese (ja)
Inventor
Tomohito Takada
智人 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP2011265986A priority Critical patent/JP2013117362A/en
Publication of JP2013117362A publication Critical patent/JP2013117362A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a missile guidance system that can dispense with operation by an operator after the launch, attaining good resistance against jamming and the like, and achieving simplification in structure, downsizing, cost reduction and the like of a missile.SOLUTION: In the missile guidance system, an image processing part 22 of a sighting device extracts target region data including a target 50 from image data of a camera part 21 and obtains a target direction Do from the target region data. A guidance device 30 guides a missile 10 to bring a flight direction Df close to the target direction Do. In this way, the missile 10 is automatically guided toward the target 50 practically without carrying a seeker or the like.

Description

本発明は、ロケットモータ、プロペラ、ダクトファン等といった推進装置により飛しょうする飛しょう体の誘導システムに関し、特に、飛しょう体を半自動で誘導するにも関わらず、いわゆる「撃ち放し」に近い運用が可能な飛しょう体の誘導システムに関する。   The present invention relates to a flying object guidance system for flying by a propulsion device such as a rocket motor, a propeller, a duct fan, etc., and in particular, an operation close to so-called “shooting off” even though the flying object is guided semi-automatically. This is related to a flying object guidance system.

従来、飛しょう体の誘導方式の一つとして、CLOS(Command Guidance to Line Of Sight)が知られている。CLOSでは、発射された飛しょう体が目視線(LOS,Line of Sight)上を飛しょうするように、当該飛しょう体に対して誘導指令が送信される。初期のCLOSでは、手動で飛しょう体を誘導していたが、近年では、半自動誘導方式のCLOS(SACLOS,Semi-Automatic Command Guidance to Line Of Sight)が広く実用化されている。   Conventionally, CLOS (Command Guidance to Line Of Sight) is known as one of the flying object guidance methods. In CLOS, a guidance command is transmitted to a flying object so that the launched flying object flies over a line of sight (LOS). In early CLOS, the flying object was manually guided, but in recent years, semi-automatic command type CLOS (SACLOS, Semi-Automatic Command Guidance to Line Of Sight) has been widely put into practical use.

SACLOSでは、誘導装置により飛しょう体は自動で誘導されるが、飛しょう体が飛しょうしている間、射手(オペレーター)が照準装置で目標を捕捉することになるので、半自動誘導といわれる。SACLOSは、飛しょう体のうち、持運び可能なポータブル型の発射装置で発射されるタイプ(便宜上、「ポータブル型誘導飛しょう体」と称する。)で広く用いられている。   In SACLOS, the flying object is automatically guided by the guidance device. However, while the flying object is flying, the shooter (operator) captures the target with the aiming device, which is called semi-automatic guidance. The SACLOS is widely used among flying objects that are launched by a portable launching device that can be carried (referred to as a “portable guided flying object” for convenience).

ここで、半自動誘導で飛しょう体を誘導する場合、射手は、前記のとおり目標を捕捉し続ける必要があるため、飛しょう体が目標に向かって飛しょうしている間、退避行動をとることができない。射手のこの状態は、目標から見れば射手を容易に捕捉できる状態ということができる。さらに、目標が射手から見て遠方に位置し、かつ当該目標が移動している場合には、射手には比較的高度な照準技量が要求される。   Here, when guiding the flying object by semi-automatic guidance, the archer needs to continue to capture the target as described above, so take evacuation action while the flying object is flying toward the target. I can't. This state of the shooter can be said to be a state where the shooter can be easily captured from the viewpoint of the target. Furthermore, when the target is located far from the archer and the target is moving, the shooter is required to have a relatively high aiming skill.

そこで、このような射手の負担を回避するために、近年では、例えば特許文献1に開示されるように、飛しょう体にシーカを搭載する技術が提案されている。シーカを搭載した飛しょう体は(アクティブ方式およびパッシブ方式ともに)目標から発せられる電波または光波をシーカで検出することで目標位置を特定する。これにより飛しょう体は自律的に目標へ誘導されるので、飛しょう体をいわゆる「撃ち放し(fire and forget)」状態とすることができる。なお、アクティブ方式で目標に対して照射される電磁波としては、一般には、レーザ光またはレーダ波等が用いられる。   Therefore, in order to avoid such a burden on the shooter, in recent years, as disclosed in, for example, Patent Document 1, a technique for mounting a seeker on a flying object has been proposed. A flying object equipped with a seeker (both active and passive) identifies the target position by detecting the radio wave or light wave emitted from the target with the seeker. As a result, the flying object is guided to the target autonomously, so that the flying object can be brought into a so-called “fire and forget” state. In general, a laser beam, a radar wave, or the like is used as the electromagnetic wave irradiated to the target by the active method.

ところで、シーカは、目標からの電波または光波を検出する際に周囲から影響を受けやすいことが知られている。例えば、特許文献2には、レーザビーム照射装置から目標にレーザビームを照射してその反射光を赤外線シーカで検出する目標追尾誘導装置において、太陽光および太陽クラッタ光の影響を受けやすいことが記載されている。それゆえ、この文献では、シーカが前記太陽光等の影響を受けることを低減するために、レーザビームの偏光方向を調整する技術を開示している。   By the way, it is known that the seeker is easily affected by the surroundings when detecting radio waves or light waves from the target. For example, Patent Document 2 describes that a target tracking guidance apparatus that irradiates a target with a laser beam from a laser beam irradiation apparatus and detects reflected light by an infrared seeker is easily affected by sunlight and solar clutter light. Has been. Therefore, this document discloses a technique for adjusting the polarization direction of the laser beam in order to reduce the influence of the seeker on the influence of sunlight or the like.

米国特許5932833号明細書US Pat. No. 5,932,833 特開2009−145168号公報JP 2009-145168 A

前述したポータブル型誘導飛しょう体では、飛しょう体そのものが実質的に「使い捨て」であるため、飛しょう体の構成をより簡素化したり小型化したりすることが要求されている。ここで、飛しょう体が複雑な構造のシーカを搭載していれば、その簡素化および小型化を阻害することになる。また、シーカは一般に高価なものであるため、シーカの搭載は飛しょう体のコスト低減を妨げることにもなる。   In the above-described portable guided flying object, since the flying object itself is substantially “disposable”, it is required to further simplify and downsize the structure of the flying object. Here, if the flying body is equipped with a seeker having a complicated structure, the simplification and miniaturization of the flying body will be hindered. In addition, since the seeker is generally expensive, the installation of the seeker also hinders cost reduction of the flying object.

さらに、特許文献2に開示されるように、シーカは太陽光、太陽クラッタ光等の影響を受けやすいだけでなく、反射光の検出を妨げるような種々の妨害行為にも大きく影響を受ける。それゆえ、目標が何らかの妨害手段を備えていれば、飛しょう体の誘導精度も大きく低下することになる。   Further, as disclosed in Patent Document 2, the seeker is not only easily affected by sunlight, solar clutter light, etc., but also greatly affected by various disturbing acts that hinder the detection of reflected light. Therefore, if the target is equipped with any means of interference, the flying object guidance accuracy will be greatly reduced.

ここで、SACLOS方式の飛しょう体では射手が目標を照準するため、シーカを必要としない。それゆえ、飛しょう体の構成を簡素化、小型化、および低コスト化しやすいだけでなく、種々の妨害に対して良好な耐性を発揮することができる。それゆえ、SACLOSながら射手が発射後に何ら操作をすることなく飛しょう体を誘導することができれば、目標に向かって誘導させたまま射手自身は退避行動をとることが可能となり、優れた誘導システムとして運用することが可能である。   Here, since the shooter aims at the target in the SACLOS type flying body, a seeker is not required. Therefore, not only can the configuration of the flying object be simplified, reduced in size, and reduced in cost, but also can exhibit good resistance to various interferences. Therefore, if the shooter can guide the flying body without performing any operation after launching while using SACLOS, the shooter can take retreat action while being guided toward the target. It is possible to operate.

本発明はこのような課題を解決するためになされたものであって、SACLOS方式ながら発射後に射手の操作を不要とし、かつ、妨害等に対して良好な耐性を実現することも可能であり、さらには飛しょう体の構成の簡素化、小型化、低コスト化等も図ることが可能な飛しょう体の誘導システムを提供することを目的とする。   The present invention has been made in order to solve such a problem, and it is possible to realize a good resistance against an obstruction and the like without using a shooter operation after launching in spite of the SACLOS method. It is another object of the present invention to provide a flying object guidance system capable of simplifying the structure of the flying object, reducing the size, reducing the cost, and the like.

本発明に係る飛しょう体の誘導システムは、前記の課題を解決するために、推進方向を制御可能に飛しょうする飛しょう体と、前記飛しょう体を観察しながら目標を照準する照準装置と、誘導指令を生成して前記飛しょう体に送信することにより、当該飛しょう体を前記目標に向かって誘導する誘導装置と、から少なくとも構成され、前記照準装置は、飛しょう中の前記飛しょう体および前記目標を同時に撮像可能とするカメラ部と、当該カメラ部で撮像された画像データから、前記飛しょう体の飛しょう方向、および、前記カメラ部から見て前記目標が位置する方向である目標方向を取得する画像処理部と、を備えており、前記誘導装置は、前記画像処理部で取得された前記飛しょう方向を前記目標方向に近接させるように、誘導指令を生成する誘導指令生成部と、生成された誘導指令を送信する誘導指令送信部と、を備えている構成である。   In order to solve the above problems, a flying object guidance system according to the present invention includes a flying object that flies in a controllable direction of propulsion, and an aiming device that aims at a target while observing the flying object. A guidance device that generates a guidance command and transmits the guidance command to the flying object to guide the flying object toward the target, and the aiming device is configured to fly the flying object during the flight. A camera unit capable of simultaneously imaging the body and the target, and a flying direction of the flying body, and a direction in which the target is located when viewed from the camera unit, based on image data captured by the camera unit An image processing unit that obtains a target direction, and the guidance device generates a guidance command so that the flying direction obtained by the image processing unit is brought close to the target direction. An induction command generating unit for an induction command transmitting unit for transmitting the generated induced command is Configurations which comprises a.

前記構成によれば、画像処理部は、射手が照準操作を行わなくても、飛しょう体および目標を撮像した画像データから飛しょう方向および目標方向を自動的に取得し、目標方向を実質的に目視線(LOS)とみなして、飛しょう方向を目標方向に近接させるように飛しょう体を誘導している。そのため、射手が最初に目標を照準して飛しょう体を発射させた後は、当該飛しょう体は、事実上、自動的に目標に向かって誘導されることになる。それゆえ、射手は飛しょう体の発射後、退避行動をとることが可能となる。   According to the above configuration, the image processing unit automatically acquires the flying direction and the target direction from the image data obtained by imaging the flying object and the target without the shooter performing the aiming operation, and substantially sets the target direction. The flying object is guided so that the flying direction is close to the target direction. Therefore, after the shooter first aims at the target and fires the flying object, the flying object is effectively automatically guided toward the target. Therefore, the shooter can take evacuation action after launching the flying object.

また、飛しょう体の誘導は、照準装置のカメラ部により撮像された画像データを利用して誘導装置により行われる。このカメラ部は発射地点にあり、妨害手段を講じる目標からは離れた場所にあるため、その妨害効果も飛しょう体が受けるものよりは低減されたものとなる。さらに飛しょう体には、寸法および重量並びにコストの点から高度な妨害対処機能を搭載することが困難であるが、照準装置であればそのような制約がないため、対妨害性に優れた機能、例えば大型の高感度カメラと高度な画像処理とを組み合わせた妨害排除機能等を持たせることができる。その結果、妨害に対して良好な耐性を実現することが可能となり、誘導の精度を優れたものとすることが可能となる。   The flying object is guided by the guidance device using image data captured by the camera unit of the aiming device. Since this camera unit is located at the launching point and away from the target for taking the means of obstruction, the obstruction effect is also reduced compared to what the flying object receives. In addition, it is difficult to mount advanced anti-jamming functions on the flying object in terms of size, weight, and cost. For example, it is possible to provide an interference eliminating function that combines a large high-sensitivity camera and advanced image processing. As a result, it is possible to achieve good resistance against disturbance and to improve the accuracy of guidance.

また見方を変えれば、飛しょう体の誘導は照準装置および誘導装置により行われるので、当該飛しょう体に対してシーカおよびこれを制御するセンサ類、制御器等を搭載しなくてもよい。そのため、当該飛しょう体の構成を簡素化かつ小型化できる。しかも、実質的に使い捨てである飛しょう体に、シーカあるいはセンサ類等の高価な構成品を搭載しなくてもよいので、当該誘導システムを低コストで運用することも可能となる。   In other words, since the flying object is guided by the aiming device and the guiding device, it is not necessary to install a seeker, sensors for controlling the flying object, a controller, and the like on the flying object. Therefore, the structure of the flying object can be simplified and reduced in size. Moreover, since it is not necessary to mount expensive components such as a seeker or sensors on a substantially disposable flying object, the guidance system can be operated at low cost.

前記構成の飛しょう体の誘導システムにおいては、前記誘導装置の前記誘導指令生成部は、生成した前記誘導指令を、前記目標方向に向けて補正する構成であってもよい。   In the flying object guidance system having the above-described configuration, the guidance command generation unit of the guidance device may correct the generated guidance command toward the target direction.

また、前記構成の飛しょう体の誘導システムにおいては、前記照準装置は、さらに、前記画像処理部からの入力に基づいて、前記カメラ部の撮像方向を傾斜させるように当該カメラ部を揺動可能とするアクチュエータを備えている構成であってもよい。   In the flying object guidance system having the above-described configuration, the aiming device can further swing the camera unit so as to tilt the imaging direction of the camera unit based on an input from the image processing unit. The actuator may be provided.

また、前記構成の飛しょう体の誘導システムにおいては、前記照準装置から離れた位置で遠隔操作できるモニタ装置を、さらに備えている構成であってもよい。   The flying object guidance system having the above-described configuration may further include a monitor device that can be remotely operated at a position away from the aiming device.

また、前記構成の飛しょう体の誘導システムにおいては、前記飛しょう体には発光部が設けられ、前記照準装置の前記画像処理部は、前記カメラ部で撮像された画像データから、前記発光部からの光を含む領域を前記飛しょう体領域データとして抽出することで、前記飛しょう方向を取得する構成であってもよい。   In the flying object guidance system having the above-described configuration, the flying object includes a light emitting unit, and the image processing unit of the aiming device uses the light emitting unit based on the image data captured by the camera unit. It is also possible to obtain the flying direction by extracting a region including light from the flying object region data.

また、前記構成の飛しょう体の誘導システムにおいては、前記照準装置は、前記カメラ部として、飛しょう中の前記飛しょう体を撮像する第一カメラ部と、前記目標を撮像する第二カメラ部と、を備え、前記飛しょう体の前記発光部から発する光は、前記第二カメラ部で前記目標を撮像する際に当該目標から得られる光の波長とは異なる波長となっている構成であってもよい。   In the flying object guidance system having the above-described configuration, the aiming device includes, as the camera part, a first camera part that images the flying object that is flying and a second camera part that images the target. And the light emitted from the light emitting part of the flying object has a wavelength different from the wavelength of the light obtained from the target when the second camera part images the target. May be.

また、前記構成の飛しょう体の誘導システムにおいては、前記誘導装置の前記誘導指令生成部は、予め設定される基準線に対して前記飛しょう方向がなす角度である飛しょう角と、前記基準線に対して前記カメラ部の照準線がなす角度である照準角と、を算出し、当該照準角と前記飛しょう角との差分である誤差角を小さくする加速度指令を、前記誘導指令として生成する構成であってもよい。   In the flying object guidance system having the above configuration, the guidance command generation unit of the guidance device includes a flying angle that is an angle formed by the flying direction with respect to a preset reference line, and the reference An aiming angle that is an angle formed by the aiming line of the camera unit with respect to a line, and an acceleration command that reduces an error angle that is a difference between the aiming angle and the flying angle is generated as the guidance command It may be configured to.

また、前記構成の飛しょう体の誘導システムにおいては、前記誘導指令生成部は、前記誘導指令を目標方向に向けて補正する場合には、前記照準角を前記誤差角に加算した上で前記加速度指令を生成する構成であってもよい。   In the flying object guidance system having the above-described configuration, when the guidance command generation unit corrects the guidance command in a target direction, the acceleration is performed after adding the aiming angle to the error angle. The structure which produces | generates instruction | command may be sufficient.

また、前記飛しょう体の誘導システムにおいては、前記飛しょう体は推進装置を備えており、当該推進装置が、噴射ノズルから噴射物質を噴射するロケットモータ、または、回転翼によって推力を得るプロペラもしくはダクトファンであってもよい。   In the flying object guidance system, the flying object includes a propulsion device, and the propulsion device is a rocket motor that injects an injection material from an injection nozzle, or a propeller that obtains thrust by a rotor blade or It may be a duct fan.

以上のように、本発明では、SACLOS方式ながら発射後に射手の操作を不要とし、かつ、妨害等に対して良好な耐性を実現することも可能であり、さらには飛しょう体の構成の簡素化、小型化、低コスト化等も図ることが可能な飛しょう体の誘導システムを提供することができる、という効果を奏する。   As described above, according to the present invention, the shooter operation is not necessary after launching in spite of the SACLOS method, and it is possible to realize a good resistance against interference and the like, and further simplify the structure of the flying object. Thus, there is an effect that it is possible to provide a flying body guidance system that can be reduced in size and cost.

本発明の実施の形態1に係る飛しょう体の誘導システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the flying object guidance system which concerns on Embodiment 1 of this invention. (a)は、図1に示す誘導システムにおける飛しょう体の誘導構成の一例を示す模式図であり、(b)は、(a)に示す飛しょう体の誘導システムにおける具体的な誘導の一例を示すブロック図である。(A) is a schematic diagram which shows an example of the guidance structure of the flying body in the guidance system shown in FIG. 1, (b) is an example of the concrete guidance in the guidance system of the flying body shown in (a). FIG. (a)は、本発明の実施の形態2に係る飛しょう体の誘導システムにおける飛しょう体の誘導構成の一例を示す模式図であり、(b)は、(a)に示す飛しょう体の誘導システムにおける具体的な誘導制御の一例を示すブロック図である。(A) is a schematic diagram which shows an example of the guidance structure of the flying body in the guidance system of the flying body which concerns on Embodiment 2 of this invention, (b) is the flying body shown to (a). It is a block diagram which shows an example of the concrete guidance control in a guidance system. 本発明の実施の形態3に係る飛しょう体の誘導システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the flying object guidance system which concerns on Embodiment 3 of this invention. (a)は、図4に示す誘導システムにおける飛しょう体の誘導構成の一例を示す模式図であり、(b)は、図4に示す照準装置のカメラ部を自動で目標に指向させるアクチュエータの具体的な制御の一例を示すブロック図である。(A) is a schematic diagram which shows an example of the guidance structure of the flying body in the guidance system shown in FIG. 4, (b) is an actuator of automatically directing the camera unit of the aiming device shown in FIG. 4 to the target. It is a block diagram which shows an example of concrete control. 本発明の実施の形態4に係る飛しょう体の誘導システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the flying object guidance system which concerns on Embodiment 4 of this invention. 本発明の実施の形態5に係る飛しょう体の誘導システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the guidance system of the flying body which concerns on Embodiment 5 of this invention.

以下、本発明の好ましい実施の形態を、図面を参照しながら説明する。なお、以下では全ての図を通じて同一又は相当する要素には同一の参照符号を付して、その重複する説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following description, the same or corresponding elements are denoted by the same reference symbols throughout the drawings, and redundant description thereof is omitted.

(実施の形態1)
[飛しょう体の誘導システムの構成]
本発明の実施の形態1に係る飛しょう体の誘導システム(以下、適宜「誘導システム」と略す。)の具体的な構成の一例について、図1および図2(a)を参照して具体的に説明する。本実施の形態に係る誘導システムは、図1に示すように、飛しょう体10、照準装置20Aおよび誘導装置30から少なくとも構成されている。
(Embodiment 1)
[Configuration of flying object guidance system]
An example of a specific configuration of the flying object guidance system according to Embodiment 1 of the present invention (hereinafter abbreviated as “guidance system” where appropriate) will be described with reference to FIG. 1 and FIG. Explained. As shown in FIG. 1, the guidance system according to the present embodiment includes at least a flying body 10, an aiming device 20A, and a guidance device 30.

飛しょう体10は、推進方向を制御可能に飛しょうするものであり、本実施の形態では、ロケットモータ11、飛しょう体制御部12、発光部13、および誘導指令受信部14を備えている。飛しょう体10の具体的な構成は特に限定されないが、一般的には、柱状または棒状の外形を有し、後端側にロケットモータ11が設けられる誘導弾を挙げることができる。当該誘導弾は、必要に応じて外部に突出する翼部を備えていてもよいし、ロケットモータ11以外の推進機構、あるいは種々のセンサ等を備えていてもよい。ロケットモータ11は、噴射ノズルから噴射物質を噴射して飛しょう体10を飛しょうさせるものであれば特に限定されず、公知のものを好適に用いることができる。   The flying object 10 flies so that the propulsion direction can be controlled. In this embodiment, the flying object 10 includes a rocket motor 11, a flying object control unit 12, a light emitting unit 13, and a guidance command receiving unit 14. . Although the specific structure of the flying body 10 is not specifically limited, In general, an induction bullet having a columnar or rod-like outer shape and provided with the rocket motor 11 on the rear end side can be mentioned. The guide bullet may include a wing portion that protrudes to the outside as necessary, or may include a propulsion mechanism other than the rocket motor 11 or various sensors. The rocket motor 11 is not particularly limited as long as it allows the flying object 10 to fly by injecting an injection material from the injection nozzle, and a known one can be suitably used.

飛しょう体制御部12は、公知のマイクロコントローラ等で構成され、後述する誘導指令に基づいて飛しょう体10の飛しょう動作等を制御する。発光部13は、図1には具体的に示さないが、飛しょう体10の後端部に設けられ、飛しょう中に光を発する。この光は、照準装置20Aにより受光されることで、誘導装置30での誘導に利用される。本実施の形態では、例えば赤外線発光装置が用いられるが、特に限定されない。誘導指令受信部14は、誘導装置30から送信される誘導指令を受信するものであり、公知の受信器が用いられる。   The flying object control unit 12 is composed of a known microcontroller or the like, and controls the flying operation of the flying object 10 based on a guidance command to be described later. Although not specifically shown in FIG. 1, the light emission part 13 is provided in the rear-end part of the flying body 10, and emits light during flight. This light is received by the aiming device 20A and used for guidance by the guidance device 30. In this embodiment, for example, an infrared light emitting device is used, but it is not particularly limited. The guidance command receiving unit 14 receives a guidance command transmitted from the guidance device 30, and a known receiver is used.

照準装置20Aは、図2(a)に示すように、射手が飛しょう体10を観察しながら目標50を照準するものであり、本実施の形態では、カメラ部21および画像処理部22を備えている。カメラ部21は、飛しょう中の飛しょう体10および目標50を同時に撮像可能とするように広い視界を有している。カメラ部21の具体的な構成は特に限定されず、従来のCLOS方式のように光電変換機能を有するアナログ素子(フォトダイオード等)を用いて発光部13の位置を特定する手段、あるいは、固体撮像素子(CCD)等を用いた公知のデジタル撮像装置等を好適に用いることができる。   As shown in FIG. 2A, the aiming device 20A is intended for the shooter to aim the target 50 while observing the flying body 10, and in this embodiment, includes a camera unit 21 and an image processing unit 22. ing. The camera unit 21 has a wide field of view so that the flying object 10 and the target 50 in flight can be imaged simultaneously. The specific configuration of the camera unit 21 is not particularly limited, and means for specifying the position of the light emitting unit 13 using an analog element (photodiode or the like) having a photoelectric conversion function as in the conventional CLOS system, or solid-state imaging A known digital imaging device using an element (CCD) or the like can be suitably used.

画像処理部22は、図2(a)に示すように、カメラ部21で撮像された画像データから、飛しょう体10を含む飛しょう体領域データおよび目標50を含む目標領域データを抽出し、これら抽出データから、飛しょう体10の飛しょう方向およびカメラ部21から見て目標50が位置する方向である目標方向を取得する。画像データから飛しょう体領域データを抽出する方法は特に限定されず、公知の画像処理方法を好適に用いることができるが、本実施の形態では、飛しょう体10が発光部13を備えているので、この発光部13からの光を基準とすればよい。   As shown in FIG. 2A, the image processing unit 22 extracts the flying object region data including the flying object 10 and the target region data including the target 50 from the image data captured by the camera unit 21, From these extracted data, the flying direction of the flying object 10 and the target direction, which is the direction in which the target 50 is located when viewed from the camera unit 21, are acquired. A method for extracting the flying object region data from the image data is not particularly limited, and a known image processing method can be suitably used. In this embodiment, the flying object 10 includes the light emitting unit 13. Therefore, the light from the light emitting unit 13 may be used as a reference.

例えば、図1において破線で示すように、飛しょう体10の発光部13から発せられる光はカメラ部21により受光される。そこで、画像処理部22は、カメラ部21で撮像された画像データから、発光部13からの光を含む領域を飛しょう体領域データとして抽出すればよい。このとき、飛しょう体10全体を含むように領域データを抽出してもよいが、飛しょう体10の飛しょう方向を取得できればよいので、発光部13の光のみを含む領域を飛しょう体領域データとして抽出すればよい。そして、抽出された飛しょう体領域データから、カメラ部21の位置を基準点として飛しょう方向を取得すればよい。   For example, as shown by a broken line in FIG. 1, light emitted from the light emitting unit 13 of the flying object 10 is received by the camera unit 21. Therefore, the image processing unit 22 may extract a region including light from the light emitting unit 13 as flying object region data from the image data captured by the camera unit 21. At this time, the area data may be extracted so as to include the entire flying object 10, but it is only necessary to obtain the flying direction of the flying object 10. What is necessary is just to extract as data. Then, the flying direction may be acquired from the extracted flying object region data using the position of the camera unit 21 as a reference point.

また、画像データから目標領域データを取得する方法も特に限定されず、公知の画像処理方法を好適に用いることができる。例えば、画像データにおける目標50の画像領域とその周囲の背景領域との違いから、目標50のみを目標領域データとして抽出してもよいし、例えば、目標50が発光源または発熱源等を備えていれば、可視光または赤外光の強い領域を中心に周囲の領域を目標領域データとして抽出してもよい。   Further, a method for acquiring the target area data from the image data is not particularly limited, and a known image processing method can be suitably used. For example, only the target 50 may be extracted as the target area data from the difference between the image area of the target 50 in the image data and the surrounding background area. For example, the target 50 includes a light emission source or a heat generation source. In this case, the surrounding area may be extracted as the target area data around the area where the visible light or infrared light is strong.

なお、照準装置20Aは、カメラ部21および画像処理部22以外で公知の種々の構成を備えている。例えば、図1には図示しないが、射手が飛しょう体10の発射前に目標50を照準するためにカメラ部21で撮像された画像を表示する表示部等が挙げられるが特に限定されない。また、画像処理部22は、カメラ部21とは独立した演算処理部であってもよいし、カメラ部21に組み込まれた制御部等であってもよいし、照準装置20Aが備える他の構成に組み込まれた制御部等であってもよい。   The aiming device 20A has various known configurations other than the camera unit 21 and the image processing unit 22. For example, although not illustrated in FIG. 1, a display unit that displays an image captured by the camera unit 21 in order for the shooter to aim the target 50 before the flying object 10 is launched is not particularly limited. Further, the image processing unit 22 may be an arithmetic processing unit independent of the camera unit 21, a control unit incorporated in the camera unit 21, or other configuration included in the aiming device 20 </ b> A. It may be a control unit or the like incorporated in the.

誘導装置30は、図1および図2(a)に示すように、誘導指令を生成して飛しょう体10に送信することにより、当該飛しょう体10を目標50に向かって誘導するものであり、本実施の形態では、誘導指令生成部31および誘導指令送信部32を備えている。図1に示すように、誘導指令生成部31には、照準装置20Aのカメラ部21から飛しょう体10の飛しょう方向が入力されるとともに、画像処理部22から飛しょう方向および目標方向が入力される。   As shown in FIG. 1 and FIG. 2A, the guidance device 30 generates a guidance command and transmits it to the flying object 10 to guide the flying object 10 toward the target 50. In this embodiment, a guidance command generation unit 31 and a guidance command transmission unit 32 are provided. As shown in FIG. 1, the flying direction of the flying object 10 is input from the camera unit 21 of the aiming device 20 </ b> A to the guidance command generation unit 31, and the flying direction and the target direction are input from the image processing unit 22. Is done.

誘導指令生成部31は、飛しょう体10の飛しょう方向を目標方向に近接させるように、誘導指令を生成する。誘導指令生成部31は、誘導装置30が備える公知のマイクロプロセッサ(図1には図示せず)が、予め記憶されているプログラムに従って動作することにより実現される機能構成であってもよいし、公知のスイッチング素子、減算器、比較器等により構成される論理回路等であってもよい。   The guidance command generation unit 31 generates a guidance command so that the flying direction of the flying object 10 approaches the target direction. The guidance command generation unit 31 may have a functional configuration realized by a known microprocessor (not shown in FIG. 1) included in the guidance device 30 operating according to a program stored in advance. It may be a logic circuit composed of a known switching element, subtractor, comparator, or the like.

誘導指令送信部32は、誘導指令生成部31で生成された誘導指令を飛しょう体10の誘導指令受信部14に送信するものであり、公知の送信器が用いられる。なお、誘導装置30は、誘導指令生成部31および誘導指令送信部32以外で公知の種々の構成を備えているが、その説明は省略する。   The guidance command transmission unit 32 transmits the guidance command generated by the guidance command generation unit 31 to the guidance command reception unit 14 of the flying object 10, and a known transmitter is used. In addition, although the guidance apparatus 30 is provided with various well-known structures other than the guidance command production | generation part 31 and the guidance command transmission part 32, the description is abbreviate | omitted.

照準装置20Aおよび誘導装置30は、図1には示さないが、公知のケーブル等により接続されている。これにより、照準装置20Aのカメラ部21および画像処理部22から誘導装置30の誘導指令生成部31に、飛しょう方向および目標方向のデータが入力される。また、図1には示さないが、本実施の形態に係る誘導システムは飛しょう体10の発射装置も含んでいる。誘導装置30はこの発射装置に一体的に設けられていればよい。   The aiming device 20A and the guidance device 30 are not shown in FIG. 1, but are connected by a known cable or the like. Thereby, the flight direction and target direction data are input from the camera unit 21 and the image processing unit 22 of the aiming device 20A to the guidance command generation unit 31 of the guidance device 30. Although not shown in FIG. 1, the guidance system according to the present embodiment also includes a launching device for the flying object 10. The guiding device 30 may be provided integrally with the launching device.

また、誘導装置30の誘導指令送信部32と飛しょう体10の誘導指令受信部14とは、無線または有線で通信可能に接続されている。無線の場合には、誘導指令送信部32および誘導指令受信部14は、それぞれ公知の無線通信機が用いられる。有線の場合には、誘導装置30が公知のケーブルを介して誘導指令送信部32および誘導指令受信部14の間で誘導指令が送受信される。ケーブルは、通常、飛しょう体10のリール部材に巻き取られており、飛しょう体10の飛しょうに伴ってリール部材から引き出される。   In addition, the guidance command transmission unit 32 of the guidance device 30 and the guidance command reception unit 14 of the flying object 10 are connected to be communicable wirelessly or by wire. In the case of wireless, a known wireless communication device is used for each of the guidance command transmission unit 32 and the guidance command reception unit 14. In the case of a wired connection, the guidance device 30 transmits and receives a guidance command between the guidance command transmission unit 32 and the guidance command reception unit 14 via a known cable. The cable is normally wound around a reel member of the flying body 10 and is pulled out from the reel member as the flying body 10 is flying.

[飛しょう体の誘導方法]
前記構成の誘導システムによる飛しょう体10の誘導方法の一例について、図1、図2(a)に加えて図2(b)を参照して具体的に説明する。
[How to guide flying objects]
An example of a method for guiding the flying object 10 by the guidance system having the above-described configuration will be specifically described with reference to FIG. 2B in addition to FIGS. 1 and 2A.

まず、射手は、照準装置20Aにより飛しょう体10の到達先である目標50を照準する。このとき一般的な無誘導ロケット等とは異なり、精密な照準は必ずしも行わなくてもよく、少なくともカメラ部21の視界に目標50が入るように、好ましくは、図2(a)における向かって左側にカメラ部21で撮像された画面を模式的に示すように、レチクル21aで示されるカメラ部21の照準に目標50が重なるか可能な限り近づくように照準すればよい。   First, the shooter aims the target 50 that is the destination of the flying object 10 with the aiming device 20A. At this time, unlike a general non-guided rocket or the like, precise aiming is not necessarily performed. Preferably, the left side of FIG. As shown schematically on the screen imaged by the camera unit 21, the target 50 may be aimed so as to overlap or be as close as possible to the aim of the camera unit 21 indicated by the reticle 21 a.

次に、図2(a)に示すように、照準装置20Aのカメラ部21は、目標50を撮像するとともに、飛しょう体10の発光部13(図2(a)には図示せず)から発せられる光も受光する。そして、目標50および飛しょう体10を含む画像データは、画像処理部22に入力され、画像処理部22では、目標領域データおよび飛しょう体領域データを抽出して、目標方向Do(図中細い実線)と飛しょう体10の飛しょう方向Df(図中点線)を取得する。ここで、本実施の形態では、これら目標方向Doおよび飛しょう方向Dfは、カメラ部21の位置を基準として水平に設定される線である基準線L0に対する角度として検出される。   Next, as shown in FIG. 2A, the camera unit 21 of the aiming device 20A images the target 50 and from the light emitting unit 13 of the flying object 10 (not shown in FIG. 2A). It also receives the emitted light. The image data including the target 50 and the flying object 10 is input to the image processing unit 22, and the image processing unit 22 extracts the target area data and the flying object area data to obtain the target direction Do (thin in the figure). The solid line) and the flying direction Df of the flying object 10 (dotted line in the figure) are acquired. Here, in the present embodiment, the target direction Do and the flying direction Df are detected as angles with respect to the reference line L0, which is a line set horizontally with the position of the camera unit 21 as a reference.

具体的には、まず、カメラ部21(照準装置20A)を基準として、飛しょう体10の進行方向をX軸とし、カメラ部21を基準として鉛直方向をZ軸とした場合、カメラ部21の位置を基準点として座標(X,Z)=(0,0)に設定すると、この基準点(カメラ部21の位置)から水平方向に延伸する直線が基準線L0となる。カメラ部21は水平方向に設置されているので、図2(a)に示すように、図中一点鎖線で示すカメラ部21の照準線Laは、基準線L0に重なっている(La=L0)。そして、目標50の位置を座標(X,Z)=(XT ,ZT )に設定し、飛しょう中の飛しょう体10の位置を座標(X,Z)=(XM ,ZM )と設定する。 Specifically, first, when the traveling direction of the flying object 10 is set as the X axis and the vertical direction is set as the Z axis with respect to the camera unit 21 with the camera unit 21 (aiming device 20A) as a reference, If the position is set as a reference point and coordinates (X, Z) = (0, 0), a straight line extending in the horizontal direction from this reference point (position of the camera unit 21) becomes the reference line L0. Since the camera unit 21 is installed in the horizontal direction, as shown in FIG. 2A, the line of sight La of the camera unit 21 indicated by a one-dot chain line in the figure overlaps the reference line L0 (La = L0). . Then, the position of the target 50 is set to coordinates (X, Z) = (X T , Z T ), and the position of the flying object 10 in flight is set to coordinates (X, Z) = (X M , Z M ). And set.

ここで、飛しょう体10の進行方向は常にプラスに設定できるが、目標50の位置は、カメラ部21よりも高い場合もあれば低い場合もある。なお、図2(a)では、目標50および飛しょう体10がいずれもカメラ部21よりも低い位置に示されているが、これは模式的な図示であり、目標50および飛しょう体10の実際の高さ(Z軸方向)を反映するものではない。さらに図2(a)では、上下方向の誘導を表しているが、左右方向の誘導にも本発明が適用できることは言うまでもない。   Here, the traveling direction of the flying object 10 can always be set to a positive value, but the position of the target 50 may be higher or lower than the camera unit 21. In FIG. 2A, the target 50 and the flying object 10 are both shown at positions lower than the camera unit 21, but this is a schematic illustration, and the target 50 and the flying object 10. It does not reflect the actual height (Z-axis direction). Further, FIG. 2A shows the vertical guidance, but it goes without saying that the present invention can also be applied to the horizontal guidance.

画像処理部22は、飛しょう方向Dfが基準線L0に対してなす目視線角である飛しょう角σM を取得可能となっている。飛しょう方向Dfは、図2(a)に示すように、カメラ部21の位置である座標(0,0)と飛しょう中の飛しょう体10の位置である座標(XM ,ZM )とを結ぶ直線の向きに相当する。また前述したように飛しょう体10からは発光部13から光が発せられ、これがカメラ部21で受光可能となっている。それゆえ、画像処理部22により抽出された飛しょう体領域データから飛しょう体10の位置座標を特定して飛しょう方向Dfに対応する直線を取得し、この直線と照準線La(基準線L0)とで形成される角度を、飛しょう角σM として算出すればよい(σM =tan -1 (ZM /XM ) ≒ZM /XM )。 The image processing unit 22 can acquire a flying angle σ M that is a visual line angle formed by the flying direction Df with respect to the reference line L0. As shown in FIG. 2A, the flying direction Df includes coordinates (0, 0) that are positions of the camera unit 21 and coordinates (X M , Z M ) that are positions of the flying object 10 that is flying. This corresponds to the direction of the straight line connecting Further, as described above, light is emitted from the light emitting unit 13 from the flying body 10, and this can be received by the camera unit 21. Therefore, the position coordinates of the flying object 10 are specified from the flying object region data extracted by the image processing unit 22 to obtain a straight line corresponding to the flying direction Df, and this straight line and the aiming line La (reference line L0). ) And the flying angle σ MM = tan −1 (Z M / X M ) ≈Z M / X M ).

また、画像処理部22は、目標方向Doが基準線L0に対してなす目視線角である照準角σT を取得可能となっている。目標方向Doは、図2(a)に示すように、カメラ部21の位置である座標(0,0)と、目標50の位置である座標(XT ,ZT )とを結ぶ直線の向きに相当する。それゆえ、画像処理部22は、抽出された目標領域データから目標50の位置座標を特定して目標方向Doに対応する直線を取得し、この直線と照準線La(基準線L0)とで形成される角度を、照準角σT として算出すればよい(σT =tan -1 (ZT /XT ) ≒ZT /XT )。 Further, the image processing unit 22 can acquire an aiming angle σ T that is a visual line angle formed by the target direction Do with respect to the reference line L0. As shown in FIG. 2A, the target direction Do is the direction of a straight line connecting the coordinates (0, 0) that is the position of the camera unit 21 and the coordinates (X T , Z T ) that is the position of the target 50 It corresponds to. Therefore, the image processing unit 22 specifies the position coordinates of the target 50 from the extracted target area data, acquires a straight line corresponding to the target direction Do, and forms the straight line and the aiming line La (reference line L0). The calculated angle may be calculated as the aiming angle σ TT = tan −1 (Z T / X T ) ≈Z T / X T ).

このようにして取得された飛しょう角σM および照準角σT は、誘導装置30に入力され、誘導装置30の誘導指令生成部31(図2(a)には図示せず)は、これらの角度の差分である誤差角εを算出する。そして、この誤差角εを小さくするように、すなわち、飛しょう方向Dfと目標方向Doとが近接(最終的には、略一致するように)誘導指令を生成する。 The flying angle σ M and the aiming angle σ T acquired in this way are input to the guidance device 30, and the guidance command generation unit 31 (not shown in FIG. 2A) of the guidance device 30 An error angle ε which is a difference between the angles is calculated. Then, a guidance command is generated so that the error angle ε is reduced, that is, the flying direction Df and the target direction Do are close (finally coincidentally).

なお、図2(a)における向かって左側には、カメラ部21で撮像された画像データを模式的に示しており、カメラ部21による照準線Laがレチクル21aに相当し、図2(a)において飛しょう体10と目標50との位置のずれは誤差角εに相当する。図2(a)では、目標50の画像はレチクル21aよりも下方に位置しているので、カメラ部21は目標50を照準していない。しかしながら、画像処理部22が目標50を含む目標領域データを抽出して照準角σT を算出し、誘導装置30で飛しょう角σM を照準角σT に近付ける(誤差角εを小さくする)ことで、飛しょう体10は目標50に向かって実質的に自動的に誘導される。 Note that image data captured by the camera unit 21 is schematically shown on the left side in FIG. 2A, and the line of sight La by the camera unit 21 corresponds to the reticle 21a, and FIG. In FIG. 5, the positional deviation between the flying object 10 and the target 50 corresponds to the error angle ε. In FIG. 2A, since the image of the target 50 is located below the reticle 21a, the camera unit 21 does not aim at the target 50. However, the image processing unit 22 extracts the target area data including the target 50 calculates a sight angle sigma T, (to reduce the error angle epsilon) close the flight angle sigma M in sight angle sigma T induction device 30 Thus, the flying object 10 is substantially automatically guided toward the target 50.

ここで、誘導指令生成部31(および飛しょう体制御部12)による具体的な誘導指令としては特に限定されないが、図2(b)に示すように、公知のPID制御を利用して誤差角εから算出される加速度指令AZCを好ましい一例として挙げることができる。図2(b)では、誘導指令生成部31での誘導指令(加速度指令AZC)の生成と、飛しょう体制御部12での飛しょう制御とを模式的に示している。 Here, a specific guidance command by the guidance command generation unit 31 (and the flying object control unit 12) is not particularly limited, but as shown in FIG. 2B, an error angle is obtained using a known PID control. An acceleration command AZC calculated from ε can be given as a preferred example. FIG. 2B schematically shows generation of a guidance command (acceleration command A ZC ) in the guidance command generation unit 31 and flying control in the flying object control unit 12.

まず、前述したように、照準装置20A(図2(b)には図示せず)から誘導指令生成部31に対して照準角σT および飛しょう角σM が入力される。図2(b)に示すブロック図では、加え合わせ点31aにおいて照準角σT の入力がプラス符号で示され、飛しょう角σM の入力がマイナス符号で示される。なお、飛しょう角σM は、出力側から引き出されるフィードバック経路から入力される。これにより、照準角σT と飛しょう角σM との差分である誤差角εが算出される。 First, as described above, the aiming angle σ T and the flying angle σ M are input to the guidance command generation unit 31 from the aiming device 20A (not shown in FIG. 2B). In the block diagram shown in FIG. 2B, the input of the aiming angle σ T is indicated by a plus sign at the addition point 31a, and the input of the flying angle σ M is indicated by a minus sign. The flying angle σ M is input from a feedback path drawn from the output side. Thereby, an error angle ε which is a difference between the aiming angle σ T and the flying angle σ M is calculated.

誘導指令生成部31では、PID制御ブロック31bで示すように、算出した誤差角εから誘導指令である加速度指令AZCをPID制御により生成する。なお、PID制御ブロック31bにおけるKP は比例項、KD ・sは微分項、KI /sは積分項を示し、sは微分記号を示す変換子である。生成した加速度指令AZCは、誘導指令送信部32および誘導指令受信部14を介して飛しょう体10に送信される(図2(b)のブロック矢印)。 The guidance command generation unit 31 generates an acceleration command AZC , which is a guidance command, from the calculated error angle ε by PID control, as indicated by the PID control block 31b. Incidentally, the K P in the PID control block 31b proportional term, K D · s is a differential term, K I / s represents the integral term, s is a transducer which indicates the differential symbol. The generated acceleration command A ZC is transmitted to the flying object 10 via the guidance command transmission unit 32 and the guidance command reception unit 14 (block arrow in FIG. 2B).

飛しょう体10の飛しょう体制御部12では、運動モデルブロック12aで示すように、当該飛しょう体10の運動モデルに基づき、加速度指令AZCに基づいて飛しょう体10には加速度AZ が発生する。なお、ここでは説明の簡略化のため、運動モデルブロック12aでは飛しょう体の運動を一次遅れ系(τはシステム時定数を示す)で模擬しているが、実際の飛しょう体ではもっと複雑な伝達関数となるが、それでもPID制御ブロック31bの適切なチューニングによって本発明への適用が可能である。 In the flying object control unit 12 of the flying object 10, the acceleration A Z is applied to the flying object 10 based on the acceleration command A ZC based on the movement model of the flying object 10 as shown by the movement model block 12a. Occur. For the sake of simplification of explanation, the movement model block 12a simulates the flying object's movement with a first-order lag system (τ indicates the system time constant), but the actual flying object is more complicated. Although it is a transfer function, it can still be applied to the present invention by appropriate tuning of the PID control block 31b.

飛しょう体10に発生した加速度AZ はZ位置算出ブロック12bで示すように二回積分によって、飛しょう体10のZ座標の位置(ZM )となり、さらにこのZ位置から飛しょう角算出ブロック12cで示すように飛しょう体10のX座標の位置(XM )で除することで飛しょう角σM となる。したがって、飛しょう体制御部12はPID制御ブロック31bによって誤差角εがゼロになるように、言い換えれば、この飛しょう角σM が射手視線角σT に近づくように飛しょう体10を制御するので、その結果、飛しょう体10は目標50に近づくように誘導される。 The acceleration AZ generated in the flying object 10 becomes the Z coordinate position (Z M ) of the flying object 10 by two-time integration as shown by the Z position calculation block 12b, and further the flying angle calculation block from this Z position. By dividing by the X coordinate position (X M ) of the flying object 10 as indicated by 12c, the flying angle σ M is obtained. Therefore, the flying object control unit 12 controls the flying object 10 so that the error angle ε becomes zero by the PID control block 31b, in other words, the flying angle σ M approaches the shooter line-of-sight angle σ T. Therefore, as a result, the flying object 10 is guided so as to approach the target 50.

このように、本発明では、画像処理部22は、射手が照準操作を行わなくても、飛しょう体10および目標50を撮像した画像データから、飛しょう方向Dfおよび目標方向Doを自動的に取得し、目標方向Doを実質的に目視線(LOS)とみなして、飛しょう方向Dfを目標方向Doに近接させるように飛しょう体10を誘導している。そのため、射手が最初に目標50を照準して飛しょう体10を発射させた後は、当該飛しょう体10は、事実上、自動的に目標50に向かって誘導されることになる。それゆえ、射手は飛しょう体10の発射後であっても何ら操作をする必要がなく、さらに要すれば飛しょう体を誘導させたまま自身は退避行動をとることが可能となる。   As described above, in the present invention, the image processing unit 22 automatically sets the flying direction Df and the target direction Do from the image data obtained by capturing the flying object 10 and the target 50 without the shooter performing the aiming operation. The flying object 10 is obtained so that the flying direction Df is brought close to the target direction Do by regarding the target direction Do as a line of sight (LOS) substantially. Therefore, after the shooter first aims at the target 50 and fires the flying object 10, the flying object 10 is effectively automatically guided toward the target 50. Therefore, it is not necessary for the shooter to perform any operation even after the flying body 10 is fired, and if necessary, the shooter can take a retreat action while guiding the flying body.

また、飛しょう体10の誘導は、照準装置20Aのカメラ部21により撮像された画像データを利用して誘導装置30により行われる。このカメラ部は発射地点にあり、妨害手段を講じる目標からは離れた場所にあるため、その妨害効果も飛しょう体が受けるものよりは低減されたものとなる。さらに飛しょう体には、寸法および重量並びにコストの点から高度な妨害対処機能を搭載することが困難であるが、照準装置であればそのような制約がないため、対妨害性に優れた機能、例えば大型の高感度カメラと高度な画像処理とを組み合わせた妨害排除機能等を持たせることができる。その結果、妨害に対して良好な耐性を実現することが可能となり、誘導の精度を優れたものとすることが可能となる。   In addition, the flying object 10 is guided by the guiding device 30 using image data captured by the camera unit 21 of the aiming device 20A. Since this camera unit is located at the launching point and away from the target for taking the means of obstruction, the obstruction effect is also reduced compared to what the flying object receives. In addition, it is difficult to mount advanced anti-jamming functions on the flying object in terms of size, weight, and cost. For example, it is possible to provide an interference eliminating function that combines a large high-sensitivity camera and advanced image processing. As a result, it is possible to achieve good resistance against disturbance and to improve the accuracy of guidance.

また見方を変えれば、飛しょう体10の誘導は照準装置20Aおよび誘導装置30により行われるので、当該飛しょう体10に対してシーカおよびこれを制御するセンサ類、制御器等を搭載しなくてもよい。そのため、当該飛しょう体10の構成を簡素化かつ小型化できる。しかも、実質的に使い捨てである飛しょう体10に、シーカあるいはセンサ類等の高価な構成品を搭載しなくてもよいので、当該誘導システムを低コストで運用することも可能となる。   In other words, since the flying object 10 is guided by the aiming device 20A and the guiding device 30, it is not necessary to mount a seeker and sensors or a controller for controlling the seeker 10 on the flying object 10. Also good. Therefore, the configuration of the flying object 10 can be simplified and downsized. Moreover, since it is not necessary to mount expensive components such as seekers or sensors on the flying object 10 that is substantially disposable, the guidance system can be operated at low cost.

[変形例]
本実施の形態では、前記飛しょう体として、噴射ノズルから噴射物質を噴射するロケットモータ11を備える構成を例示しているが、本発明はこれに限定されず、公知の各種推進装置により飛しょうするものであればよい。例えば、他の飛しょう体の例としては、回転翼によって推力を得るプロペラもしくはダクトファンを備える構成を挙げることができる。
[Modification]
In the present embodiment, as the flying object, a configuration including a rocket motor 11 that injects an injection material from an injection nozzle is illustrated, but the present invention is not limited to this, and the flight is performed by various known propulsion devices. Anything to do. For example, as an example of another flying body, a configuration including a propeller or a duct fan that obtains thrust by a rotor blade can be given.

あるいは飛しょう体10としては、推進装置を備えない構成であってもよい。すなわち、本発明における飛しょう体10は、推力により飛しょうする構成だけでなく、滑空して飛しょうする構成も含まれる。このような構成の飛しょう体10は推進装置が無くても操舵翼を備えていれば、滑空している限り本実施の形態で説明した通りの誘導が可能である。滑空して飛しょうするタイプの飛しょう体10としては、例えば、グライダー、誘導爆発体等が挙げられる。このように、本発明における飛しょう体10は、推進方向を制御可能に飛しょうするものであればよく、その具体的な構成は特に限定されない。   Alternatively, the flying object 10 may be configured not to include a propulsion device. That is, the flying object 10 according to the present invention includes not only a structure for flying by thrust but also a structure for flying by flying. As long as the flying body 10 having such a configuration is provided with a steering wing without a propulsion device, the flying body 10 can be guided as described in the present embodiment as long as it glides. Examples of the flying object 10 that glides and flies include gliders, induction explosives, and the like. Thus, the flying body 10 according to the present invention may be anything that can fly in a propulsive direction, and its specific configuration is not particularly limited.

本実施の形態では、誘導装置30の誘導指令生成部31は、基準線L0=照準線Laに対して目標50の照準角σT を算出し、この照準角σT と飛しょう体10の飛しょう角σM との差分である誤差角εを小さくする加速度指令AZCを、誘導指令として生成している。しかしながら本発明はこの構成に限定されず、誘導指令とした他のデータを生成して飛しょう体10を誘導してもよい。例えば、飛しょう体10および目標50のそれぞれの座標を利用して誘導指令を生成してもよい。 In the present embodiment, the guidance command generator 31 of the guidance device 30 calculates the aiming angle σ T of the target 50 with respect to the reference line L0 = the aiming line La, and the aiming angle σ T and the flying object 10 fly. the acceleration command a ZC to reduce an error angle ε which is the difference between the small angle sigma M, is generated as an induction command. However, the present invention is not limited to this configuration, and the flying object 10 may be guided by generating other data as a guidance command. For example, the guidance command may be generated using the coordinates of the flying object 10 and the target 50.

また、本実施の形態では、飛しょう体10の後端部に発光部13が設けられており、照準装置20Aは、発光部13からの光を受光して飛しょう方向Dfを検出しているが、本発明はこれに限定されず、例えば、飛しょう体10からは、ミリ波、超短波等の光以外の電磁波が発信されてもよい。この場合、照準装置20Aは、カメラ部21とは別に電磁波を受信するアンテナ部等を備えていればよく、画像処理部22は、カメラ部21からの飛しょう体領域データとアンテナ部からのデータとを用いて飛しょう方向Dfを算出する構成であればよい。   Further, in the present embodiment, the light emitting unit 13 is provided at the rear end of the flying body 10, and the aiming device 20A receives the light from the light emitting unit 13 and detects the flying direction Df. However, the present invention is not limited to this. For example, the flying object 10 may emit electromagnetic waves other than light such as millimeter waves and ultrashort waves. In this case, the aiming device 20A only needs to include an antenna unit or the like that receives electromagnetic waves separately from the camera unit 21, and the image processing unit 22 uses the flying object region data from the camera unit 21 and the data from the antenna unit. The flying direction Df may be calculated using the above.

また、本実施の形態では、照準装置20Aおよび誘導装置30(並びに発射装置)を地面に据え付ける構成を例示しているが、本発明はこれに限定されず、例えば、無人ビークルに搭載することもできる。例えば、最近、無人航空機(UAV,Unmanned Air Vehicle)には、シーカを搭載した「撃ち放し」タイプの飛しょう体を備えるものが知られているが、本実施の形態に係る誘導システムを用いれば、UAVに設けられているカメラ装置を照準装置20Aのカメラ部21として兼用することで、「擬似撃ち放し」タイプの飛しょう体10として運用することができる。無人陸上車両(UGV,Unmanned Ground Vehicle)、無人艇(UMV,Unmanned Marine Vehicle)でも同様である。   Further, in the present embodiment, the configuration in which the aiming device 20A and the guiding device 30 (and the launching device) are installed on the ground is illustrated, but the present invention is not limited to this, and may be mounted on an unmanned vehicle, for example. it can. For example, recently, an unmanned aircraft (UAV, Unmanned Air Vehicle) has been known that includes a “shoot-off” type flying body equipped with a seeker. However, if the guidance system according to the present embodiment is used, By using the camera device provided in the UAV as the camera unit 21 of the aiming device 20A, it can be used as the “pseudo shooting” type flying object 10. The same applies to unmanned ground vehicles (UGV) and unmanned marine vehicles (UMV).

(実施の形態2)
本実施の形態2に係る飛しょう体の誘導システムは、基本的な構成は前記実施の形態1に係る誘導システムと同様であるが、誘導装置30の誘導指令生成部31では、生成した誘導指令を目標方向Doに向けて補正する点が異なっている。以下、本実施の形態に係る誘導システムの一例について、図3(a),(b)を参照して具体的に説明する。
(Embodiment 2)
The flying object guidance system according to the second embodiment has the same basic configuration as the guidance system according to the first embodiment, but the guidance command generation unit 31 of the guidance device 30 generates the guidance command generated. Is different in that it is corrected toward the target direction Do. Hereinafter, an example of the guidance system according to the present embodiment will be specifically described with reference to FIGS.

図3(a)に示すように、本実施の形態に係る誘導システムは、前記実施の形態1に係る誘導システムと同様に、飛しょう体10を目標50に向かって誘導するが、前記実施の形態1と異なる点は、目標50が図中ブロック矢印Mの方向に移動していることにある。すなわち、飛しょう体10は、停止している目標50ではなく移動中の目標50に向かって飛しょうする。そのため、状況によっては飛しょう体10が、その発射時の目標50の位置まで到達したときには、目標50が既に移動済みであってその位置に存在しない場合もあり得る。   As shown in FIG. 3 (a), the guidance system according to the present embodiment guides the flying object 10 toward the target 50, similar to the guidance system according to the first embodiment. The difference from Embodiment 1 is that the target 50 is moving in the direction of the block arrow M in the figure. That is, the flying body 10 flies toward the moving target 50 instead of the stopped target 50. Therefore, depending on the situation, when the flying object 10 reaches the position of the target 50 at the time of launch, the target 50 may have already been moved and may not exist at that position.

そこで、本実施の形態では、図3(b)に示すように、PID制御ブロック31bで生成した加速度指令AZC(図3(b)には図示せず)に、視線補正ゲインブロック31cで示される補正値Kを加え合わせ点31dで加える補正を行う。補正値Kは、照準角σT に基づいて加速度指令AZCを補正するための値であり、加速度指令AZCに目標50の移動距離を見越した値を付与するものである。それゆえ、この補正値Kを加速度指令AZCに加えたものは補正加速度指令AZCC として生成され、飛しょう体10に送信される。これにより、飛しょう体10に送信される誘導指令には、目標50の移動距離を見越して移動方向に誘導位置をずらした角度である見越し角(lead angle)が与えられる。それゆえ、目標50が移動している場合であっても、飛しょう体10を目標50に到達させやすくすることができる。 Therefore, in the present embodiment, as shown in FIG. 3 (b), the acceleration command A ZC (not shown in FIG. 3 (b)) generated by the PID control block 31b is indicated by the line-of-sight correction gain block 31c. The correction value K to be added is added and correction is performed at the alignment point 31d. The correction value K is a value for correcting the acceleration command A ZC based on the aiming angle σ T , and gives a value that allows for the movement distance of the target 50 to the acceleration command A ZC . Therefore, the correction value K added to the acceleration command A ZC is generated as the corrected acceleration command A ZCC and transmitted to the flying object 10. Thereby, the guidance command transmitted to the flying object 10 is given a lead angle, which is an angle obtained by shifting the guidance position in the movement direction in anticipation of the movement distance of the target 50. Therefore, even if the target 50 is moving, the flying object 10 can easily reach the target 50.

このように、本実施の形態では、誘導指令生成部31は、生成した前記誘導指令を目標方向Doに向けて補正する構成となっており、具体的には、照準角σT を用いて誤差角εを補正することで得られる補正加速度指令AZCC を生成する構成となっている。それゆえ、移動している目標50に良好に飛しょう体10を誘導させることができるので、飛しょう体10の誘導精度をより一層向上させることができる。 As described above, in the present embodiment, the guidance command generation unit 31 is configured to correct the generated guidance command toward the target direction Do. Specifically, the guidance command generation unit 31 uses the aiming angle σ T to generate an error. The corrected acceleration command A ZCC obtained by correcting the angle ε is generated. Therefore, since the flying object 10 can be favorably guided to the moving target 50, the guidance accuracy of the flying object 10 can be further improved.

(実施の形態3)
[飛しょう体の誘導システムの構成]
本実施の形態3に係る飛しょう体の誘導システムは、基本的な構成は前記実施の形態1または2に係る誘導システムと同様であるが、照準装置が、カメラ部21の撮像方向を傾斜させるように当該カメラ部21を揺動するアクチュエータを備えている点が異なっている。以下、本実施の形態に係る誘導システムの一例について、図4を参照して具体的に説明する。
(Embodiment 3)
[Configuration of flying object guidance system]
The flying object guidance system according to the third embodiment has the same basic configuration as the guidance system according to the first or second embodiment, but the aiming device tilts the imaging direction of the camera unit 21. As described above, the camera unit 21 is provided with an actuator that swings. Hereinafter, an example of the guidance system according to the present embodiment will be specifically described with reference to FIG.

図4に示すように、本実施の形態に係る誘導システムは、基本的に前記実施の形態1の誘導システムと同様の構成を有しているが、照準装置20Bはアクチュエータ23とカメラ揺動制御部24とを備えている。なお、図4では、説明の便宜上、飛しょう体10には発光部13のみを図示するかたちで簡略化しており、また誘導装置30には、誘導指令生成部31等を図示せずに簡略化している。   As shown in FIG. 4, the guidance system according to the present embodiment basically has the same configuration as the guidance system of the first embodiment, but the aiming device 20B includes an actuator 23 and camera swing control. Part 24. In FIG. 4, for convenience of explanation, the flying body 10 is simplified by showing only the light emitting unit 13, and the guidance device 30 is simplified without showing the guidance command generating unit 31 and the like. ing.

アクチュエータ23は、画像処理部22からの入力によりカメラ部21を揺動させて撮像方向を傾斜可能とするものであり、例えば、公知の電動アクチュエータ、空気アクチュエータ、油圧アクチュエータ等が用いられる。   The actuator 23 swings the camera unit 21 in response to an input from the image processing unit 22 so that the imaging direction can be tilted. For example, a known electric actuator, air actuator, hydraulic actuator, or the like is used.

カメラ揺動制御部24は、画像処理部22からの入力に基づいて、アクチュエータ23の動作を制御する。その具体的な構成は限定されず、公知のマイクロコントローラ等であればよく、前記センサ等とともにアクチュエータ23に組み込まれていてもよい。なお、照準装置20Bが、カメラ部21、画像処理部22、アクチュエータ23等を含めて当該照準装置20B全体を制御する制御部を別途備えている場合には、当該制御部がカメラ揺動制御部24として機能してもよい。   The camera swing control unit 24 controls the operation of the actuator 23 based on the input from the image processing unit 22. The specific configuration is not limited and may be a known microcontroller or the like, and may be incorporated in the actuator 23 together with the sensor or the like. When the aiming device 20B is separately provided with a control unit that controls the entire aiming device 20B including the camera unit 21, the image processing unit 22, the actuator 23, and the like, the control unit is a camera swing control unit. 24 may function.

本実施の形態では、照準線Laを目標方向Doに一致させるべく、カメラ部21が目標50を照準するようにアクチュエータ23を制御する。一方、これとは別に、前記実施の形態1または2に係る誘導システムと同一の手法で飛しょう体10は誘導される。   In the present embodiment, the actuator 23 is controlled so that the camera unit 21 is aimed at the target 50 so that the line of sight La coincides with the target direction Do. On the other hand, the flying object 10 is guided by the same method as the guidance system according to the first or second embodiment.

[アクチュエータの制御方法]
次に、アクチュエータ23の動作制御の一例について、図4に加えて、図5(a),(b)を参照して具体的に説明する。
[Actuator control method]
Next, an example of the operation control of the actuator 23 will be specifically described with reference to FIGS. 5A and 5B in addition to FIG.

本実施の形態の誘導方法は、基本的には、前記実施の形態1または2の誘導方法と同じであるが、前記実施の形態1および2では、カメラ部21は、その撮像方向が水平方向となるように設置されている(図2(a),図3(a)参照)。それゆえ、前記各実施の形態における撮像方向すなわち照準線Laの位置は、基準線L0に一致している。これに対して本実施の形態では、撮像方向が基準線L0から傾斜するようにカメラ部21が揺動する。   The guiding method of the present embodiment is basically the same as the guiding method of the first or second embodiment. However, in the first and second embodiments, the camera unit 21 has a horizontal imaging direction. (See FIGS. 2 (a) and 3 (a)). Therefore, the imaging direction in each of the embodiments, that is, the position of the aiming line La coincides with the reference line L0. On the other hand, in this embodiment, the camera unit 21 swings so that the imaging direction is inclined from the reference line L0.

それゆえ、画像処理部22からの入力によりアクチュエータ23が動作すれば、図5(a)に示すように、カメラ部21の照準線Laは水平方向の基準線L0から、例えば角度σC だけ傾斜するように揺動(図5(a)では下方に移動)する。このとき、角度σC を「カメラ振れ角」とすれば、カメラ部21が目標50を照準している状態では、実質的にカメラ振れ角σC =照準角σT となる。 Therefore, when the actuator 23 is operated by an input from the image processing unit 22, the aiming line La of the camera unit 21 is inclined by, for example, an angle σ C from the horizontal reference line L0 as shown in FIG. It swings so as to move (moves downward in FIG. 5A). At this time, if the angle σ C is a “camera shake angle”, the camera shake angle σ C = the aim angle σ T substantially when the camera unit 21 is aiming at the target 50.

そこで、カメラ揺動制御部24は、図5(b)に示すように、カメラ振れ角σC を照準角σT に近づけるようにアクチュエータ23を制御する。このアクチュエータ23の動作制御では、カメラ部21を揺動させてカメラ振れ角σC を照準角σT にできる限り近付けることになるので、図5(a)に示すように、カメラ振れ角σC と照準角σT との差分である目標ずれ角εC を0に近付けるよう制御を行う。言い換えると目標ずれ角εC は、照準線Laと目標方向Doとのずれを意味し、図5(a)における向かって左側の模式画面では、レチクル21aと目標50とのずれに対応する。 Therefore, as shown in FIG. 5B, the camera swing control unit 24 controls the actuator 23 so that the camera shake angle σ C approaches the aiming angle σ T. Since this operation control of the actuator 23 would the camera unit 21 is swung close as possible camera shake angle sigma C in sight angle sigma T, as shown in FIG. 5 (a), the camera shake angle sigma C Control is performed so that the target deviation angle ε C , which is the difference between the target angle σ T and the aiming angle σ T , approaches zero. In other words, the target deviation angle ε C means a deviation between the line of sight La and the target direction Do, and corresponds to a deviation between the reticle 21a and the target 50 in the schematic screen on the left side in FIG.

カメラ揺動制御部24は、まず、画像処理部22から照準角σT が入力されると、基準線L0に対して照準線Laがなす角度、すなわちカメラ振れ角σC を取得し、角度加え合わせ点23aに示すように、目標ずれ角εC を生成する。なお、カメラ振れ角σC は、後述するように、カメラ揺動制御部24の制御結果からフィードバックされる。 First, when the aiming angle σ T is input from the image processing unit 22, the camera swing control unit 24 acquires an angle formed by the aiming line La with respect to the reference line L 0, that is, the camera shake angle σ C, and adds the angle. As indicated by the alignment point 23a, a target deviation angle ε C is generated. The camera shake angle σ C is fed back from the control result of the camera swing control unit 24 as will be described later.

次に、カメラ揺動制御部24は、比例制御ゲインブロック23bに示すように、生成した目標ずれ角εC から比例制御により前段動作指令を生成する。さらにアクチュエータのダンピング制御のため、角速度加え合わせ点23cおよび比例制御ゲインブロック23dに示すように、生成した前段動作指令とカメラ振れ角速度ωC との差分を用いてアクチュエータ23の動作指令であるトルク指令TC を生成し、アクチュエータ23を動作させる。 Next, as shown in the proportional control gain block 23b, the camera swing control unit 24 generates a pre-stage operation command by proportional control from the generated target deviation angle ε C. Further, for the damping control of the actuator, as shown in the angular velocity adding point 23c and the proportional control gain block 23d, the torque command which is the operation command of the actuator 23 is used by using the difference between the generated previous operation command and the camera shake angular velocity ω C. generate T C, to operate the actuator 23.

次に、カメラ揺動制御部24は、カメラ揺動モデルブロック23eに示すように、トルク指令TC に基づいてアクチュエータ23を駆動し、カメラ振れ角速度ωC を発生させる。なお、カメラ揺動モデルブロック23eでは説明の簡略化のためアクチュエータを一次遅れ系で模擬しており、τC はアクチュエータ時定数を示している。ちなみに、一般的に知られているように実際のアクチュエータではもっと複雑な伝達関数となるが、それでも比例制御ゲインブロック23b、23dを適当なPID要素に置き換える等して、適切なチューニングによって本発明に適用することが可能である。また、Jはカメラ部21の慣性モーメントを示し、sは前述したとおり微分記号を示す変換子である。また、図5(b)には具体的に示さないが、算出されたカメラ振れ角速度ωC は、公知のタコジェネレータ等のセンサによって検出され、角速度加え合わせ点23cにフィードバックされ、トルク指令TC の生成に用いられる。 Next, the camera swing control section 24, as shown in the camera swing model block 23e, the actuator 23 is driven based on the torque command T C, to generate a camera shake angular velocity omega C. In the camera swing model block 23e, for simplicity of explanation, the actuator is simulated by a first-order lag system, and τ C indicates an actuator time constant. Incidentally, as is generally known, an actual actuator has a more complicated transfer function. However, the proportional control gain blocks 23b and 23d are still replaced with appropriate PID elements, and the present invention can be obtained by appropriate tuning. It is possible to apply. J represents the moment of inertia of the camera unit 21, and s is a transducer indicating a differential symbol as described above. Although not specifically shown in FIG. 5B, the calculated camera shake angular velocity ω C is detected by a sensor such as a known tacho-generator and fed back to the angular velocity addition point 23c, and the torque command T C Used to generate

さらに、カメラ揺動制御部24は、積分ブロック23gに示すように、算出したカメラ振れ角速度ωC の積分の結果、カメラ振れ角σC までカメラ部21を指向する。このカメラ振れ角σC は、図5(b)には具体的に示さないが、公知のポテンショメータ等のセンサにより検出され、前述したように角度加え合わせ点23aにフィードバックされ、トルク指令TC の生成に用いられる。もしくは照準角σT とカメラ振れ角σC をそれぞれ取得するのではなく、画像処理部22にて、図5(a)に示す照準線21aと目標50との差分により直接的に誤差角εC を検出し、そのまま比例制御ゲインブロック23bへ入力する手法であってもよい。 Further, as shown in the integration block 23g, the camera swing control unit 24 directs the camera unit 21 to the camera shake angle σ C as a result of integration of the calculated camera shake angular velocity ω C. The camera shake angle sigma C is not specifically shown in FIG. 5 (b), is detected by a sensor such as a known potentiometer is fed back to the summing point 23a addition angle as described above, the torque command T C Used for generation. Alternatively, instead of acquiring the aiming angle σ T and the camera shake angle σ C , the error angle ε C is directly determined by the difference between the aiming line 21a and the target 50 shown in FIG. May be detected and input to the proportional control gain block 23b as it is.

このように、本実施の形態では、飛しょう体10の誘導に際して、目標50を自動的に照準するようにアクチュエータ23でカメラ部21を揺動するので、射手が退避した後であっても、飛しょう体10を誘導することができる。さらに、前記実施の形態1または2のように、カメラ部21を水平方向に固定して設置した場合には、目標50をより確実に撮像するために、当該カメラ部21としては広い画角(視野角)が必要となるが、本実施の形態であれば、目標50を画角中央に自動的に照準することになるので、相対的に画角が広くないカメラ装置であってもカメラ部21として好適に用いることができる。   Thus, in the present embodiment, when the flying object 10 is guided, the camera unit 21 is swung by the actuator 23 so as to automatically aim the target 50. Therefore, even after the shooter has retreated, The flying object 10 can be guided. Furthermore, when the camera unit 21 is fixed and installed in the horizontal direction as in the first or second embodiment, in order to capture the target 50 more reliably, the camera unit 21 has a wide angle of view ( In this embodiment, since the target 50 is automatically aimed at the center of the angle of view, the camera unit can be used even if the camera device has a relatively small angle of view. 21 can be suitably used.

また、本実施の形態に係る誘導システムは、地面に設置して発射する用途だけでなく、前記実施の形態1で例示したように無人ビークルに搭載する用途にも特に好適に用いることができる。すなわち、UAV、UGVまたはUMV等の無人ビークルを、飛しょう体を発射するためのプラットフォームとして本発明を適用すれば目標50に対してカメラ部21を自動的に指向できるため移動しながらでも安定した照準操作を実現することができ、飛しょう体を好適に誘導することが可能となる。   In addition, the guidance system according to the present embodiment can be particularly suitably used not only for the purpose of installing and launching on the ground but also for the purpose of mounting on an unmanned vehicle as exemplified in the first embodiment. That is, if the present invention is applied to an unmanned vehicle such as UAV, UGV, or UMV as a platform for launching a flying object, the camera unit 21 can be automatically pointed toward the target 50, so that it is stable even while moving. The aiming operation can be realized, and the flying object can be suitably guided.

(実施の形態4)
本実施の形態4に係る飛しょう体の誘導システムは、基本的な構成は前記実施の形態1または2に係る誘導システムと同様であるが、照準装置から離れた位置でカメラ部21の撮影画像をモニタし、発射等の指令信号を照準装置に送信することができるモニタ装置を備えている点が異なっている。以下、本実施の形態に係る誘導システムの一例について、図6を参照して具体的に説明する。
(Embodiment 4)
The flying object guidance system according to the fourth embodiment has the same basic configuration as the guidance system according to the first or second embodiment, but is taken by the camera unit 21 at a position away from the aiming device. It is different in that it has a monitor device that can monitor the signal and transmit a command signal such as launch to the aiming device. Hereinafter, an example of the guidance system according to the present embodiment will be specifically described with reference to FIG.

図6に示すように、本実施の形態に係る誘導システムは、基本的に前記実施の形態1の誘導システムと同様の構成を有しているが、照準装置20Cは、通信部25を備えており、この通信部25は、照準装置20Cから離れた位置でカメラ部21からの撮影画像を確認することができるモニタ装置40に接続されている。なお、図6では、説明の便宜上、図4と同様に、飛しょう体10および誘導装置30を簡略化して示している。   As shown in FIG. 6, the guidance system according to the present embodiment basically has the same configuration as the guidance system of the first embodiment, but the aiming device 20 </ b> C includes a communication unit 25. The communication unit 25 is connected to a monitor device 40 that can confirm a captured image from the camera unit 21 at a position away from the aiming device 20C. In FIG. 6, for the convenience of explanation, the flying object 10 and the guidance device 30 are shown in a simplified manner as in FIG.

通信部25およびモニタ装置40、並びにこれらを接続する構成については特に限定されない。例えば、通信部25はカメラ部21で撮像された画像データをそのままモニタ装置40に通信し、モニタ装置40では、当該画像データを目視で確認できるように、図示されない表示画面を備えている。モニタ装置40には同様に図示されない飛しょう体発射指令スイッチが設けられており、射手はカメラ部21からの画像を確認しつつ目標50を捕捉した時点で、同じく図示されない発射装置から飛しょう体を発射する。通信部25(照準装置20C)とモニタ装置40とは有線もしくは無線で接続される。さらに図4に示すアクチュエータ23とカメラ揺動制御部24を備え、これらをモニタ装置40で制御する構成となっていれば、遠隔から目標50を捜索したり照準操作を行ったりすることが可能となる。   There is no particular limitation on the communication unit 25 and the monitor device 40 and the configuration for connecting them. For example, the communication unit 25 directly communicates the image data captured by the camera unit 21 to the monitor device 40, and the monitor device 40 includes a display screen (not shown) so that the image data can be visually confirmed. Similarly, the monitor device 40 is provided with a flying object launch command switch (not shown), and when the shooter captures the target 50 while confirming the image from the camera unit 21, the flying object from the launcher (not shown) is also shown. Fire. The communication unit 25 (sighting device 20C) and the monitor device 40 are connected by wire or wirelessly. Furthermore, if the actuator 23 and the camera swing control unit 24 shown in FIG. 4 are provided and these are controlled by the monitor device 40, it is possible to search for the target 50 or perform the aiming operation from a remote location. Become.

このように、誘導システムが、カメラ部21をモニタし、さらに発射等の指令信号を遠隔操作にて発射装置に送信することができるモニタ装置40を備えていれば、飛しょう体10を発射装置から離れた場所から発射および誘導することができる。例えば、飛しょう体10が目標50に向かって発射されたときに、発射地点の特定ができたとしても、遠隔操作地点の特定が困難となる利点がある。   Thus, if the guidance system includes the monitor device 40 that can monitor the camera unit 21 and further transmit a command signal such as launching to the launching device by remote control, the flying object 10 is launched by the launching device. Can be launched and guided from a remote location. For example, when the flying object 10 is launched toward the target 50, even if the launch point can be specified, there is an advantage that it is difficult to specify the remote operation point.

(実施の形態5)
本実施の形態5に係る飛しょう体の誘導システムは、基本的な構成は前記実施の形態1または2に係る誘導システムと同様であるが、照準装置が2つのカメラ部を備えている点が異なっている。以下、本実施の形態に係る誘導システムの一例について、図7を参照して具体的に説明する。
(Embodiment 5)
The flying object guidance system according to the fifth embodiment has the same basic configuration as the guidance system according to the first or second embodiment, except that the aiming device includes two camera units. Is different. Hereinafter, an example of the guidance system according to the present embodiment will be specifically described with reference to FIG.

図7に示すように、本実施の形態に係る誘導システムは、基本的に前記実施の形態1の誘導システムと同様の構成を有しているが、照準装置20Dは、飛しょう中の飛しょう体10を主として撮像する第一カメラ部21aと、目標50を主として撮像する第二カメラ部21bと、を備えている。これらカメラ部は、いずれも前述したカメラ部21と同様に、画像処理部22に対して画像データを入力可能となっている。なお、図7では、説明の便宜上、図4または図6と同様に、飛しょう体10および誘導装置30を簡略化して示している。   As shown in FIG. 7, the guidance system according to the present embodiment basically has the same configuration as that of the guidance system of the first embodiment, but the aiming device 20D is a flying flight A first camera unit 21 a that mainly images the body 10 and a second camera unit 21 b that mainly images the target 50 are provided. Each of these camera units can input image data to the image processing unit 22 in the same manner as the camera unit 21 described above. In FIG. 7, for convenience of explanation, the flying object 10 and the guidance device 30 are shown in a simplified manner as in FIG. 4 or FIG. 6.

本発明に係る誘導システムでは、カメラ部は少なくとも1つあればよい。しかしながら、例えば、飛しょう体10の発光部13が赤外光を発する構成であり、また、目標50から取得される光が同じく赤外光であれば、その波長が近接していると、単一のカメラ部21では、飛しょう体10と目標50との分離が困難になる可能性がある。そこで、本実施の形態では、飛しょう体10の発光部13から発する光は、目標50から得られる光の波長とは異なる波長に設定し、第一カメラ部21aは、発光部13からの光を主として撮像し、第二カメラ部21bは、主として目標50を撮像するように構成されている。   In the guidance system according to the present invention, at least one camera unit is sufficient. However, for example, if the light emitting unit 13 of the flying object 10 emits infrared light, and the light acquired from the target 50 is also infrared light, if the wavelength is close, In one camera unit 21, it may be difficult to separate the flying object 10 and the target 50 from each other. Therefore, in the present embodiment, the light emitted from the light emitting unit 13 of the flying object 10 is set to a wavelength different from the wavelength of the light obtained from the target 50, and the first camera unit 21 a uses the light from the light emitting unit 13. The second camera unit 21b is configured to mainly image the target 50.

例えば、本実施の形態に係る誘導システムが、目標50の遠赤外光を検知するように構成されていれば、飛しょう体10の発光部13は近赤外光を発するものであればよい。そして、第一カメラ部21aは近赤外光を良好に受光できる撮像素子を備え、第二カメラ部21bは遠赤外光を良好に受光できる撮像素子を備えていればよい。   For example, if the guidance system according to the present embodiment is configured to detect the far-infrared light of the target 50, the light-emitting unit 13 of the flying object 10 only needs to emit near-infrared light. . And the 1st camera part 21a is provided with the image pick-up element which can receive near infrared light favorably, and the 2nd camera part 21b should just be equipped with the image pick-up element which can receive far infrared light favorably.

ここで、飛しょう体10は目標50に向かって飛しょうするよう誘導されるため、第一カメラ部21aおよび第二カメラ部21bは、その照準線が実質的に同軸になるように照準装置20Dに設けていることが好ましい。   Here, since the flying body 10 is guided to fly toward the target 50, the first camera unit 21a and the second camera unit 21b have the aiming device 20D so that the line of sight is substantially coaxial. Is preferably provided.

このように、2つのカメラ部を備えることで、画像処理部22は、第一カメラ部21aの画像データから飛しょう体領域データを抽出して飛しょう方向を取得することができ、また、第二カメラ部21bの画像データから目標領域データを抽出して目標方向を取得することができるので、誘導指令生成部31では、より好適な誘導指令を生成することができる。それゆえ、飛しょう体10の誘導の精度をより一層向上することができる。   Thus, by providing the two camera units, the image processing unit 22 can extract the flying object region data from the image data of the first camera unit 21a and obtain the flying direction. Since the target area data can be extracted from the image data of the two camera units 21b and the target direction can be acquired, the guidance command generation unit 31 can generate a more preferable guidance command. Therefore, the accuracy of guidance of the flying object 10 can be further improved.

なお、照準装置20Dは、3つ以上のカメラ部を備えていてもよい。例えば、目標50が大きく移動するような場合、照準線の方向が異なる2つ以上のカメラ部で目標50を撮像するように照準装置20Dを構成しておけば、目標50の捕捉効率を向上することが可能となる。   The aiming device 20D may include three or more camera units. For example, when the target 50 moves greatly, if the aiming device 20D is configured so that the target 50 is imaged by two or more camera units having different sight line directions, the capture efficiency of the target 50 is improved. It becomes possible.

なお、本発明は前記実施の形態の記載に限定されるものではなく、特許請求の範囲に示した範囲内で種々の変更が可能であり、異なる実施の形態や複数の変形例にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。   It should be noted that the present invention is not limited to the description of the above-described embodiment, and various modifications are possible within the scope shown in the scope of the claims, and are disclosed in different embodiments and a plurality of modifications. Embodiments obtained by appropriately combining the technical means are also included in the technical scope of the present invention.

本発明は、目標に向かって誘導装置により誘導する飛しょう体の分野に広く好適に用いることができる。   The present invention can be widely and suitably used in the field of flying objects that are guided by a guidance device toward a target.

10 飛しょう体
11 ロケットモータ
13 発光部
20A〜20D 照準装置
21 カメラ部
21a 第一カメラ部
21b 第二カメラ部
22 画像処理部
23 アクチュエータ
30 誘導装置
31 誘導指令生成部
32 誘導指令送信部
40 モニタ装置
50 目標
ZC 加速度指令
Df 飛しょう方向
Do 目標方向
La 照準線
L0 基準線
ε 誤差角
σM 飛しょう角
σT 照準角

DESCRIPTION OF SYMBOLS 10 Flying object 11 Rocket motor 13 Light emission part 20A-20D Aiming device 21 Camera part 21a First camera part 21b Second camera part 22 Image processing part 23 Actuator 30 Guidance device 31 Guidance command generation part 32 Guidance command transmission part 40 Monitor device 50 Target A ZC acceleration command Df Flying direction Do Target direction La Aiming line L0 Reference line ε Error angle σ M Flying angle σ T Aiming angle

Claims (9)

推進方向を制御可能に飛しょうする飛しょう体と、
前記飛しょう体を観察しながら目標を照準する照準装置と、
誘導指令を生成して前記飛しょう体に送信することにより、当該飛しょう体を前記目標に向かって誘導する誘導装置と、
から少なくとも構成され、
前記照準装置は、
飛しょう中の前記飛しょう体および前記目標を同時に撮像可能とするカメラ部と、
当該カメラ部で撮像された画像データから、前記飛しょう体の飛しょう方向、および、前記カメラ部から見て前記目標が位置する方向である目標方向を取得する画像処理部と、を備えており、
前記誘導装置は、
前記画像処理部で取得された前記飛しょう方向を前記目標方向に近接させるように、誘導指令を生成する誘導指令生成部と、
生成された誘導指令を送信する誘導指令送信部と、
を備えていることを特徴とする、
飛しょう体の誘導システム。
A flying object that flies in a controllable direction, and
An aiming device for aiming a target while observing the flying object;
A guidance device that guides the flying object toward the target by generating a guidance command and transmitting it to the flying object;
Consisting of at least
The aiming device is
A camera unit capable of simultaneously imaging the flying object and the target in flight;
An image processing unit that obtains a flying direction of the flying object and a target direction in which the target is located when viewed from the camera unit from image data captured by the camera unit; ,
The guidance device includes:
A guidance command generating unit that generates a guidance command so that the flying direction acquired by the image processing unit is close to the target direction;
A guidance command transmission unit for transmitting the generated guidance command;
It is characterized by having,
Flying body guidance system.
前記誘導装置の前記誘導指令生成部は、生成した前記誘導指令を、前記目標方向に向けて補正することを特徴とする、
請求項1に記載の飛しょう体の誘導システム。
The guidance command generation unit of the guidance device corrects the generated guidance command toward the target direction,
The flying object guidance system according to claim 1.
前記照準装置は、さらに、前記画像処理部からの入力に基づいて、前記カメラ部の撮像方向を傾斜させるように当該カメラ部を揺動可能とするアクチュエータを備えていることを特徴とする、
請求項1または2に記載の飛しょう体の誘導システム。
The aiming device further includes an actuator that can swing the camera unit so as to tilt the imaging direction of the camera unit based on an input from the image processing unit.
The flying object guidance system according to claim 1 or 2.
前記照準装置から離れた位置で遠隔操作できるモニタ装置を、さらに備えていることを特徴とする、
請求項1ないし3のいずれか1項に記載の飛しょう体の誘導システム。
It further comprises a monitor device that can be remotely operated at a position away from the aiming device,
The flying object guidance system according to any one of claims 1 to 3.
前記飛しょう体には発光部が設けられ、
前記照準装置の前記画像処理部は、前記カメラ部で撮像された画像データから、前記発光部からの光を含む領域を前記飛しょう体領域データとして抽出することで、前記飛しょう方向を取得することを特徴とする、
請求項1ないし4のいずれか1項に記載の飛しょう体の誘導システム。
The flying body is provided with a light emitting part,
The image processing unit of the aiming device acquires the flying direction by extracting a region including light from the light emitting unit as the flying object region data from the image data captured by the camera unit. It is characterized by
The flying object guidance system according to any one of claims 1 to 4.
前記照準装置は、前記カメラ部として、
飛しょう中の前記飛しょう体を撮像する第一カメラ部と、
前記目標を撮像する第二カメラ部と、を備え、
前記飛しょう体の前記発光部から発する光は、前記第二カメラ部で前記目標を撮像する際に当該目標から得られる光の波長とは異なる波長であることを特徴とする、
請求項5に記載の飛しょう体の誘導システム。
The aiming device is the camera unit,
A first camera unit that images the flying object in flight;
A second camera unit that images the target,
The light emitted from the light emitting unit of the flying object is a wavelength different from the wavelength of light obtained from the target when the second camera unit images the target.
The flying object guidance system according to claim 5.
前記誘導装置の前記誘導指令生成部は、
予め設定される基準線に対して前記飛しょう方向がなす角度である飛しょう角と、
前記基準線に対して前記カメラ部の照準線がなす角度である照準角と、
を算出し、
当該照準角と前記飛しょう角との差分である誤差角を小さくする加速度指令を、前記誘導指令として生成することを特徴とする、
請求項1ないし6のいずれか1項に記載の飛しょう体の誘導システム。
The guidance command generation unit of the guidance device includes:
A flying angle which is an angle formed by the flying direction with respect to a preset reference line;
An aiming angle that is an angle formed by the aiming line of the camera unit with respect to the reference line;
To calculate
An acceleration command for reducing an error angle that is a difference between the aiming angle and the flying angle is generated as the guidance command.
The flying object guidance system according to any one of claims 1 to 6.
前記誘導指令生成部は、前記誘導指令を目標方向に向けて補正する場合には、
前記照準角を前記誤差角に加算した上で前記加速度指令を生成することを特徴とする、
請求項7に記載の飛しょう体の誘導システム。
When the guidance command generator corrects the guidance command in a target direction,
The acceleration command is generated after adding the aiming angle to the error angle,
The flying object guidance system according to claim 7.
前記飛しょう体は推進装置を備えており、当該推進装置が、噴射ノズルから噴射物質を噴射するロケットモータ、または、回転翼によって推力を得るプロペラもしくはダクトファンであることを特徴とする、
請求項1ないし8のいずれか1項に記載の飛しょう体の誘導システム。

The flying object includes a propulsion device, and the propulsion device is a rocket motor that injects an injection material from an injection nozzle, or a propeller or duct fan that obtains thrust by a rotor blade.
The flying object guidance system according to any one of claims 1 to 8.

JP2011265986A 2011-12-05 2011-12-05 Missile guidance system Pending JP2013117362A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011265986A JP2013117362A (en) 2011-12-05 2011-12-05 Missile guidance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011265986A JP2013117362A (en) 2011-12-05 2011-12-05 Missile guidance system

Publications (1)

Publication Number Publication Date
JP2013117362A true JP2013117362A (en) 2013-06-13

Family

ID=48712040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011265986A Pending JP2013117362A (en) 2011-12-05 2011-12-05 Missile guidance system

Country Status (1)

Country Link
JP (1) JP2013117362A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016065669A (en) * 2014-09-25 2016-04-28 株式会社Ihiエアロスペース Unguided munitions system and method of using unguided munitions system
KR101727499B1 (en) 2016-11-03 2017-04-17 국방과학연구소 (apparatus and method for operating proximity sensor using sled
WO2017105095A1 (en) * 2015-12-16 2017-06-22 한화테크윈주식회사 Gunnery control system and gunnery control method using same

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3233847A (en) * 1961-11-06 1966-02-08 Contraves Ag System for guiding a missile toward a moving target
US3876308A (en) * 1971-05-24 1975-04-08 Us Navy Automatic command guidance system using optical trackers
US4750688A (en) * 1985-10-31 1988-06-14 British Aerospace Plc Line of sight missile guidance
US5102065A (en) * 1988-02-17 1992-04-07 Thomson - Csf System to correct the trajectory of a projectile
JPH05118791A (en) * 1991-03-22 1993-05-14 Hughes Aircraft Co Missile guidance electronic device for portable guided missile launcher
US5248978A (en) * 1991-08-16 1993-09-28 Kaman Aerospace Corporation Underwater guide vehicle for removal of submerged and floating navigational hazards
JPH0666498A (en) * 1992-02-10 1994-03-08 Japan Aviation Electron Ind Ltd Device for avoiding striking action of moving body
JPH06241696A (en) * 1993-02-19 1994-09-02 Mitsubishi Electric Corp Guided airframe
US5436832A (en) * 1993-11-05 1995-07-25 The United States Of America As Represented By The Secretary Of The Navy Fuzzy controller for beam rider guidance
US5697578A (en) * 1989-01-27 1997-12-16 British Aerospace Public Limited Co. Navigational system and method
US5932833A (en) * 1997-03-03 1999-08-03 The United States Of America As Represented By The Secretary Of The Army Fly over homing guidance for fire and forget missile systems
JP2005308282A (en) * 2004-04-20 2005-11-04 Komatsu Ltd Firearm device
JP2009145168A (en) * 2007-12-13 2009-07-02 Ihi Aerospace Co Ltd Apparatus and method for tracking/guiding target

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3233847A (en) * 1961-11-06 1966-02-08 Contraves Ag System for guiding a missile toward a moving target
US3876308A (en) * 1971-05-24 1975-04-08 Us Navy Automatic command guidance system using optical trackers
US4750688A (en) * 1985-10-31 1988-06-14 British Aerospace Plc Line of sight missile guidance
US5102065A (en) * 1988-02-17 1992-04-07 Thomson - Csf System to correct the trajectory of a projectile
US5697578A (en) * 1989-01-27 1997-12-16 British Aerospace Public Limited Co. Navigational system and method
JPH05118791A (en) * 1991-03-22 1993-05-14 Hughes Aircraft Co Missile guidance electronic device for portable guided missile launcher
US5248978A (en) * 1991-08-16 1993-09-28 Kaman Aerospace Corporation Underwater guide vehicle for removal of submerged and floating navigational hazards
JPH0666498A (en) * 1992-02-10 1994-03-08 Japan Aviation Electron Ind Ltd Device for avoiding striking action of moving body
JPH06241696A (en) * 1993-02-19 1994-09-02 Mitsubishi Electric Corp Guided airframe
US5436832A (en) * 1993-11-05 1995-07-25 The United States Of America As Represented By The Secretary Of The Navy Fuzzy controller for beam rider guidance
US5932833A (en) * 1997-03-03 1999-08-03 The United States Of America As Represented By The Secretary Of The Army Fly over homing guidance for fire and forget missile systems
JP2005308282A (en) * 2004-04-20 2005-11-04 Komatsu Ltd Firearm device
JP2009145168A (en) * 2007-12-13 2009-07-02 Ihi Aerospace Co Ltd Apparatus and method for tracking/guiding target

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016065669A (en) * 2014-09-25 2016-04-28 株式会社Ihiエアロスペース Unguided munitions system and method of using unguided munitions system
WO2017105095A1 (en) * 2015-12-16 2017-06-22 한화테크윈주식회사 Gunnery control system and gunnery control method using same
US10663258B2 (en) 2015-12-16 2020-05-26 Hanwha Defense Co., Ltd. Gunnery control system and gunnery control method using the same
KR101727499B1 (en) 2016-11-03 2017-04-17 국방과학연구소 (apparatus and method for operating proximity sensor using sled

Similar Documents

Publication Publication Date Title
KR102540635B1 (en) Aerial vehicle imaging and targeting system
CN110709320B (en) System and method for intercepting and countering Unmanned Aerial Vehicles (UAVs)
JP2019060589A (en) Aerial vehicle interception system
CN107885230B (en) Unmanned helicopter control system with laser guided weapon and control method thereof
CN107870631B (en) Unmanned helicopter airborne system and control method thereof
EP2529174B1 (en) A system and method for tracking and guiding multiple objects
RU2400690C1 (en) Aa missile guidance system
CN107878739B (en) Unmanned helicopter control system and control method thereof
JP2013117362A (en) Missile guidance system
CN111044989A (en) Laser decoy interference equipment lures partial effect outfield evaluation system
JP5863427B2 (en) Flying object guidance system
JP6023850B2 (en) Flying object guidance system
RU2351508C1 (en) Short-range highly accurate weaponry helicopter complex
KR101558983B1 (en) Guided air vehicle launch system and method
KR101726252B1 (en) Interworking system between unmanned aerial vehicles
US8237095B2 (en) Spot leading target laser guidance for engaging moving targets
JP6339913B2 (en) Unguided bullet system and its usage
AU2015238173B2 (en) Armed optoelectronic turret
US20230088169A1 (en) System and methods for aiming and guiding interceptor UAV
KR101159648B1 (en) Missile decoy with jet engine
JP4923983B2 (en) Control device
US20220324567A1 (en) Improvements in and relating to a guided weapon
JP4756698B2 (en) Flying object guidance method and guidance system
KR101159650B1 (en) Missile decoy with thrust vectoring jet engine
CN205561646U (en) Long -range wireless remote control of rail mounted penetrates machine gun soon

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140826

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150317