JP6385859B2 - Flying object guidance system, flying object, flying object guidance method, and guidance control program - Google Patents

Flying object guidance system, flying object, flying object guidance method, and guidance control program Download PDF

Info

Publication number
JP6385859B2
JP6385859B2 JP2015039323A JP2015039323A JP6385859B2 JP 6385859 B2 JP6385859 B2 JP 6385859B2 JP 2015039323 A JP2015039323 A JP 2015039323A JP 2015039323 A JP2015039323 A JP 2015039323A JP 6385859 B2 JP6385859 B2 JP 6385859B2
Authority
JP
Japan
Prior art keywords
target
image
lock
flying object
setting information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015039323A
Other languages
Japanese (ja)
Other versions
JP2016161194A (en
Inventor
淳 小向井
淳 小向井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2015039323A priority Critical patent/JP6385859B2/en
Publication of JP2016161194A publication Critical patent/JP2016161194A/en
Application granted granted Critical
Publication of JP6385859B2 publication Critical patent/JP6385859B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、飛しょう体誘導システム、飛しょう体、飛しょう体の誘導方法、及び誘導制御プログラムに関し、特に、飛しょう体の画像誘導技術に関する。   The present invention relates to a flying object guidance system, a flying object, a flying object guidance method, and a guidance control program, and more particularly to a flying object image guidance technique.

飛しょう体を目標に誘導する方法として、画像誘導が知られている。画像誘導では、可視光又は赤外光で撮像された画像内から目標を抽出し、当該目標に向けて飛しょう体を誘導する。   Image guidance is known as a method for guiding a flying object to a target. In the image guidance, a target is extracted from an image captured with visible light or infrared light, and the flying object is guided toward the target.

画像誘導を行う誘導装置が、例えば特開平9−170898に記載されている(特許文献1参照)。特許文献1に記載の誘導装置では、母機赤外線撮像装置の撮像画像と飛しょう体の撮像画像をマッチングさせることにより、予めパイロットが選択した目標を飛しょう体の撮像画像の中から探し出す。飛しょう体は、自らの撮像画像から探し出した目標に対して追尾処理を行う。   A guidance device that performs image guidance is described in, for example, Japanese Patent Laid-Open No. 9-170898 (see Patent Document 1). In the guidance device described in Patent Document 1, the target image selected by the pilot in advance is searched from the captured image of the flying object by matching the captured image of the base infrared imaging device with the captured image of the flying object. The flying object performs a tracking process on the target found from its captured image.

特開平9−170898JP-A-9-170898

特許文献1に記載の誘導装置は、目標抽出のため、母機による撮像画像と飛しょう体による撮像画像とを照合する。この際、画像変換器によって、飛しょう体の画像取得時における目標との相対距離・角度の差異、及び母機と飛しょう体との画角の差異が計算され、飛しょう体の撮像画像が変換される。又、照合処理では、母機による撮像画像から取得した目標領域の特徴量と、飛しょう体の撮像画像(変換画像)における特徴量との比較により、飛しょう体の撮像画像から目標が抽出される。   The guidance device described in Patent Literature 1 collates an image captured by the mother machine with an image captured by the flying object for target extraction. At this time, the image converter calculates the difference in relative distance and angle from the target at the time of flying object image acquisition, and the difference in the angle of view between the mother aircraft and the flying object, and converts the captured image of the flying object. Is done. In the matching process, the target is extracted from the captured image of the flying object by comparing the feature value of the target area acquired from the captured image by the mother machine with the feature value in the captured image (converted image) of the flying object. .

特許文献1の誘導装置では、予め目標を指定した母機による撮像画像を利用して、飛しょう体によって撮像された画像から目標が自動抽出される。これにより、地上のような複雑な背景下においても目標の抽出識別が可能なばかりでなく、多数存在する類似目標群の中から母機パイロットまたは射手の選択した目標に自動追尾することが可能になる。   In the guidance device of Patent Document 1, a target is automatically extracted from an image captured by a flying object using an image captured by a mother machine in which a target is specified in advance. This makes it possible not only to extract and identify targets even under complicated backgrounds such as the ground, but also to automatically track the target selected by the base pilot or archer from among a large number of similar target groups. .

しかし、目標抽出のための照合処理に利用される変換画像や目標領域の特徴量が、飛しょう体による撮像画像やそこから取得される特徴量と大きく異なる場合、目標の抽出精度が低くなる恐れがある。例えば、天候により撮像画像の輝度が低くなる場合や、画像の変換精度が低い場合は、母機の撮像画像と変換画像とが精度よくマッチングしないこと恐れがある。このような場合、飛しょう体は、所望の目標と異なる目標を追尾してしまう。   However, if the converted image used for the collation process for target extraction or the feature quantity of the target area is significantly different from the image captured by the flying object or the feature quantity acquired from it, the target extraction accuracy may be lowered. There is. For example, when the brightness of the captured image is low due to the weather or when the conversion accuracy of the image is low, the captured image of the mother machine and the converted image may not be accurately matched. In such a case, the flying object tracks a target different from the desired target.

従って、本発明の目的は、飛しょう体の誘導精度を向上させる飛しょう体誘導システム、飛しょう体、飛しょう体の誘導方法、及びそのプログラムを提供することにある。   Therefore, an object of the present invention is to provide a flying object guiding system, a flying object, a flying object guiding method, and a program thereof that improve the flying object guiding accuracy.

上記の課題を解決するために、本発明は、以下に述べられる手段を採用する。その手段を構成する技術的事項の記述には、[特許請求の範囲]の記載と[発明を実施するための形態]の記載との対応関係を明らかにするために、[発明を実施するための形態]で使用される番号・符号が付加されている。ただし、付加された番号・符号は、[特許請求の範囲]に記載されている発明の技術的範囲を限定的に解釈するために用いてはならない。   In order to solve the above problems, the present invention employs the means described below. In the description of technical matters constituting the means, in order to clarify the correspondence between the description of [Claims] and the description of [Mode for Carrying Out the Invention] The number / symbol used in [Form] is added. However, the added numbers and symbols should not be used to limit the technical scope of the invention described in [Claims].

一の観点において、本発明による飛しょう体誘導システムは、飛しょう体(1)及び指令装置(2)を具備する。飛しょう体(1)は、画像センサ(11)、画像解析部(12)、送信部(151)、受信部(152)、及び誘導制御部(13)を備える。画像センサ(11)は、画像(110)を撮像し取得画像(110)として出力する。画像解析部(12)は、画像センサ(11)による取得画像(110)からロックオン候補(100)を抽出する。送信部(151)は、取得画像(110)上においてロックオン候補(100)を識別するための目標識別情報(200)と、取得画像(110)とを指令装置(2)に送信する。受信部(152)は、指令装置(2)からの設定情報を受信する。誘導制御部(13)は、受信した設定情報を受け付けた場合、設定情報に基づいて飛しょう体(1)のロックオン対象(400)を設定し、ロックオン対象(400)に対して飛しょう体(1)の画像誘導を行う。指令装置(2)は、表示装置(22)、ユーザインタフェース(23)、及び飛しょう体制御装置21を備える。表示装置(22)は、取得画像(110)に、目標識別情報(200)に基づいて生成された目標識別表示(220)が付加された画像を目標抽出画像(6)として表示する。ユーザインタフェース(23)は、ユーザによる操作に応じて、目標抽出画像(6)内の目標を飛しょう体(1)のロックオン対象(400)として指定する指定信号を出力する。飛しょう体制御装置(21)は、指定信号に基づいて、取得画像(110)においてロックオン対象(400)となる画像内目標を指定する設定情報を飛しょう体(1)に送信する。   In one aspect, a flying object guidance system according to the present invention includes a flying object (1) and a command device (2). The flying object (1) includes an image sensor (11), an image analysis unit (12), a transmission unit (151), a reception unit (152), and a guidance control unit (13). The image sensor (11) captures an image (110) and outputs it as an acquired image (110). The image analysis unit (12) extracts the lock-on candidate (100) from the image (110) acquired by the image sensor (11). The transmission unit (151) transmits the target identification information (200) for identifying the lock-on candidate (100) on the acquired image (110) and the acquired image (110) to the command device (2). The receiving unit (152) receives the setting information from the command device (2). When the guidance control unit (13) receives the received setting information, the guidance control unit (13) sets the lock-on target (400) of the flying object (1) based on the setting information and flies against the lock-on target (400). Image guidance of the body (1) is performed. The command device (2) includes a display device (22), a user interface (23), and a flying object control device 21. The display device (22) displays an image obtained by adding the target identification display (220) generated based on the target identification information (200) to the acquired image (110) as the target extracted image (6). The user interface (23) outputs a designation signal that designates the target in the target extracted image (6) as the lock-on target (400) of the flying object (1) according to the operation by the user. The flying object control device (21) transmits, to the flying object (1), setting information for designating an in-image target to be locked on (400) in the acquired image (110) based on the designation signal.

以上のような構成により、指令装置1を利用するユーザは、画像誘導の目標候補として抽出されたロックオン候補(100)を、表示装置(22)にて確認でき、ユーザインタフェース(23)を操作することで、飛しょう体(1)のロックオン対象(400)を設定できる。   With the configuration as described above, the user using the commanding device 1 can confirm the lock-on candidate (100) extracted as the image guidance target candidate on the display device (22) and operate the user interface (23). By doing so, the lock-on object (400) of the flying object (1) can be set.

他の観点において、本発明による飛しょう体(1)は、画像センサ(11)、画像解析部(12)、送信部(151)、受信部(152)、及び誘導制御部(13)を備える。画像センサ(11)は、画像を撮像し、取得画像(110)として出力する。画像解析部(12)は、画像センサ(11)による取得画像(110)からロックオン候補(100)を抽出する。送信部(151)は、取得画像(110)上においてロックオン候補(100)を識別するための目標識別情報(200)と、取得画像(110)とを指令装置(2)に送信する。受信部(152)は、指令装置(2)からの設定情報を受信する。誘導制御部(13)は、受信した設定情報を受け付けた場合、設定情報に基づいてロックオン対象(400)を設定し、ロックオン対象(400)に対して画像誘導を行う。ここで、指令装置(2)において、取得画像(110)内の目標が飛しょう体(1)のロックオン対象(400)として指定された場合、前記設定情報は、取得画像(110)内の目標をロックオン対象(400)として指定する情報を含む。   In another aspect, the flying object (1) according to the present invention includes an image sensor (11), an image analysis unit (12), a transmission unit (151), a reception unit (152), and a guidance control unit (13). . The image sensor (11) captures an image and outputs it as an acquired image (110). The image analysis unit (12) extracts the lock-on candidate (100) from the image (110) acquired by the image sensor (11). The transmission unit (151) transmits the target identification information (200) for identifying the lock-on candidate (100) on the acquired image (110) and the acquired image (110) to the command device (2). The receiving unit (152) receives the setting information from the command device (2). When receiving the received setting information, the guidance control unit (13) sets the lock-on target (400) based on the setting information, and performs image guidance on the lock-on target (400). Here, in the command device (2), when the target in the acquired image (110) is designated as the lock-on target (400) of the flying object (1), the setting information is stored in the acquired image (110). Information that designates the target as the lock-on target (400) is included.

以上のような構成により、本発明による飛しょう体(1)は、ロックオン候補(100)を抽出し、これを指令装置(2)に表示させるとともに、指令装置(2)からの設定情報に基づいてロックオン対象(400)が設定され得る。これにより、指令装置(2)のユーザは、飛しょう体(1)が抽出したロックオン候補(100)を確認できるとともに、飛しょう体(1)のロックオン対象(400)を設定できる。   With the configuration as described above, the flying object (1) according to the present invention extracts the lock-on candidate (100), displays it on the command device (2), and displays the setting information from the command device (2). Based on this, the lock-on target (400) can be set. Thereby, the user of the command device (2) can confirm the lock-on candidate (100) extracted by the flying object (1) and can set the lock-on target (400) of the flying object (1).

更に他の観点において、本発明による飛しょう体の誘導方法は、画像を取得し、取得画像(110)として出力するステップと、取得画像(110)からロックオン候補(100)を抽出するステップと、取得画像(110)上においてロックオン候補(100)を識別するための目標識別情報(200)と、取得画像(110)とを指令装置(2)に送信するステップと、指令装置(2)からの設定情報を受信するステップと、受信した設定情報を受け付けた場合、設定情報に基づいて飛しょう体(1)のロックオン対象(400)を設定し、ロックオン対象(400)に対して画像誘導を行うステップとを具備する。指令装置(2)において、取得画像(100)内の目標が飛しょう体(1)のロックオン対象(400)として指定された場合、設定情報は、取得画像(110)内の目標をロックオン対象(400)として指定する情報を含む。   In still another aspect, the flying object guiding method according to the present invention includes a step of acquiring an image and outputting it as an acquired image (110), and a step of extracting a lock-on candidate (100) from the acquired image (110). Transmitting the target identification information (200) for identifying the lock-on candidate (100) on the acquired image (110) and the acquired image (110) to the command device (2); and the command device (2) When receiving the setting information from the step and the received setting information, the lock-on target (400) of the flying object (1) is set based on the setting information, and the lock-on target (400) is set. Performing image guidance. In the commanding device (2), when the target in the acquired image (100) is designated as the lock-on target (400) of the flying object (1), the setting information locks on the target in the acquired image (110). Contains information specified as the target (400).

以上のような方法により、本発明による飛しょう体(1)は、ロックオン候補(100)を抽出し、これを指令装置(2)に表示させるとともに、指令装置(2)からの設定情報に基づいてロックオン対象(400)が設定され得る。これにより、指令装置(2)のユーザは、飛しょう体(1)が抽出したロックオン候補(100)を確認できるとともに、飛しょう体(1)のロックオン対象(400)を設定できる。   By the method as described above, the flying object (1) according to the present invention extracts the lock-on candidate (100), displays it on the command device (2), and displays the setting information from the command device (2). Based on this, the lock-on target (400) can be set. Thereby, the user of the command device (2) can confirm the lock-on candidate (100) extracted by the flying object (1) and can set the lock-on target (400) of the flying object (1).

本発明による飛しょう体の誘導方法は、記憶装置に記録され、演算装置によって実行される誘導制御プログラムによって実現されることが好ましい。   The flying object guidance method according to the present invention is preferably realized by a guidance control program recorded in a storage device and executed by a computing device.

本発明によれば、飛しょう体の誘導精度を向上することが可能となる。   According to the present invention, it is possible to improve the flying object guidance accuracy.

図1は、本発明による飛しょう体誘導システムの構成の一例を示す図である。FIG. 1 is a diagram showing an example of the configuration of a flying object guidance system according to the present invention. 図2は、本発明による飛しょう体の構成の一例を示す図である。FIG. 2 is a diagram showing an example of the configuration of the flying object according to the present invention. 図3は、本発明による画像解析部の構成の一例を示す機能ブロック図である。FIG. 3 is a functional block diagram showing an example of the configuration of the image analysis unit according to the present invention. 図4は、本発明に係るロックオン候補抽出動作の一例を示す概要図である。FIG. 4 is a schematic diagram showing an example of the lock-on candidate extraction operation according to the present invention. 図5は、本発明に係る画像補正動作の一例を示すフロー図である。FIG. 5 is a flowchart showing an example of the image correction operation according to the present invention. 図6は、本発明に係る抽出用画像生成動作の一例を示すフロー図である。FIG. 6 is a flowchart showing an example of the extraction image generation operation according to the present invention. 図7は、本発明に係る目標抽出動作の一例を示す概念図である。FIG. 7 is a conceptual diagram showing an example of the target extraction operation according to the present invention. 図8は、目標抽出後に、飛しょう体から指令装置に送信される取得画像及び目標識別情報によって表示される目標抽出画像の一例を示す図である。FIG. 8 is a diagram illustrating an example of the target extraction image displayed by the acquired image and target identification information transmitted from the flying object to the commanding device after target extraction. 図9Aは、画像誘導中に、飛しょう体から指令装置に送信される取得画像及び目標識別情報の一例を示す図である。FIG. 9A is a diagram illustrating an example of an acquired image and target identification information transmitted from the flying object to the command device during image guidance. 図9Bは、画像誘導中に、飛しょう体から指令装置に送信される取得画像及び目標識別情報の他の一例を示す図である。FIG. 9B is a diagram illustrating another example of an acquired image and target identification information transmitted from the flying object to the command device during image guidance. 図10は、目標到達時において指令装置に送信される取得画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of an acquired image transmitted to the command device when the target is reached. 図11は、本発明による指令装置の構成の一例を示す図である。FIG. 11 is a diagram showing an example of the configuration of the command device according to the present invention. 図12は、本発明による飛しょう体の状態変化の一例を示す図である。FIG. 12 is a diagram showing an example of the state change of the flying object according to the present invention. 図13は、本発明による飛しょう体の画像誘導動作の第1実施例を示すフロー図である。FIG. 13 is a flowchart showing a first embodiment of the image guiding operation of the flying object according to the present invention. 図14は、本発明による飛しょう体の画像誘導動作の第1実施例の第1変形例を示すフロー図である。FIG. 14 is a flowchart showing a first modification of the first embodiment of the image guiding operation of the flying object according to the present invention. 図15は、本発明による飛しょう体の画像誘導動作の第1実施例の第2変形例を示すフロー図である。FIG. 15 is a flowchart showing a second modification of the first embodiment of the flying object image guiding operation according to the present invention. 図16は、目標に接近したときの目標抽出画像の一例を示す図である。FIG. 16 is a diagram illustrating an example of the target extraction image when approaching the target. 図17は、本発明による飛しょう体の画像誘導動作の第2実施例を示すフロー図である。FIG. 17 is a flowchart showing a second embodiment of the image guiding operation of the flying object according to the present invention. 図18は、本発明に係る目標テーブルの構造の一例を示す図である。FIG. 18 is a diagram showing an example of the structure of the target table according to the present invention. 図19は、本発明による飛しょう体誘導システムの運用例を示す図である。FIG. 19 is a diagram showing an operation example of the flying object guidance system according to the present invention. 図20は、本発明に係る目標テーブルの構造の他の一例を示す図である。FIG. 20 is a diagram showing another example of the structure of the target table according to the present invention. 図21は、本発明に係る目標テーブルの構造の更に他の一例を示す図である。FIG. 21 is a diagram showing still another example of the structure of the target table according to the present invention. 図22は、本発明に係る目標変更用画面の一例を示す図である。FIG. 22 is a diagram showing an example of a target change screen according to the present invention. 図23は、本発明による飛しょう体の画像誘導動作の第2実施例の変形例を示すフロー図である。FIG. 23 is a flowchart showing a modification of the second embodiment of the image guiding operation of the flying object according to the present invention. 図24は、本発明に係る表示装置に表示される目標抽出画像の一例を示す図である。FIG. 24 is a diagram showing an example of the target extraction image displayed on the display device according to the present invention.

(概要)
図1を参照して本発明による飛しょう体誘導システムの概要を説明する。本発明による飛しょう体誘導システムは、飛しょう体1、指令装置2、発射装置3を具備する。飛しょう体1は、目標4に向けた画像センサにより目標周辺の画像を取得するとともに取得画像からロックオン候補を抽出し、指令装置2に通知する。指令装置2は、飛しょう体1から通知された画像及び抽出されたロックオン候補を視認可能に表示する。ユーザは、指令装置2において表示された画面を参考に、飛しょう体1が抽出したロックオンを把握できる。又、ユーザは、指令装置2を操作することにより飛しょう体1のロックオン対象を設定する。例えば、飛しょう体1によって抽出されたロックオン候補をユーザが承認した場合、指令装置2は、当該ロックオン候補を、飛しょう体1のロックオン対象として設定する(ロックオン)。飛しょう体1は、設定されたロックオン対象に向かって画像誘導される。
(Overview)
The outline of the flying object guidance system according to the present invention will be described with reference to FIG. The flying object guidance system according to the present invention includes a flying object 1, a command device 2, and a launching device 3. The flying object 1 acquires an image around the target by the image sensor directed toward the target 4, extracts lock-on candidates from the acquired image, and notifies the command device 2. The command device 2 displays the image notified from the flying object 1 and the extracted lock-on candidates so as to be visible. The user can grasp the lock-on extracted by the flying object 1 with reference to the screen displayed on the command device 2. Further, the user sets the lock-on target of the flying object 1 by operating the command device 2. For example, when the user approves the lock-on candidate extracted by the flying object 1, the command device 2 sets the lock-on candidate as a lock-on target of the flying object 1 (lock-on). The flying object 1 is image-guided toward the set lock-on target.

本発明によれば、ユーザは、飛しょう体1によって撮像された画像や、そこから抽出されたロックオン候補を確認することができる。又、ユーザによって飛しょう体1の画像誘導の目標(ロックオン対象)を設定できることから、飛しょう体1が目標の抽出に失敗しても、正しい目標に変更することが可能となる。更に、飛しょう体1によってロックオン候補を抽出しているため、ユーザは、ロックオン対象とする画像内目標を探索することなく、抽出されたロックオン候補をロックオン対象として承認することで、ロックオン対象の設定が可能となる。このため、ユーザが飛しょう体1による撮像画像を確認してからロックオン対象を設定するまでの時間が短い場合でも、容易にロックオン対象を設定することができる。   According to the present invention, the user can confirm an image captured by the flying object 1 and lock-on candidates extracted from the image. In addition, since the user can set the target of image guidance (lock-on target) of the flying object 1, even if the flying object 1 fails to extract the target, it can be changed to the correct target. Furthermore, since the lock-on candidates are extracted by the flying object 1, the user approves the extracted lock-on candidates as lock-on targets without searching for the target in the image to be locked-on, The lock-on target can be set. For this reason, even when the time from when the user confirms the captured image by the flying object 1 to when the lock-on target is set is short, the lock-on target can be easily set.

以下、添付図面を参照しながら本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the accompanying drawings.

1.第1実施例
(システム構成)
図1を参照して、第1実施例における飛しょう体誘導システムの構成を説明する。第1実施例における飛しょう体誘導システムは、飛しょう体1、指令装置2、発射装置3、及び通信衛星5を具備する。
1. First Example (System Configuration)
With reference to FIG. 1, the structure of the flying object guidance system in 1st Example is demonstrated. The flying object guidance system in the first embodiment includes a flying object 1, a command device 2, a launching device 3, and a communication satellite 5.

飛しょう体1は、指令装置2からの制御により発射装置3から発射され、目標4に向かって自動航行する。飛しょう体1は、慣性誘導によって自動航行を行い、目標4の近傍において画像誘導に切り替えて目標4に到達する。飛しょう体1は、無人航空機(UAV:Unmanned Aerial Vehicle)、ミサイル、宇宙ロケット、宇宙機に例示される。尚、飛しょう体1が無人航空機である場合、発射装置3は省略され得る。   The flying object 1 is launched from the launching device 3 under the control of the commanding device 2 and automatically travels toward the target 4. The flying body 1 automatically navigates by inertial guidance, and switches to image guidance in the vicinity of the target 4 to reach the target 4. The flying object 1 is exemplified by an unmanned aerial vehicle (UAV), a missile, a space rocket, and a spacecraft. When the flying object 1 is an unmanned aerial vehicle, the launcher 3 can be omitted.

飛しょう体1と指令装置2との間は、無線回線を介して通信接続される。図1に示す一例では、飛しょう体1と指令装置2とは、通信衛星5を介した無線回線によって接続される。例えば、目標4と指令装置2との距離が長大で、飛しょう体1と指令装置2との間の通信が地物の影響を受けやすい環境の場合、飛しょう体1と指令装置2との間の通信に衛星通信5を利用することは好適である。   The flying object 1 and the command device 2 are connected for communication via a wireless line. In the example shown in FIG. 1, the flying object 1 and the command device 2 are connected by a wireless line via the communication satellite 5. For example, in the case where the distance between the target 4 and the commanding device 2 is long and the communication between the flying object 1 and the commanding device 2 is easily affected by the features, the flying object 1 and the commanding device 2 It is preferable to use the satellite communication 5 for communication between them.

指令装置2と発射装置3とは無線又は有線の通信回線で接続される。発射装置3は、指令装置2から出力される発射指令に応じて飛しょう体1を発射する。図1に示す指令装置2は、地上に固定的に設置されているが、これに限らず、車両、舟艇、航空機、又は宇宙機等の移動体に設けられてもよい。又、発射装置3は、図1に示すように指令装置2と分離されて設けられてもよいし、指令装置2とともに同じ移動体に搭載されてもよい。   The command device 2 and the launch device 3 are connected by a wireless or wired communication line. The launching device 3 launches the flying object 1 in response to the launch command output from the commanding device 2. The command device 2 shown in FIG. 1 is fixedly installed on the ground, but is not limited thereto, and may be provided in a moving body such as a vehicle, a boat, an aircraft, or a spacecraft. The launching device 3 may be provided separately from the command device 2 as shown in FIG. 1 or may be mounted on the same moving body together with the command device 2.

図1に示す飛しょう体誘導システムには、一例として、飛しょう体1、指令装置2、発射装置3、及び通信衛星5のそれぞれが1台設けられているが、それぞれの台数はこれに限らない。例えば、1台の指令装置2に複数の発射装置3が接続されてもよい。この場合、指令装置2によって、複数の発射装置3からの複数の飛しょう体1の発射が制御される。あるいは、飛しょう体1と指令装置2の間の通信は、複数の通信衛星5を介して行われてもよい。又、飛しょう体1と指令装置2の間の通信は、図示しない地上の中継装置を介して行われてもよい。   In the flying object guidance system shown in FIG. 1, as an example, each of the flying object 1, the command device 2, the launching device 3, and the communication satellite 5 is provided, but the number of each is not limited thereto. Absent. For example, a plurality of launch devices 3 may be connected to one command device 2. In this case, the command device 2 controls the launching of the plurality of flying bodies 1 from the plurality of launching devices 3. Alternatively, communication between the flying object 1 and the command device 2 may be performed via a plurality of communication satellites 5. Further, the communication between the flying object 1 and the command device 2 may be performed via a ground relay device (not shown).

目標4は、飛しょう体1の到達すべき移動体又は地物を示す。具体的には、目標4は、車両、舟艇、他の飛しょう体等に例示される移動体、あるいは河、山、岩等に例示される地形、あるいは道路、橋、空港、建築物に例示される建造物、あるいは、移動体や建造物における部材(例えば宇宙機のドッキング機構)を示す。   The target 4 indicates a moving body or a feature that the flying body 1 should reach. Specifically, the target 4 is exemplified for a moving body exemplified by vehicles, boats, other flying objects, etc., or by terrain exemplified by rivers, mountains, rocks, etc., or roads, bridges, airports, buildings. Or a member (for example, a docking mechanism of a spacecraft) in a building to be moved or a moving body or building.

(飛しょう体の構成)
図2及び図3を参照して、飛しょう体1の構成の詳細を説明する。図2は、第1実施例における飛しょう体1の構成の一例を示す図である。
(Composition of flying object)
With reference to FIG.2 and FIG.3, the detail of a structure of the flying body 1 is demonstrated. FIG. 2 is a diagram illustrating an example of the configuration of the flying object 1 in the first embodiment.

図2を参照して、飛しょう体1は、演算処理装置10、画像センサ11、飛しょう制御装置14、記憶装置16、及び通信装置15を備える。演算処理装置10は、CPUに例示され、記憶装置16に記録された誘導制御プログラム160を実行することで、画像解析部12及び誘導制御部13の機能を実現する。   With reference to FIG. 2, the flying object 1 includes an arithmetic processing device 10, an image sensor 11, a flying control device 14, a storage device 16, and a communication device 15. The arithmetic processing device 10 is exemplified by a CPU, and implements the functions of the image analysis unit 12 and the guidance control unit 13 by executing the guidance control program 160 recorded in the storage device 16.

画像センサ11は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサに例示され、赤外光又は可視光による画像を電気変換し、取得画像110として画像解析部12に出力する。画像センサ11は、誘導制御部13からの制御信号に応じて目標方向の画像を撮像する。具体的には、誘導制御部13は、飛しょう体1と目標4との距離が所定の距離以内となると、飛しょう体1の位置座標(地図上の位置)、高度、姿勢、及び目標4の位置座標(地図上の座標)やその高度に基づいて、画像センサ11の撮像方向を目標4の方向に制御し、撮像を開始させる。画像センサ11は、撮像開始から連続的に、あるいは所定の間隔で目標4方向の画像を撮像する。   The image sensor 11 is exemplified by a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The image sensor 11 electrically converts an image using infrared light or visible light, and outputs the obtained image 110 to the image analysis unit 12. To do. The image sensor 11 captures an image in the target direction in accordance with a control signal from the guidance control unit 13. Specifically, when the distance between the flying object 1 and the target 4 is within a predetermined distance, the guidance control unit 13 determines the position coordinates (position on the map), altitude, posture, and target 4 of the flying object 1. Based on the position coordinates (coordinates on the map) and the altitude thereof, the imaging direction of the image sensor 11 is controlled to the direction of the target 4 to start imaging. The image sensor 11 captures images in four target directions continuously from the start of imaging or at predetermined intervals.

飛しょう制御装置14は、ジェットエンジンやロケットモータに例示される推力制御装置と、操舵翼に例示される飛しょう制御翼を備え、誘導制御部13からの指令に基づき、飛しょう体1の速度、加速度、飛しょう方向、姿勢を制御する。   The flying control device 14 includes a thrust control device exemplified by a jet engine and a rocket motor, and a flying control blade exemplified by a steering wing, and the speed of the flying object 1 is determined based on a command from the guidance control unit 13. , Control acceleration, flying direction, attitude.

通信装置15は、送信部151及び受信部152を備え、飛しょう体1と外部装置との通信を制御する。本一例では、通信装置15は、通信衛星5を介して指令装置2と演算処理装置10との通信を制御する。具体的には、送信部151は、画像解析部12によって解析された取得画像110や、取得画像110から抽出されたロックオン候補100を特定する目標識別情報200を、指令装置2に送信する。受信部152は、指令装置2から送信される設定情報を受信し、誘導制御部13に出力する。又、受信部152は、図示しないGPS(Global Positioning System)衛星からの電波を受信し、GPS信号として誘導制御部13に出力してもよい。   The communication device 15 includes a transmission unit 151 and a reception unit 152, and controls communication between the flying object 1 and an external device. In this example, the communication device 15 controls communication between the command device 2 and the arithmetic processing device 10 via the communication satellite 5. Specifically, the transmission unit 151 transmits the acquired image 110 analyzed by the image analysis unit 12 and target identification information 200 that identifies the lock-on candidate 100 extracted from the acquired image 110 to the command device 2. The receiving unit 152 receives the setting information transmitted from the command device 2 and outputs it to the guidance control unit 13. The receiving unit 152 may receive a radio wave from a GPS (Global Positioning System) satellite (not shown) and output it to the guidance control unit 13 as a GPS signal.

一般的に衛星回線は通信容量が小さいため、通信装置15と指令装置2との間で送受信されるデータは、演算処理装置10によって容量低減のための処理がなされることが好ましい。例えば、取得画像110に例示される画像データは、所定のプロトコルに従った圧縮方式による画像圧縮や解像度低減等の処理がなされることが好ましい。   In general, since a satellite channel has a small communication capacity, it is preferable that data transmitted / received between the communication device 15 and the command device 2 is subjected to processing for capacity reduction by the arithmetic processing device 10. For example, the image data exemplified in the acquired image 110 is preferably subjected to processing such as image compression and resolution reduction by a compression method according to a predetermined protocol.

記憶装置16は、半導体メモリに例示され、演算処理装置10による演算結果を記録する記憶領域を有する外部記憶装置である。又、記憶装置16には、誘導制御プログラム160、条件画像201及び目標位置情報202が予め記録される。   The storage device 16 is an external storage device that is exemplified by a semiconductor memory and has a storage area for recording a calculation result by the calculation processing device 10. In addition, a guidance control program 160, a condition image 201, and target position information 202 are recorded in the storage device 16 in advance.

条件画像201とは、予め撮像された目標4及びその周辺領域を含む画像である。例えば、図示しない航空機や衛星を利用して目標4の上方から撮像した画像が、条件画像201として記憶装置16に予め記録される。又、条件画像201には、条件画像201に含まれる目標4や目標周辺の特徴的な地物を特定する情報を含む。この情報は、例えば、目標4や特徴地物のそれぞれの識別子及び条件画像201上における位置座標を含む。特徴地物とは、画像センサ11によって撮像される画像上において、周辺の地物や背景ノイズによって埋もれることなく強調表示されやすい地物を示す。例えば、道路の交差点、河の合流点、橋梁や空港等の大きな建造物のように、植生や周囲の地物から分離して検出され得る地物が特徴地物として設定される。   The condition image 201 is an image including the target 4 imaged in advance and its peripheral area. For example, an image captured from above the target 4 using an aircraft or satellite (not shown) is recorded in the storage device 16 in advance as the condition image 201. Further, the condition image 201 includes information for specifying the target 4 included in the condition image 201 and characteristic features around the target. This information includes, for example, the identifier of each of the target 4 and the characteristic feature and the position coordinates on the condition image 201. The feature features are features that are easily highlighted on the image captured by the image sensor 11 without being buried by surrounding features or background noise. For example, features that can be detected separately from vegetation and surrounding features, such as road intersections, river junctions, large buildings such as bridges and airports, are set as feature features.

目標位置情報202は、発射装置3から目標4までの飛しょう経路やその周辺の地形図(地図情報)、目標4の地理座標系による位置座標や高さに関する情報を含む。   The target position information 202 includes information on the flight route from the launcher 3 to the target 4, the surrounding topographic map (map information), and the position coordinates and height of the target 4 in the geographical coordinate system.

画像解析部12は、条件画像201を利用して取得画像110を解析し、画像誘導の目標候補となるロックオン候補100を抽出する。ここでロックオン候補100とは、指令装置2を操作するユーザによって承認を受けていない画像上の目標(画像内目標とも称す)を示す。本実施例におけるロックオン候補100は、ユーザによって承認されることにより、画像誘導の目標となるロックオン対象400に設定される。   The image analysis unit 12 analyzes the acquired image 110 using the condition image 201 and extracts a lock-on candidate 100 that is a target candidate for image guidance. Here, the lock-on candidate 100 indicates a target (also referred to as an in-image target) on an image that has not been approved by the user who operates the command device 2. The lock-on candidate 100 in the present embodiment is set as a lock-on target 400 that is a target of image guidance by being approved by the user.

本発明による画像解析部12は、予め撮像された条件画像201と、画像センサ11による取得画像110を用いて、取得画像110上の目標候補(画像内目標候補とも称す)をロックオン候補100として抽出する。この際、本一例による画像解析部12は、条件画像201から、遺伝的アルゴリズムを利用して目標抽出に最適な抽出用画像204を生成する。画像解析部12は、抽出用画像204における目標と後述する特徴地物のとの位置関係を取得画像110に適用することにより、取得画像110上のロックオン候補100を特定する。   The image analysis unit 12 according to the present invention uses a target image (also referred to as an intra-image target candidate) on the acquired image 110 as a lock-on candidate 100 using the condition image 201 captured in advance and the acquired image 110 obtained by the image sensor 11. Extract. At this time, the image analysis unit 12 according to this example generates an extraction image 204 optimum for target extraction from the condition image 201 using a genetic algorithm. The image analysis unit 12 specifies the lock-on candidate 100 on the acquired image 110 by applying the positional relationship between the target in the extraction image 204 and the characteristic feature described later to the acquired image 110.

誘導制御部13は、飛しょう制御装置14の操舵、推力を制御して、飛しょう体1の速度、加速度、向き、姿勢を決定する。この際、誘導制御部13は、飛しょう体1の現在位置や、予め決められた飛しょう経路に基づいて、飛しょう体1の速度、加速度、向き、姿勢を決定する。又、誘導制御部13は、飛しょう体1の位置、姿勢、飛しょう経路、及び目標4の位置等に基づいて、画像センサ11の撮像方向や撮像時期を決定する。ここで、誘導制御部13は、飛しょう体1の図示しないセンサによって計測される速度、高度、飛しょう時間、及びGPS信号等に基づいて飛しょう体1の現在位置を把握することが好ましい。   The guidance control unit 13 determines the speed, acceleration, direction, and posture of the flying body 1 by controlling the steering and thrust of the flying control device 14. At this time, the guidance control unit 13 determines the speed, acceleration, direction, and posture of the flying object 1 based on the current position of the flying object 1 and a predetermined flight route. Further, the guidance control unit 13 determines the imaging direction and imaging timing of the image sensor 11 based on the position, posture, flight path, target 4 position, and the like of the flying object 1. Here, it is preferable that the guidance control unit 13 grasps the current position of the flying object 1 based on the speed, altitude, flying time, GPS signal, and the like measured by a sensor (not shown) of the flying object 1.

誘導制御部13は、所定の位置まで慣性航法により飛しょう1を誘導し、所定の位置において画像誘導に切り替える。慣性誘導(中間誘導)から画像誘導(終末誘導)への切り替え時期は、所定の位置への到達有無に応じて決められてもよいし、発射からの飛行時間に基づいて決められてもよい。ここで、所定の位置への到達有無は、飛しょう体1と目標4との間の距離や、飛しょう体1の速度、高度、姿勢に基づいて計算されることが好ましい。   The guidance control unit 13 guides the flight 1 to the predetermined position by inertial navigation, and switches to image guidance at the predetermined position. The switching timing from inertial guidance (intermediate guidance) to image guidance (terminal guidance) may be determined according to whether or not a predetermined position has been reached, or may be determined based on the flight time from launch. Here, it is preferable that the presence or absence of the predetermined position is calculated based on the distance between the flying object 1 and the target 4, the speed, altitude, and posture of the flying object 1.

慣性誘導の際、誘導制御部13は、目標4の位置A(X、Y、Z)(地理系座標及び高度)、予定された飛しょう経路、及び飛しょう体1の現在位置に基づいて、飛しょう制御装置14を制御し、飛しょう体1を目標4に誘導する。   At the time of inertial guidance, the guidance control unit 13 is based on the position A (X, Y, Z) of the target 4 (geographic system coordinates and altitude), the scheduled flight route, and the current position of the flying object 1. The flying control device 14 is controlled to guide the flying object 1 to the target 4.

画像誘導の際、誘導制御部13は、取得画像110上においてロックオン対象400として設定された画像内目標に対して飛しょう体1が指向するように、飛しょう制御装置14を制御する。ロックオン対象400の設定(ロックオンとも称す)及び画像誘導の詳細については後述する。   At the time of image guidance, the guidance control unit 13 controls the flying control device 14 so that the flying object 1 is directed toward the target in the image set as the lock-on target 400 on the acquired image 110. Details of setting the lock-on target 400 (also referred to as lock-on) and image guidance will be described later.

(画像解析部12の構成及び動作の詳細)
図3から図8を参照して、画像解析部12の構成及び動作の詳細を説明する。図3は、本発明による画像解析部12の構成及び動作の一例を示す機能ブロック図である。図4は、本発明に係るロックオン候補抽出動作の一例を示す概要図である。図3を参照して、画像解析部12は、画像補正部121、抽出用画像生成部122、目標抽出部123、及び目標識別部124を備える。
(Details of Configuration and Operation of Image Analysis Unit 12)
The details of the configuration and operation of the image analysis unit 12 will be described with reference to FIGS. FIG. 3 is a functional block diagram showing an example of the configuration and operation of the image analysis unit 12 according to the present invention. FIG. 4 is a schematic diagram showing an example of the lock-on candidate extraction operation according to the present invention. Referring to FIG. 3, the image analysis unit 12 includes an image correction unit 121, an extraction image generation unit 122, a target extraction unit 123, and a target identification unit 124.

図3及び図4を参照して、画像解析部12は、取得画像110を補正した補正画像120を生成する。抽出用画像生成部122は、補正画像120を用いて条件画像201を画像センサ11目線に変換した抽出用画像204を生成する。目標抽出部123は、抽出用画像204における目標位置を取得画像110に適用して、取得画像110上の目標(画像内目標)を特定し、ロックオン候補100として抽出する。目標識別部124は、ロックオン候補100を取得画像110において識別するための目標識別情報200を生成する。   With reference to FIGS. 3 and 4, the image analysis unit 12 generates a corrected image 120 obtained by correcting the acquired image 110. The extraction image generation unit 122 generates an extraction image 204 obtained by converting the condition image 201 into the eye line of the image sensor 11 using the corrected image 120. The target extraction unit 123 applies the target position in the extraction image 204 to the acquired image 110, identifies the target (target in the image) on the acquired image 110, and extracts it as the lock-on candidate 100. The target identification unit 124 generates target identification information 200 for identifying the lock-on candidate 100 in the acquired image 110.

以下、画像補正部121、抽出用画像生成部122、目標抽出部123、及び目標識別部124の動作の詳細を説明する。   Details of the operations of the image correction unit 121, the extraction image generation unit 122, the target extraction unit 123, and the target identification unit 124 will be described below.

(画像補正部121)
図3及び図4を参照して、画像補正部121は、取得画像110に対して画像補正による特徴抽出を行い、補正画像120を生成する。具体的には、画像補正部121は、取得画像110に対してノイズ除去、エッジ検出、及び2値化処理を行い、補正画像120を生成する。ノイズ除去の方法としては、エッジ保存平滑化、メディアンフィルタによるノイズ除去、重みづけ移動平均法等のいずれかが利用され得る。エッジ検出の方法としては、ラプラシアンフィルタによるエッジ検出(差分オペレータによるエッジ検出)、Prewittフィルタによるエッジ検出(テンプレートマッチングによるエッジ検出)のいずれかが利用され得る。2値化の方法としては、動的閾値法、判別分析法、又はモード法のいずれかが利用され得る。
(Image correction unit 121)
3 and 4, the image correction unit 121 performs feature extraction by image correction on the acquired image 110 to generate a corrected image 120. Specifically, the image correction unit 121 performs noise removal, edge detection, and binarization processing on the acquired image 110 to generate a corrected image 120. As a noise removal method, any of edge preservation smoothing, noise removal by a median filter, a weighted moving average method, and the like can be used. As an edge detection method, either edge detection by a Laplacian filter (edge detection by a difference operator) or edge detection by a Prewitt filter (edge detection by template matching) can be used. As a binarization method, any one of a dynamic threshold method, a discriminant analysis method, and a mode method can be used.

本画像補正におけるノイズ除去、エッジ検出、及び2値化処理のそれぞれの回数、順序、手法については、ロックオン候補100を抽出するための処理時間や、目標抽出精度によって任意に選択し得る。例えば、図5に示すように、画像補正部121は、取得画像110に対し、1回目のノイズ除去(ステップS11)、エッジ検出(ステップS12)、2回目のノイズ除去(ステップS13)、2値化処理(ステップS14)の順で補正処理を行う。具体例として、画像補正部121は、ステップS11において取得画像110に対してエッジ保存平滑化によるノイズ除去を行う。続いて、画像補正部121は、ステップS12において、ノイズ除去後の画像に対しPrewittフィルタによるエッジ検出を行う。更に、画像補正部121は、ステップS13において、重みづけ移動平均法によるエッジ検出を再度行い、ステップS14において動的閾値法による2値化処理を行うことで補正画像120を生成する。   The number, order, and method of noise removal, edge detection, and binarization processing in the main image correction can be arbitrarily selected depending on processing time for extracting the lock-on candidate 100 and target extraction accuracy. For example, as illustrated in FIG. 5, the image correction unit 121 performs first noise removal (step S11), edge detection (step S12), second noise removal (step S13), and binary on the acquired image 110. Correction processing is performed in the order of the conversion processing (step S14). As a specific example, the image correction unit 121 performs noise removal by edge preservation smoothing on the acquired image 110 in step S11. Subsequently, in step S12, the image correction unit 121 performs edge detection using a Prewitt filter on the image after noise removal. Further, the image correcting unit 121 performs edge detection by the weighted moving average method again in step S13, and generates a corrected image 120 by performing binarization processing by the dynamic threshold method in step S14.

(抽出用画像生成部122)
図3及び図4を参照して、抽出用画像生成部122は、遺伝的アルゴリズムに従い、条件画像201から複数の解候補画像203を生成するとともに、複数の解候補画像203のそれぞれと補正画像120との背景照合を行う。ここで、抽出用画像生成部122は、複数の解候補画像203のうち補正画像120と最もマッチング率の高い解候補画像203を抽出用画像204として出力する。
(Extraction image generator 122)
With reference to FIGS. 3 and 4, the extraction image generation unit 122 generates a plurality of solution candidate images 203 from the condition image 201 according to a genetic algorithm, and each of the plurality of solution candidate images 203 and the corrected image 120. And background matching. Here, the extraction image generation unit 122 outputs the solution candidate image 203 having the highest matching rate with the corrected image 120 among the plurality of solution candidate images 203 as the extraction image 204.

図6は、本発明に係る抽出用画像生成動作の一例を示すフロー図である。図6を参照して、抽出用画像生成部122による抽出用画像生成動作の一例を説明する。   FIG. 6 is a flowchart showing an example of the extraction image generation operation according to the present invention. With reference to FIG. 6, an example of the extraction image generation operation by the extraction image generation unit 122 will be described.

抽出用画像生成部122は、飛しょう体1の現在の状態を示す飛しょうプロファイルを用いて条件画像201をアフィン変換し、画像センサ11目線の複数の解候補画像203を生成する(ステップS21)。飛しょうプロファイルには、現在の飛しょう体1の位置(地理系座標及び高度)、飛しょう方向、画像センサ11の撮像方向、飛しょう速度、姿勢等の情報が含まれる。抽出用画像生成部122は、飛しょうプロファイルに基づいて、条件画像201から解候補画像203にアフィン変換するための変換パラメータを設定する。ここで設定される変換パラメータは、例えば、画像の回転角、スケール倍率、中心位置である。抽出用画像生成部122は、設定された回転角で条件画像201を回転し、設定されたスケール倍率で条件画像201の画像サイズ(縮尺)を変更し、設定された中心位置に条件画像201を移動することで解候補画像203を生成する。   The extraction image generation unit 122 affine-transforms the condition image 201 using the flying profile indicating the current state of the flying object 1 to generate a plurality of solution candidate images 203 of the line of sight of the image sensor 11 (step S21). . The flying profile includes information such as the current position (geographical coordinates and altitude) of the flying object 1, the flying direction, the imaging direction of the image sensor 11, the flying speed, and the posture. The extraction image generation unit 122 sets a conversion parameter for affine transformation from the condition image 201 to the solution candidate image 203 based on the flight profile. The conversion parameters set here are, for example, an image rotation angle, a scale magnification, and a center position. The extraction image generation unit 122 rotates the condition image 201 at the set rotation angle, changes the image size (scale) of the condition image 201 at the set scale magnification, and places the condition image 201 at the set center position. The solution candidate image 203 is generated by moving.

続くステップS22からS29の処理において、抽出用画像生成部122は、上述した変換パラメータを染色体とした遺伝的アルゴリズムにより、複数の解候補画像203を生成するとともに、解候補画像203と補正画像120との照合、及び解候補画像の世代交代を行うことで、最も適応度の高い最適解画像を抽出用画像204として取得する。   In the subsequent processing of steps S22 to S29, the extraction image generation unit 122 generates a plurality of solution candidate images 203 by the genetic algorithm using the above-described conversion parameters as chromosomes, and the solution candidate images 203, the corrected images 120, and the like. The optimal solution image having the highest fitness is acquired as the extraction image 204 by performing the above-described matching and generation change of the solution candidate images.

以下、抽出用画像204の生成処理の具体例を説明する。ステップS21において抽出用画像生成部122は、飛しょうプロファイルに基づいて設定された変換パラメータ(染色体)を変異させて、予め決められた数K(k>L)の解候補画像203(個体)を生成する。   Hereinafter, a specific example of the generation process of the extraction image 204 will be described. In step S <b> 21, the extraction image generation unit 122 mutates the conversion parameter (chromosome) set based on the flight profile to obtain a predetermined number K (k> L) of solution candidate images 203 (individuals). Generate.

続いて、抽出用画像生成部122は、k個の解候補画像203からランダムにL個の解候補画像203を選択する(ステップS22)。抽出用画像生成部122は、選択したL個の解候補画像203のそれぞれの適応度を計算する(ステップS23)。ここで計算される適応度は、例えば、解候補画像203と補正画像120の一致度(マッチング率)で示される。   Subsequently, the extraction image generation unit 122 randomly selects L solution candidate images 203 from the k solution candidate images 203 (step S22). The extraction image generation unit 122 calculates the fitness of each of the L solution candidate images 203 selected (step S23). The fitness calculated here is indicated by, for example, the degree of matching (matching rate) between the solution candidate image 203 and the corrected image 120.

抽出用画像生成部122は、適応度(例えば一致度)の高いM個(M<L)の解候補画像203を親個体として選択する(ステップS24)。続いて抽出用画像生成部122は、選択された親個体に対して遺伝子操作を行い、変換パラメータ(染色体)を変異させてL個の子個体を新たな解候補画像203として生成する(ステップS25)。例えば、抽出用画像生成部122は、親個体である解候補画像203のビット列を他の解候補画像203と交換し、子個体である解候補画像203を生成する(交配)。あるいは、抽出用画像生成部122は、親個体である解候補画像203のビット列を変異させて子個体である解候補画像203を生成する(突然変異)。あるいは、ステップS25では、交配や突然変異の両者を組み合わせて遺伝子操作が行われてもよい。   The extraction image generation unit 122 selects M (M <L) solution candidate images 203 having high fitness (for example, matching) as parent individuals (step S24). Subsequently, the extraction image generation unit 122 performs a genetic operation on the selected parent individual, and mutates the conversion parameter (chromosome) to generate L child individuals as new solution candidate images 203 (step S25). ). For example, the extraction image generation unit 122 replaces the bit string of the solution candidate image 203 that is a parent individual with another solution candidate image 203 to generate the solution candidate image 203 that is a child individual (mating). Alternatively, the extraction image generation unit 122 generates a solution candidate image 203 that is a child individual by mutating the bit string of the solution candidate image 203 that is a parent individual (mutation). Alternatively, in step S25, genetic manipulation may be performed by combining both mating and mutation.

抽出用画像生成部122は、ステップS23と同様に、L個の解候補画像203のそれぞれの適応度を計算する(ステップS26)。   Similar to step S23, the extraction image generation unit 122 calculates the fitness of each of the L solution candidate images 203 (step S26).

抽出用画像生成部122は、遺伝子操作を行うと世代交代数iを1つカウントアップする(ステップS26)。このとき世代交代数iが予め設定された世代数Nとなるまで、ステップS23からステップS26を繰り返す(ステップS27No)。   When performing the genetic manipulation, the extraction image generation unit 122 increments the generational change number i by one (step S26). At this time, step S23 to step S26 are repeated until the generation change number i reaches the preset generation number N (No in step S27).

ステップS27において世代交代数iが予め設定された世代数Nになると、抽出用画像生成部122は、ステップS23からステップS26の遺伝子操作処理を終了し、最も適合度(一致度)の高い解候補画像203を、抽出用画像204として抽出する(ステップS29)。   When the generational change number i reaches the preset generation number N in step S27, the extraction image generation unit 122 ends the gene manipulation processing from step S23 to step S26, and the solution candidate having the highest fitness (matching degree) is obtained. The image 203 is extracted as the extraction image 204 (step S29).

以上のように、抽出用画像生成部122は、予め撮像された条件画像201の回転角、縮尺、中心位置を変化させることで、取得画像110に最も一致度(マッチング率)の高い抽出用画像204を生成することができる。   As described above, the extraction image generation unit 122 changes the rotation angle, scale, and center position of the pre-captured condition image 201, thereby extracting the extraction image having the highest degree of matching (matching rate) with the acquired image 110. 204 can be generated.

本実施例では、遺伝的アルゴリズムを利用して抽出用画像204を生成しているため、総当たり的なパターンマッチングによる方法に比べ、短時間に一致度の高い抽出用画像204を取得することができる。   In this embodiment, since the extraction image 204 is generated using a genetic algorithm, it is possible to acquire the extraction image 204 having a high degree of coincidence in a short period of time compared to the brute force pattern matching method. it can.

抽出用画像204を生成するための処理時間は、遺伝的アルゴリズムを用いた場合、個体数Lと世代数Nに依存する。一方、抽出用画像204と取得画像110の一致度を高めるためには、個体数Lや世代数Nを大きくする必要がある。すなわち、処理時間と一致度の精度とはトレードオフの関係となる。この関係を考慮して、個体数L及び世代数Nを設計する必要がある。   The processing time for generating the extraction image 204 depends on the number of individuals L and the number of generations N when a genetic algorithm is used. On the other hand, in order to increase the degree of coincidence between the extraction image 204 and the acquired image 110, it is necessary to increase the number of individuals L and the number of generations N. That is, the processing time and the accuracy of the degree of coincidence are in a trade-off relationship. In consideration of this relationship, it is necessary to design the number L of individuals and the number N of generations.

尚、解候補画像203と取得画像110の一致度が、所定の値以上となった場合、世代交代数iが世代数Nに達しなくてもステップS29に移行し、最も一致度の高い解候補画像203を抽出用画像204としてもよい。例えば、一致度の閾値が80%に設定されている場合、抽出用画像生成部122は、世代交代数iが世代数Nよりも小さくても、一致度が80%を超える解候補画像203を抽出用画像204として抽出する。この場合、想定された時間よりも短時間に所望の一致度の抽出用画像204を取得することが可能となる。   If the degree of coincidence between the solution candidate image 203 and the acquired image 110 exceeds a predetermined value, the process proceeds to step S29 even if the generation change number i does not reach the generation number N, and the solution candidate with the highest degree of coincidence is obtained. The image 203 may be the extraction image 204. For example, when the threshold value of the matching degree is set to 80%, the extraction image generating unit 122 selects the solution candidate images 203 having a matching degree exceeding 80% even if the generation change number i is smaller than the generation number N. Extracted as an extraction image 204. In this case, it is possible to acquire the extraction image 204 having a desired matching degree in a shorter time than the assumed time.

(目標抽出部123)
図4を参照して、条件画像201には、目標T0や特徴地物T1の位置を特定する情報(例えば、条件画像201上の位置座標)が含まれる。このため、条件画像201を変換して生成された抽出用画像204にも目標T0や特徴地物T1の位置を特定する情報(例えば、抽出用画像204上の位置座標)が含まれる。抽出用画像204は、条件画像201が所定の変換パラメータに従って変換されて生成されるため、抽出用画像204上の目標T0や特徴地物T1も同様の変換パラメータに従って変換された位置となる。
(Target extraction unit 123)
Referring to FIG. 4, the condition image 201 includes information (for example, position coordinates on the condition image 201) for specifying the positions of the target T0 and the feature feature T1. Therefore, the extraction image 204 generated by converting the condition image 201 also includes information (for example, position coordinates on the extraction image 204) for specifying the positions of the target T0 and the feature feature T1. Since the extraction image 204 is generated by converting the condition image 201 according to a predetermined conversion parameter, the target T0 and the feature feature T1 on the extraction image 204 are also converted according to similar conversion parameters.

図3及び図4を参照して、目標抽出部123は、抽出用画像204に含まれる目標T0と特徴地物T1、T2の位置関係を取得画像110に適用し、取得画像110上の目標候補を特定し、ロックオン候補100として抽出する。   3 and 4, the target extraction unit 123 applies the positional relationship between the target T0 and the feature features T1 and T2 included in the extraction image 204 to the acquired image 110, and targets candidates on the acquired image 110 Are extracted as lock-on candidates 100.

図7は、本発明に係る目標抽出動作の一例を示す概念図である。図7を参照して、目標抽出動作の一例を説明する。図7(a)に示す抽出用画像204には、目標T0、特徴地物T1、T2の位置を特定する情報(例えば画像内における位置座標)が含まれるものとする。本一例では、特徴地物T1は、道路の交差点を示し、特徴地物T2は、人工建造物を示す。目標T0と特徴地物T1との画像上の位置関係は、目標T0と特徴地物T1との距離L1、特徴地物T1から見た目標T0の方位角α1で示される。同様に、目標T0と特徴地物T2との画像上の位置関係は、目標T0と特徴地物T2との距離L2、特徴地物T2から見た目標T0の方位角α2で示される。   FIG. 7 is a conceptual diagram showing an example of the target extraction operation according to the present invention. An example of the target extraction operation will be described with reference to FIG. The extraction image 204 shown in FIG. 7A includes information (for example, position coordinates in the image) that specifies the positions of the target T0 and the feature features T1 and T2. In this example, the characteristic feature T1 indicates an intersection of roads, and the characteristic feature T2 indicates an artificial building. The positional relationship on the image between the target T0 and the feature feature T1 is indicated by the distance L1 between the target T0 and the feature feature T1, and the azimuth α1 of the target T0 viewed from the feature feature T1. Similarly, the positional relationship on the image between the target T0 and the feature feature T2 is indicated by the distance L2 between the target T0 and the feature feature T2, and the azimuth α2 of the target T0 viewed from the feature feature T2.

特徴地物は、取得画像110上において、背景等に埋もれることなく強調表示され得る地物である。このため、目標抽出部123は、抽出用画像204における特徴地物に対応する特徴地物を取得画像110において特定できる。例えば、図7(b)を参照して、目標抽出部123は、抽出用画像204と取得画像110とを照合し、取得画像110上における特徴地物T1、T2の位置を特定する。目標抽出部123は、取得画像110上において特定した特徴地物T1、T2に対し、抽出用画像204から得られる目標T0との位置関係(例えば距離L1、L2、方位角α1、α2)を適用し、取得画像110上における目標T0の位置を特定する。   The feature features are features that can be highlighted on the acquired image 110 without being buried in the background or the like. For this reason, the target extraction unit 123 can specify the feature feature corresponding to the feature feature in the extraction image 204 in the acquired image 110. For example, referring to FIG. 7B, the target extraction unit 123 collates the extraction image 204 and the acquired image 110, and specifies the positions of the feature features T1 and T2 on the acquired image 110. The target extraction unit 123 applies the positional relationship (for example, distances L1, L2, azimuth angles α1, α2) with the target T0 obtained from the extraction image 204 to the characteristic features T1, T2 identified on the acquired image 110. Then, the position of the target T0 on the acquired image 110 is specified.

目標抽出部123は、取得画像110上において特定した目標T0をロックオン候補100として抽出する。ここで、抽出されるロックオン候補100は、特定された目標T0の取得画像110上における位置座標でもよいし、特定された目標T0に位置するオブジェクトでもよい。   The target extraction unit 123 extracts the target T0 specified on the acquired image 110 as the lock-on candidate 100. Here, the extracted lock-on candidate 100 may be a position coordinate on the acquired image 110 of the specified target T0, or may be an object positioned at the specified target T0.

尚、目標抽出部123が目標抽出のために照合対象として利用する画像は、取得画像110に限らず、補正画像120でもよい。補正画像120を利用することで、特徴地物T1、T2が取得画像110よりも協調表示されるため、補正画像120における特徴地物T1、T2の位置を確実に特定することができる。又、補正画像120を照合対象として利用する場合も、特定された特徴地物T1、T2の位置を、取得画像110に適用することで、上述と同様にロックオン候補100を抽出することができる。   Note that the image used by the target extraction unit 123 as a collation target for target extraction is not limited to the acquired image 110 but may be the corrected image 120. By using the corrected image 120, the feature features T1 and T2 are displayed more cooperatively than the acquired image 110. Therefore, the positions of the feature features T1 and T2 in the corrected image 120 can be reliably identified. Also, when the corrected image 120 is used as a collation target, the lock-on candidate 100 can be extracted in the same manner as described above by applying the positions of the identified feature features T1 and T2 to the acquired image 110. .

ロックオン候補100を抽出する際に利用する特徴地物の数は、2つに限定されず、少なくとも1つあればよい。ただし、特徴地物の位置特定を失敗する可能性があるため、目標T0の位置を特定するための特徴地物は複数用意されていることが好ましい。特徴地物が複数用意されている場合、複数の特徴地物に優先度が付与され、優先度の高い特徴地物を利用してロックオン候補100の抽出が行われてもよい。例えば、優先度の高い特徴地物の位置特定が失敗したとき、次に優先度の高い特徴地物を取得画像110上で特定し、ロックオン候補100を抽出することが可能となる。   The number of feature features used when extracting the lock-on candidate 100 is not limited to two, and it is sufficient that there is at least one. However, since there is a possibility of failing to specify the position of the feature feature, it is preferable that a plurality of feature features for specifying the position of the target T0 is prepared. When a plurality of feature features are prepared, priority may be given to the plurality of feature features, and extraction of the lock-on candidate 100 may be performed using feature features having a high priority. For example, when the position specification of the feature feature with the higher priority fails, the feature feature with the next highest priority can be specified on the acquired image 110 and the lock-on candidate 100 can be extracted.

本発明では、遺伝的アルゴリズムを利用して、マッチング率の高い画像を作成し、目標抽出を行っている。このため、植生や周辺環境に埋もれやすいロックオン候補100を短時間で精度よく抽出することが可能となる。   In the present invention, a genetic algorithm is used to create an image with a high matching rate and perform target extraction. For this reason, it becomes possible to extract the lock-on candidate 100 which is easy to be buried in vegetation and the surrounding environment in a short time with high accuracy.

(目標識別部124)
図3及び図8を参照して、目標識別部124は、取得画像110上においてロックオン候補100を識別するための情報として、目標識別情報200を生成する。目標識別情報200は、ロックオン候補100の位置座標を特定可能に表示するための情報(例示:取得画像110上の位置座標)を含むことが好ましい。あるいは、目標識別情報200は、ロックオン候補100として抽出されたオブジェクトを特定可能に表示する情報(例示:オブジェクトのエッジを特定する情報)を含むことが好ましい。更に、目標識別情報200は、ロックオン候補100を識別可能に特定するための標章(目標識別表示220)を取得画像110上に表示する情報を含むことが好ましい。具体的には、図8に示すように、目標識別表示220は、ロックオン候補100の周囲を囲む枠線として表示され得る。この場合、目標識別部124は、取得画像110上におけるロックオン候補100の位置(例示:画面上の位置座標、あるいは、オブジェクトの重心点)から所定の距離に位置する枠線を表示するための目標識別情報200を生成する。又、目標識別部124は、取得画像110に目標識別情報200(目標識別表示220)を付加し、図8に示すような目標抽出画像6を生成してもよい。この場合、送信部151は、取得画像110に目標識別情報200に替えて目標抽出画像6を指令装置2送信する。ただし、演算処理装置10における処理負荷を軽減するため、目標抽出画像6の生成処理は指令装置2によって行われることが好ましい。
(Target identification unit 124)
With reference to FIGS. 3 and 8, the target identifying unit 124 generates target identification information 200 as information for identifying the lock-on candidate 100 on the acquired image 110. The target identification information 200 preferably includes information (for example, position coordinates on the acquired image 110) for displaying the position coordinates of the lock-on candidate 100 so as to be specified. Alternatively, the target identification information 200 preferably includes information (for example, information for specifying the edge of the object) that displays the object extracted as the lock-on candidate 100 so as to be specified. Furthermore, the target identification information 200 preferably includes information for displaying a mark (target identification display 220) for specifying the lock-on candidate 100 so as to be identifiable on the acquired image 110. Specifically, as shown in FIG. 8, the target identification display 220 can be displayed as a frame surrounding the lock-on candidate 100. In this case, the target identification unit 124 displays a frame line positioned at a predetermined distance from the position of the lock-on candidate 100 on the acquired image 110 (example: position coordinates on the screen or the center of gravity of the object). The target identification information 200 is generated. The target identification unit 124 may add the target identification information 200 (target identification display 220) to the acquired image 110 to generate the target extracted image 6 as shown in FIG. In this case, the transmission unit 151 transmits the target extracted image 6 to the acquired image 110 in place of the target identification information 200 and transmits it to the command device 2. However, in order to reduce the processing load on the arithmetic processing device 10, it is preferable that the generation processing of the target extracted image 6 is performed by the command device 2.

以上のように、画像解析部12は、条件画像201を用いて取得画像110内の目標(画像内目標候補)を特定し、ロックオン候補100として自動抽出することができる。   As described above, the image analysis unit 12 can specify a target (in-image target candidate) in the acquired image 110 using the condition image 201 and automatically extract it as the lock-on candidate 100.

(ロックオン及び画像誘導)
誘導制御部13は、ロックオン対象400として設定された画像内目標に飛しょう体1が指向するように飛しょう制御装置14を制御する。誘導制御部13は、少なくとも取得画像110を撮像した後、指令装置2から送信される制御情報によってロックオン対象400が設定可能な設定可能状態となる。設定可能状態の間に、誘導制御部13が設定情報を受け付けると、設定情報に基づいて指定された目標がロックオン対象400に設定される。
(Lock-on and image guidance)
The guidance control unit 13 controls the flying control device 14 so that the flying object 1 is directed to the target in the image set as the lock-on target 400. The guidance control unit 13 enters a settable state in which the lock-on target 400 can be set by the control information transmitted from the command device 2 after capturing the acquired image 110 at least. When the guidance control unit 13 receives the setting information during the settable state, the target specified based on the setting information is set as the lock-on target 400.

例えば、設定可能状態において、ロックオン候補100を承認(指定)する設定情報を受け付けると、誘導制御部13は、ロックオン候補100をロックオン対象400として設定する(ロックオンする)。あるいは、設定可能状態において、ロックオン候補100とは異なる他の目標を指定する設定情報を受け付けると、誘導制御部13は、指定された目標をロックオン対象400として設定する(ロックオンする)。   For example, when setting information for approving (specifying) the lock-on candidate 100 is received in the settable state, the guidance control unit 13 sets the lock-on candidate 100 as the lock-on target 400 (locks on). Alternatively, when setting information specifying another target different from the lock-on candidate 100 is received in the settable state, the guidance control unit 13 sets (locks on) the specified target as the lock-on target 400.

又、設定可能状態の間、設定情報が受け付けられれば、ロックオン対象400が複数回変更されても構わない。例えば、ロックオン対象400が設定され画像誘導が実行されている間、新たな設定情報により、ロックオン対象400が変更されても構わない。   Further, the lock-on target 400 may be changed a plurality of times as long as the setting information is accepted during the setting possible state. For example, while the lock-on target 400 is set and image guidance is being executed, the lock-on target 400 may be changed by new setting information.

更に、誘導制御部13は、所定の条件に適合した場合、設定可能状態を解除し、設定情報の受付を禁止する設定不能状態となる。所定の条件とは、飛しょう体1の目標変更が困難となる条件を示し、目標4までの距離、飛しょう体1の速度、姿勢、高度、又は飛しょう方向に応じて決まる。例えば、誘導制御部13は、飛しょう体1と目標4との距離が、予め設定された目標変更限界距離に至ると設定不能状態となる。あるいは、誘導制御部13は、飛しょう体1の目標4に対する進入角度が、予め設定された目標変更限界角に至ると設定不能状態となる。あるいは、飛しょう体1の速度と、目標4までの距離から計算された目標到達予定時間が、予め設定された目標変更限界時間よりも短くなると、設定不能状態となる。   Furthermore, the guidance control part 13 will be in the setting impossible state which cancels | releases a setting possible state and prohibits reception of setting information, when a predetermined condition is adapted. The predetermined condition indicates a condition that makes it difficult to change the target of the flying object 1, and is determined according to the distance to the target 4, the speed, attitude, altitude, or flying direction of the flying object 1. For example, when the distance between the flying object 1 and the target 4 reaches a preset target change limit distance, the guidance control unit 13 becomes unable to be set. Or the guidance control part 13 will be in a setting impossible state, if the approach angle with respect to the target 4 of the flying body 1 reaches the preset target change limit angle. Alternatively, when the target arrival scheduled time calculated from the speed of the flying object 1 and the distance to the target 4 becomes shorter than the preset target change limit time, the setting cannot be made.

ロックオン候補100の抽出から設定不能状態となるまでに設定情報を受け付けていない場合、誘導制御部13は、ロックオン候補100をロックオン対象400として設定することが好ましい。この場合、指令装置2から設定情報が送信されなくても、飛しょう体1は自らが自動抽出した画像内目標(ロックオン候補)に向かって画像誘導されることとなる。   When the setting information is not received from the extraction of the lock-on candidate 100 until the setting is disabled, the guidance control unit 13 preferably sets the lock-on candidate 100 as the lock-on target 400. In this case, even if the setting information is not transmitted from the commanding device 2, the flying object 1 is guided toward the in-image target (lock-on candidate) automatically extracted by itself.

図9A及び図9Bは、画像誘導中に、飛しょう体1から指令装置2に送信される取得画像110及び目標識別情報200の一例を示す図である。図9Bに示す取得画像110は、図9Aに示す取得画像110よりも後に撮像された画像を示す。   9A and 9B are diagrams illustrating an example of the acquired image 110 and target identification information 200 transmitted from the flying object 1 to the command device 2 during image guidance. An acquired image 110 illustrated in FIG. 9B indicates an image captured after the acquired image 110 illustrated in FIG. 9A.

図9A及び図9Bを参照して、ロックオン対象400が設定されると、誘導制御部13は、ロックオン対象400に照準300を合わせ、画像誘導を開始する。この際、誘導制御部13は、ロックオン対象400及び照準300の中心(飛しょう方向)が一致するように、飛しょう体1の飛しょう方向を制御する。又、誘導制御部13は、ロックオン対象400が、取得画像110の中心となるように画像センサ11の撮像方向を制御することで、取得画像110の撮像方向と飛しょう方向を一致させることができる。   9A and 9B, when the lock-on target 400 is set, the guidance control unit 13 sets the aim 300 on the lock-on target 400 and starts image guidance. At this time, the guidance control unit 13 controls the flying direction of the flying object 1 so that the lock-on target 400 and the center (the flying direction) of the aiming sight 300 coincide. In addition, the guidance control unit 13 controls the imaging direction of the image sensor 11 so that the lock-on target 400 is at the center of the acquired image 110, so that the imaging direction of the acquired image 110 matches the flying direction. it can.

誘導制御部13は、飛しょう体1の飛しょう状態(例えば、飛しょう体1の速度、高度、姿勢、飛しょう方向等)や画像センサ11の撮像方向をパラメータとして、取得画像110におけるロックオン対象400の位置(a1、b1)の時間変化を計算し、最も相関の高い位置(a2、b2)を、ロックオン対象400として特定する。これにより、ロックオン対象400を継続的に追尾することが可能となる。例えば、ロックオン対象400がオブジェクトで示されている場合、誘導制御部13は、時間経過に応じて予測される複数のオブジェクト形状の中で最も相関の高いオブジェクトをロックオン対象400として飛しょう体1を誘導する。   The guidance control unit 13 locks on the acquired image 110 using the flying state of the flying object 1 (for example, the speed, altitude, posture, flying direction, etc. of the flying object 1) and the imaging direction of the image sensor 11 as parameters. The time change of the position (a1, b1) of the target 400 is calculated, and the position (a2, b2) with the highest correlation is specified as the lock-on target 400. As a result, the lock-on target 400 can be continuously tracked. For example, when the lock-on target 400 is indicated by an object, the guidance control unit 13 uses the object having the highest correlation among the plurality of object shapes predicted as time elapses as the lock-on target 400. Guide 1

又、誘導制御部13は、ロックオン対象400のみならず、ロックオン候補100の抽出に利用した特徴地物についても同様に計算した最も相関の高い位置を利用して、時間変化するロックオン対象400の位置を補正してもよい。   Further, the guidance control unit 13 uses not only the lock-on target 400 but also the feature features used for the extraction of the lock-on candidate 100 in the same way using the position with the highest correlation, and the lock-on target that changes with time 400 positions may be corrected.

更に、誘導制御部13は、飛しょう状態のみならず、目標4の移動速度や移動方向を利用して、同様な計算を行い、最も相関の高いロックオン対象400を特定し、目標4の追尾を行ってもよい。   Furthermore, the guidance control unit 13 performs the same calculation using not only the flying state but also the moving speed and moving direction of the target 4, identifies the lock-on target 400 having the highest correlation, and tracks the target 4. May be performed.

飛しょう体1から指令装置2への取得画像110の送信は、飛しょう体1が目標4に到達するまで定期的に行われることが好ましい。例えば、図10に示すように、目標4に到達する直前の取得画像110が得られた場合、指令装置2を操作するユーザは、飛しょう体1が、所望の目標に到達したことを目視で確認できる。   The transmission of the acquired image 110 from the flying object 1 to the commanding device 2 is preferably performed periodically until the flying object 1 reaches the target 4. For example, as shown in FIG. 10, when the acquired image 110 immediately before reaching the target 4 is obtained, the user operating the command device 2 visually confirms that the flying object 1 has reached the desired target. I can confirm.

(指令装置2)
図11は、本発明による指令装置2の構成の一例を示す図である。図11を参照して、指令装置2の構成の一例を説明する。飛しょう体制御装置21、表示装置22、及びユーザインタフェース23を備える。
(Command device 2)
FIG. 11 is a diagram showing an example of the configuration of the commanding device 2 according to the present invention. With reference to FIG. 11, an example of the configuration of the command device 2 will be described. A flying object control device 21, a display device 22, and a user interface 23 are provided.

飛しょう体制御装置21は、CPU210、メモリ211、通信装置212及び記憶装置213を備える。飛しょう体制御装置21は、コンピュータ装置に例示され、接続されたユーザインタフェース23からの信号に応じて演算処理を行い、演算結果を表示装置22に表示する。   The flying object control device 21 includes a CPU 210, a memory 211, a communication device 212, and a storage device 213. The flying object control device 21 is exemplified by a computer device, performs arithmetic processing in accordance with a signal from the connected user interface 23, and displays the calculation result on the display device 22.

CPU210は、記憶装置213に記録されたプログラムを実行することで、通信装置212及び表示装置22の制御、ロックオン対象400の設定(設定情報の生成)を実現する。この際、通信装置212、記憶装置213、ユーザインタフェース23からの各種データやプログラムはメモリ211に一時格納され、CPU210は、メモリ211内のデータを用いて各種処理を実行する。   The CPU 210 executes a program recorded in the storage device 213 to realize control of the communication device 212 and the display device 22 and setting of the lock-on target 400 (setting information generation). At this time, various data and programs from the communication device 212, the storage device 213, and the user interface 23 are temporarily stored in the memory 211, and the CPU 210 executes various processes using the data in the memory 211.

記憶装置213はハードディスクや半導体メモリ、あるいは取り出し可能な記録媒体に例示される外部記憶装置である。ユーザインタフェース23は、キーボードやマウス、あるいはタッチパネル等のユーザによって操作されることで、各種データをCPU210や記憶装置213に出力する。表示装置は、モニタやタッチパネルモニタに例示され、CPU210から出力される演算結果をユーザに対し視認可能に出力する。   The storage device 213 is an external storage device exemplified by a hard disk, a semiconductor memory, or a removable recording medium. The user interface 23 outputs various data to the CPU 210 and the storage device 213 by being operated by a user such as a keyboard, a mouse, or a touch panel. The display device is exemplified by a monitor and a touch panel monitor, and outputs a calculation result output from the CPU 210 so as to be visible to the user.

通信装置212は、飛しょう体1との通信を制御する。本一例では、通信装置212は、通信衛星5を介して飛しょう体1とCPU210との間の通信を制御する。具体的には、通信装置212は、CPU210によって生成された設定情報を飛しょう体1に送信する。又、飛しょう体1から送信される取得画像110や目標識別情報200を受信し、CPU210に出力する。   The communication device 212 controls communication with the flying object 1. In this example, the communication device 212 controls communication between the flying object 1 and the CPU 210 via the communication satellite 5. Specifically, the communication device 212 transmits the setting information generated by the CPU 210 to the flying object 1. The acquired image 110 and target identification information 200 transmitted from the flying object 1 are received and output to the CPU 210.

通信装置212によって受信された取得画像110は、表示装置22に表示される。又、通信装置212が取得画像110とともに目標識別情報200を受信した場合、CPU210は、目標識別情報200に基づいて生成された目標識別表示220を、取得画像110に付加して目標抽出画像6を生成する。生成された目標抽出画像6は、例えば、図8のように表示装置22に表示される。   The acquired image 110 received by the communication device 212 is displayed on the display device 22. When the communication device 212 receives the target identification information 200 together with the acquired image 110, the CPU 210 adds the target identification display 220 generated based on the target identification information 200 to the acquired image 110 and adds the target extracted image 6. Generate. The generated target extraction image 6 is displayed on the display device 22 as shown in FIG. 8, for example.

ユーザインタフェース23は、ユーザの操作に応じて、目標抽出画像6内の目標を飛しょう体1のロックオン対象400として指定する指定信号を出力する。飛しょう体制御装置21は、指定信号に基づいて、取得画像110においてロックオン対象400となる目標を指定する設定情報を飛しょう体1に送信する。例えば、ユーザは、マウスに例示されるユーザインタフェース23を移動及びクリックすることにより、表示装置22に表示されるポインタを移動し、取得画像110上の目標をロックオン対象400として指定することができる。あるいは、ユーザは、タッチパネルに例示されるユーザインタフェース23をタップすることにより、取得画像110上の目標をロックオン対象400として指定することができる。ここで指定される目標は、目標識別表示220によって特定できるロックオン候補100でもよいし、他の目標100’でもよい。又、ロックオン対象400として指定する目標は、画像上の位置座標でもよいし、表示されるオブジェクトでもよい。   The user interface 23 outputs a designation signal that designates the target in the target extraction image 6 as the lock-on target 400 of the flying object 1 according to the user's operation. The flying object control device 21 transmits, to the flying object 1, setting information that designates a target to be a lock-on target 400 in the acquired image 110 based on the designation signal. For example, the user can move the pointer displayed on the display device 22 by moving and clicking the user interface 23 exemplified by the mouse, and can specify the target on the acquired image 110 as the lock-on target 400. . Alternatively, the user can specify the target on the acquired image 110 as the lock-on target 400 by tapping the user interface 23 exemplified on the touch panel. The target specified here may be the lock-on candidate 100 that can be specified by the target identification display 220, or may be another target 100 '. The target specified as the lock-on target 400 may be a position coordinate on the image or an object to be displayed.

ユーザは、目標識別表示220により、飛しょう体1が自動抽出したロックオン候補100を、容易に確認できる。このため、ユーザは、目標探索を省略し、承認するか否かの判断のみでロックオン対象400の設定が可能となる。   The user can easily confirm the lock-on candidate 100 automatically extracted by the flying object 1 from the target identification display 220. For this reason, the user can omit the target search and set the lock-on target 400 only by determining whether or not to approve it.

飛しょう体1の飛しょう速度が、例えば亜音速と非常に高速である場合、飛しょう体1が目標方向の画像を撮像してから、ロックオン対象400を確定するまでの時間は短く、例えば数秒である。この間に、ユーザが取得画像110から目標を探索して、ロックオン対象を設定することは困難である。特に、通信容量の小さい衛星回線を介して送信される取得画像110は、粗い画像である場合があり、このような画像から短時間で目標選択を行うことは難しいことがある。しかし、本発明では、飛しょう体1によって抽出されたロックオン候補100が視認可能に表示されるため、目標選択が容易となり、短時間でロックオン対象400の設定が可能となる。   When the flying speed of the flying object 1 is very high, for example, subsonic, the time from when the flying object 1 captures an image in the target direction until the lock-on target 400 is determined is short. A few seconds. During this time, it is difficult for the user to search for the target from the acquired image 110 and set the lock-on target. In particular, the acquired image 110 transmitted via a satellite line with a small communication capacity may be a coarse image, and it may be difficult to select a target from such an image in a short time. However, in the present invention, since the lock-on candidates 100 extracted by the flying object 1 are displayed so as to be visible, target selection is facilitated, and the lock-on target 400 can be set in a short time.

(飛しょう体1の状態)
図12を参照して、飛しょう体1の発射から目標到達までの状態について説明する。図12を参照して、発射装置3から所定の位置までの区間、飛しょう体1は慣性航行する(中間誘導モードA1)。このとき、目標4に対して所定の距離だけ遠方の位置においては、飛しょう体1は、空気抵抗の少ない高高度を飛しょうし、所定の距離まで目標4に近づくと、目標4の撮像が可能な高さまで高度を下げる。
(State of flying body 1)
With reference to FIG. 12, the state from launching the flying object 1 to reaching the target will be described. Referring to FIG. 12, in the section from launching device 3 to a predetermined position, flying object 1 travels inertially (intermediate guidance mode A1). At this time, at a position far away from the target 4 by a predetermined distance, the flying object 1 flies at a high altitude with low air resistance, and when the target 4 approaches the predetermined distance, imaging of the target 4 is performed. Reduce altitude to the highest possible level.

続いて、目標4が撮像可能となると、飛しょう体1は、目標方向の画像(取得画像110)を撮像し、指令装置2に転送する(画像取得転送モードA2)。取得画像110の撮像及び転送は、目標4に到達するまで、定期的に行われる。   Subsequently, when the target 4 can be imaged, the flying object 1 captures an image in the target direction (acquired image 110) and transfers it to the command device 2 (image acquisition transfer mode A2). Imaging and transfer of the acquired image 110 are periodically performed until the target 4 is reached.

画像取得転送モードA2の前半において、飛しょう体1は、指令装置2から設定情報を受け付け可能な設定可能状態となる(設定可能モードA21)。この間、設定情報を受け付けた場合、飛しょう体1は、設定情報に基づいて設定されたロックオン対象400に画像誘導される。又、この間に受け付けた最新の設定情報により、ロックオン対象400が変更(更新)され得る。   In the first half of the image acquisition / transfer mode A2, the flying object 1 is in a settable state in which setting information can be received from the commanding device 2 (settable mode A21). During this time, when the setting information is received, the flying object 1 is guided to the lock-on target 400 set based on the setting information. Further, the lock-on target 400 can be changed (updated) based on the latest setting information received during this period.

画像取得転送モードA2の後半において、飛しょう体1は、指令装置2からの設定情報の受け付けが禁止される設定不能状態となる(設定不能モードA22)。この間、設定情報を受け付けず、飛しょう体1は、設定可能モードA21において設定されたロックオン対象に画像誘導される。又、設定可能モードA21において設定情報を受け付けていない場合、飛しょう体1は、ロックオン候補100をロックオン対象400として設定し画像誘導される。   In the second half of the image acquisition / transfer mode A2, the flying object 1 enters a setting impossible state in which reception of setting information from the commanding device 2 is prohibited (setting impossible mode A22). During this time, the setting information is not received, and the flying object 1 is guided to the lock-on target set in the settable mode A21. When the setting information is not received in the settable mode A21, the flying object 1 is guided by setting the lock-on candidate 100 as the lock-on target 400.

以上のように、本発明による飛しょう体1は、目標方向の画像を転送する画像取得転送モードA2や、ロックオン対象400を設定又は変更可能な設定可能モードA21を有する。   As described above, the flying object 1 according to the present invention has the image acquisition / transfer mode A2 in which an image in the target direction is transferred and the settable mode A21 in which the lock-on target 400 can be set or changed.

(飛しょう体1の動作)
図13は、本発明による飛しょう体1の誘導動作の第1実施例を示すフロー図である。図13を参照して、画像取得転送モードA2間における飛しょう体1の誘導動作を説明する。ここでは、ロックオン対象400が設定されるまでの間、飛しょう体1が慣性航行を継続する態様について説明する。
(Operation of Flying Object 1)
FIG. 13 is a flowchart showing a first embodiment of the guiding operation of the flying object 1 according to the present invention. With reference to FIG. 13, the guidance operation | movement of the flying body 1 between image acquisition transfer mode A2 is demonstrated. Here, a mode in which the flying object 1 continues inertial navigation until the lock-on target 400 is set will be described.

飛しょう体1は、画像センサ11により画像を取得すると、ロックオン候補100を抽出する(ステップS101、S102)。飛しょう体1は、取得画像110及び目標識別情報200を指令装置2に送信する(ステップS103)。取得画像110は、目標識別情報200と同時的に送信される必要はなく、目標識別情報200に先行して送信されてもよい。又、飛しょう体1において、取得画像110及び目標識別情報200を合成して目標抽出画像6を生成した場合、取得画像110及び目標識別情報200に替えて目標抽出画像6が送信される。   When the flying object 1 acquires an image by the image sensor 11, it extracts a lock-on candidate 100 (steps S101 and S102). The flying object 1 transmits the acquired image 110 and the target identification information 200 to the command device 2 (step S103). The acquired image 110 does not need to be transmitted simultaneously with the target identification information 200, and may be transmitted prior to the target identification information 200. In the flying object 1, when the acquired image 110 and the target identification information 200 are combined to generate the target extracted image 6, the target extracted image 6 is transmitted instead of the acquired image 110 and the target identification information 200.

指令装置2は、取得画像110及び目標識別情報200を受信すると、これらを用いた目標抽出画像6を表示する。これにより、ユーザは、飛しょう体1が抽出したロックオン候補100を特定できる。   When the command device 2 receives the acquired image 110 and the target identification information 200, the command device 2 displays the target extraction image 6 using these. Thereby, the user can specify the lock-on candidate 100 extracted by the flying object 1.

本実施例における飛しょう体1は、ロックオン候補100を抽出しても、ロックオン対象400を設定するまでは、慣性航行を継続する。この間、飛しょう体1は、予め設定された飛行経路及び現在の位置、飛しょう状態(速度、姿勢、高度等)、及び目標4の地理系座標や高度を利用して、飛しょうを継続する。   Even if the flying object 1 in the present embodiment extracts the lock-on candidate 100, it continues the inertial navigation until the lock-on target 400 is set. During this time, the flying object 1 continues to fly using the preset flight path and current position, the flying state (speed, posture, altitude, etc.) and the geographical system coordinates and altitude of the target 4. .

飛しょう体1は、発射後、任意の時期に設定可能状態に設定される。これにより、飛しょう体1は、指令装置2から送信される設定情報を受け付け可能な状態となる。飛しょう体1が設定可能状態となるタイミングは、少なくとも取得画像110が、指令装置2に受信される前であることが好ましい。これにより、ユーザは、取得画像110を確認してからロックオン対象400を設定可能となる。   The flying object 1 is set to a settable state at any time after launch. Thereby, the flying object 1 will be in the state which can receive the setting information transmitted from the instruction | command apparatus 2. FIG. The timing at which the flying object 1 is settable is preferably at least before the acquired image 110 is received by the commanding device 2. Thereby, the user can set the lock-on target 400 after confirming the acquired image 110.

飛しょう体1が設定可能状態である間、飛しょう体1は、設定情報の待ち受け状態となる(ステップS104No、S105No)。この間に、指令装置2から設定情報を受信した場合、設定情報は受け付けられ、設定情報で指定された目標をロックオン対象400として設定される(ステップS104No、S105Yes、S106、S107)。   While the flying object 1 is in a settable state, the flying object 1 is in a setting information standby state (No in steps S104 and S105). During this time, when the setting information is received from the commanding device 2, the setting information is accepted, and the target specified by the setting information is set as the lock-on target 400 (steps S104 No, S105 Yes, S106, S107).

飛しょう体1は、設定されたロックオン対象400を目標とした画像誘導により飛しょう制御される(ステップS108)。飛しょう体1は、目標4に到達するまで、目標方向の画像を撮像し、取得画像110として指令装置2に送信する。   The flying object 1 is controlled to fly by image guidance targeting the set lock-on target 400 (step S108). The flying object 1 captures an image in the target direction until it reaches the target 4 and transmits the acquired image 110 to the command device 2.

飛しょう体1は、所定の条件に適合した場合、設定不能状態となる。この状態の間、指令装置2から送信される設定情報は受け付けられなくなる(ステップS104Yes)。ロックオン対象400が未設定のまま、飛しょう体1が設定不能状態となると、飛しょう体1によって抽出されたロックオン候補100が、ロックオン対象400として設定され、ステップS108に移行する(ステップS104Yes、S109)。   The flying object 1 is in an unsettable state when it meets a predetermined condition. During this state, the setting information transmitted from the commanding device 2 is not accepted (Step S104 Yes). If the flying object 1 is in a state where the lock-on object 400 is not set, the lock-on candidate 100 extracted by the flying object 1 is set as the lock-on object 400, and the process proceeds to step S108 (step S108). S104 Yes, S109).

以上のように、本実施例における飛しょう体誘導システムによれば、画像誘導の目標をユーザ側で指定できるため、飛しょう体1における目標の自動抽出が失敗した場合等、所望の目標に修正することが可能となる。例えば、天候により撮像画像の輝度が低くなる場合や、画像の変換精度が低い場合は、所望の目標を抽出できないことがある。このような場合もユーザによってロックオン対象400を指定できるため、精度の高い画像誘導が可能となる。又、飛しょう体1によって抽出された目標を変更したい場合等、所望の目標に修正することが可能となる。例えば、飛しょう体1の目標が、他の飛しょう体1によって既に到達したことが判明したとき、ユーザの判断により目標を変更することができる。これにより、同一目標に複数の飛しょう体1が向かうことを防止することができる。   As described above, according to the flying object guidance system of the present embodiment, the image guidance target can be specified by the user, so that the target is corrected to a desired target, such as when automatic extraction of the target in the flying object 1 fails. It becomes possible to do. For example, a desired target may not be extracted when the brightness of the captured image is low due to the weather or when the conversion accuracy of the image is low. Even in such a case, the lock-on target 400 can be designated by the user, so that highly accurate image guidance is possible. Further, when it is desired to change the target extracted by the flying object 1, it can be corrected to a desired target. For example, when it is determined that the target of the flying object 1 has already been reached by another flying object 1, the target can be changed based on the judgment of the user. Thereby, it can prevent that the several flying body 1 heads to the same target.

例えば、指令装置2において図8に示すような目標抽出画像6が表示されると、ユーザは画像内の目標をロックオン対象400として指定できる。具体的には、ユーザによる操作(第1操作とも称す)により、ロックオン候補100がロックオン対象として指定される。この場合、ロックオン候補100をロックオン対象400として指定する設定情報が飛しょう体1に送信される。飛しょう体1において設定情報が受け付けられると、ロックオン候補100をロックオン対象として画像誘導が開始される。あるいは、ユーザによる操作(第2操作とも称す)により、ロックオン候補100と異なる目標100’がロックオン対象として指定される。この場合、目標100’をロックオン対象400として指定する設定情報が飛しょう体1に送信される。飛しょう体1において設定情報が受け付けられると、目標100’をロックオン対象として画像誘導が開始される。   For example, when the target extraction image 6 as shown in FIG. 8 is displayed on the command device 2, the user can designate a target in the image as the lock-on target 400. Specifically, the lock-on candidate 100 is designated as a lock-on target by an operation (also referred to as a first operation) by the user. In this case, setting information for designating the lock-on candidate 100 as the lock-on target 400 is transmitted to the flying object 1. When the setting information is received in the flying object 1, image guidance is started with the lock-on candidate 100 as a lock-on target. Alternatively, a target 100 ′ different from the lock-on candidate 100 is designated as a lock-on target by an operation (also referred to as a second operation) by the user. In this case, setting information specifying the target 100 ′ as the lock-on target 400 is transmitted to the flying object 1. When the setting information is received by the flying object 1, image guidance is started with the target 100 'as a lock-on target.

又、本実施例では、ユーザがロックオン対象400を指定しない場合、ロックオン候補100が自動的にロックオン対象として設定される。このため、飛しょう体1が所望の目標をロックオン候補100として抽出している場合、ユーザは操作することなく当該目標を承認することができる。   In this embodiment, if the user does not designate the lock-on target 400, the lock-on candidate 100 is automatically set as the lock-on target. For this reason, when the flying object 1 has extracted a desired target as the lock-on candidate 100, the user can approve the target without operating.

(第1実施例における飛しょう体1の動作の第1変形例)
図13に示す飛しょう体1の動作では、指令装置2からのロックオン対象400の設定が1度しかできないが、これに限らず、設定情報の受付の都度、ロックオン対象400が設定更新されてもよい。図14は、本発明による飛しょう体1の画像誘導動作の第1実施例の第1変形例を示すフロー図である。
(First modification of the operation of the flying object 1 in the first embodiment)
In the operation of the flying object 1 shown in FIG. 13, the lock-on target 400 can be set only once from the commanding device 2, but this is not limiting, and the lock-on target 400 is updated every time setting information is received. May be. FIG. 14 is a flowchart showing a first modification of the first embodiment of the image guiding operation of the flying object 1 according to the present invention.

図14を参照して、ステップS101からステップS109の動作は、図13に示す動作と同様であるので、その詳細な説明は省略し、第1実施例と異なる動作を中心に説明する。   Referring to FIG. 14, the operation from step S101 to step S109 is the same as the operation shown in FIG. 13, and therefore detailed description thereof will be omitted, and the operation different from that of the first embodiment will be mainly described.

本変形例では、飛しょう体1が設定可能状態の間、新たな設定情報を受け付けると、当該設定情報によって指定された目標をロックオン対象400として設定し、画像誘導が行われる。詳細には、飛しょう体1が設定可能状態であれば、ステップS108において画像誘導が実行されていても、受信した設定情報を受け付ける(ステップS108、S104No、S105Yes、S106)。以降、設定情報に基づいて新たなロックオン対象400の設定(変更)及び画像誘導が行われる(ステップS107、S108)。   In this modification, when new setting information is received while the flying object 1 is in a settable state, the target specified by the setting information is set as the lock-on target 400, and image guidance is performed. Specifically, if the flying object 1 is in a settable state, the received setting information is accepted even if image guidance is being executed in step S108 (steps S108, S104 No, S105 Yes, S106). Thereafter, a new lock-on target 400 is set (changed) and image guidance is performed based on the setting information (steps S107 and S108).

飛しょう体1は、所定の条件に適合した場合、設定不能状態となる。この状態の間、指令装置2から送信される設定情報は受け付けられなくなる(ステップS104Yes)。飛しょう体1が設定不能状態となったとき、ロックオン対象400が設定済みである場合、予め設定されたロックオン対象400が維持され、画像誘導が行われる(ステップS104Yes、S201Yes、S108)。   The flying object 1 is in an unsettable state when it meets a predetermined condition. During this state, the setting information transmitted from the commanding device 2 is not accepted (Step S104 Yes). When the flying object 1 is in an unsettable state, if the lock-on target 400 has already been set, the preset lock-on target 400 is maintained and image guidance is performed (steps S104 Yes, S201 Yes, S108).

一方、ロックオン対象400が未設定のまま、飛しょう体1が設定不能状態となると、飛しょう体1によって抽出されたロックオン候補100が、ロックオン対象400として設定され、ステップS108に移行する(ステップS104Yes、S110No、S109)。   On the other hand, when the flying object 1 is in a state where setting is impossible while the lock-on target 400 is not set, the lock-on candidate 100 extracted by the flying object 1 is set as the lock-on target 400, and the process proceeds to step S108. (Steps S104 Yes, S110 No, S109).

以上のように、第1実施例の第1変形例によれば、ユーザは、飛しょう体1が設定可能状態である間において何度でも画像誘導の目標を変更することが可能となる。これにより、1度設定したロックオン対象400を変更したい状況となっても、対応が可能となる。   As described above, according to the first modification of the first embodiment, the user can change the target of image guidance any number of times while the flying object 1 is in a settable state. This makes it possible to cope with a situation where it is desired to change the lock-on target 400 once set.

(第1実施例における飛しょう体1の動作の第2変形例)
図13に示す飛しょう体1の動作では、ロックオン候補100の抽出からロックオン対象400の設定までの間、慣性航行が継続されるが、これに限らず、ユーザによるロックオン設定や、設定不能状態への変更を待たずに画像誘導を開始してもよい。図15は、本発明による飛しょう体1の画像誘導動作の第1実施例の第2変形例を示すフロー図である。
(Second modification of the operation of the flying object 1 in the first embodiment)
In the operation of the flying object 1 shown in FIG. 13, inertial navigation is continued from the extraction of the lock-on candidate 100 to the setting of the lock-on target 400, but this is not limiting, and the lock-on setting and setting by the user Image guidance may be started without waiting for the change to the disabled state. FIG. 15 is a flowchart showing a second modification of the first embodiment of the image guiding operation of the flying object 1 according to the present invention.

図15を参照して、本変形例におけるステップS101、S102、S104〜S108の動作は、図13に示す同符号の動作と同様であるので、その詳細な説明は省略し、図13に示す一例と異なる動作を中心に説明する。   Referring to FIG. 15, the operations in steps S101, S102, and S104 to S108 in the present modification are the same as the operations with the same reference numerals shown in FIG. 13, so detailed description thereof is omitted, and the example shown in FIG. The explanation will focus on the operation different from the above.

本変形例における飛しょう体1は、図13に示すステップS101、S102と同様に画像取得及びロックオン候補100の抽出を行う。続いて、飛しょう体1では、設定情報の受付を待つことなく、抽出したロックオン候補100をロックオン対象として設定し、画像誘導を行う(ステップS202、S203)。   The flying object 1 in this modification performs image acquisition and lock-on candidate 100 extraction in the same manner as steps S101 and S102 shown in FIG. Subsequently, the flying object 1 sets the extracted lock-on candidate 100 as a lock-on target without waiting for reception of the setting information, and performs image guidance (steps S202 and S203).

飛しょう体1は、図13に示すステップS103と同様に取得画像110及び目標識別情報200を指令装置2に送信する(ステップS204)。指令装置2は、取得画像110及び目標識別情報200を受信すると、これらを用いた目標抽出画像6を表示する。これにより、ユーザは、飛しょう体1が抽出したロックオン候補100を特定できる。本変形例では、飛しょう体1は、既にロックオン候補100をロックオン対象400として画像誘導されているため、ユーザは、目標抽出画像6により、飛しょう体1のロックオン対象400を確認することとなる。   The flying object 1 transmits the acquired image 110 and the target identification information 200 to the command device 2 as in step S103 shown in FIG. 13 (step S204). When the command device 2 receives the acquired image 110 and the target identification information 200, the command device 2 displays the target extraction image 6 using these. Thereby, the user can specify the lock-on candidate 100 extracted by the flying object 1. In this modification, since the flying object 1 has already been image-guided with the lock-on candidate 100 as the lock-on target 400, the user confirms the lock-on target 400 of the flying object 1 based on the target extraction image 6. It will be.

飛しょう体1は、発射後、任意の時期に設定可能状態に設定される。これにより、飛しょう体1は、指令装置2から送信される設定情報を受け付け可能な状態となる。飛しょう体1が設定可能状態となるタイミングは、少なくとも取得画像110が、指令装置2に受信される前であることが好ましい。これにより、ユーザは、取得画像110を確認してからロックオン対象400を設定することができる。   The flying object 1 is set to a settable state at any time after launch. Thereby, the flying object 1 will be in the state which can receive the setting information transmitted from the instruction | command apparatus 2. FIG. The timing at which the flying object 1 is settable is preferably at least before the acquired image 110 is received by the commanding device 2. As a result, the user can set the lock-on target 400 after confirming the acquired image 110.

飛しょう体1が設定可能状態である間、図13に示すステップS104からS108と同様に、指令装置2から受け付けた設定情報に基づいてロックオン対象400の設定及び飛しょう体1の画像誘導が行われる。本変形例では、最初に設定情報を受け付けたとき、飛しょう体1は、既にロックオン候補100をロックオン対象400として画像誘導されている。このため、最初に設定情報を受け付けた場合でも、ロックオン対象400が更新されることとなる。   While the flying object 1 is in a settable state, the setting of the lock-on target 400 and the image guidance of the flying object 1 are performed based on the setting information received from the commanding device 2 as in steps S104 to S108 shown in FIG. Done. In this modification, when the setting information is received for the first time, the flying object 1 has already been image-guided with the lock-on candidate 100 as the lock-on target 400. For this reason, even when the setting information is received for the first time, the lock-on target 400 is updated.

一方、飛しょう体1が設定不能状態となるまで、飛しょう体1が設定情報を受信しない場合、ロックオン候補100をロックオン対象400とした画像誘導が継続される(ステップS104Yes、S108)。   On the other hand, when the flying object 1 does not receive the setting information until the flying object 1 is in a setting impossible state, the image guidance using the lock-on candidate 100 as the lock-on target 400 is continued (steps S104 Yes and S108).

以上のように、第1実施例の第2変形例によれば、飛しょう体1は、ロックオン候補100をロックオン対象400として抽出し画像誘導を開始するため、画像取得してから早期に画像誘導に移行できる。例えば、第1実施例では、設定情報を受信しない場合、設定不能状態となるまで画像誘導が開始されないことがあるが、本変形例では、少なくともロックオン候補100の抽出時から画像誘導が開始され得る。又、ロックオン候補100をロックオン対象400として画像誘導している間、飛しょう体1は、少なくともロックオン候補100として抽出された目標の周辺領域を撮像し、指令装置2に送信できる。このため、ユーザは、少なくともロックオン候補100として抽出された目標及びその周辺領域を含む取得画像110を確認しながら、ロックオン対象400の設定又は承認が可能となる。   As described above, according to the second modification of the first embodiment, the flying object 1 extracts the lock-on candidate 100 as the lock-on target 400 and starts image guidance. Transition to image guidance. For example, in the first embodiment, when the setting information is not received, the image guidance may not be started until the setting is disabled. However, in this modification, the image guidance is started at least when the lock-on candidate 100 is extracted. obtain. Further, while the lock-on candidate 100 is image-guided as the lock-on target 400, the flying object 1 can image at least the target peripheral area extracted as the lock-on candidate 100 and transmit it to the command device 2. For this reason, the user can set or approve the lock-on target 400 while confirming the acquired image 110 including at least the target extracted as the lock-on candidate 100 and its surrounding area.

本発明による飛しょう体誘導システムでは、ユーザの目視によるロックオン対象400の設定ができることから、目標4が視認可能な距離であれば、目標4が遠方に位置していても取得画像110を撮像し、ロックオン対象400の設定が可能な状態とすることができる。ここで、相互に近接した複数のオブジェクトを遠方から観察すると、1つのオブジェクトとして視認されることがある。このため、遠方において、1つのオブジェクトとして認識され、ロックオン対象400として設定された目標4が、接近時の取得画像110により、複数のオブジェクトとして認識されることがある。   In the flying object guidance system according to the present invention, since the lock-on target 400 can be set by visual observation by the user, if the target 4 is a visually recognizable distance, the acquired image 110 is captured even if the target 4 is located far away. Then, the lock-on target 400 can be set. Here, when a plurality of objects close to each other are observed from a distance, the objects may be visually recognized as one object. For this reason, in the distance, the target 4 that is recognized as one object and set as the lock-on target 400 may be recognized as a plurality of objects by the acquired image 110 when approaching.

例えば、図9A及び図9Bに示すロックオン対象400が、飛しょう体1に接近することにより、図16に示すように複数の画像内目標候補400−1、400−2、400−3として撮像される場合がある。このような場合、例えば、画像誘導中の飛しょう体1は、図9A及び図9Bに示すロックオン対象400と相関の最も高い画像内目標候補(例えば、図16に示す画像内目標候補400−1)に向けて画像誘導を行う。   For example, when the lock-on target 400 shown in FIGS. 9A and 9B approaches the flying object 1, it is captured as a plurality of in-image target candidates 400-1, 400-2, 400-3 as shown in FIG. May be. In such a case, for example, the flying object 1 during image guidance has the highest intra-image target candidate having the highest correlation with the lock-on target 400 shown in FIGS. 9A and 9B (for example, the intra-image target candidate 400-shown in FIG. 16). Image guidance is performed toward 1).

あるいは、画像誘導中の飛しょう体1は、ロックオン対象400との相関が、所定の閾値よりも高い複数の画像内目標候補の重心に向けて画像誘導を行ってもよい。具体的には、飛しょう体1は、図9A及び図9Bに示すロックオン対象400との相関が、所定の閾値よりも高い画像内目標候補400−1、400−2、400−3を抽出し、それぞれの位置N1、N2、N3の重心N0を飛しょう方向として画像誘導を行う。   Alternatively, the flying object 1 during image guidance may perform image guidance toward the center of gravity of a plurality of intra-image target candidates whose correlation with the lock-on target 400 is higher than a predetermined threshold. Specifically, the flying object 1 extracts in-image target candidates 400-1, 400-2, and 400-3 whose correlation with the lock-on target 400 shown in FIGS. 9A and 9B is higher than a predetermined threshold. Then, image guidance is performed with the center of gravity N0 of each of the positions N1, N2, and N3 as the flying direction.

通常、上述の飛しょう体1の接近による目標の分裂現象は、飛しょう体1が設定不能状態となりロックオン対象400が確定する前の設定可能期間中に発生する。このため、第1実施例の第1変形例及び第2変形例のように、設定可能期間中に画像誘導している場合、複数目標の重心N0に相関誘導することは有効である。特に、複数の画像目標候補400−1、400−2、400−3のそれぞれの相関の差が小さく、突出して相関の高い画像内目標候補がない場合や、画像上における目標候補間の距離が長い場合等、それぞれの重心N0をロックオン対象400として画像誘導することは、更に有効である。例えば、画像上において、複数の画像内目標候補のそれぞれの間隔が長い場合、1つの画像内目標候補をロックオン対象とすると、飛しょう体1の移動により、真の目標が取得画像110(画像センサ11の視野)から外れてしまう恐れがある。このような場合、複数の画像内目標候補の重心に指向することで、真の目標が取得画像110から外れることを防ぐことができる。   Usually, the target splitting phenomenon due to the approach of the flying object 1 described above occurs during a settable period before the flying object 1 becomes unsettable and the lock-on target 400 is determined. For this reason, as in the first modification and the second modification of the first embodiment, when image guidance is performed during the settable period, it is effective to perform correlation induction on the centroid N0 of a plurality of targets. In particular, when the correlation difference between each of the plurality of image target candidates 400-1, 400-2, 400-3 is small and there is no project target candidate with a high correlation, or the distance between target candidates on the image is It is more effective to guide the image of each center of gravity N0 as the lock-on target 400, such as when it is long. For example, when the intervals between the plurality of target candidates in the image are long on the image, if one target target in the image is set as a lock-on target, the true target is acquired by the movement of the flying object 1 (the image 110 (image There is a risk of deviating from the field of view of the sensor 11. In such a case, it is possible to prevent the true target from deviating from the acquired image 110 by pointing to the center of gravity of the plurality of target candidates in the image.

2.第2実施例
次に、第2実施例における飛しょう体誘導システムについて説明する。第2実施例における飛しょう体誘導システムは、第1実施例のシステムに、慣性誘導のための目標を変更する構成及び機能を追加したシステムである。第2実施例における飛しょう体誘導システムは、第1実施例の構成を含み、第1実施例と同様の効果を奏する。このため、以下では、第1実施例と同様な構成及び動作の説明は省略し、第1実施例と異なる構成及び動作を中心に説明する。
2. 2nd Example Next, the flying object guidance system in 2nd Example is demonstrated. The flying object guidance system according to the second embodiment is a system in which a configuration and a function for changing a target for inertial guidance are added to the system according to the first embodiment. The flying object guidance system according to the second embodiment includes the configuration of the first embodiment and has the same effects as the first embodiment. For this reason, the description of the same configuration and operation as in the first embodiment is omitted below, and the description will focus on the configuration and operation different from the first embodiment.

(飛しょう体1の構成)
飛しょう体1の誘導制御部13は、発射後、任意の時期に設定可能状態に設定される。これにより、飛しょう体1は、指令装置2から送信される設定情報又は目標設定情報を受け付け可能な状態となる。設定可能状態の間に、設定情報を受け付けると、誘導制御部13は、設定情報に基づいて指定された目標がロックオン対象400に設定される。又、設定可能状態の間に、目標設定情報を受け付けると、目標設定情報に基づいて指定される位置座標に慣性誘導の目標が変更される。具体的には、設定可能状態の間に、目標設定情報を受け付けると、慣性誘導の目標が、目標設定情報によって指定された目標の位置座標及び高さに変更される。又、目標設定情報で指定される飛しょう経路に変更される。目標設定情報は、新たに指定する飛しょう経路を含んでもよい。この場合、誘導制御部13は、目標設定情報に含まれる飛しょう経路に変更する。あるいは、目標設定情報は、飛しょう経路を指定する情報を含んでもよい。この場合、予め、複数の飛しょう経路が飛しょう体1の記憶装置16に登録されており、誘導制御部13は、目標設定情報によって指定された飛しょう経路を記憶装置16から選択して変更する。
(Configuration of flying object 1)
The guidance control unit 13 of the flying object 1 is set to a settable state at any time after launch. Thereby, the flying object 1 will be in the state which can receive the setting information or target setting information transmitted from the instruction | command apparatus 2. FIG. When the setting information is received during the settable state, the guidance control unit 13 sets the target specified based on the setting information as the lock-on target 400. When target setting information is received during the settable state, the inertial guidance target is changed to a position coordinate specified based on the target setting information. Specifically, when target setting information is received during the settable state, the target for inertial guidance is changed to the position coordinates and height of the target specified by the target setting information. In addition, the flight route is changed to the flight route specified by the target setting information. The target setting information may include a newly designated flight route. In this case, the guidance control unit 13 changes to the flight route included in the target setting information. Alternatively, the target setting information may include information for specifying a flight route. In this case, a plurality of flight routes are registered in the storage device 16 of the flying object 1 in advance, and the guidance control unit 13 selects and changes the flight route specified by the target setting information from the storage device 16. To do.

第2実施例において飛しょう体1が設定可能状態となるタイミングは、飛しょう体1が取得画像110を撮像する前であってもよい。すなわち、飛しょう体1が画像誘導を行う前に目標設定情報を受け付け可能な設定可能状態としてもよい。この場合、画像誘導開始の前に飛しょう体1の慣性誘導の目標4を変更することが可能となる。   The timing at which the flying object 1 is settable in the second embodiment may be before the flying object 1 captures the acquired image 110. That is, it is good also as a settable state which can receive target setting information before the flying body 1 performs image guidance. In this case, it is possible to change the target 4 for inertial guidance of the flying object 1 before starting image guidance.

又、設定可能状態の間、目標設定情報が受け付けられれば、慣性誘導の目標が複数回変更されても構わない。   Further, the target for inertial guidance may be changed a plurality of times as long as target setting information is accepted during the settable state.

更に、誘導制御部13は、所定の条件に適合した場合、設定可能状態を解除し、設定情報及び目標設定情報の受付を禁止する設定不能状態となる。所定の条件とは、飛しょう体1の目標変更が困難となる条件を示し、目標4までの距離、飛しょう体1の速度、姿勢、高度、又は飛しょう方向に応じて決まる。例えば、誘導制御部13は、飛しょう体1と目標4との距離が、予め設定された目標変更限界距離に至ると設定不能状態となる。あるいは、誘導制御部13は、飛しょう体1の目標4に対する進入角度が、予め設定された目標変更限界角に至ると設定不能状態となる。あるいは、飛しょう体1の速度と目標4までの距離から計算された目標到達予定時間が、予め設定された目標変更限界時間よりも短くなると、設定不能状態となる。   Furthermore, the guidance control part 13 will be in the setting impossible state which cancels | releases a setting possible state and prohibits reception of setting information and target setting information, when a predetermined condition is adapted. The predetermined condition indicates a condition that makes it difficult to change the target of the flying object 1, and is determined according to the distance to the target 4, the speed, attitude, altitude, or flying direction of the flying object 1. For example, when the distance between the flying object 1 and the target 4 reaches a preset target change limit distance, the guidance control unit 13 becomes unable to be set. Or the guidance control part 13 will be in a setting impossible state, if the approach angle with respect to the target 4 of the flying body 1 reaches the preset target change limit angle. Alternatively, when the target arrival time calculated from the speed of the flying object 1 and the distance to the target 4 becomes shorter than the preset target change limit time, the setting cannot be made.

ロックオン対象400の設定可能状態と、慣性誘導目標の設定可能状態のそれぞれの設定又は解除のタイミングは、同じでも異なっていてもどちらでもよい。ただし、画像誘導の目標を変更する場合、慣性誘導の目標を変更するよりも、目標までの距離や変更時間が短くてもよい。このため、ロックオン対象に対する設定可能状態の解除のタイミングは、慣性誘導目標の設定可能状態の解除よりも遅いタイミングに設定できる。   The timing for setting or releasing the settable state of the lock-on target 400 and the settable state of the inertial guidance target may be the same or different. However, when changing the target of image guidance, the distance to the target and the change time may be shorter than changing the target of inertial guidance. For this reason, the release timing of the settable state for the lock-on target can be set later than the release of the inertial guidance target settable state.

ロックオン候補100の抽出から設定不能状態となるまでに設定情報や目標設定情を受け付けていない場合、誘導制御部13は、ロックオン候補100をロックオン対象400として設定することが好ましい。この場合、指令装置2から設定情報が送信されなくても、飛しょう体1は自らが自動抽出した目標に向かって画像誘導されることとなる。   When the setting information and the target setting information are not received from the extraction of the lock-on candidate 100 until the setting-disabled state is obtained, the guidance control unit 13 preferably sets the lock-on candidate 100 as the lock-on target 400. In this case, even if the setting information is not transmitted from the commanding device 2, the flying object 1 is guided toward the target automatically extracted by itself.

(指令装置2の構成)
第2実施例におけるユーザインタフェース23は、ユーザの操作に応じて、ロックオン対象400を指定する指定信号を出力し、他の操作(第3操作とも称す)に応じて、慣性誘導の目標座標を指定する目標指定信号を出力する。飛しょう体制御装置21は、指定信号に基づいて、ロックオン対象400を指定する設定情報を飛しょう体1に送信し、目標指定信号に基づいて、慣性誘導の目標位置を指定する目標設定情報を飛しょう体1に送信する。この際、目標設定情報には、目標位置のみならず当該目標位置に至る飛しょう経路を示す情報が含まれることが好ましい。
(Configuration of command device 2)
The user interface 23 in the second embodiment outputs a designation signal that designates the lock-on target 400 in accordance with the user's operation, and sets the inertial guidance target coordinates in accordance with another operation (also referred to as a third operation). Outputs the target specification signal to be specified. The flying object control device 21 transmits setting information for designating the lock-on target 400 to the flying object 1 based on the designation signal, and the target setting information for designating the target position for inertial guidance based on the target designation signal. Is sent to Flying Object 1. At this time, it is preferable that the target setting information includes not only the target position but also information indicating a flight route to the target position.

目標設定情報で指定する慣性誘導の目標は、目標4の地理系座標やその高度をユーザインタフェース23によって入力することにより設定できる。あるいは、記憶装置213に目標4の地理系座標や高度が記録されていれば、ユーザインタフェース23によって、これらの情報を選択することで、慣性誘導の目標を飛しょう体1に指定することができる。   The inertial guidance target specified by the target setting information can be set by inputting the geographical coordinates of the target 4 and its altitude through the user interface 23. Alternatively, if the geographical coordinates and altitude of the target 4 are recorded in the storage device 213, the target of inertial guidance can be specified for the flying object 1 by selecting these pieces of information using the user interface 23. .

(第2実施例における飛しょう体1の動作)
図17は、本発明による飛しょう体1の画像誘導動作の第2実施例を示すフロー図である。図17を参照して、ステップS301からステップS309の動作は、図13に示すステップS101からA109の動作と同様であるので、その詳細な説明は省略し、図13に示す一例と異なるステップS210からS213における動作を中心に説明する。
(Operation of the flying object 1 in the second embodiment)
FIG. 17 is a flowchart showing a second embodiment of the image guiding operation of the flying object 1 according to the present invention. Referring to FIG. 17, the operation from step S301 to step S309 is the same as the operation from step S101 to A109 shown in FIG. 13, and thus detailed description thereof is omitted, and from step S210 different from the example shown in FIG. The operation in S213 will be mainly described.

第2実施例における飛しょう体1は、画像センサ11による画像取得後、設定可能状態において、設定情報及び目標設定情報を待ち受ける(ステップS304、S305No、S310No)。この間に、指令装置2から設定情報を受信した場合、第1実施例と同様に、設定情報は受け付けられ、設定情報で指定された画像内目標がロックオン対象400として設定される(ステップS304No、S305Yes、S306、S307)。   The flying object 1 in the second embodiment waits for setting information and target setting information in a settable state after the image is acquired by the image sensor 11 (steps S304, S305No, S310No). During this time, when the setting information is received from the command device 2, the setting information is accepted and the in-image target specified by the setting information is set as the lock-on target 400 as in the first embodiment (No in step S304). S305 Yes, S306, S307).

一方、設定可能状態の間に、指令装置2から目標設定情報を受信した場合、目標設定情報は受け付けられ、目標設定情報で指定された位置座標に慣性誘導目標が変更される(ステップS304No、S305No、S310Yes、S311、S312)。   On the other hand, when the target setting information is received from the command device 2 during the settable state, the target setting information is accepted, and the inertial guidance target is changed to the position coordinates specified by the target setting information (Steps S304No, S305No). , S310 Yes, S311, S312).

飛しょう体1は、設定された位置座標の目標4に指向した慣性誘導により飛しょう制御される(ステップS313)。この際、飛しょう体1は、画像誘導制御(終末誘導)を解除し、高度を上げて、慣性誘導制御(中間誘導)に移行する。飛しょう体1は、目標設定情報に含まれる新たな目標までの飛しょう経路に従い、新たな目標に向かって慣性航行することが好ましい。その後、新たな目標4に接近すると、再び目標方向の画像の撮像を開始し、ステップS301に移行する。   The flying object 1 is controlled to fly by inertial guidance directed to the target 4 of the set position coordinates (step S313). At this time, the flying object 1 releases the image guidance control (terminal guidance), raises the altitude, and shifts to inertial guidance control (intermediate guidance). It is preferable that the flying object 1 navigates inertially toward a new target according to a flight route to the new target included in the target setting information. Thereafter, when approaching the new target 4, the imaging of the image in the target direction is started again, and the process proceeds to step S301.

以上のように、本実施例における飛しょう体1は、ロックオン対象400のみならず慣性誘導の目標も飛しょう中に変更することが可能となる。   As described above, the flying object 1 in this embodiment can change not only the lock-on target 400 but also the inertial guidance target during the flight.

(第2実施例における目標変更動作の具体例)
第2実施例における指令装置2は、記憶装置213に予め登録された目標候補から選択された目標を、新たな慣性誘導目標として飛しょう体1に指定してもよい。例えば、記憶装置213には、飛しょう体1が目標とすべき目標候補が設定された目標テーブルを含むことが好ましい。
(Specific example of target change operation in the second embodiment)
The commanding device 2 in the second embodiment may specify a target selected from the target candidates registered in advance in the storage device 213 for the flying object 1 as a new inertial guidance target. For example, the storage device 213 preferably includes a target table in which target candidates to be targeted by the flying object 1 are set.

図18は、本発明に係る目標テーブルの構造の一例を示す図である。図18に示す目標テーブルには、飛しょう体1を識別する飛しょう体IDに、目標を識別する目標ID、当該目標の位置情報、及び目標として選択する際の優先度が対応付けられて記録される。例えば、飛しょう体1“M1”の目標候補として“T10”、“T11”、“T12”が対応付けられ、“T11”、“T10”、“T12”の順に優先度が設定される。目標の位置情報は、例えば地理系座標とその高度で示され、目標“T10”、“T11”、“T12”の位置情報は、“X0、Y0、Z0”、“X1、Y1、Z1”、“X2、Y2、Z2”である。同様に他の飛しょう体1“M2”についても目標候補として、T10”、“T20”が対応付けられ、“T10”、“T20”の順に優先度が設定される。又、目標“T10”、“T20”の位置情報は、“X0、Y0、Z0”、“X3、Y3、Z3”である。図18に示すように、同じ目標“T10”が異なる飛しょう体1の目標、あるいは目標候補として設定されてもかまわない。   FIG. 18 is a diagram showing an example of the structure of the target table according to the present invention. In the target table shown in FIG. 18, the flying object ID for identifying the flying object 1 is recorded in association with the target ID for identifying the target, the position information of the target, and the priority for selection as the target. Is done. For example, “T10”, “T11”, and “T12” are associated as target candidates for the flying object 1 “M1”, and priorities are set in the order of “T11”, “T10”, and “T12”. The position information of the target is indicated by, for example, geographical coordinates and its altitude, and the position information of the targets “T10”, “T11”, “T12” is “X0, Y0, Z0”, “X1, Y1, Z1”, “X2, Y2, Z2”. Similarly, T10 ”and“ T20 ”are associated as target candidates for the other flying object 1“ M2 ”, and priorities are set in the order of“ T10 ”and“ T20 ”. The position information of “T20” is “X0, Y0, Z0”, “X3, Y3, Z3.” As shown in FIG. It may be set as a candidate.

上述した目標テーブルは表示装置22に表示されることが好ましい。ユーザは、表示装置22に表示される目標テーブルにより、目標変更時に優先度の高い目標を容易に設定することが可能となる。   The target table described above is preferably displayed on the display device 22. The target table displayed on the display device 22 allows the user to easily set a high priority target when changing the target.

図19は、本発明による飛しょう体誘導システムの運用例を示す図である。図19を参照して、本発明による飛しょう体誘導システムでは、複数の飛しょう体1−1、1−2が、発射装置3から逐次的又は同時的に発射され得る。この際、複数の飛しょう体1の目標4が重複する場合がある。例えば、複数の目標4−1、4−2のうち、飛しょう体1−1、1−2を同一の目標4−2に対して飛しょうさせる場合がある。   FIG. 19 is a diagram showing an operation example of the flying object guidance system according to the present invention. Referring to FIG. 19, in the flying object guidance system according to the present invention, a plurality of flying objects 1-1 and 1-2 can be fired sequentially or simultaneously from launching device 3. At this time, the targets 4 of the plurality of flying objects 1 may overlap. For example, among the plurality of targets 4-1 and 4-2, the flying objects 1-1 and 1-2 may be caused to fly with respect to the same target 4-2.

このような場合、一の飛しょう体1−2がすでに到達した目標に対して、他の飛しょう体1−1が向かうことを防ぐ必要がある。本発明による飛しょう体誘導システムでは、目標到達直前の取得画像110により、飛しょう体1が到達したか否かを確認することができる。このため、飛しょう体1−2の到達が確認された目標を、他の飛しょう体1−1の目標としないように、指令装置2からの設定情報又は目標設定情報によって制御することができる。   In such a case, it is necessary to prevent the other flying object 1-1 from heading toward the target that one flying object 1-2 has already reached. In the flying object guidance system according to the present invention, it can be confirmed whether or not the flying object 1 has reached the acquired image 110 immediately before reaching the target. For this reason, it can control by the setting information from the instruction | command apparatus 2, or target setting information so that the target by which the flying object 1-2 was confirmed is not made into the target of the other flying object 1-1. .

例えば、ユーザは、ユーザインタフェース23を操作することで、取得画像110によって到達が確認された目標を、到達済みとして記憶装置213に登録する。到達済みに登録された目標は、飛しょう体1の目標、又は目標候補から除外され、指定不能に設定されることが好ましい。具体的には、図20に示す目標テーブルのように、目標毎に到達状況を登録できる項目“状況”を設けることで、飛しょう体1が到達した目標を、他の飛しょう体1の目標、又は目標候補から除外できる。あるいは、図21に示す目標テーブルのように、飛しょう体1が到達した目標の優先度を最低値(例えば∞)に設定することで、他の飛しょう体1の目標、又は目標候補から除外され、指定不能に設定できる。   For example, the user operates the user interface 23 to register, in the storage device 213, the target whose arrival has been confirmed by the acquired image 110 as having been reached. The target registered as reached is preferably excluded from the target of the flying object 1 or the target candidate and set to be undesignable. Specifically, as shown in the target table shown in FIG. 20, by providing an item “situation” in which the arrival status can be registered for each target, the target reached by the flying object 1 is changed to the target of another flying object 1. Or can be excluded from target candidates. Alternatively, as in the target table shown in FIG. 21, by setting the priority of the target reached by the flying object 1 to the lowest value (for example, ∞), it is excluded from the targets or target candidates of other flying objects 1. It can be set to unspecified.

図20及び図21の一例では、飛しょう体1“M1”、“M2”が同じ目標“T11”に設定されている(優先度“1”)。このとき、飛しょう体1“M2”の目標“M11”への到達が登録された場合、図20に示す一例では、目標“T11”の状況が“M2到達”に設定される。これにより、ユーザは、飛しょう体1“M1”の目標から目標“T11”を除外し、次に優先度の高い目標“T10”に変更することができる。同様に、飛しょう体1“M2”の目標“M11”への到達が登録された場合、図21に示す一例では、目標“T11”の優先度が“∞”に設定される。これにより、ユーザは、飛しょう体1“M1”の目標から目標“T11”を除外し、次に優先度の高い目標“T10”に変更することができる。   20 and FIG. 21, the flying objects 1 “M1” and “M2” are set to the same target “T11” (priority “1”). At this time, when arrival of the flying object 1 “M2” to the target “M11” is registered, in the example illustrated in FIG. 20, the state of the target “T11” is set to “M2 arrival”. Thus, the user can exclude the target “T11” from the target of the flying object 1 “M1” and change it to the target “T10” having the next highest priority. Similarly, when arrival of the flying object 1 “M2” to the target “M11” is registered, the priority of the target “T11” is set to “∞” in the example illustrated in FIG. Thus, the user can exclude the target “T11” from the target of the flying object 1 “M1” and change it to the target “T10” having the next highest priority.

尚、目標到達の確認は、飛しょう体1による取得画像110の他、図示しない他の装置、例えば人口衛星や航空機等から撮影された画像を解析することで、行われてもよい。   Confirmation of the target achievement may be performed by analyzing an image taken from another device (not shown) such as an artificial satellite or an aircraft in addition to the acquired image 110 by the flying object 1.

図22は、本発明に係る目標変更用画面500の一例を示す図である。図22を参照して、目標変更用画面500は、ユーザが飛しょう体1の目標を変更する際に、表示装置22に表示される画面である。   FIG. 22 is a diagram showing an example of the target change screen 500 according to the present invention. Referring to FIG. 22, target change screen 500 is a screen displayed on display device 22 when the user changes the target of flying object 1.

目標変更用画面500は、設定可能時間501、現在状況情報502、目標候補情報503、選択ボタン504を含む。   The target change screen 500 includes a settable time 501, current status information 502, target candidate information 503, and a selection button 504.

設定可能時間501は、目標を変更可能な時間を示し、この時間が経過した後は、目標変更ができなくなることを示す。設定可能時間501は、例えば、飛しょう体1の状態(例えば高度、速度、姿勢)と、目標変更可能な飛しょう体1と目標4との距離、飛しょう体1の高度とに基づいて算出される。設定可能時間501は、飛しょう体1において計算され、指令装置2に通知されることが好ましい。あるいは、飛しょう体1の状態(例えば高度、速度、姿勢)やその位置が指令装置2に通知され、これを用いて指令装置2において設定可能時間501が計算されてもよい。   The settable time 501 indicates a time during which the target can be changed, and indicates that the target cannot be changed after this time has elapsed. The settable time 501 is calculated based on, for example, the state (for example, altitude, speed, posture) of the flying object 1, the distance between the flying object 1 and the target 4 that can change the target, and the altitude of the flying object 1. Is done. The settable time 501 is preferably calculated in the flying object 1 and notified to the command device 2. Alternatively, the state (e.g., altitude, speed, posture) of the flying object 1 and its position may be notified to the command device 2, and the settable time 501 may be calculated in the command device 2 using this.

現在状況情報502は、飛しょう体1の現在の目標4についての状況を示す。例えば、現在状況情報502は、飛しょう体1を特定する飛しょう体ID、当該飛しょう体1の現在の目標を特定する目標IDやその位置情報、当該目標への到達状況を示す情報等を含む。   The current status information 502 indicates the status of the current target 4 of the flying object 1. For example, the current status information 502 includes a flying object ID that identifies the flying object 1, a target ID that identifies the current target of the flying object 1, position information thereof, information that indicates the status of arrival at the target, and the like. Including.

目標候補情報503は、飛しょう体1の目標候補となり得る目標を示す。例えば、目標候補情報503は、目標候補をその優先度に応じて表示されることが好ましい。図22に示す一例では、目標候補を特定する目標ID、その優先度、及び目標の位置情報が目標候補情報503として表示される。   The target candidate information 503 indicates a target that can be a target candidate of the flying object 1. For example, the target candidate information 503 is preferably displayed according to the priority of the target candidates. In the example illustrated in FIG. 22, a target ID for specifying a target candidate, its priority, and target position information are displayed as target candidate information 503.

選択ボタン504は、ユーザインタフェース23を操作することで押下されると、対応する目標候補が、飛しょう体1の目標4として設定される。図22に示す一例では、選択ボタン504−1が押下されることで、目標候補情報503−1(目標“T11”)が選択され、選択ボタン504−2が押下されることで、目標候補情報503−2(目標“T12”)が選択される。   When the selection button 504 is pressed by operating the user interface 23, a corresponding target candidate is set as the target 4 of the flying object 1. In the example illustrated in FIG. 22, the target candidate information 503-1 (target “T11”) is selected by pressing the selection button 504-1, and the target candidate information is selected by pressing the selection button 504-2. 503-2 (target “T12”) is selected.

目標変更用画面500を利用することにより、ユーザは、現在の飛しょう体1の目標の到着状況を確認できるとともに、優先度に応じた目標4の変更、設定を容易に行うことができる。   By using the target change screen 500, the user can confirm the current arrival status of the target of the flying object 1 and can easily change and set the target 4 according to the priority.

(第2実施例の第1変形例)
第2実施例では、ユーザインタフェース23を利用して手動で、目標4(慣性誘導の目標)の変更が行われたが、これに限らず、指令装置2における飛しょう体制御装置21によって自動的に行われてもかまわない。
(First modification of the second embodiment)
In the second embodiment, the target 4 (inertial guidance target) is changed manually using the user interface 23. However, the present invention is not limited to this, and the flying object control device 21 in the command device 2 automatically It does not matter if it is done.

例えば、図20や図21に示す目標テーブルが記憶装置213に登録されている場合、上述のように、飛しょう体1の目標4への到達状況や優先度が、飛しょう体1の飛しょう間においても動的に更新され得る。飛しょう体制御装置21は、他の飛しょう体1の目標到達によって、飛しょう体1の目標が選択対象から除外された場合、自動的に次に優先度の高い目標4に変更し、目標設定情報として飛しょう体1に通知する。これにより、ユーザが目標到達を指令装置2に入力することにより、自動的に飛しょう体1の目標変更が可能となる。   For example, when the target table shown in FIG. 20 or FIG. 21 is registered in the storage device 213, the arrival status and priority of the flying object 1 to the target 4 are the flying object 1 as described above. It can also be updated dynamically in between. The flying object control device 21 automatically changes to the next highest priority target 4 when the target of the flying object 1 is excluded from the selection target due to the arrival of the target of the other flying object 1. The flying object 1 is notified as setting information. Thereby, the target change of the flying object 1 can be automatically performed when the user inputs the target arrival to the command device 2.

目標テーブルの更新は、ユーザインタフェース23によって行われてもよいが、図示しない他の指令装置2によって行われてもよい。すなわち、指令装置2が複数設けられた場合、目標の到達状況が共有化され、この情報を利用して目標変更が行われてもよい。   The update of the target table may be performed by the user interface 23, but may be performed by another command device 2 (not shown). That is, when a plurality of command devices 2 are provided, the target arrival status may be shared, and the target change may be performed using this information.

(第2実施例の第2変形例)
図17に示す飛しょう体1の動作では、ロックオン候補100の抽出からロックオン対象400の設定までの間、慣性航行が継続されるが、これに限らず、第1実施例の第2変形例と同様に、ユーザによるロックオン設定や、設定不能状態への変更を待たずに画像誘導を開始してもよい。図23は、本発明による飛しょう体1の画像誘導動作の第2実施例の第2変形例を示すフロー図である。
(Second modification of the second embodiment)
In the operation of the flying object 1 shown in FIG. 17, inertial navigation is continued from the extraction of the lock-on candidate 100 to the setting of the lock-on target 400, but not limited to this, the second modification of the first embodiment Similarly to the example, the image guidance may be started without waiting for the lock-on setting by the user or the change to the setting impossible state. FIG. 23 is a flowchart showing a second modification of the second embodiment of the image guiding operation of the flying object 1 according to the present invention.

図23を参照して、本変形例におけるステップS301、S302、S304〜S308、S310〜S313の動作は、図17に示す同符号の動作と同様であるので、その詳細な説明は省略し、図17に示す一例と異なる動作を中心に説明する。   Referring to FIG. 23, the operations in steps S301, S302, S304 to S308, and S310 to S313 in the present modification are the same as the operations having the same reference numerals shown in FIG. The operation different from the example shown in FIG.

本変形例における飛しょう体1は、図17に示すステップS301、S302と同様に画像取得及びロックオン候補100の抽出を行う。続いて、飛しょう体1では、設定情報の受付を待つことなく、抽出したロックオン候補100をロックオン対象として設定し、画像誘導を行う(ステップS402、S403)。   The flying object 1 in this modification performs image acquisition and lock-on candidate 100 extraction in the same manner as steps S301 and S302 shown in FIG. Subsequently, the flying object 1 sets the extracted lock-on candidate 100 as a lock-on target without waiting for reception of the setting information, and performs image guidance (steps S402 and S403).

飛しょう体1は、図17に示すステップS303と同様に取得画像110及び目標識別情報200を指令装置2に送信する(ステップS404)。指令装置2は、取得画像110及び目標識別情報200を受信すると、これらを用いた目標抽出画像6を表示する。これにより、ユーザは、飛しょう体1が抽出したロックオン候補100を特定できる。本変形例では、飛しょう体1は、既にロックオン候補100をロックオン対象400として画像誘導されているため、ユーザは、目標抽出画像6により、飛しょう体1のロックオン対象400を確認することとなる。   The flying object 1 transmits the acquired image 110 and the target identification information 200 to the command device 2 similarly to step S303 shown in FIG. 17 (step S404). When the command device 2 receives the acquired image 110 and the target identification information 200, the command device 2 displays the target extraction image 6 using these. Thereby, the user can specify the lock-on candidate 100 extracted by the flying object 1. In this modification, since the flying object 1 has already been image-guided with the lock-on candidate 100 as the lock-on target 400, the user confirms the lock-on target 400 of the flying object 1 based on the target extraction image 6. It will be.

飛しょう体1は、発射後、任意の時期に設定可能状態に設定される。これにより、飛しょう体1は、指令装置2から送信される設定情報又は目標設定情報を受け付け可能な状態となる。飛しょう体1が設定可能状態となるタイミングや設定不能状態となるタイミングは、上述と同様、設定情報と目標設定情報のそれぞれについて個別に設定されてもよい。   The flying object 1 is set to a settable state at any time after launch. Thereby, the flying object 1 will be in the state which can receive the setting information or target setting information transmitted from the instruction | command apparatus 2. FIG. The timing at which the flying object 1 is settable and the setting-disabled state may be individually set for each of the setting information and the target setting information, as described above.

飛しょう体1が設定可能状態である間、図17に示すステップS304〜S308、S310〜S313と同様に、指令装置2から受け付けた設定情報や、目標設定情報に基づいて、ロックオン対象400又は慣性誘導目標の設定、変更が行われる。本変形例では、最初に設定情報を受け付けたとき、飛しょう体1は、既にロックオン候補100をロックオン対象400として画像誘導されている。このため、最初に設定情報を受け付けた場合でも、ロックオン対象400が更新されることとなる。又、目標設定情報を受け付けた場合、飛しょう体1は、画像誘導を解除して目標4の変更を行うことになる。   While the flying object 1 is in a settable state, similarly to steps S304 to S308 and S310 to S313 shown in FIG. 17, based on the setting information received from the command device 2 and the target setting information, the lock-on target 400 or Inertia guidance target is set and changed. In this modification, when the setting information is received for the first time, the flying object 1 has already been image-guided with the lock-on candidate 100 as the lock-on target 400. For this reason, even when the setting information is received for the first time, the lock-on target 400 is updated. When the target setting information is received, the flying object 1 cancels the image guidance and changes the target 4.

ステップS313において、飛しょう体1は、画像誘導制御(終末誘導)を解除し、高度を上げて、慣性誘導制御(中間誘導)に移行する。飛しょう体1は、目標設定情報に含まれる新たな目標までの飛しょう経路に従い、新たな目標に向かって慣性航行することが好ましい。その後、新たな目標4に接近すると、再び目標方向の画像の撮像を開始し、ステップS301に移行する。   In step S313, the flying object 1 releases the image guidance control (terminal guidance), raises the altitude, and shifts to inertial guidance control (intermediate guidance). It is preferable that the flying object 1 navigates inertially toward a new target according to a flight route to the new target included in the target setting information. Thereafter, when approaching the new target 4, the imaging of the image in the target direction is started again, and the process proceeds to step S301.

一方、飛しょう体1が設定不能状態となるまで、飛しょう体1が設定情報や目標設定が受信しない場合、ロックオン候補100をロックオン対象400とした画像誘導が継続される(ステップS304Yes、S308)。   On the other hand, when the flying object 1 does not receive the setting information or the target setting until the flying object 1 is in a setting impossible state, the image guidance using the lock-on candidate 100 as the lock-on target 400 is continued (Yes in step S304). S308).

以上のように、第2実施例の第2変形例によれば、飛しょう体1は、ロックオン候補100をロックオン対象400として抽出し画像誘導を開始するため、画像取得してから早期に画像誘導に移行できる。例えば、第2実施例では、設定情報を受信しない場合、設定不能状態となるまで画像誘導が開始されないことがあるが、本変形例では、少なくともロックオン候補100の抽出時から画像誘導が開始され得る。又、ロックオン候補100をロックオン対象400として画像誘導している間、飛しょう体1は、少なくともロックオン候補100として抽出された目標の周辺領域を撮像し、指令装置2に送信できる。このため、ユーザは、少なくともロックオン候補100として抽出された目標及びその周辺領域を含む取得画像110を確認しながら、ロックオン対象の設定又は承認が可能となる。   As described above, according to the second modification of the second embodiment, the flying object 1 extracts the lock-on candidate 100 as the lock-on target 400 and starts image guidance. Transition to image guidance. For example, in the second embodiment, when the setting information is not received, the image guidance may not be started until the setting is disabled. However, in this modification, the image guidance is started at least when the lock-on candidate 100 is extracted. obtain. Further, while the lock-on candidate 100 is image-guided as the lock-on target 400, the flying object 1 can image at least the target peripheral area extracted as the lock-on candidate 100 and transmit it to the command device 2. For this reason, the user can set or approve a lock-on target while confirming at least the acquired image 110 including the target extracted as the lock-on candidate 100 and its surrounding area.

以上のように、第2実施例における飛しょう体誘導システムによれば、目標方向の画像を取得してから目標変更が不可能となるまでの間、ロックオン対象400のみならず、取得画像110外の目標も変更することが可能となる。   As described above, according to the flying object guidance system in the second embodiment, not only the lock-on target 400 but also the acquired image 110 from when the image in the target direction is acquired until the target cannot be changed. Outside targets can also be changed.

尚、第2実施例における飛しょう体1も、第1実施例の第1変形例(図14に示す動作)と同様に、設定情報又は目標設定情報の受付の都度、ロックオン対象400又は慣性誘導の目標が変更されてもよい。   Note that the flying object 1 in the second embodiment also has a lock-on target 400 or inertia every time it receives setting information or target setting information, as in the first modification of the first embodiment (the operation shown in FIG. 14). The guidance target may be changed.

以上、本発明の実施の形態を詳述してきたが、具体的な構成は上記実施の形態に限られるものではなく、本発明の要旨を逸脱しない範囲の変更があっても本発明に含まれる。   The embodiment of the present invention has been described in detail above, but the specific configuration is not limited to the above-described embodiment, and changes within a scope not departing from the gist of the present invention are included in the present invention. .

本発明によるシステムでは、ユーザは、目標抽出画像6を利用して、ロックオン対象400の指定を行うことができる。このとき、ロックオン対象400の位置を指定するのではなく、飛しょう体1によって抽出されたロックオン候補100を承認することで、ロックオン候補100をロックオン対象400として指定しても構わない。具体的には、図24に示すように、ロックオン候補100をロックオン対象400として承認することを指示する、承認ボタン600を目標抽出画像6に含めてもよい。この場合、ユーザインタフェース23の操作により承認ボタン600が押下されると、ロックオン候補100が、ロックオン対象400として指定する設定情報が生成及び送信される。ユーザは、ロックオン候補100を承認するか否かを選択することで、ロックオン対象400を設定できるため、目標承認の指示時間が更に短縮できる。尚、目標抽出画像6にも、ロックオン対象400を設定可能な時間を示す設定可能時間501が表示されることが好ましい。   In the system according to the present invention, the user can specify the lock-on target 400 using the target extracted image 6. At this time, instead of designating the position of the lock-on target 400, the lock-on candidate 100 may be designated as the lock-on target 400 by approving the lock-on candidate 100 extracted by the flying object 1. . Specifically, as illustrated in FIG. 24, an approval button 600 that instructs to approve the lock-on candidate 100 as the lock-on target 400 may be included in the target extraction image 6. In this case, when the approval button 600 is pressed by an operation of the user interface 23, setting information for specifying the lock-on candidate 100 as the lock-on target 400 is generated and transmitted. Since the user can set the lock-on target 400 by selecting whether to approve the lock-on candidate 100, the target approval instruction time can be further shortened. In addition, it is preferable that the target extraction image 6 also displays a settable time 501 indicating a time during which the lock-on target 400 can be set.

又、上述において画像解析部12は、遺伝的アルゴリズムを利用してマッチング率の高い抽出用画像204を作成し、ロックオン候補100の抽出を行ったがこれに限らない。例えば、画像解析部12は、遺伝的アルゴリズムと異なるメタヒューリスティクスにより、条件画像201から、ロックオン候補100の抽出に最適な抽出用画像204を生成してもよい。ここで、メタヒューリスティクスは、組合せ最適化問題に対する発見的解法を示し、例えば、疑似焼きなまし法(SA法: Simulated Annealing)、タブー探索法(TS法:Tabu Search)、蟻コロニー最適化(ACO:Ant Colony Optimization)、又は粒子群最適化(PSO:Particle Swarm Optimization)等の手法を示す。   Further, in the above description, the image analysis unit 12 uses the genetic algorithm to create the extraction image 204 with a high matching rate and extract the lock-on candidates 100. However, the present invention is not limited to this. For example, the image analysis unit 12 may generate an extraction image 204 that is optimal for extracting the lock-on candidate 100 from the condition image 201 using metaheuristics different from the genetic algorithm. Here, metaheuristics indicates a heuristic solution to the combinatorial optimization problem. For example, pseudo-annealing method (SA method: simulated annealing), tabu search method (TS method: Tabu Search), ant colony optimization (ACO: Techniques such as Ant Colony Optimization (PSO) or Particle Swarm Optimization (PSO) are shown.

更に、上述において、画像解析部12は、1つのロックオン候補100を抽出したが、これに限らず、複数のロックオン候補100を抽出してもよい。例えば、抽出用画像に含まれる目標T0の位置に対応する取得画像110上の位置の近傍(所定の範囲内)に複数の特徴(例示:線分、角、多角形等)が抽出される場合がある。この場合、画像解析部12は、複数の特徴それぞれをロックオン候補100として抽出する。指令装置2を利用するユーザは、複数のロックオン候補100からロックオン対象400となる目標を選択指定する。これにより、飛しょう体1は、抽出した複数のロックオン候補100の1つをロックオン対象400として、画像誘導される。   Furthermore, in the above description, the image analysis unit 12 extracts one lock-on candidate 100, but the present invention is not limited to this, and a plurality of lock-on candidates 100 may be extracted. For example, when a plurality of features (eg, line segments, corners, polygons, etc.) are extracted in the vicinity (within a predetermined range) of the position on the acquired image 110 corresponding to the position of the target T0 included in the extraction image. There is. In this case, the image analysis unit 12 extracts each of the plurality of features as the lock-on candidate 100. A user using the command device 2 selects and designates a target to be a lock-on target 400 from a plurality of lock-on candidates 100. Thereby, the flying object 1 is image-guided by using one of the extracted plurality of lock-on candidates 100 as the lock-on target 400.

又、複数のロックオン候補100が抽出された場合において、ロックオン対象400が設定されないまま設定不能状態となる場合がある。この場合、例えば、飛しょう体1の誘導制御部13は、設定不能状態となった時点において飛しょう体1が指向している座標に最も近いロックオン候補100をロックオン対象400に設定する。あるいは、誘導制御部13は、複数のロックオン候補100のうち、最も相関の高いロックオン候補100をロックオン対象400として設定する。これにより、複数のロックオン候補100のいずれもロックオン対象400として設定されない場合でも、飛しょう体1において自動的にロックオン対象400が設定され得る。   In addition, when a plurality of lock-on candidates 100 are extracted, the lock-on target 400 may not be set and the setting may be disabled. In this case, for example, the guidance control unit 13 of the flying object 1 sets, as the lock-on target 400, the lock-on candidate 100 that is closest to the coordinates to which the flying object 1 is directed when the setting state is disabled. Alternatively, the guidance control unit 13 sets the lock-on candidate 100 having the highest correlation among the plurality of lock-on candidates 100 as the lock-on target 400. Thereby, even when none of the plurality of lock-on candidates 100 is set as the lock-on target 400, the lock-on target 400 can be automatically set in the flying object 1.

尚、上述した実施例やその変形例は、技術的な矛盾がない範囲内で組み合わせて実行できる。   It should be noted that the above-described embodiments and modifications thereof can be combined and executed within a range where there is no technical contradiction.

1、1−1、1−2 :飛しょう体
2 :指令装置
3 :発射装置
4、4−1、4−2 :目標
5 :通信衛星
6 :目標抽出画像
10 :演算処理装置
11 :画像センサ
12 :画像解析部
13 :誘導制御部
14 :制御装置
15 :通信装置
16 :記憶装置
21 :飛しょう体制御装置
22 :表示装置
23 :ユーザインタフェース
100 :ロックオン候補
110 :取得画像
120 :補正画像
121 :画像補正部
122 :抽出用画像生成部
123 :目標抽出部
124 :目標識別部
151 :送信部
152 :受信部
160 :誘導制御プログラム
200 :目標識別情報
201 :条件画像
202 :目標位置情報
203 :解候補画像
204 :抽出用画像
400 :ロックオン対象
500 :目標変更用画面
1, 1-1, 1-2: Flying object 2: Command device 3: Launcher 4, 4-1, 4-2: Target 5: Communication satellite 6: Target extraction image 10: Arithmetic processing device 11: Image sensor 12: Image analysis unit 13: Guidance control unit 14: Control device 15: Communication device 16: Storage device 21: Flying object control device 22: Display device 23: User interface 100: Lock-on candidate 110: Acquired image 120: Correction image 121: Image correction unit 122: Extraction image generation unit 123: Target extraction unit 124: Target identification unit 151: Transmission unit 152: Reception unit 160: Guidance control program 200: Target identification information 201: Condition image 202: Target position information 203 : Solution candidate image 204: Extraction image 400: Lock-on target 500: Target change screen

Claims (21)

飛しょう体と
指令装置と、
を具備し、
前記飛しょう体は、
画像を撮像し、取得画像として出力する画像センサと、
前記取得画像からロックオン候補を抽出する画像解析部と、
前記取得画像上において前記ロックオン候補を識別するための目標識別情報と、前記取得画像とを前記指令装置に送信する送信部と、
前記指令装置からの設定情報を受信する受信部と、
受信した前記設定情報を受け付けた場合、前記設定情報に基づいて前記飛しょう体のロックオン対象を設定し、前記ロックオン対象に対して前記飛しょう体の画像誘導を行う誘導制御部と
を具備し、
前記指令装置は、
前記取得画像に、前記目標識別情報に基づいて生成された目標識別表示が付加された画像を目標抽出画像として表示する表示装置と、
ユーザによる操作に応じて、前記目標抽出画像内の目標を前記飛しょう体のロックオン対象として指定する指定信号を出力するユーザインタフェースと、
前記指定信号に基づいて、前記取得画像においてロックオン対象となる画像内目標を指定する前記設定情報を前記飛しょう体に送信する飛しょう体制御装置と
を備え
前記画像解析部によって抽出された前記ロックオン候補が複数の画像内目標候補を含む場合、前記誘導制御部は、前記設定情報の受付前に、前記複数の画像内目標候補の重心点をロックオン対象として設定して前記飛しょう体の画像誘導を行い、画像誘導の実行中に前記設定情報を受け付けた場合、前記設定情報に基づいて指定された画像内目標候補を前記飛しょう体のロックオン対象に設定し、前記ロックオン対象に対して前記飛しょう体の画像誘導を行う
飛しょう体誘導システム。
A flying object, a command device,
Comprising
The flying object is
An image sensor that captures an image and outputs it as an acquired image;
An image analysis unit for extracting lock-on candidates from the acquired image;
Target identification information for identifying the lock-on candidate on the acquired image, and a transmission unit that transmits the acquired image to the command device;
A receiving unit for receiving setting information from the commanding device;
A guidance control unit configured to set the flying object lock-on target based on the setting information when receiving the received setting information, and to perform image guidance of the flying object on the lock-on target; And
The command device is:
A display device for displaying, as a target extracted image, an image obtained by adding a target identification display generated based on the target identification information to the acquired image;
A user interface that outputs a designation signal that designates a target in the target extraction image as a lock-on target of the flying object according to an operation by a user;
A flying object control device for transmitting to the flying object the setting information for designating an in-image target to be locked on in the acquired image based on the designation signal ;
When the lock-on candidates extracted by the image analysis unit include a plurality of intra-image target candidates, the guidance control unit locks on the barycentric points of the plurality of intra-image target candidates before accepting the setting information. When the image of the flying object is set as a target and the setting information is received during image guidance, the target candidate in the image designated based on the setting information is locked on the flying object. A flying object guidance system that sets an object and performs image guidance of the flying object with respect to the lock-on object .
飛しょう体と
指令装置と、
を具備し、
前記飛しょう体は、
画像を撮像し、取得画像として出力する画像センサと、
前記取得画像からロックオン候補を抽出する画像解析部と、
前記取得画像上において前記ロックオン候補を識別するための目標識別情報と、前記取得画像とを前記指令装置に送信する送信部と、
前記指令装置からの設定情報を受信する受信部と、
受信した前記設定情報を受け付けた場合、前記設定情報に基づいて前記飛しょう体のロックオン対象を設定し、前記ロックオン対象に対して前記飛しょう体の画像誘導を行う誘導制御部と
を具備し、
前記指令装置は、
前記取得画像に、前記目標識別情報に基づいて生成された目標識別表示が付加された画像を目標抽出画像として表示する表示装置と、
ユーザによる操作に応じて、前記目標抽出画像内の目標を前記飛しょう体のロックオン対象として指定する指定信号を出力するユーザインタフェースと、
前記指定信号に基づいて、前記取得画像においてロックオン対象となる画像内目標を指定する前記設定情報を前記飛しょう体に送信する飛しょう体制御装置と
を備え、
前記誘導制御部は、
所定の条件に応じて前記設定情報の受付を禁止する設定不能状態に設定され、
前記設定不能状態に設定される前に前記設定情報を受け付けない場合、前記ロックオン候補を前記ロックオン対象として設定し、前記ロックオン対象に対して前記飛しょう体の画像誘導を行う
飛しょう体誘導システム。
With flying bodies
A command device;
Comprising
The flying object is
An image sensor that captures an image and outputs it as an acquired image;
An image analysis unit for extracting lock-on candidates from the acquired image;
Target identification information for identifying the lock-on candidate on the acquired image, and a transmission unit that transmits the acquired image to the command device;
A receiving unit for receiving setting information from the commanding device;
When the received setting information is received, a guidance control unit that sets the flying object lock-on target based on the setting information and performs image guidance of the flying object with respect to the lock-on target;
Comprising
The command device is:
A display device for displaying, as a target extracted image, an image obtained by adding a target identification display generated based on the target identification information to the acquired image;
A user interface that outputs a designation signal that designates a target in the target extraction image as a lock-on target of the flying object according to an operation by a user;
A flying object control device for transmitting the setting information for designating an in-image target to be locked on in the acquired image to the flying object based on the designation signal;
With
The guidance control unit
It is set to an unsettable state that prohibits acceptance of the setting information according to a predetermined condition,
If the setting information is not accepted before the setting is disabled, the lock-on candidate is set as the lock-on target, and the flying object is guided to the lock-on target. Guidance system.
請求項に記載の飛しょう体誘導システムにおいて、
前記所定の条件は、前記飛しょう体の目標変更が困難となる目標変更限界距離を含み、
前記誘導制御部は、前記飛しょう体と目標との距離が、予め設定された前記目標変更限界距離に至ると前記設定不能状態に設定される
飛しょう体誘導システム。
In the flying object guidance system according to claim 2 ,
The predetermined condition includes a target change limit distance that makes it difficult to change the target of the flying object,
The said guidance control part is set to the said setting impossible state when the distance of the said flying body and a target reaches the preset target change limit distance.
請求項に記載の飛しょう体誘導システムにおいて、
前記所定の条件は、飛しょう体の目標変更が困難となる目標変更限界角を含み、
前記誘導制御部は、前記飛しょう体の目標に対する進入角度が、予め設定された前記目標変更限界角に至ると前記設定不能状態に設定される
飛しょう体誘導システム。
In the flying object guidance system according to claim 2 ,
The predetermined condition includes a target change limit angle at which the target change of the flying object becomes difficult,
The said guidance control part is set to the said setting impossible state, when the approach angle with respect to the target of the said flying object reaches the said target change limit angle set beforehand.
飛しょう体と
指令装置と、
を具備し、
前記飛しょう体は、
画像を撮像し、取得画像として出力する画像センサと、
前記取得画像からロックオン候補を抽出する画像解析部と、
前記取得画像上において前記ロックオン候補を識別するための目標識別情報と、前記取得画像とを前記指令装置に送信する送信部と、
前記指令装置からの設定情報を受信する受信部と、
受信した前記設定情報を受け付けた場合、前記設定情報に基づいて前記飛しょう体のロックオン対象を設定し、前記ロックオン対象に対して前記飛しょう体の画像誘導を行う誘導制御部と
を具備し、
前記指令装置は、
前記取得画像に、前記目標識別情報に基づいて生成された目標識別表示が付加された画像を目標抽出画像として表示する表示装置と、
ユーザによる操作に応じて、前記目標抽出画像内の目標を前記飛しょう体のロックオン対象として指定する指定信号を出力するユーザインタフェースと、
前記指定信号に基づいて、前記取得画像においてロックオン対象となる画像内目標を指定する前記設定情報を前記飛しょう体に送信する飛しょう体制御装置と
を備え、
前記ユーザインタフェースは、ユーザによる第3操作に応じて、目標変更信号を出力し、
前記飛しょう体制御装置は、前記目標変更信号に応じて新たな目標座標を指定する目標設定情報を前記飛しょう体に送信し、
前記誘導制御部は、受信した前記目標設定情報を受け付けた場合、前記目標設定情報に基づいて指定された前記目標座標に前記飛しょう体を慣性誘導する
飛しょう体誘導システム。
With flying bodies
A command device;
Comprising
The flying object is
An image sensor that captures an image and outputs it as an acquired image;
An image analysis unit for extracting lock-on candidates from the acquired image;
Target identification information for identifying the lock-on candidate on the acquired image, and a transmission unit that transmits the acquired image to the command device;
A receiving unit for receiving setting information from the commanding device;
When the received setting information is received, a guidance control unit that sets the flying object lock-on target based on the setting information and performs image guidance of the flying object with respect to the lock-on target;
Comprising
The command device is:
A display device for displaying, as a target extracted image, an image obtained by adding a target identification display generated based on the target identification information to the acquired image;
A user interface that outputs a designation signal that designates a target in the target extraction image as a lock-on target of the flying object according to an operation by a user;
A flying object control device for transmitting the setting information for designating an in-image target to be locked on in the acquired image to the flying object based on the designation signal;
With
The user interface outputs a target change signal in response to a third operation by the user,
The flying object control device transmits target setting information for designating new target coordinates in response to the target change signal to the flying object,
The guidance control unit, when receiving the received target setting information, inertially guides the flying object to the target coordinates specified based on the target setting information.
請求項に記載の飛しょう体誘導システムにおいて、
前記指令装置は、
前記飛しょう体に対して複数の目標候補が対応付られて記録された目標テーブルを備え、
前記飛しょう体制御装置は、前記目標テーブルを参照して、前記飛しょう体に対応する前記複数の目標候補から、前記目標変更信号に応じた目標候補の座標を選択し、前記飛しょう体の新たな目標座標として指定する
飛しょう体誘導システム。
In the flying object guidance system according to claim 5 ,
The command device is:
Comprising a target table in which a plurality of target candidates are recorded are Installing corresponding to the flying object,
The flying object control device selects the target candidate coordinates according to the target change signal from the plurality of target candidates corresponding to the flying object with reference to the target table, and A flying object guidance system that is designated as a new target coordinate.
請求項に記載の飛しょう体誘導システムにおいて、
前記複数の目標候補のそれぞれには優先度が割り当てられ、
前記飛しょう体制御装置は、前記目標テーブルを参照し、前記複数の目標候補から、現在の目標と異なる目標候補において優先度が最上位の目標候補の座標を選択し、前記新たな目標座標として指定する
飛しょう体誘導システム。
In the flying object guidance system according to claim 6 ,
Each of the plurality of goal candidates is assigned a priority,
The flying object control device refers to the target table, selects the target candidate coordinate having the highest priority in the target candidate different from the current target from the plurality of target candidates, and sets the new target coordinate. Specify flying object guidance system.
請求項に記載の飛しょう体誘導システムにおいて、
前記複数の目標候補のそれぞれには優先度が割り当てられ、
前記表示装置は、前記複数の目標候補を優先度に応じた順に表示する
飛しょう体誘導システム。
In the flying object guidance system according to claim 6 ,
Each of the plurality of goal candidates is assigned a priority,
The display device displays the plurality of target candidates in order according to priority.
請求項6から8のいずれか1項に記載の飛しょう体誘導システムにおいて、
前記飛しょう体制御装置は、他の飛しょう体が到達した目標と同一の目標候補を、前記目標テーブルから指定不能に制御する
飛しょう体誘導システム。
In the flying object guidance system according to any one of claims 6 to 8 ,
The flying object control device controls a target candidate identical to a target reached by another flying object so that it cannot be designated from the target table.
請求項に記載の飛しょう体誘導システムにおいて、
前記飛しょう体制御装置は、他の飛しょう体が到達した目標と同一の目標候補を、到達済みに設定し、前記飛しょう体の目標として指定不能に設定する
飛しょう体誘導システム。
In the flying object guidance system according to claim 9 ,
The flying object control system sets a target candidate that is the same as a target reached by another flying object to be reached, and sets the target candidate to be unspecified as the target of the flying object.
請求項に記載の飛しょう体誘導システムにおいて、
前記複数の目標候補のそれぞれには優先度が割り当てられ、
前記飛しょう体制御装置は、他の飛しょう体が到達した目標と同一の目標候補の優先度を、最低値に設定し、前記飛しょう体の目標として指定不能に設定する
飛しょう体誘導システム。
In the flying object guidance system according to claim 9 ,
Each of the plurality of goal candidates is assigned a priority,
The flying object control device sets the priority of the same target candidate as the target reached by the other flying objects to the lowest value, and sets the priority of the flying object so that it cannot be specified. .
飛しょう体と
指令装置と、
を具備し、
前記飛しょう体は、
画像を撮像し、取得画像として出力する画像センサと、
前記取得画像からロックオン候補を抽出する画像解析部と、
前記取得画像上において前記ロックオン候補を識別するための目標識別情報と、前記取得画像とを前記指令装置に送信する送信部と、
前記指令装置からの設定情報を受信する受信部と、
受信した前記設定情報を受け付けた場合、前記設定情報に基づいて前記飛しょう体のロックオン対象を設定し、前記ロックオン対象に対して前記飛しょう体の画像誘導を行う誘導制御部と
を具備し、
前記指令装置は、
前記取得画像に、前記目標識別情報に基づいて生成された目標識別表示が付加された画像を目標抽出画像として表示する表示装置と、
ユーザによる操作に応じて、前記目標抽出画像内の目標を前記飛しょう体のロックオン対象として指定する指定信号を出力するユーザインタフェースと、
前記指定信号に基づいて、前記取得画像においてロックオン対象となる画像内目標を指定する前記設定情報を前記飛しょう体に送信する飛しょう体制御装置と
を備え、
前記送信部は、前記飛しょう体が目標に到達するまで、前記取得画像を前記指令装置に送信し、
前記表示装置は、前記飛しょう体から送信される前記取得画像を表示する
飛しょう体誘導システム。
With flying bodies
A command device;
Comprising
The flying object is
An image sensor that captures an image and outputs it as an acquired image;
An image analysis unit for extracting lock-on candidates from the acquired image;
Target identification information for identifying the lock-on candidate on the acquired image, and a transmission unit that transmits the acquired image to the command device;
A receiving unit for receiving setting information from the commanding device;
When the received setting information is received, a guidance control unit that sets the flying object lock-on target based on the setting information and performs image guidance of the flying object with respect to the lock-on target;
Comprising
The command device is:
A display device for displaying, as a target extracted image, an image obtained by adding a target identification display generated based on the target identification information to the acquired image;
A user interface that outputs a designation signal that designates a target in the target extraction image as a lock-on target of the flying object according to an operation by a user;
A flying object control device for transmitting the setting information for designating an in-image target to be locked on in the acquired image to the flying object based on the designation signal;
With
The transmitter transmits the acquired image to the command device until the flying object reaches a target,
The display device displays the acquired image transmitted from the flying object.
画像を撮像し、取得画像として出力する画像センサと、
前記取得画像からロックオン候補を抽出する画像解析部と、
前記取得画像上において前記ロックオン候補を識別するための目標識別情報と、前記取得画像とを指令装置に送信する送信部と、
前記指令装置からの設定情報を受信する受信部と、
受信した前記設定情報を受け付けた場合、前記設定情報に基づいてロックオン対象を設定し、前記ロックオン対象に対して画像誘導を行う誘導制御部と
を具備し、
前記指令装置において、前記取得画像内の目標が前記飛しょう体のロックオン対象として指定された場合、前記設定情報は、指定された前記取得画像内の目標をロックオン対象として指定する情報を含み、
前記画像解析部によって抽出された前記ロックオン候補が複数の画像内目標候補を含む場合、前記誘導制御部は、前記設定情報の受付前に、前記複数の画像内目標候補の重心点をロックオン対象として設定して画像誘導を行い、画像誘導の実行中に前記設定情報を受け付けた場合、前記設定情報に基づいて指定された画像内目標候補をロックオン対象に設定し、前記ロックオン対象に対して画像誘導を行う
飛しょう体。
An image sensor that captures an image and outputs it as an acquired image;
An image analysis unit for extracting lock-on candidates from the acquired image;
Target identification information for identifying the lock-on candidate on the acquired image, and a transmission unit that transmits the acquired image to a command device;
A receiving unit for receiving setting information from the commanding device;
When the received setting information is received, a lock-on target is set based on the setting information, and a guidance control unit that performs image guidance on the lock-on target includes:
In the command device, when a target in the acquired image is specified as a target for lock-on of the flying object, the setting information includes information for specifying a target in the specified acquired image as a target for lock-on. See
When the lock-on candidates extracted by the image analysis unit include a plurality of intra-image target candidates, the guidance control unit locks on the barycentric points of the plurality of intra-image target candidates before accepting the setting information. When image guidance is performed by setting as a target and the setting information is received during execution of image guidance, the target candidate in the image designated based on the setting information is set as a lock-on target, and the lock-on target is set. A flying body that guides the image .
画像を撮像し、取得画像として出力する画像センサと、
前記取得画像からロックオン候補を抽出する画像解析部と、
前記取得画像上において前記ロックオン候補を識別するための目標識別情報と、前記取得画像とを指令装置に送信する送信部と、
前記指令装置からの設定情報を受信する受信部と、
受信した前記設定情報を受け付けた場合、前記設定情報に基づいてロックオン対象を設定し、前記ロックオン対象に対して画像誘導を行う誘導制御部と
を具備し、
前記指令装置において、前記取得画像内の目標が前記飛しょう体のロックオン対象として指定された場合、前記設定情報は、指定された前記取得画像内の目標をロックオン対象として指定する情報を含み、
前記誘導制御部は、
所定の条件に応じて前記設定情報の受付を禁止する設定不能状態に設定され、
前記設定不能状態に設定される前に前記設定情報を受け付けない場合、前記ロックオン候補を前記ロックオン対象として設定し、前記ロックオン対象に対して画像誘導を行う
飛しょう体。
An image sensor that captures an image and outputs it as an acquired image;
An image analysis unit for extracting lock-on candidates from the acquired image;
Target identification information for identifying the lock-on candidate on the acquired image, and a transmission unit that transmits the acquired image to a command device;
A receiving unit for receiving setting information from the commanding device;
A guidance control unit configured to set a lock-on target based on the setting information and perform image guidance on the lock-on target when the received setting information is received;
Comprising
In the command device, when a target in the acquired image is designated as a target for lock-on of the flying object, the setting information includes information for designating a target in the designated acquired image as a target for lock-on. ,
The guidance control unit
It is set to an unsettable state that prohibits acceptance of the setting information according to a predetermined condition,
When the setting information is not received before the setting is disabled, the lock-on candidate is set as the lock-on target, and image guidance is performed on the lock-on target.
画像を撮像し、取得画像として出力する画像センサと、
前記取得画像からロックオン候補を抽出する画像解析部と、
前記取得画像上において前記ロックオン候補を識別するための目標識別情報と、前記取得画像とを指令装置に送信する送信部と、
前記指令装置からの設定情報を受信する受信部と、
受信した前記設定情報を受け付けた場合、前記設定情報に基づいてロックオン対象を設定し、前記ロックオン対象に対して画像誘導を行う誘導制御部と
を具備し、
前記指令装置において、前記取得画像内の目標が前記飛しょう体のロックオン対象として指定された場合、前記設定情報は、指定された前記取得画像内の目標をロックオン対象として指定する情報を含み、
前記受信部は、前記指令装置から新たな目標座標を指定する目標設定情報を受信し、
前記誘導制御部は、前記目標設定情報を受信した場合、前記目標設定情報に基づいて指定された前記目標座標に慣性誘導する
飛しょう体。
An image sensor that captures an image and outputs it as an acquired image;
An image analysis unit for extracting lock-on candidates from the acquired image;
Target identification information for identifying the lock-on candidate on the acquired image, and a transmission unit that transmits the acquired image to a command device;
A receiving unit for receiving setting information from the commanding device;
A guidance control unit configured to set a lock-on target based on the setting information and perform image guidance on the lock-on target when the received setting information is received;
Comprising
In the command device, when a target in the acquired image is designated as a target for lock-on of the flying object, the setting information includes information for designating a target in the designated acquired image as a target for lock-on. ,
The receiving unit receives target setting information for specifying a new target coordinate from the command device;
When receiving the target setting information, the guidance control unit inertially guides to the target coordinates designated based on the target setting information.
画像を撮像し、取得画像として出力する画像センサと、
前記取得画像からロックオン候補を抽出する画像解析部と、
前記取得画像上において前記ロックオン候補を識別するための目標識別情報と、前記取得画像とを指令装置に送信する送信部と、
前記指令装置からの設定情報を受信する受信部と、
受信した前記設定情報を受け付けた場合、前記設定情報に基づいてロックオン対象を設定し、前記ロックオン対象に対して画像誘導を行う誘導制御部と
を具備し、
前記指令装置において、前記取得画像内の目標が前記飛しょう体のロックオン対象として指定された場合、前記設定情報は、指定された前記取得画像内の目標をロックオン対象として指定する情報を含み、
前記送信部は、前記飛しょう体が目標に到達するまで、前記取得画像を前記指令装置に送信する
飛しょう体。
An image sensor that captures an image and outputs it as an acquired image;
An image analysis unit for extracting lock-on candidates from the acquired image;
Target identification information for identifying the lock-on candidate on the acquired image, and a transmission unit that transmits the acquired image to a command device;
A receiving unit for receiving setting information from the commanding device;
A guidance control unit configured to set a lock-on target based on the setting information and perform image guidance on the lock-on target when the received setting information is received;
Comprising
In the command device, when a target in the acquired image is designated as a target for lock-on of the flying object, the setting information includes information for designating a target in the designated acquired image as a target for lock-on. ,
The transmitting unit transmits the acquired image to the command device until the flying object reaches a target.
画像を撮像し、取得画像として出力するステップと、
前記取得画像内からロックオン候補を抽出するステップと、
前記取得画像上において前記ロックオン候補を識別するための目標識別情報を生成するステップと、
前記目標識別情報と、前記取得画像とを指令装置に送信するステップと、
前記指令装置からの設定情報を受信するステップと、
受信した前記設定情報を受け付けた場合、前記設定情報に基づいて前記飛しょう体のロックオン対象を設定し、前記ロックオン対象に対して画像誘導を行うステップと
を具備し、
前記指令装置において、前記取得画像内の目標が前記飛しょう体のロックオン対象として指定された場合、前記設定情報は、前記取得画像内の目標をロックオン対象として指定する情報を含み、
前記設定情報を受け付ける前に、画像誘導を行うステップは、
前記抽出された前記ロックオン候補が複数の画像内目標候補を含む場合、前記複数の画像内目標候補の重心点をロックオン対象として設定して前記飛しょう体の画像誘導を行うステップを備える
飛しょう体の誘導方法。
Capturing an image and outputting it as an acquired image;
Extracting lock-on candidates from within the acquired image;
Generating target identification information for identifying the lock-on candidate on the acquired image;
Transmitting the target identification information and the acquired image to a command device;
Receiving setting information from the commanding device;
When the received setting information is received, setting a target to be locked on the flying object based on the setting information, and performing image guidance for the target to be locked on, and
In the instruction device, when the target of said acquired image is specified as the lock-on target of the flying object, the setting information, see contains information specifying a target in said captured image as a lock-on target,
Before receiving the setting information, the step of performing image guidance includes:
When the extracted lock-on candidates include a plurality of intra-image target candidates, the step of setting the center of gravity of the plurality of intra-image target candidates as a lock-on target and performing image guidance of the flying object is provided. How to guide the body.
画像を撮像し、取得画像として出力するステップと、
前記取得画像内からロックオン候補を抽出するステップと、
前記取得画像上において前記ロックオン候補を識別するための目標識別情報を生成するステップと、
前記目標識別情報と、前記取得画像とを指令装置に送信するステップと、
前記指令装置からの設定情報を受信するステップと、
受信した前記設定情報を受け付けた場合、前記設定情報に基づいて前記飛しょう体のロックオン対象を設定し、前記ロックオン対象に対して画像誘導を行うステップと
を具備し、
前記指令装置において、前記取得画像内の目標が前記飛しょう体のロックオン対象として指定された場合、前記設定情報は、前記取得画像内の目標をロックオン対象として指定する情報を含み、
所定の条件に応じて前記設定情報の受付を禁止する設定不能状態に設定するステップと、
前記設定不能状態に設定される前に前記設定情報を受け付けない場合、前記ロックオン候補を前記ロックオン対象として設定し、前記ロックオン対象に対して画像誘導を行うステップと
を更に具備する
飛しょう体の誘導方法。
Capturing an image and outputting it as an acquired image;
Extracting lock-on candidates from within the acquired image;
Generating target identification information for identifying the lock-on candidate on the acquired image;
Transmitting the target identification information and the acquired image to a command device;
Receiving setting information from the commanding device;
When receiving the received setting information, setting the flying object lock-on target based on the setting information, and performing image guidance for the lock-on target;
Comprising
In the command device, when a target in the acquired image is designated as a target for lock-on of the flying object, the setting information includes information for designating a target in the acquired image as a target for lock-on,
Setting to a non-settable state prohibiting acceptance of the setting information according to a predetermined condition;
If the setting information is not received before the setting is disabled, the lock-on candidate is set as the lock-on target and image guidance is performed on the lock-on target. How to guide the body.
画像を撮像し、取得画像として出力するステップと、
前記取得画像内からロックオン候補を抽出するステップと、
前記取得画像上において前記ロックオン候補を識別するための目標識別情報を生成するステップと、
前記目標識別情報と、前記取得画像とを指令装置に送信するステップと、
前記指令装置からの設定情報を受信するステップと、
受信した前記設定情報を受け付けた場合、前記設定情報に基づいて前記飛しょう体のロックオン対象を設定し、前記ロックオン対象に対して画像誘導を行うステップと
を具備し、
前記指令装置において、前記取得画像内の目標が前記飛しょう体のロックオン対象として指定された場合、前記設定情報は、前記取得画像内の目標をロックオン対象として指定する情報を含み、
前記指令装置から新たな目標座標を指定する目標設定情報を受信するステップと、
前記目標設定情報を受信した場合、前記目標設定情報に基づいて指定された前記目標座標に慣性誘導するステップを更に具備する
飛しょう体の誘導方法。
Capturing an image and outputting it as an acquired image;
Extracting lock-on candidates from within the acquired image;
Generating target identification information for identifying the lock-on candidate on the acquired image;
Transmitting the target identification information and the acquired image to a command device;
Receiving setting information from the commanding device;
When receiving the received setting information, setting the flying object lock-on target based on the setting information, and performing image guidance for the lock-on target;
Comprising
In the command device, when a target in the acquired image is designated as a target for lock-on of the flying object, the setting information includes information for designating a target in the acquired image as a target for lock-on,
Receiving target setting information for designating new target coordinates from the command device;
A method for guiding a flying object, further comprising the step of inducting inertia to the target coordinates designated based on the target setting information when the target setting information is received.
画像を撮像し、取得画像として出力するステップと、
前記取得画像内からロックオン候補を抽出するステップと、
前記取得画像上において前記ロックオン候補を識別するための目標識別情報を生成するステップと、
前記目標識別情報と、前記取得画像とを指令装置に送信するステップと、
前記指令装置からの設定情報を受信するステップと、
受信した前記設定情報を受け付けた場合、前記設定情報に基づいて前記飛しょう体のロックオン対象を設定し、前記ロックオン対象に対して画像誘導を行うステップと
を具備し、
前記指令装置において、前記取得画像内の目標が前記飛しょう体のロックオン対象として指定された場合、前記設定情報は、前記取得画像内の目標をロックオン対象として指定する情報を含み、
前記飛しょう体が目標に到達するまで、前記取得画像を前記指令装置に送信するステップを更に具備する
飛しょう体の誘導方法。
Capturing an image and outputting it as an acquired image;
Extracting lock-on candidates from within the acquired image;
Generating target identification information for identifying the lock-on candidate on the acquired image;
Transmitting the target identification information and the acquired image to a command device;
Receiving setting information from the commanding device;
When receiving the received setting information, setting the flying object lock-on target based on the setting information, and performing image guidance for the lock-on target;
Comprising
In the command device, when a target in the acquired image is designated as a target for lock-on of the flying object, the setting information includes information for designating a target in the acquired image as a target for lock-on,
The flying object guiding method further comprising the step of transmitting the acquired image to the command device until the flying object reaches a target.
請求項17から20のいずれか1項に記載の飛しょう体の誘導方法を演算処理装置に実行させるための誘導制御プログラム。 A guidance control program for causing an arithmetic processing unit to execute the flying object guidance method according to any one of claims 17 to 20 .
JP2015039323A 2015-02-27 2015-02-27 Flying object guidance system, flying object, flying object guidance method, and guidance control program Active JP6385859B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015039323A JP6385859B2 (en) 2015-02-27 2015-02-27 Flying object guidance system, flying object, flying object guidance method, and guidance control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015039323A JP6385859B2 (en) 2015-02-27 2015-02-27 Flying object guidance system, flying object, flying object guidance method, and guidance control program

Publications (2)

Publication Number Publication Date
JP2016161194A JP2016161194A (en) 2016-09-05
JP6385859B2 true JP6385859B2 (en) 2018-09-05

Family

ID=56844622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015039323A Active JP6385859B2 (en) 2015-02-27 2015-02-27 Flying object guidance system, flying object, flying object guidance method, and guidance control program

Country Status (1)

Country Link
JP (1) JP6385859B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7024997B2 (en) * 2017-11-03 2022-02-24 株式会社エアロネクスト Aircraft Maneuvering System and How to Maneuver an Aircraft Using an Aircraft Maneuvering System
JP6591594B2 (en) * 2018-03-16 2019-10-16 株式会社Lifull Information providing system, server device, and information providing method
JP7184637B2 (en) * 2018-12-28 2022-12-06 三菱重工業株式会社 projectile
RU2745661C1 (en) * 2020-06-05 2021-03-30 Акционерное общество "Научно-технический центр ЭЛИНС" Rocket guidance method and optical-electronic command guidance system for its implementation
CN114440711B (en) * 2021-12-03 2024-02-02 北京星途探索科技有限公司 Four-stage solid carrier rocket trajectory optimization method based on particle swarm optimization
KR102433019B1 (en) * 2022-03-28 2022-08-18 한화시스템(주) Target image display system for manned and unmanned weapon systems and method therefor

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07209401A (en) * 1994-01-12 1995-08-11 Toshiba Corp Target capture device
JPH09170898A (en) * 1995-12-20 1997-06-30 Mitsubishi Electric Corp Guiding apparatus
KR101445216B1 (en) * 2013-03-11 2014-10-01 한국항공우주산업 주식회사 Method of terminal guidance of airplane and apparatuse for using the same

Also Published As

Publication number Publication date
JP2016161194A (en) 2016-09-05

Similar Documents

Publication Publication Date Title
JP6385859B2 (en) Flying object guidance system, flying object, flying object guidance method, and guidance control program
US10495414B2 (en) Devices with network-connected scopes for Allowing a target to be simultaneously tracked by multiple devices
US6157875A (en) Image guided weapon system and method
US20090087029A1 (en) 4D GIS based virtual reality for moving target prediction
CN107643759A (en) From the autonomous system with target following and positioning of unmanned plane shooting mobile image
JP6817422B2 (en) Information processing device, aerial photography route generation method, aerial photography route generation system, program, and recording medium
US20120232717A1 (en) Remote coordinate identifier system and method for aircraft
KR20130009894A (en) Unmanned aeriel vehicle for precision strike of short-range
EP2693160B1 (en) Devices, systems and method to calculate and display a no-fly zone.
JP2019006154A (en) Flight vehicle, flight control system, flight control method, program, and recording medium
US11815335B2 (en) Guided munition systems for detecting off-axis targets
JPH09170898A (en) Guiding apparatus
US10989797B2 (en) Passive altimeter system for a platform and method thereof
WO2022176891A1 (en) Flying object countermeasure system, monitoring ground center, countermeasure ground center, communication route search device, flight path predicting device, countermeasure asset selecting device, equatorial satellite system, equatorial satellite, polar orbit satellite system, polar orbit satellite, inclined orbit satellite system, and inclined orbit satellite
JP7012522B2 (en) Measurement system, measurement instruction device, and program
JP2007247952A (en) Missile and missile guidance system
KR101645566B1 (en) Method for cooperatively operating guided weapon
JP2002228399A (en) Rocket and its guiding controller
JPH116873A (en) Target observation device
JP2022126920A (en) Gliding projectile tracking method, projectile tracking system, projectile coping system and ground system
WO2022249833A1 (en) Integrated data library, flying object coping system, flight path prediction method, and communication route search method
KR20200064236A (en) Structure inspection system and method using dron
WO2022176892A1 (en) Flying object handling system, monitoring ground center, handling ground center, communication route search device, flight path prediction device, and handling asset selection device
JP5728342B2 (en) Guidance system and guidance method
WO2022176890A1 (en) Flying object handling system, defense information integration center, communication route search device, flight path prediction device, handling asset selection device, satellite system above equator, polar-orbit satellite system, and monitoring satellite

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180509

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180808

R150 Certificate of patent or registration of utility model

Ref document number: 6385859

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150