JP5713939B2 - Target detection apparatus and target detection method - Google Patents
Target detection apparatus and target detection method Download PDFInfo
- Publication number
- JP5713939B2 JP5713939B2 JP2012048130A JP2012048130A JP5713939B2 JP 5713939 B2 JP5713939 B2 JP 5713939B2 JP 2012048130 A JP2012048130 A JP 2012048130A JP 2012048130 A JP2012048130 A JP 2012048130A JP 5713939 B2 JP5713939 B2 JP 5713939B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- information
- flying object
- speed
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明の実施形態は、飛しょう体に搭載され、撮像画像から目標を検出する目標検出装置及び目標検出方法に関する。 Embodiments described herein relate generally to a target detection apparatus and a target detection method that are mounted on a flying object and detect a target from a captured image.
一般に、飛しょう体に搭載される誘導装置には、目標を検出するために、撮像装置を利用した目標検出装置がよく用いられる。この目標検出装置では、撮像装置によって撮像される画像から、規定値以上の輝度レベル等の特徴がある部分を特徴点として抽出する。さらに抽出した各特徴点からそれぞれの速度ベクトルを求め、その速度ベクトルに基づいて背景と違う動きをする特徴点を目標として選択的に検出し、これにより小型移動目標の検出を行っている。 Generally, in order to detect a target, a target detection device using an imaging device is often used for a guidance device mounted on a flying object. In this target detection device, a portion having a feature such as a brightness level equal to or higher than a specified value is extracted as a feature point from an image taken by the image pickup device. Further, each velocity vector is obtained from each extracted feature point, and based on the velocity vector, a feature point that moves differently from the background is selectively detected as a target, thereby detecting a small moving target.
しかしながら、飛しょう体搭載の目標検出装置では、低空の目標検出のため、撮像装置によって俯角の地上背景を撮像すると、その背景画像が複雑になって、各特徴点に飛しょう体の移動による運動視差が発生する。このため、速度ベクトルが一様にならず、飛しょう中の複雑背景画像から抽出する速度ベクトルによる小型移動目標の検出が困難になる。 However, in the target detection device mounted on a flying object, when the ground background of the depression angle is imaged by the imaging device to detect a low altitude target, the background image becomes complicated, and the movement due to the movement of the flying object at each feature point Parallax occurs. For this reason, the velocity vector is not uniform, and it becomes difficult to detect a small moving target using the velocity vector extracted from the complex background image in flight.
そこで、本実施形態は、上記の課題を鑑みてなされたもので、飛しょう中に撮像される背景画像からでも、確実に目標を検出することができる目標検出装置及び目標検出方法を提供することを目的とする。 Therefore, the present embodiment has been made in view of the above problems, and provides a target detection device and a target detection method that can reliably detect a target even from a background image captured during flight. With the goal.
本実施形態によれば、目標検出装置は、飛しょう体に搭載され、飛しょう中の撮像装置の撮像画像から目標を検出する目標検出装置において、画像処理手段、目標情報取得手段、飛しょう体情報取得手段、飛しょう体位置・速度検出手段、目標速度ベクトル推定手段及び目標選択手段を具備する。画像処理手段は、前記撮像装置の撮像画像から特徴のある部分を特徴点として抽出し、抽出された各特徴点それぞれの重心位置を算出し、前記飛しょう体の移動による前記重心位置の移動方向及び移動間隔から、各特徴点の速度ベクトルを算出する。目標情報取得手段は、前記目標の位置情報及び速度情報を取得する。飛しょう体情報取得手段は、前記飛しょう体の位置情報及び姿勢情報を取得する。飛しょう体位置・速度検出手段は、飛しょう体の位置情報及び姿勢情報より前記飛しょう体の位置、移動方向及び移動間隔を算出し、これらの情報から前記飛しょう体の速度を検出する。目標速度ベクトル推定手段は、前記目標の位置・速度情報及び前記飛しょう体の位置・速度情報から、前記目標の速度ベクトルを推定する。目標選択手段は、前記画像処理手段で算出された速度ベクトルと前記推定された目標の速度ベクトルを比較し、前記推定された目標の速度ベクトルが前記算出された速度ベクトルに最も近い特徴点を選択し、選択した特徴点を真の目標として検出する。 According to the present embodiment, the target detection device is mounted on a flying object and detects a target from a captured image of an imaging device that is flying. In the target detection device, image processing means, target information acquisition means, and flying object An information acquisition means, a flying object position / speed detection means, a target speed vector estimation means, and a target selection means are provided. The image processing means extracts a characteristic part from the captured image of the imaging device as a feature point, calculates a gravity center position of each of the extracted feature points, and a movement direction of the gravity center position due to the movement of the flying object And the velocity vector of each feature point is calculated from the movement interval. The target information acquisition means acquires the target position information and speed information. The flying object information acquisition means acquires position information and posture information of the flying object. The flying object position / speed detecting means calculates the position, moving direction and moving interval of the flying object from the position information and attitude information of the flying object, and detects the speed of the flying object from these information. The target speed vector estimation means estimates the target speed vector from the target position / speed information and the flying object position / speed information. The target selection means compares the speed vector calculated by the image processing means with the estimated target speed vector, and selects the feature point at which the estimated target speed vector is closest to the calculated speed vector. Then, the selected feature point is detected as a true target.
以下、実施形態について、図面を参照して説明する。 Hereinafter, embodiments will be described with reference to the drawings.
図1は、本実施形態に係る目標検出装置を備える飛しょう体搭載の誘導装置の構成を示すブロック図である。 FIG. 1 is a block diagram illustrating a configuration of a flying object-mounted guidance device including a target detection device according to the present embodiment.
図1において、撮像装置1は、光学系2を用いて指示方向を撮像する。撮像された画像は、画像処理部3へ送られる。また、撮像装置1と光学系2はジンバル4に搭載される。
In FIG. 1, an
ジンバル4は、ジンバル角度検出部5によって検出されるジンバル角をジンバル制御部6に送り、当該ジンバル制御部6からの指示に従って撮像装置1の撮像方向を制御する。また、上記ジンバル角度検出部5で検出されるジンバル角は、目標速度ベクトル推定部11へ送られる。
The gimbal 4 sends the gimbal angle detected by the gimbal
画像処理部3は、撮像装置1の撮像画像から、規定値以上の輝度レベル等の領域を特徴点として抽出し、各特徴点の重心位置を算出し、視野中心からの誤差角を求める。さらに、飛しょう体の移動による各特徴点の重心位置の移動方向及び移動間隔から、各特徴点の速度ベクトル(運動視差を含む)を算出する。各特徴点の重心位置及び速度ベクトルは、それぞれ目標速度ベクトル推定部11及び目標選択部12に送られる。
The
目標情報取得部8は、飛しょう体を発射する発射装置7から送られる目標の位置情報及び速度情報を取得する。取得した目標の位置情報及び速度情報は、目標速度ベクトル推定部11及び誘導制御部13それぞれに送られる。
The target information acquisition unit 8 acquires target position information and velocity information sent from the launching device 7 that launches the flying object. The acquired target position information and speed information are sent to the target speed vector estimation unit 11 and the
飛しょう体情報取得部9は、上記発射装置7から送られる飛しょう体の位置情報及び速度情報を取得する。取得した目標の位置情報及び速度情報は、飛しょう体位置・速度検出部10に送られる。
The flying object information acquisition unit 9 acquires the position information and speed information of the flying object sent from the launching device 7. The acquired target position information and speed information are sent to the flying object position /
飛しょう体位置・速度検出部10は、飛しょう体情報取得部9で取得される飛しょう体の位置情報及び姿勢情報から飛しょう体の位置、移動方向及び移動間隔を検出し、それぞれの検出結果から飛しょう体の移動速度を検出する。検出された飛しょう体の位置及び速度は、目標速度ベクトル推定部11及び誘導制御部13それぞれに送られる。
The flying object position /
なお、目標情報取得部8及び飛しょう体情報取得部9に情報を送る手段は、発射装置7に限るものではない。 The means for sending information to the target information acquisition unit 8 and the flying object information acquisition unit 9 is not limited to the launching device 7.
目標速度ベクトル推定部11は、画像処理部3で算出する各特徴点の重心位置及びジンバル角度検出部5で検出されるジンバル角に基づいて、実際に飛しょう体が向いている方向である目視線角を算出する。目標速度ベクトル推定部11は、算出した目視線角における各特徴点の視差を考慮し、目標情報取得部8で取得される目標の位置・速度情報及び飛しょう体位置・速度検出部10で検出される飛しょう体の位置・速度情報から、目標の速度ベクトルを推定する。推定された目標の速度ベクトルは、目標選択部12に送られる。
The target velocity vector estimation unit 11 is an eye that is the direction in which the flying object is actually facing based on the barycentric position of each feature point calculated by the
目標選択部12は、画像処理部3で算出された各特徴点の速度ベクトルと目標速度ベクトル推定部11で推定される目標の速度ベクトルとを比較し、推定された目標の速度ベクトルが算出された速度ベクトルに最も近い特徴点を選択する。目標選択部12は、選択した特徴点を真の目標として検出する。
The target selection unit 12 compares the velocity vector of each feature point calculated by the
誘導制御部13は、目標選択部12で検出された目標に向かって飛しょう体を誘導するための操舵信号を生成し、生成した操舵信号により操舵装置14を制御する。なお、飛しょうのための推進力は、推進装置15より得る。また、誘導制御部13は、ジンバル4に搭載される撮像装置1の撮像方向が目標選択部12で検出された目標に向くようにジンバル制御部6へ指示を出す。
The
次に、上記構成による誘導装置の目標検出方法について、図2及び図3を参照して説明する。 Next, a method for detecting the target of the guidance device having the above configuration will be described with reference to FIGS.
図2は、飛しょう中に撮像される地上背景画像の一例を示す図、図3は、目標検出装置の目標検出方法を示すフローチャートである。 FIG. 2 is a diagram illustrating an example of a ground background image captured during flight, and FIG. 3 is a flowchart illustrating a target detection method of the target detection device.
目標検出装置は、初期誘導において、目標検出前に、目標情報取得部8で取得される目標情報(位置、速度ベクトル、予想会合位置等)及び飛しょう体位置・速度検出部10で検出される飛しょう体の位置及び速度情報(レート及び加速度)を求め、それらの情報に基づいて、図2に示す予想会合方向に飛しょう体を飛しょうさせる。また、ジンバル4上の撮像装置1を目標方向に指向させる。その後、飛しょうプログラムにより所定の位置まで飛しょうさせた後、目標検出を開始する。
In the initial guidance, the target detection device detects the target information (position, velocity vector, expected meeting position, etc.) acquired by the target information acquisition unit 8 and the flying object position /
目標検出は、画像処理部3の画像処理によって行われる。すなわち、画像処理部3は、撮像装置1により撮像される画像を入力すると、この撮像画像から特徴点を抽出し、各特徴点の重心位置及び速度ベクトルを算出する。(ステップS1)。ここで、ジンバル4の指向方向には誤差が発生する。このため、目標の位置が画像中央とは限らないので、各特徴点の重心位置及びジンバル角度検出部5で検出されるジンバル角から目視線角を算出する(ステップS2)。次に、算出された目視線角による各特徴点の視差を考慮し、目標情報及び飛しょう体の位置・速度情報から、目標の速度ベクトルを推定する(ステップS3)。この推定された目標の速度ベクトルと算出された速度ベクトルとを比較して両者が最も近い特徴点を選択し(ステップS4)、選択された特徴点の位置・速度情報を真の目標として検出・出力する(ステップS5)。これにより、目標を検出し、飛しょう体を目標へ誘導する。
Target detection is performed by image processing of the
以上、本実施形態に係る目標検出装置によれば、飛しょう中に撮像される背景画像が地表面の複雑な画像であっても、確実に目標を検出することができる。 As described above, according to the target detection device according to the present embodiment, a target can be reliably detected even if a background image captured during flight is a complex image of the ground surface.
以上、実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 As mentioned above, although embodiment was described, this embodiment is shown as an example and is not intending limiting the range of invention. This embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. This embodiment and its modifications are included in the scope of the present invention and the gist thereof, and are also included in the invention described in the claims and the equivalent scope thereof.
1…撮像装置、2…光学系、3…画像処理部、4…ジンバル、5…ジンバル角度検出部、6…ジンバル制御部、7…発射装置、8…目標情報取得部、9…飛しょう体情報取得部、10…飛しょう体位置・速度検出部、11…目標速度ベクトル推定部、12…目標選択部、13…誘導制御部、14…操舵装置、15…推進装置。
DESCRIPTION OF
Claims (3)
前記撮像装置の撮像画像から特徴のある部分を特徴点として抽出し、抽出された各特徴点それぞれの重心位置を算出し、前記飛しょう体の移動による前記重心位置の移動方向及び移動間隔から、各特徴点の速度ベクトルを算出する画像処理手段と、
前記目標の位置情報及び速度情報と前記飛しょう体の位置情報及び姿勢情報とを前記飛しょう体に送信する情報送信手段から、前記目標の位置情報及び速度情報を取得する目標情報取得手段と、
前記情報送信手段から、前記飛しょう体の位置情報及び姿勢情報を取得する飛しょう体情報取得手段と、
前記飛しょう体の位置情報及び姿勢情報より前記飛しょう体の位置、移動方向及び移動間隔を算出し、これらの情報から前記飛しょう体の速度を検出する飛しょう体位置・速度検出手段と、
前記目標の位置・速度情報及び前記飛しょう体の位置・速度情報から、前記目標の速度ベクトルを推定する目標速度ベクトル推定手段と、
前記画像処理手段で算出された速度ベクトルと前記推定された目標の速度ベクトルを比較し、前記推定された目標の速度ベクトルが前記算出された速度ベクトルに最も近い特徴点を選択し、選択した特徴点を真の目標として検出する目標選択手段と
を具備することを特徴とする目標検出装置。 In a target detection device that is mounted on a flying object and detects a target from a captured image of an imaging device in flight,
Extract a characteristic part from the captured image of the imaging device as a feature point, calculate the center of gravity position of each extracted feature point, from the movement direction and the movement interval of the center of gravity position by the movement of the flying object, Image processing means for calculating a velocity vector of each feature point;
Target information acquisition means for acquiring the target position information and speed information from the information transmission means for transmitting the position information and speed information of the target and the position information and posture information of the flying object to the flying object ;
From the information transmission means, the flying object information acquisition means for acquiring the position information and posture information of the flying object,
Calculate the position, moving direction and moving interval of the flying object from the position information and attitude information of the flying object, and a flying object position / speed detecting means for detecting the speed of the flying object from these information,
Target speed vector estimation means for estimating the target speed vector from the target position / speed information and the flying object position / speed information;
The speed vector calculated by the image processing means and the estimated target speed vector are compared, the feature point at which the estimated target speed vector is closest to the calculated speed vector is selected, and the selected feature And a target selecting means for detecting a point as a true target.
前記目標速度ベクトル推定手段で前記ジンバル角と前記各特徴点の重心位置から前記撮像装置の目視線角を算出し、前記目標の速度ベクトルを推定する際、算出された目視線角による前記各特徴点の視差を考慮することを特徴とする請求項1記載の目標検出装置。 Comprising the imaging device, a gimbal on which the imaging device is mounted, and a gimbal angle detecting means for detecting a gimbal angle indicating a directing direction of the gimbal,
The target velocity vector estimation means calculates the visual line angle of the imaging device from the gimbal angle and the barycentric position of each feature point, and when estimating the target velocity vector, the respective features based on the calculated visual line angle. The target detection apparatus according to claim 1, wherein a point parallax is taken into consideration.
前記撮像装置の撮像画像から特徴のある部分を特徴点として抽出し、
抽出された各特徴点それぞれの重心位置を算出し、
前記飛しょう体の移動による前記重心位置の移動方向及び移動間隔から、各特徴点の速度ベクトルを算出し、
前記目標の位置情報及び速度情報と前記飛しょう体の位置情報及び姿勢情報とを前記飛しょう体に送信する情報送信手段から、前記目標の位置情報及び速度情報を取得し、
前記情報送信手段から、前記飛しょう体の位置情報及び姿勢情報を取得し、
前記飛しょう体の位置情報及び姿勢情報より前記飛しょう体の位置、移動方向及び移動間隔を算出し、
前記算出された前記飛しょう体の位置、移動方向及び移動間隔から前記飛しょう体の速度を検出し、
前記目標の位置・速度情報及び前記飛しょう体の位置・速度情報から、前記目標の速度ベクトルを推定し、
前記推定された目標の速度ベクトルと前記算出された速度ベクトルとを比較して最も近い特徴点を選択し、
前記選択された特徴点を真の目標として検出すること
を特徴とする目標検出方法。 In the target detection method of the target detection device that is mounted on the flying object and detects the target from the captured image of the imaging device in flight,
Extracting a characteristic part from the captured image of the imaging device as a feature point;
Calculate the center of gravity position of each extracted feature point,
From the movement direction and movement interval of the center of gravity position due to the movement of the flying object, calculate the velocity vector of each feature point,
From the information transmitting means for transmitting the position information and speed information of the target and the position information and attitude information of the flying object to the flying object, the position information and speed information of the target are acquired,
From the information transmission means, obtain the position information and attitude information of the flying object,
Calculate the position, movement direction and movement interval of the flying object from the position information and attitude information of the flying object,
Detecting the speed of the flying object from the calculated position, moving direction and moving interval of the flying object,
From the position / velocity information of the target and the position / velocity information of the flying object, the velocity vector of the target is estimated,
Comparing the estimated target velocity vector and the calculated velocity vector to select the closest feature point;
A target detection method comprising: detecting the selected feature point as a true target.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012048130A JP5713939B2 (en) | 2012-03-05 | 2012-03-05 | Target detection apparatus and target detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012048130A JP5713939B2 (en) | 2012-03-05 | 2012-03-05 | Target detection apparatus and target detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013181738A JP2013181738A (en) | 2013-09-12 |
JP5713939B2 true JP5713939B2 (en) | 2015-05-07 |
Family
ID=49272522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012048130A Active JP5713939B2 (en) | 2012-03-05 | 2012-03-05 | Target detection apparatus and target detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5713939B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104639934B (en) * | 2015-01-22 | 2017-11-21 | 深圳超多维光电子有限公司 | Stereo-picture instead regards processing method and display device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3544820B2 (en) * | 1997-04-03 | 2004-07-21 | 株式会社東芝 | Moving target detection device and detection method |
-
2012
- 2012-03-05 JP JP2012048130A patent/JP5713939B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013181738A (en) | 2013-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5859300B2 (en) | Control apparatus, method and program | |
US10564250B2 (en) | Device and method for measuring flight data of flying objects using high speed video camera and computer readable recording medium having program for performing the same | |
KR101600862B1 (en) | stereo vision system using a plurality of uav | |
RU2020109861A (en) | EQUIPMENT AND METHOD FOR FORMING A SCENE REPRESENTATION | |
JP2017072986A (en) | Autonomous flying device, control method and program of autonomous flying device | |
CN105716625A (en) | Method and system for automatically detecting a misalignment during operation of a monitoring sensor of an aircraft | |
JP2015133078A5 (en) | ||
JP2017208606A5 (en) | ||
JP2020042407A5 (en) | ||
JP2018101942A5 (en) | ||
JP2017009572A5 (en) | ||
JP2013122624A (en) | Vehicle fire detection device | |
JP2018042237A5 (en) | ||
KR101455236B1 (en) | Mobile apparatus for providing augmented reality and method thereof | |
JP5713939B2 (en) | Target detection apparatus and target detection method | |
JP6482856B2 (en) | Monitoring system | |
US20160156826A1 (en) | Image-capturing device and image-capturing method | |
KR101675673B1 (en) | System apparatus and method of Dolphin monitoring | |
JP2016046580A5 (en) | Image processing apparatus and control method thereof | |
JP2018106611A5 (en) | ||
KR101763294B1 (en) | Shooting Control System and Method Using Thereof | |
KR101590889B1 (en) | Target position estimation equipment using imaging sensors for analyzing an accuracy of target tracking method | |
JP2014161937A5 (en) | Robot, robot system, posture detection method and program | |
JP4742695B2 (en) | Gaze recognition apparatus and gaze recognition method | |
JP2012185134A (en) | Course estimating device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20131205 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20131212 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20131219 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20131226 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140109 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140902 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141014 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150310 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5713939 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |