JP5713939B2 - Target detection apparatus and target detection method - Google Patents

Target detection apparatus and target detection method Download PDF

Info

Publication number
JP5713939B2
JP5713939B2 JP2012048130A JP2012048130A JP5713939B2 JP 5713939 B2 JP5713939 B2 JP 5713939B2 JP 2012048130 A JP2012048130 A JP 2012048130A JP 2012048130 A JP2012048130 A JP 2012048130A JP 5713939 B2 JP5713939 B2 JP 5713939B2
Authority
JP
Japan
Prior art keywords
target
information
flying object
speed
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012048130A
Other languages
Japanese (ja)
Other versions
JP2013181738A (en
Inventor
小柳 隆裕
隆裕 小柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012048130A priority Critical patent/JP5713939B2/en
Publication of JP2013181738A publication Critical patent/JP2013181738A/en
Application granted granted Critical
Publication of JP5713939B2 publication Critical patent/JP5713939B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明の実施形態は、飛しょう体に搭載され、撮像画像から目標を検出する目標検出装置及び目標検出方法に関する。   Embodiments described herein relate generally to a target detection apparatus and a target detection method that are mounted on a flying object and detect a target from a captured image.

一般に、飛しょう体に搭載される誘導装置には、目標を検出するために、撮像装置を利用した目標検出装置がよく用いられる。この目標検出装置では、撮像装置によって撮像される画像から、規定値以上の輝度レベル等の特徴がある部分を特徴点として抽出する。さらに抽出した各特徴点からそれぞれの速度ベクトルを求め、その速度ベクトルに基づいて背景と違う動きをする特徴点を目標として選択的に検出し、これにより小型移動目標の検出を行っている。   Generally, in order to detect a target, a target detection device using an imaging device is often used for a guidance device mounted on a flying object. In this target detection device, a portion having a feature such as a brightness level equal to or higher than a specified value is extracted as a feature point from an image taken by the image pickup device. Further, each velocity vector is obtained from each extracted feature point, and based on the velocity vector, a feature point that moves differently from the background is selectively detected as a target, thereby detecting a small moving target.

特開2003−67754号公報JP 2003-67754 A

しかしながら、飛しょう体搭載の目標検出装置では、低空の目標検出のため、撮像装置によって俯角の地上背景を撮像すると、その背景画像が複雑になって、各特徴点に飛しょう体の移動による運動視差が発生する。このため、速度ベクトルが一様にならず、飛しょう中の複雑背景画像から抽出する速度ベクトルによる小型移動目標の検出が困難になる。   However, in the target detection device mounted on a flying object, when the ground background of the depression angle is imaged by the imaging device to detect a low altitude target, the background image becomes complicated, and the movement due to the movement of the flying object at each feature point Parallax occurs. For this reason, the velocity vector is not uniform, and it becomes difficult to detect a small moving target using the velocity vector extracted from the complex background image in flight.

そこで、本実施形態は、上記の課題を鑑みてなされたもので、飛しょう中に撮像される背景画像からでも、確実に目標を検出することができる目標検出装置及び目標検出方法を提供することを目的とする。   Therefore, the present embodiment has been made in view of the above problems, and provides a target detection device and a target detection method that can reliably detect a target even from a background image captured during flight. With the goal.

本実施形態によれば、目標検出装置は、飛しょう体に搭載され、飛しょう中の撮像装置の撮像画像から目標を検出する目標検出装置において、画像処理手段、目標情報取得手段、飛しょう体情報取得手段、飛しょう体位置・速度検出手段、目標速度ベクトル推定手段及び目標選択手段を具備する。画像処理手段は、前記撮像装置の撮像画像から特徴のある部分を特徴点として抽出し、抽出された各特徴点それぞれの重心位置を算出し、前記飛しょう体の移動による前記重心位置の移動方向及び移動間隔から、各特徴点の速度ベクトルを算出する。目標情報取得手段は、前記目標の位置情報及び速度情報を取得する。飛しょう体情報取得手段は、前記飛しょう体の位置情報及び姿勢情報を取得する。飛しょう体位置・速度検出手段は、飛しょう体の位置情報及び姿勢情報より前記飛しょう体の位置、移動方向及び移動間隔を算出し、これらの情報から前記飛しょう体の速度を検出する。目標速度ベクトル推定手段は、前記目標の位置・速度情報及び前記飛しょう体の位置・速度情報から、前記目標の速度ベクトルを推定する。目標選択手段は、前記画像処理手段で算出された速度ベクトルと前記推定された目標の速度ベクトルを比較し、前記推定された目標の速度ベクトルが前記算出された速度ベクトルに最も近い特徴点を選択し、選択した特徴点を真の目標として検出する。   According to the present embodiment, the target detection device is mounted on a flying object and detects a target from a captured image of an imaging device that is flying. In the target detection device, image processing means, target information acquisition means, and flying object An information acquisition means, a flying object position / speed detection means, a target speed vector estimation means, and a target selection means are provided. The image processing means extracts a characteristic part from the captured image of the imaging device as a feature point, calculates a gravity center position of each of the extracted feature points, and a movement direction of the gravity center position due to the movement of the flying object And the velocity vector of each feature point is calculated from the movement interval. The target information acquisition means acquires the target position information and speed information. The flying object information acquisition means acquires position information and posture information of the flying object. The flying object position / speed detecting means calculates the position, moving direction and moving interval of the flying object from the position information and attitude information of the flying object, and detects the speed of the flying object from these information. The target speed vector estimation means estimates the target speed vector from the target position / speed information and the flying object position / speed information. The target selection means compares the speed vector calculated by the image processing means with the estimated target speed vector, and selects the feature point at which the estimated target speed vector is closest to the calculated speed vector. Then, the selected feature point is detected as a true target.

本実施形態に係る目標検出装置を備える誘導装置の構成を示すブロック図である。It is a block diagram which shows the structure of a guidance device provided with the target detection apparatus which concerns on this embodiment. 図1の実施形態において、飛しょう中に撮像される背景画像の一例を示す図である。In the embodiment of FIG. 1, it is a figure which shows an example of the background image imaged during flight. 図1の実施形態に係る目標検出装置の目標検出方法を示すフローチャートである。It is a flowchart which shows the target detection method of the target detection apparatus which concerns on embodiment of FIG.

以下、実施形態について、図面を参照して説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、本実施形態に係る目標検出装置を備える飛しょう体搭載の誘導装置の構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration of a flying object-mounted guidance device including a target detection device according to the present embodiment.

図1において、撮像装置1は、光学系2を用いて指示方向を撮像する。撮像された画像は、画像処理部3へ送られる。また、撮像装置1と光学系2はジンバル4に搭載される。   In FIG. 1, an imaging device 1 images an indication direction using an optical system 2. The captured image is sent to the image processing unit 3. The imaging device 1 and the optical system 2 are mounted on the gimbal 4.

ジンバル4は、ジンバル角度検出部5によって検出されるジンバル角をジンバル制御部6に送り、当該ジンバル制御部6からの指示に従って撮像装置1の撮像方向を制御する。また、上記ジンバル角度検出部5で検出されるジンバル角は、目標速度ベクトル推定部11へ送られる。   The gimbal 4 sends the gimbal angle detected by the gimbal angle detection unit 5 to the gimbal control unit 6 and controls the imaging direction of the imaging apparatus 1 in accordance with an instruction from the gimbal control unit 6. The gimbal angle detected by the gimbal angle detection unit 5 is sent to the target speed vector estimation unit 11.

画像処理部3は、撮像装置1の撮像画像から、規定値以上の輝度レベル等の領域を特徴点として抽出し、各特徴点の重心位置を算出し、視野中心からの誤差角を求める。さらに、飛しょう体の移動による各特徴点の重心位置の移動方向及び移動間隔から、各特徴点の速度ベクトル(運動視差を含む)を算出する。各特徴点の重心位置及び速度ベクトルは、それぞれ目標速度ベクトル推定部11及び目標選択部12に送られる。   The image processing unit 3 extracts, as feature points, a region having a luminance level that is equal to or greater than a specified value from the captured image of the imaging device 1, calculates the centroid position of each feature point, and obtains an error angle from the center of the visual field. Furthermore, the velocity vector (including motion parallax) of each feature point is calculated from the movement direction and the movement interval of the gravity center position of each feature point due to the movement of the flying object. The barycentric position and velocity vector of each feature point are sent to the target velocity vector estimation unit 11 and the target selection unit 12, respectively.

目標情報取得部8は、飛しょう体を発射する発射装置7から送られる目標の位置情報及び速度情報を取得する。取得した目標の位置情報及び速度情報は、目標速度ベクトル推定部11及び誘導制御部13それぞれに送られる。   The target information acquisition unit 8 acquires target position information and velocity information sent from the launching device 7 that launches the flying object. The acquired target position information and speed information are sent to the target speed vector estimation unit 11 and the guidance control unit 13, respectively.

飛しょう体情報取得部9は、上記発射装置7から送られる飛しょう体の位置情報及び速度情報を取得する。取得した目標の位置情報及び速度情報は、飛しょう体位置・速度検出部10に送られる。   The flying object information acquisition unit 9 acquires the position information and speed information of the flying object sent from the launching device 7. The acquired target position information and speed information are sent to the flying object position / speed detection unit 10.

飛しょう体位置・速度検出部10は、飛しょう体情報取得部9で取得される飛しょう体の位置情報及び姿勢情報から飛しょう体の位置、移動方向及び移動間隔を検出し、それぞれの検出結果から飛しょう体の移動速度を検出する。検出された飛しょう体の位置及び速度は、目標速度ベクトル推定部11及び誘導制御部13それぞれに送られる。   The flying object position / velocity detection unit 10 detects the position, movement direction, and movement interval of the flying object from the position information and posture information of the flying object acquired by the flying object information acquisition unit 9, and detects each of them. The speed of the flying object is detected from the result. The detected position and speed of the flying object are sent to the target speed vector estimation unit 11 and the guidance control unit 13, respectively.

なお、目標情報取得部8及び飛しょう体情報取得部9に情報を送る手段は、発射装置7に限るものではない。   The means for sending information to the target information acquisition unit 8 and the flying object information acquisition unit 9 is not limited to the launching device 7.

目標速度ベクトル推定部11は、画像処理部3で算出する各特徴点の重心位置及びジンバル角度検出部5で検出されるジンバル角に基づいて、実際に飛しょう体が向いている方向である目視線角を算出する。目標速度ベクトル推定部11は、算出した目視線角における各特徴点の視差を考慮し、目標情報取得部8で取得される目標の位置・速度情報及び飛しょう体位置・速度検出部10で検出される飛しょう体の位置・速度情報から、目標の速度ベクトルを推定する。推定された目標の速度ベクトルは、目標選択部12に送られる。   The target velocity vector estimation unit 11 is an eye that is the direction in which the flying object is actually facing based on the barycentric position of each feature point calculated by the image processing unit 3 and the gimbal angle detected by the gimbal angle detection unit 5. The gaze angle is calculated. The target velocity vector estimation unit 11 considers the parallax of each feature point at the calculated visual line angle, and is detected by the target position / velocity information acquired by the target information acquisition unit 8 and the flying object position / speed detection unit 10. The target velocity vector is estimated from the position and velocity information of the flying object. The estimated target velocity vector is sent to the target selector 12.

目標選択部12は、画像処理部3で算出された各特徴点の速度ベクトルと目標速度ベクトル推定部11で推定される目標の速度ベクトルとを比較し、推定された目標の速度ベクトルが算出された速度ベクトルに最も近い特徴点を選択する。目標選択部12は、選択した特徴点を真の目標として検出する。   The target selection unit 12 compares the velocity vector of each feature point calculated by the image processing unit 3 with the target velocity vector estimated by the target velocity vector estimation unit 11, and the estimated target velocity vector is calculated. Select the feature point closest to the velocity vector. The target selection unit 12 detects the selected feature point as a true target.

誘導制御部13は、目標選択部12で検出された目標に向かって飛しょう体を誘導するための操舵信号を生成し、生成した操舵信号により操舵装置14を制御する。なお、飛しょうのための推進力は、推進装置15より得る。また、誘導制御部13は、ジンバル4に搭載される撮像装置1の撮像方向が目標選択部12で検出された目標に向くようにジンバル制御部6へ指示を出す。   The guidance control unit 13 generates a steering signal for guiding the flying object toward the target detected by the target selection unit 12, and controls the steering device 14 based on the generated steering signal. The propulsive force for flying is obtained from the propulsion device 15. In addition, the guidance control unit 13 issues an instruction to the gimbal control unit 6 so that the imaging direction of the imaging device 1 mounted on the gimbal 4 faces the target detected by the target selection unit 12.

次に、上記構成による誘導装置の目標検出方法について、図2及び図3を参照して説明する。   Next, a method for detecting the target of the guidance device having the above configuration will be described with reference to FIGS.

図2は、飛しょう中に撮像される地上背景画像の一例を示す図、図3は、目標検出装置の目標検出方法を示すフローチャートである。   FIG. 2 is a diagram illustrating an example of a ground background image captured during flight, and FIG. 3 is a flowchart illustrating a target detection method of the target detection device.

目標検出装置は、初期誘導において、目標検出前に、目標情報取得部8で取得される目標情報(位置、速度ベクトル、予想会合位置等)及び飛しょう体位置・速度検出部10で検出される飛しょう体の位置及び速度情報(レート及び加速度)を求め、それらの情報に基づいて、図2に示す予想会合方向に飛しょう体を飛しょうさせる。また、ジンバル4上の撮像装置1を目標方向に指向させる。その後、飛しょうプログラムにより所定の位置まで飛しょうさせた後、目標検出を開始する。   In the initial guidance, the target detection device detects the target information (position, velocity vector, expected meeting position, etc.) acquired by the target information acquisition unit 8 and the flying object position / speed detection unit 10 before the target detection. The flying object position and speed information (rate and acceleration) are obtained, and based on the information, the flying object is caused to fly in the expected meeting direction shown in FIG. Further, the imaging device 1 on the gimbal 4 is directed in the target direction. Then, after letting it fly to a predetermined position by a flying program, target detection is started.

目標検出は、画像処理部3の画像処理によって行われる。すなわち、画像処理部3は、撮像装置1により撮像される画像を入力すると、この撮像画像から特徴点を抽出し、各特徴点の重心位置及び速度ベクトルを算出する。(ステップS1)。ここで、ジンバル4の指向方向には誤差が発生する。このため、目標の位置が画像中央とは限らないので、各特徴点の重心位置及びジンバル角度検出部5で検出されるジンバル角から目視線角を算出する(ステップS2)。次に、算出された目視線角による各特徴点の視差を考慮し、目標情報及び飛しょう体の位置・速度情報から、目標の速度ベクトルを推定する(ステップS3)。この推定された目標の速度ベクトルと算出された速度ベクトルとを比較して両者が最も近い特徴点を選択し(ステップS4)、選択された特徴点の位置・速度情報を真の目標として検出・出力する(ステップS5)。これにより、目標を検出し、飛しょう体を目標へ誘導する。   Target detection is performed by image processing of the image processing unit 3. That is, when the image picked up by the image pickup apparatus 1 is input, the image processing unit 3 extracts feature points from the picked-up image, and calculates the centroid position and velocity vector of each feature point. (Step S1). Here, an error occurs in the directing direction of the gimbal 4. For this reason, since the target position is not necessarily the center of the image, the visual line angle is calculated from the barycentric position of each feature point and the gimbal angle detected by the gimbal angle detection unit 5 (step S2). Next, the target velocity vector is estimated from the target information and the flying object position / velocity information in consideration of the parallax of each feature point based on the calculated visual line angle (step S3). The estimated target velocity vector and the calculated velocity vector are compared to select the closest feature point (step S4), and the position / velocity information of the selected feature point is detected as a true target. Output (step S5). Thereby, the target is detected and the flying object is guided to the target.

以上、本実施形態に係る目標検出装置によれば、飛しょう中に撮像される背景画像が地表面の複雑な画像であっても、確実に目標を検出することができる。   As described above, according to the target detection device according to the present embodiment, a target can be reliably detected even if a background image captured during flight is a complex image of the ground surface.

以上、実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   As mentioned above, although embodiment was described, this embodiment is shown as an example and is not intending limiting the range of invention. This embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. This embodiment and its modifications are included in the scope of the present invention and the gist thereof, and are also included in the invention described in the claims and the equivalent scope thereof.

1…撮像装置、2…光学系、3…画像処理部、4…ジンバル、5…ジンバル角度検出部、6…ジンバル制御部、7…発射装置、8…目標情報取得部、9…飛しょう体情報取得部、10…飛しょう体位置・速度検出部、11…目標速度ベクトル推定部、12…目標選択部、13…誘導制御部、14…操舵装置、15…推進装置。   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Optical system, 3 ... Image processing part, 4 ... Gimbal, 5 ... Gimbal angle detection part, 6 ... Gimbal control part, 7 ... Launching device, 8 ... Target information acquisition part, 9 ... Flying object Information acquisition unit, 10 ... flying object position / speed detection unit, 11 ... target speed vector estimation unit, 12 ... target selection unit, 13 ... guidance control unit, 14 ... steering device, 15 ... propulsion device.

Claims (3)

飛しょう体に搭載され、飛しょう中の撮像装置の撮像画像から目標を検出する目標検出装置において、
前記撮像装置の撮像画像から特徴のある部分を特徴点として抽出し、抽出された各特徴点それぞれの重心位置を算出し、前記飛しょう体の移動による前記重心位置の移動方向及び移動間隔から、各特徴点の速度ベクトルを算出する画像処理手段と、
前記目標の位置情報及び速度情報と前記飛しょう体の位置情報及び姿勢情報とを前記飛しょう体に送信する情報送信手段から、前記目標の位置情報及び速度情報を取得する目標情報取得手段と、
前記情報送信手段から、前記飛しょう体の位置情報及び姿勢情報を取得する飛しょう体情報取得手段と、
前記飛しょう体の位置情報及び姿勢情報より前記飛しょう体の位置、移動方向及び移動間隔を算出し、これらの情報から前記飛しょう体の速度を検出する飛しょう体位置・速度検出手段と、
前記目標の位置・速度情報及び前記飛しょう体の位置・速度情報から、前記目標の速度ベクトルを推定する目標速度ベクトル推定手段と、
前記画像処理手段で算出された速度ベクトルと前記推定された目標の速度ベクトルを比較し、前記推定された目標の速度ベクトルが前記算出された速度ベクトルに最も近い特徴点を選択し、選択した特徴点を真の目標として検出する目標選択手段と
を具備することを特徴とする目標検出装置。
In a target detection device that is mounted on a flying object and detects a target from a captured image of an imaging device in flight,
Extract a characteristic part from the captured image of the imaging device as a feature point, calculate the center of gravity position of each extracted feature point, from the movement direction and the movement interval of the center of gravity position by the movement of the flying object, Image processing means for calculating a velocity vector of each feature point;
Target information acquisition means for acquiring the target position information and speed information from the information transmission means for transmitting the position information and speed information of the target and the position information and posture information of the flying object to the flying object ;
From the information transmission means, the flying object information acquisition means for acquiring the position information and posture information of the flying object,
Calculate the position, moving direction and moving interval of the flying object from the position information and attitude information of the flying object, and a flying object position / speed detecting means for detecting the speed of the flying object from these information,
Target speed vector estimation means for estimating the target speed vector from the target position / speed information and the flying object position / speed information;
The speed vector calculated by the image processing means and the estimated target speed vector are compared, the feature point at which the estimated target speed vector is closest to the calculated speed vector is selected, and the selected feature And a target selecting means for detecting a point as a true target.
前記撮像装置と、撮像装置が搭載されるジンバルと、前記ジンバルの指向方向を示すジンバル角を検出するジンバル角度検出手段とを具備し、
前記目標速度ベクトル推定手段で前記ジンバル角と前記各特徴点の重心位置から前記撮像装置の目視線角を算出し、前記目標の速度ベクトルを推定する際、算出された目視線角による前記各特徴点の視差を考慮することを特徴とする請求項1記載の目標検出装置。
Comprising the imaging device, a gimbal on which the imaging device is mounted, and a gimbal angle detecting means for detecting a gimbal angle indicating a directing direction of the gimbal,
The target velocity vector estimation means calculates the visual line angle of the imaging device from the gimbal angle and the barycentric position of each feature point, and when estimating the target velocity vector, the respective features based on the calculated visual line angle. The target detection apparatus according to claim 1, wherein a point parallax is taken into consideration.
飛しょう体に搭載され、飛しょう中の撮像装置の撮像画像から目標を検出する目標検出装置の目標検出方法において、
前記撮像装置の撮像画像から特徴のある部分を特徴点として抽出し、
抽出された各特徴点それぞれの重心位置を算出し、
前記飛しょう体の移動による前記重心位置の移動方向及び移動間隔から、各特徴点の速度ベクトルを算出し、
前記目標の位置情報及び速度情報と前記飛しょう体の位置情報及び姿勢情報とを前記飛しょう体に送信する情報送信手段から、前記目標の位置情報及び速度情報を取得し、
前記情報送信手段から、前記飛しょう体の位置情報及び姿勢情報を取得し、
前記飛しょう体の位置情報及び姿勢情報より前記飛しょう体の位置、移動方向及び移動間隔を算出し、
前記算出された前記飛しょう体の位置、移動方向及び移動間隔から前記飛しょう体の速度を検出し、
前記目標の位置・速度情報及び前記飛しょう体の位置・速度情報から、前記目標の速度ベクトルを推定し、
前記推定された目標の速度ベクトルと前記算出された速度ベクトルとを比較して最も近い特徴点を選択し、
前記選択された特徴点を真の目標として検出すること
を特徴とする目標検出方法。
In the target detection method of the target detection device that is mounted on the flying object and detects the target from the captured image of the imaging device in flight,
Extracting a characteristic part from the captured image of the imaging device as a feature point;
Calculate the center of gravity position of each extracted feature point,
From the movement direction and movement interval of the center of gravity position due to the movement of the flying object, calculate the velocity vector of each feature point,
From the information transmitting means for transmitting the position information and speed information of the target and the position information and attitude information of the flying object to the flying object, the position information and speed information of the target are acquired,
From the information transmission means, obtain the position information and attitude information of the flying object,
Calculate the position, movement direction and movement interval of the flying object from the position information and attitude information of the flying object,
Detecting the speed of the flying object from the calculated position, moving direction and moving interval of the flying object,
From the position / velocity information of the target and the position / velocity information of the flying object, the velocity vector of the target is estimated,
Comparing the estimated target velocity vector and the calculated velocity vector to select the closest feature point;
A target detection method comprising: detecting the selected feature point as a true target.
JP2012048130A 2012-03-05 2012-03-05 Target detection apparatus and target detection method Active JP5713939B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012048130A JP5713939B2 (en) 2012-03-05 2012-03-05 Target detection apparatus and target detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012048130A JP5713939B2 (en) 2012-03-05 2012-03-05 Target detection apparatus and target detection method

Publications (2)

Publication Number Publication Date
JP2013181738A JP2013181738A (en) 2013-09-12
JP5713939B2 true JP5713939B2 (en) 2015-05-07

Family

ID=49272522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012048130A Active JP5713939B2 (en) 2012-03-05 2012-03-05 Target detection apparatus and target detection method

Country Status (1)

Country Link
JP (1) JP5713939B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104639934B (en) * 2015-01-22 2017-11-21 深圳超多维光电子有限公司 Stereo-picture instead regards processing method and display device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3544820B2 (en) * 1997-04-03 2004-07-21 株式会社東芝 Moving target detection device and detection method

Also Published As

Publication number Publication date
JP2013181738A (en) 2013-09-12

Similar Documents

Publication Publication Date Title
JP5859300B2 (en) Control apparatus, method and program
US10564250B2 (en) Device and method for measuring flight data of flying objects using high speed video camera and computer readable recording medium having program for performing the same
KR101600862B1 (en) stereo vision system using a plurality of uav
RU2020109861A (en) EQUIPMENT AND METHOD FOR FORMING A SCENE REPRESENTATION
JP2017072986A (en) Autonomous flying device, control method and program of autonomous flying device
CN105716625A (en) Method and system for automatically detecting a misalignment during operation of a monitoring sensor of an aircraft
JP2015133078A5 (en)
JP2017208606A5 (en)
JP2020042407A5 (en)
JP2018101942A5 (en)
JP2017009572A5 (en)
JP2013122624A (en) Vehicle fire detection device
JP2018042237A5 (en)
KR101455236B1 (en) Mobile apparatus for providing augmented reality and method thereof
JP5713939B2 (en) Target detection apparatus and target detection method
JP6482856B2 (en) Monitoring system
US20160156826A1 (en) Image-capturing device and image-capturing method
KR101675673B1 (en) System apparatus and method of Dolphin monitoring
JP2016046580A5 (en) Image processing apparatus and control method thereof
JP2018106611A5 (en)
KR101763294B1 (en) Shooting Control System and Method Using Thereof
KR101590889B1 (en) Target position estimation equipment using imaging sensors for analyzing an accuracy of target tracking method
JP2014161937A5 (en) Robot, robot system, posture detection method and program
JP4742695B2 (en) Gaze recognition apparatus and gaze recognition method
JP2012185134A (en) Course estimating device and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131212

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150310

R151 Written notification of patent or utility model registration

Ref document number: 5713939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151