JPH04207361A - Image tracking device - Google Patents

Image tracking device

Info

Publication number
JPH04207361A
JPH04207361A JP2329611A JP32961190A JPH04207361A JP H04207361 A JPH04207361 A JP H04207361A JP 2329611 A JP2329611 A JP 2329611A JP 32961190 A JP32961190 A JP 32961190A JP H04207361 A JPH04207361 A JP H04207361A
Authority
JP
Japan
Prior art keywords
target
tracking
image
predicted
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2329611A
Other languages
Japanese (ja)
Inventor
Kazutoshi Togano
戸叶 一利
Yoshio Matsuura
松浦 義雄
Hisao Nanba
難波 久男
Hiroyuki Fujiwara
宏之 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2329611A priority Critical patent/JPH04207361A/en
Publication of JPH04207361A publication Critical patent/JPH04207361A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

PURPOSE:To limit an image processing range by determining the ensuing image processing range in an image processing means according to an in-screen target prediction position. CONSTITUTION:The directing angle changing speed during turning of a directing device 2 is measured by a directing angle change speed measuring means 5 and the directing angle is determined by integrating 40 this directing angle change speed by a target position predicting means 6. This directing angle and a tracking error are added 42 to determine the target position. The target prediction position is subtracted 46 from the target position to determine a target prediction error. The target prediction position is determined from this target prediction error by a prediction filter 41 having a required prediction characteristic. Further, the directing angle is subtracted 47 from the target prediction position to determine the in-screen target prediction position and the image processing range at the time of the ensuing processing is determined the image processing means 3 according to this in-screen target prediction position. The image processing range in the ensuing frame is determined in this way.

Description

【発明の詳細な説明】 (概要〕 画像追尾装置に関し、。[Detailed description of the invention] (overview〕 Regarding image tracking devices.

次の処理画像における目標位置を予測することによって
、画像処理範囲を極力限定することができるようにした
画像追尾装置を提供することを目的とし7、 任意の方向に転向可能な指向装置上に搭載された画像セ
ンサからの画面上lこおける目標と該画像センサの視軸
との追尾誤差を検出する画像処理手段を備え、該追尾誤
差に応じて前記指向装置を駆動して前記視軸を目標ムこ
追尾させる直像追尾装置において、前記指向装置の転向
時における指向角変化速度の信号を積分して指向角を求
め、該指向角と前記追尾誤差とを加算し、て目標位置を
求め、該目標位置から目標予測位置を減算して目標f測
誤差を求め、該目標予測誤差から所要の予測特性によっ
て目標予測位置を求め1.該目標予測位置から指向角を
減算して画面内目標予測位置を求め、該画面内目標予測
位置に応じて前記画像処理手段における次の画像処理範
囲を定めることによって構成する。
The purpose is to provide an image tracking device that can limit the image processing range as much as possible by predicting the target position in the next processed image7, and is mounted on a pointing device that can be turned in any direction. image processing means for detecting a tracking error between the target on the screen from the image sensor and the visual axis of the image sensor, and drives the pointing device according to the tracking error to aim the visual axis. In a direct image tracking device that performs muko tracking, a pointing angle is determined by integrating a signal of a pointing angle change rate when the pointing device turns, and the target position is determined by adding the pointing angle and the tracking error; Subtracting the predicted target position from the target position to obtain a target f measurement error, and calculating the predicted target position from the target prediction error using a required prediction characteristic.1. The method is constructed by subtracting the orientation angle from the predicted target position to obtain the predicted target position within the screen, and determining the next image processing range in the image processing means according to the predicted target position within the screen.

(産業上の利用分野〕 本発明は画像追尾装置に関し、特に指向装置−[に置か
れた画像センサからの信号を受けて、画像中に含まれる
目標物体を抽出し、両面上におけるその位置を算出して
、指向釧IJ対し駆動指名レート(言分をフィートハ・
7りすることCごよって、目標を自動的に追尾する画像
追尾装置Cコ関するものである。
(Industrial Application Field) The present invention relates to an image tracking device, and in particular, receives a signal from an image sensor placed in a pointing device, extracts a target object included in an image, and calculates its position on both surfaces. Calculate the driving designation rate for the directional flywheel IJ (in other words,
This invention relates to an image tracking device C that automatically tracks a target.

画像追尾装置は、画像センサからの画像]二における目
標物体の追尾によって、指向装置を目標に対して追尾さ
せるものであり、近年におけるマイクロプロセッサ技術
の進歩と、赤外線センサ等の画像取得デバイスの性能向
」、乙ご伴−1で、これらの技術を乱用;5.た、高精
度・高安定性を有する画像追尾装置が、各棟制御装置や
防衛技術分野等において用いられようとしている。
An image tracking device is a device that allows a pointing device to track a target by tracking the target object in an image from an image sensor.The image tracking device is a device that allows a pointing device to track a target by tracking the target object in the image from the image sensor. 5. Misuse of these techniques by "Toward" and Otsugo-1;5. In addition, image tracking devices with high precision and high stability are being used in control devices for each building and in the field of defense technology.

このような、画像追尾装置は、追尾系全体を司る追尾制
御処理系において、高度な目標運動に対応でき、かつ効
率的な画像処理を実行できるよ・″)に、その処理の高
機能化が求められている。
Such an image tracking device is capable of responding to advanced target motion and executing efficient image processing in the tracking control processing system that controls the entire tracking system. It has been demanded.

〔従来の技術] 従来の画像追尾装置の追尾制御処理におりる、追尾制御
機能としては、画像処理による追尾誤差算出結果に対し
7て一定ケインを乗しることによって、画像センサを搭
載した指向装置の駆動レート指令信郵を発生ずる機能の
みであった。
[Prior art] As a tracking control function in the tracking control processing of a conventional image tracking device, the tracking error calculation result by image processing is multiplied by 7 by a certain key, so that the tracking control function that is included in the tracking control processing of a conventional image tracking device is Its only function was to generate a drive rate command message for the device.

目標の運動が単純で、また目標の抽出が機械的な画像処
理によっても寸分可能な目標−背登シーンの場合には、
このような追尾制御処理によっても1、−7フな追尾機
能を達成することが可能である。
In the case of a target-back climbing scene where the target's motion is simple and the target can be extracted by mechanical image processing,
Such tracking control processing also makes it possible to achieve a tracking function of 1, -7 degrees.

[発明が解決し2ようとする課題] し、かしながら、近年のように、高精度の追尾ポイン・
−うンク竹能と、?!館な背景C)もとでC月rjW安
定情が要求さ才)るgうにz′ると、高度な画像センサ
、高度なシンバル系を採用と、でも、LJ的と゛づ“る
性能を実現することが困難である。特!臥l!111像
処理範囲が広くなるに什っ”で、目標抽出性能のInl
から、画像如理器に大きな立向がかかってくる4L・う
 にな る。
[Problems to be solved by the invention] However, in recent years, high-precision tracking points and
-With Unku Takeno? ! With the use of an advanced image sensor and advanced cymbal system, it achieves the performance that is typical of LJ. As the image processing range becomes wider, it is difficult to achieve the desired extraction performance.
From then on, the 4L-U becomes a big challenge to the image visualization device.

従って、画像処理の高度化の結果、映像取4Wから追尾
誤差算出までの間に遅延誤差が発生ずる場合が多く、こ
れによ−1、て、さらに画像処理範囲C)増大を招く結
果となっている。
Therefore, as a result of the increasing sophistication of image processing, a delay error often occurs between image acquisition 4W and tracking error calculation, which results in a further increase in the image processing range (C). ing.

本発明はこのような従来技術の課題を解決とdミ・)と
するものであって、追尾ループ内に遅延時間要素がある
場合、または指向装置を搭載するジンバル等が大きな遅
ね要素となっているような場合でも、次の処理画像にお
ける目標位置を予測することによって、画像処理範囲を
極力回定することができるようにした画像追尾装置を提
供することをL」的とし7ている。
The present invention is intended to solve the problems of the prior art as described above, and is designed to solve the problems of the prior art when there is a delay time element in the tracking loop, or when a gimbal etc. equipped with a pointing device becomes a large delay element. The object of the present invention is to provide an image tracking device that can rotate the image processing range as much as possible by predicting the target position in the next processed image, even when the image is being processed.

〔課題を解決するための手段〕[Means to solve the problem]

第1図は本発明の原理的構成を示したものである。 FIG. 1 shows the basic configuration of the present invention.

本発明は、任意の方向に転向可能な指向装置2」−に搭
載された両像センサ1からの画面上における目標とこの
画像センサの視軸との追尾誤差を検出する画像処理手段
3を備え、この追尾誤差に応じて指向装置2を駆動して
指向装置の視軸を目標に追尾させる画像追尾装置におい
て、指向装置20転向時における指向角変化速度の信号
を積分して指向角を求め、この指向角と追尾誤差とを加
算して目標位置を求め、二〇目楼位置から1標予測位置
を減算して目標予測誤差を求め、この目標予測誤差から
所要の予測特性によって目標予測位置を求め、この目標
予測位置から指向角を減算し2て画面内目標予測位置を
求め、この画面内目標予測位置に応じて画像処理手段3
における次の画像処理範囲を定めるようにしたものであ
る。
The present invention includes an image processing means 3 for detecting a tracking error between a target on a screen from both image sensors 1 mounted on a pointing device 2'' which can be turned in any direction and a visual axis of this image sensor. In an image tracking device that drives the directing device 2 according to the tracking error to track the visual axis of the directing device to the target, the directing angle is determined by integrating the signal of the changing speed of the directing angle when the directing device 20 turns. The target position is obtained by adding this pointing angle and the tracking error, the target prediction error is obtained by subtracting the 1 target predicted position from the 20th tower position, and the target predicted position is calculated from this target prediction error using the required prediction characteristics. The orientation angle is subtracted from this predicted target position to obtain the predicted target position within the screen, and the image processing means 3 calculates the predicted target position within the screen.
This is to determine the next image processing range.

また本発明は、画像処理手段3によ、っ7、任意の方向
に転向可能な指向装置2土に搭載された画像センサ1の
画面上において目標を抽出すると古もにこの目標と画像
セン力の視軸との追尾誤差を検出し、クローズドループ
追尾制御手段4にλ;、って、この追尾誤差に応じて画
像追尾制御の処理を行って指向装置2に対する駆動指令
レート似郵を発生ずるようにした画像追尾装置において
、指向角変化速度計測手段5によ、って指向装置2の転
向時における指向角変化速度を計測し、目標位置予測手
段6によって、この指向角変化速度を積分して指向角を
求め、この指向角と追尾誤差とを加算して目標位置を求
め、この目標位置から目標予測位置を減算して目標予測
誤差を求め、この目標予測誤差から所要の予測特性を有
する予測フィルタ41!二よ−1.て目標予測位置を求
め、この目標予測位置から指向角を減算し7て画面内[
1標予測位置を求め、この画面内目標予測位置乙こ応U
7て画像処理手段3において次の処理時の画像処理範囲
を定める追尾ケ−1・を設定するようにしたものである
Further, the present invention uses the image processing means 3 to extract a target on the screen of the image sensor 1 mounted on the pointing device 2 which can be turned in any direction. Detects a tracking error with the visual axis of In the image tracking device configured as above, the pointing angle change speed measuring means 5 measures the pointing angle changing speed when the pointing device 2 turns, and the target position predicting means 6 integrates this pointing angle changing speed. to find the pointing angle, add this pointing angle and the tracking error to find the target position, subtract the predicted target position from this target position to find the target prediction error, and from this target prediction error have the required prediction characteristics. Prediction filter 41! Two-1. Find the predicted target position, subtract the pointing angle from this predicted target position, and then calculate [7] on the screen.
Find the predicted target position and enter the predicted target position within this screen.
7, a tracking case 1 is set in the image processing means 3 to determine the image processing range for the next processing.

さらに本発明は、画像センサ1に4って、[1標を撮像
し7、指向装置2によって、画像センg1を搭載して任
意の方向に転向可能にし、画像処理1段3によって、こ
の画像センサ1の画面上において目標を抽出するととも
にこの目標と画像センサの視軸との追尾誤差を検出する
処理を2フレームの遅延で行い、クローズドループ追尾
制御手段4によって、この追尾誤差に応じて画像追尾制
御の処理を行って指向装置2に対する駆動レート信号を
発生するようにした画像追尾装置において、指向角変化
速度計測手段5によって、指向装置20転向時における
指向角変化速度を計測し、目標位置予測手段6において
、積分器40によって、この指向角変化速度を積分して
指向角を求め、加算手段42によって、この指向角を2
フレーム遅延させた信号と追尾誤差とを加算して2フし
・−ム前の目標位置を求め、第1の減算手段46によっ
て、この2フレーム前の目標位置から2フレーム前の目
標予測位置を減算して2フレーム前の[」標予測誤差を
求め、予測フィルタ41によって、この2フレーム前の
目標予測誤差から所要の予測特性によって1フレーム前
の目標予測位置を求め、遅延手段511こよって、二の
1フレーム前の目標予測位置を1フレーム遅延させて2
フレーム前の目標予測位置を求め、第2の減算手段47
によって、この1フレーム前の目標予測位置から指向角
を1フレーム遅延させた信号を減算して1フレーム前の
画面内目標予測位置を求める。
Furthermore, the present invention has an image sensor 1 that is equipped with an image sensor g1 that images one target 7, is equipped with an image sensor g1 that can be turned in any direction, and is imaged by an image processing stage 3. The process of extracting a target on the screen of the sensor 1 and detecting the tracking error between the target and the visual axis of the image sensor is performed with a delay of two frames, and the closed-loop tracking control means 4 adjusts the image according to this tracking error. In an image tracking device that performs tracking control processing and generates a drive rate signal for the pointing device 2, the pointing angle change rate measuring means 5 measures the pointing angle change speed when the pointing device 20 turns, and determines the target position. In the prediction means 6, the integrator 40 integrates the rate of change in the pointing angle to obtain the pointing angle, and the adding means 42 calculates the pointing angle by 2.
The frame-delayed signal and the tracking error are added together to obtain the target position two frames before, and the first subtraction means 46 calculates the predicted target position two frames before from the target position two frames before. The target prediction error of two frames before is obtained by subtraction, and the prediction filter 41 calculates the target predicted position of one frame before using the desired prediction characteristic from the target prediction error of two frames before. The target predicted position 1 frame before 2 is delayed by 1 frame.
The second subtraction means 47 calculates the target predicted position before the frame.
By subtracting a signal whose directivity angle is delayed by one frame from this predicted target position one frame before, the predicted intra-screen target position one frame before is obtained.

そしてこの1フレーム前の画面内目標予測位置に応し′
7て画像処理手段3において次のフレームにおける画像
処理範囲を定める追尾ゲートを設定するようにしたもの
である。
Then, according to the predicted target position in the screen one frame before,
7, a tracking gate is set in the image processing means 3 to determine the image processing range in the next frame.

本発明はこの際、予測フィルタ41が、位置−速度モデ
ルによって目標予測誤差から目標予測位置を求めるよう
にしたものである。
In this case, the present invention is configured such that the prediction filter 41 obtains the target predicted position from the target prediction error using a position-velocity model.

本発明はまたさらに、予測フィルタ41が、画面上にお
ける目標の動きの予測と、指向装置の動きの予測とに基
づいて予測を行って目標予測誤差から目標予測位置を求
めるようにしたものである。
The present invention further provides that the prediction filter 41 performs prediction based on the prediction of the movement of the target on the screen and the prediction of the movement of the pointing device, and calculates the predicted target position from the target prediction error. .

〔作用] 第2図(a)、 (b)は、画像追尾装置の概念を示し
7たものであって、(a)は撮像部を示し、(b)は撮
像部における画像センサによる画面を示している。
[Operation] Figures 2 (a) and 2 (b) show the concept of the image tracking device, where (a) shows the imaging section and (b) shows the screen captured by the image sensor in the imaging section. It shows.

画像センサ1】は指向装置を構成するジンバル装置12
上りこ搭載されていて、ジンバル装置】2の動作によっ
て、目標13に対して、水平(AZ)方向と、垂直(E
L)方向との2軸によって転向して、指向角すなわちL
O3角を変化し、これによってその視界14内に目標1
3を追尾することができるようになっている。
Image sensor 1] is a gimbal device 12 that constitutes a pointing device.
The gimbal device] 2 is mounted on the upstream vehicle, and by the operation of the gimbal device 2, it is possible to move the target 13 in the horizontal (AZ) direction and vertical (E) direction.
Directional angle, that is, L)
change the O3 angle, thereby placing target 1 within its field of view 14.
3 can be tracked.

視界14に対応する画面15において、視軸16は例え
ばその中心に固定されていて、目標13が視軸16に一
致しないとき、両者の間に追尾誤差17を生じる。画面
15上には、目標の抽出および追尾のための画像処理を
行うべき一定の範囲として、追尾ゲート17が設定され
る。なおこの画面は1.必ずしも可視的に表現される必
要はない。
In the screen 15 corresponding to the field of view 14, the visual axis 16 is fixed, for example, at the center thereof, and when the target 13 does not coincide with the visual axis 16, a tracking error 17 occurs between the two. A tracking gate 17 is set on the screen 15 as a certain range in which image processing for target extraction and tracking is to be performed. Note that this screen is 1. It does not necessarily have to be visually expressed.

画像追尾装置における画面内での目標の動きは、目標と
画像センサとの位置関係の変化に基づくものと、画像セ
ンサを搭載したジンバル装置が動くことに基づくものと
に分けられる。さらに、ジンバル装置が動く要因として
は、ジンバル装置に対する駆動指令に基づ(ものと、空
間安定化残留外乱によるものとに分けられる。
The movement of a target within the screen of an image tracking device can be divided into two types: one based on a change in the positional relationship between the target and the image sensor, and the other based on the movement of a gimbal device equipped with an image sensor. Furthermore, factors that cause the gimbal device to move can be divided into those based on drive commands to the gimbal device and those due to spatial stabilization residual disturbance.

正常な自動追尾状態では、目標と画像センサとの位置関
係の変化によるLO3角のずれは、追尾処理におけるジ
ンバル駆動指令によって補正されている。一般に、目標
と画像センサとの位置関係は急激には変化しないため、
これに追尾系を追従させることは容易である。
In a normal automatic tracking state, a deviation in the LO3 angle due to a change in the positional relationship between the target and the image sensor is corrected by a gimbal drive command in the tracking process. Generally, the positional relationship between the target and the image sensor does not change rapidly, so
It is easy to make the tracking system follow this.

一方、空間安定化残留外乱によるLO3角のずれは、搭
載移動体の特性にもよるが、一般には高周波成分を含ん
でおり、これを画像追尾系によってカバーすることは、
技術的に困難である。また、このような場合には、画像
センサの光学系が高倍率になればなるほど、画面上での
ずれが大きくなるため、画面上において目標の抽出およ
び追尾を行うための、画像処理を行うべき「囲を定める
追尾ゲートを大きくとらざるを得なくなり、これによっ
て、画像処理時間が長くなることを免れない。
On the other hand, although the deviation of the LO3 angle due to the spatial stabilization residual disturbance depends on the characteristics of the mounted moving object, it generally includes a high frequency component, and it is difficult to cover this with an image tracking system.
Technically difficult. In addition, in such cases, the higher the magnification of the optical system of the image sensor, the greater the deviation on the screen, so it is necessary to perform image processing to extract and track the target on the screen. ``We have no choice but to make the tracking gate that defines the area larger, which inevitably increases the image processing time.

本発明においては、予測が困難な空間安定化残留外乱に
よる1、O8角変化分を、ジンバル装置からのI= O
Sレート測定値を用いて分離してしまうようにする。こ
れが可能になるのは、画像処理されて出てきた追尾誤差
の信号は、撮像系および処理系による遅延時間を持って
いるため、その結果に対しては、ジンバルの実際の駆動
情報に基づいて、慣性空間上でのり、 OS角に換算で
きるためである。
In the present invention, the 1,08 angular change due to the spatial stabilization residual disturbance, which is difficult to predict, is calculated using the I=O8 angle change from the gimbal device.
Use the S rate measurements to separate them. This is possible because the tracking error signal that comes out after image processing has a delay time caused by the imaging system and processing system. , because it can be converted into an OS angle in inertial space.

第3図は、本発明の詳細な説明するものである。FIG. 3 provides a detailed explanation of the invention.

図中、21は画像処理器であって、映像を取得し、画像
データから目標を抽出してその画面内の位置を割り出す
とともLこ、目標と画像センサの視軸との誤差、すなわ
ち追尾誤差信号を出力する。
In the figure, 21 is an image processor that acquires an image, extracts a target from the image data, and determines its position within the screen. Outputs error signal.

画像処理器21においては、一般には処理量を減らすた
めに、処理範囲を、ある大きさを持った追尾ゲートの内
部に限定している。画像処理器21tこおける映像取得
機能と画像処理とにおいては、追尾誤差信号を出力する
までにある時間が必要であって、これが追尾ループ内の
遅延時間要素となっている。
In the image processor 21, the processing range is generally limited to the inside of a tracking gate having a certain size in order to reduce the amount of processing. In the video acquisition function and image processing in the image processor 21t, a certain amount of time is required before outputting the tracking error signal, and this becomes a delay time element in the tracking loop.

22は画像追尾制御の処理を行って、ジンハ)l装置1
2乙こ対して一シンバル駆動し・−F信ηを出力する追
尾制御処理器であって、りL】−ズ]・ループ追尾フィ
ルタ23からなるクロースドループ追尾制御手段と、目
標位置予測処理器241)・らなる目標位置予測手段と
から構成されている。
22 performs image tracking control processing, and
A tracking control processor that drives one cymbal for two cymbals and outputs a -F signal η, which includes a closed-loop tracking control means consisting of a loop tracking filter 23, and a target position prediction processor. 241) and target position prediction means.

クローズドループ追尾フィルタ23は、追尾誤差から、
所要の特性を有する追尾フィルタコニよってクローズド
ループ演算を行って、追尾1= OS指令レートを算出
してジンバル装置し−1−の信月を出力するものであ−
、て、従来の追尾制御処理Sこはける主要な機能である
The closed-loop tracking filter 23 uses tracking errors to
A tracking filter with the required characteristics performs closed-loop calculation, calculates the tracking 1 = OS command rate, uses the gimbal device, and outputs a signal of -1-.
, are the main functions of conventional tracking control processing S.

目標位置予測処理器24は、次に画像処理すべき画像フ
レームにおける目標位置の予測を行うものであって、画
像処理器21からの追尾誤差の信号と、ジンバル装置1
2に設けられたLO5[、=−ト計測器25からなる指
向角変化速度計測1段からジンバルLOSレートの信号
が入力され、二わらのデータに基ついて、次に画像処理
すべき画像フレームにおける目標位置を予測する、画面
内目標予測位置の信号を発生する。
The target position prediction processor 24 predicts the target position in the image frame to be image-processed next, and uses the tracking error signal from the image processor 21 and the gimbal device 1.
The signal of the gimbal LOS rate is input from the first stage of measuring the rate of change in orientation angle consisting of the LO5[,=-t measuring instrument 25 installed in A signal of a predicted target position within the screen is generated to predict the target position.

画像処理器21においては、この画面内目標予測位置の
信号に基づいて、追尾ゲート位置が決定される。
In the image processor 21, the tracking gate position is determined based on the signal of this intra-screen target predicted position.

すなわち、画像処理器21によって、画像を取得すると
ともに、この画像上における目標物体を抽出し、さらに
この目標と視軸位置との追尾誤差を算出する。追尾制御
処理器22は、画像追尾の制御処理を行って、画像セン
サ11を搭載したジンバル装置12を制御する。ジンバ
ル装置12に内蔵されたLOSレート計測器25は、ジ
ンバル装置12の運動に伴うジンバルLOSレートを計
測して、追尾制御処理器22に帰還する。
That is, the image processor 21 acquires an image, extracts a target object on this image, and further calculates a tracking error between this target and the visual axis position. The tracking control processor 22 performs image tracking control processing and controls the gimbal device 12 on which the image sensor 11 is mounted. The LOS rate measuring device 25 built into the gimbal device 12 measures the gimbal LOS rate accompanying the movement of the gimbal device 12 and returns the measured value to the tracking control processor 22 .

この際、追尾制御処理器22においては、クローズドル
ープ追尾フィルタ23によって、所要の特性を有する追
尾フィルタによってクローズドループ制御を行って、追
尾誤差が最小になるようにジンバル装置12を駆動する
とともに、目標位置予測処理器24によって、ジンバル
装置12に設けられたI、OSレート計測器25からの
ジンバル■、OSレートの信号を、遅延素子および積和
演算子からなるディジタル・フィルタと、このジンバル
LOSレートの信号を積分するだめの積分器とによって
演算処理を行うことによって、次処理画像フレームにお
ける画面的目標位置を予測する。
At this time, in the tracking control processor 22, the closed-loop tracking filter 23 performs closed-loop control using a tracking filter having required characteristics to drive the gimbal device 12 so that the tracking error is minimized, and The position prediction processor 24 converts the gimbal ■ and OS rate signals from the I, OS rate measuring device 25 provided in the gimbal device 12 to a digital filter consisting of a delay element and a product-sum operator, and the gimbal LOS rate. The target position on the screen in the next processed image frame is predicted by performing arithmetic processing using an integrator that integrates the signal.

この画面内目標予測位置の確度が高ければ、画像処理に
おいて小さい追尾ゲートを用いて、目標の近傍のみを処
理すればよいので2複雑な画像の場合でも、目標抽出を
正WIに行うことができることになり、処理時間も短縮
される。
If the accuracy of this predicted target position within the screen is high, it is only necessary to use a small tracking gate in image processing and process only the vicinity of the target.2 Even in the case of complex images, target extraction can be performed with positive WI. , and the processing time is also shortened.

第4図は、目標位置予測処理器における処理を示したも
のであって、31はジンバル装置の動作を表すジンバル
・モテル、32は目標位置の予測を行う予測フィルタ、
33は2フレーム遅延素子(、Z−”) 、34.35
は1フレーム遅延素子(2−’)、36は加算器、37
.38は減算器である。
FIG. 4 shows the processing in the target position prediction processor, where 31 is a gimbal motel representing the operation of the gimbal device, 32 is a prediction filter for predicting the target position, and 32 is a prediction filter for predicting the target position;
33 is a 2-frame delay element (,Z-''), 34.35
is a one-frame delay element (2-'), 36 is an adder, 37
.. 38 is a subtracter.

本実施例においては、画像処理器21における前述の映
像取得および画像処理に基づく遅延を2サンプル(フレ
ーム)としている。
In this embodiment, the delay based on the above-mentioned video acquisition and image processing in the image processor 21 is two samples (frames).

画像センサからの画像データによって、画像処理器21
において前述のような処理を行われて、追尾誤差の信号
が発生する。一方、ジンバル・モデル31においては、
ジンバルL−o sレート・の測定値を積分(,2−1
+ンブIJ 7グすることによって1.慣性空間」−8
0戸′、代/ハル[、O8角の信号を発生する。
The image processor 21 uses image data from the image sensor.
The above-mentioned processing is performed in , and a tracking error signal is generated. On the other hand, in gimbal model 31,
Integrate the measured value of gimbal L-os rate (,2-1
+ MB IJ 7 1. Inertial space”-8
Generates a signal of 0 door', 0/hull [, O8 corner.

この伝)Jは遅延素子33において遅延されることによ
って、2フL・−ム前のジンバル視軸の信号を発生する
This transmission (J) is delayed by the delay element 33 to generate a signal of the gimbal visual axis two frames L.--frames earlier.

加算器36において、2フし・−ム前の追尾誤差の信号
と、2フレーム前のジンバル視軸の信号とを加算するこ
とによって、2フレーム前の目標位置の信号を発生する
。さらに減算器37において、この信号から、271、
・−ム前の目標予測位置の信号を減算することによって
、2フレーム前の目標予測誤差の信号を発生する。
The adder 36 generates a signal of the target position two frames ago by adding the signal of the tracking error two frames ago and the signal of the gimbal visual axis two frames ago. Furthermore, in the subtracter 37, from this signal, 271,
- Generate a signal of the target prediction error two frames ago by subtracting the signal of the target predicted position two frames ago.

予測フィルタ32ば、2フレーム前の目標予測誤差の(
8号から所定の予測特性に従って予測を行っζ、1フレ
ー1、前の目標予測位置の信号を発生−d−る。遅延素
子35はこの信号を1フレーム遅延さセ゛−て、土、述
の2フレーム前の目標予測位置の信号を発生ずる。
The prediction filter 32 calculates the target prediction error of two frames before (
Prediction is made from No. 8 according to predetermined prediction characteristics, and a signal of the previous target predicted position is generated for one frame. The delay element 35 delays this signal by one frame to generate the signal of the predicted target position two frames before.

二/ンハル・モチ゛ル31(’)・ン:7・′ハルL 
OS 角の信号は、遅延素子:34を経て1フレーノ・
遅延されるごとによって、1フレーム前のジンバルI、
OS 角の信号を発生する。減算器38においては、こ
の信号を1フレーJ、前の目標予測荀1の信号から減算
するごとによって、1フレーム前の画面内目枕予測位置
の仁月を発生する。この信号によって、前述のように画
像処理領域苓定める追尾ケ゛−トが設定される。
2/Nharu Motiru 31(')・N:7・'Hull L
The OS angle signal passes through a delay element: 34 to 1 Freno signal.
Depending on the delay, the gimbal I of one frame before,
OS Generates an angle signal. The subtracter 38 generates a value at the predicted position of the eye pillow in the screen one frame before by subtracting this signal from the signal of the previous target prediction signal 1 for one frame J. Based on this signal, the tracking point that defines the image processing area is set as described above.

予測フィルタ32におりる予測特性とし゛こは、通常の
目的には、位置−速度モデルによっ°で十分な精度で予
測できる。第4図の例では、伝達関数の前半は画面上の
目標の動きの予測を示し7、t)1は位置の予測の係数
、b2は速度の予測の係数である。また伝達関数の後半
は、ジンバル装置の動きのY測を示している。従って目
標予測誤差からこの両者によっ、て予測を行うことによ
、っ−ζ、1」標予測位置が求められる。なお、初期l
−1OS +/ −hは、演算開始時の予測フィルタの
初期化に用いられる。
The predictive characteristics of the predictive filter 32 can be predicted with sufficient accuracy for normal purposes by the position-velocity model. In the example of FIG. 4, the first half of the transfer function indicates the prediction of the movement of the target on the screen7, t)1 is a coefficient for position prediction, and b2 is a coefficient for velocity prediction. The second half of the transfer function shows the Y measurement of the movement of the gimbal device. Therefore, by making a prediction based on the target prediction error using both of them, the predicted target position can be obtained. In addition, the initial l
-1OS +/-h is used to initialize the prediction filter at the start of calculation.

この予測位置の決定方法は、予測フィルタの構成が単純
である(信号処理による遅延時間が含まれていない)こ
とからもわかるように、応答性に優ね、精度も高い。従
って、追尾ゲー何・サイズを小さくとることが可能とな
る。
This method of determining the predicted position has excellent responsiveness and high accuracy, as can be seen from the simple configuration of the prediction filter (does not include delay time due to signal processing). Therefore, it is possible to reduce the size of the tracking game.

〔実施例] 第5図は、本発明の一実施例を示L7たものであって、
第2図および第3図におけると同じものを同し番号で示
し、目標位置予測処理器24において、40は積分器、
41は予測フィルタ、42〜45は加算器、、46.4
7は減算器、48は2フレーム遅延素子(2D)、49
〜52は1フレーム遅延素子(D)、bl、b2は係数
器である。
[Example] FIG. 5 shows an example of the present invention L7,
The same parts as in FIGS. 2 and 3 are indicated by the same numbers, and in the target position prediction processor 24, 40 is an integrator;
41 is a prediction filter, 42 to 45 are adders, 46.4
7 is a subtracter, 48 is a 2-frame delay element (2D), 49
52 is a one-frame delay element (D), and bl and b2 are coefficient multipliers.

第5図の実施例においては、画像センサ11からの入力
画像データを画像処理器21において処理して追尾誤差
の信号を発生し、クローズドループ追尾フィルタ22に
加えることによって、ジンバル駆動レートの信号を発生
し2て、ジンバル装置12に与えてこれを駆動すること
によって、ジンバル装置】2に搭載された画像センサ1
1を水平(AZ)方向と、垂直(EL)方向に転向さセ
る。
In the embodiment shown in FIG. 5, input image data from the image sensor 11 is processed in the image processor 21 to generate a tracking error signal, and the signal is added to the closed-loop tracking filter 22 to generate a gimbal drive rate signal. The image sensor 1 mounted on the gimbal device 2 is generated and applied to the gimbal device 12 to drive it.
1 in the horizontal (AZ) direction and vertical (EL) direction.

そして、このときのジンバル装置12の動きを1、、 
OS L−一ト計測器25て測定して、ジンバルI。
Then, the movement of the gimbal device 12 at this time is 1,...
Measured using OS L-1 measuring instrument 25 and gimbal I.

OSレートの信号を発生する。ジンバルLO3L。Generates an OS rate signal. Gimbal LO3L.

−1・の信号は、通常は、A、 Zおよび[悄−5の2
軸の測定値からなっている。
-1・signal is usually A, Z and [悄-5 of 2
Consists of axis measurements.

目標位置予測処理器24においては、[、OSレーl計
測器25からのジンバルL OSレートの信号を積分器
40によって積分し7て、角度信号であるジンバルLO
3角の信号に変換する。この場合の積分は、入力信号を
ディジタル信号C1l:′変換してから、加算器を用い
て加算して求めるようにしてもよい。
In the target position prediction processor 24, the gimbal LO rate signal from the OS rail measuring device 25 is integrated by an integrator 40, and the gimbal LO signal, which is an angle signal, is obtained.
Convert to triangular signal. The integral in this case may be obtained by converting the input signal into a digital signal C1l:' and then adding the signals using an adder.

このようにして求められたジンバル1.O8角の信号を
遅延素子48によって2フレーム遅延し、加算器42に
おいて、追尾誤差の信号と加算し・て2フレーム前の目
標位置の信号を発生し、減算器46において、この目標
位置の信号から2フレーム前の目標予測位置の信号を減
算する、二とによ−。
Gimbal 1 obtained in this way. The O8 angle signal is delayed by two frames by a delay element 48, and added to the tracking error signal by an adder 42 to generate a signal of the target position two frames before.The subtracter 46 generates a signal of this target position. The signal of the target predicted position two frames before is subtracted from the signal.

て、2フレーム前の目標予測誤差の信号を発生する。Then, a signal of the target prediction error of two frames before is generated.

係数器bl、b2、加算器44.45、遅延素子49.
50からなる回路は、第4図番こ示された予測フィルタ
32を、遅延素子と積和演算子とからなるハードウェア
ロジックによって実現したものであるが、これに限るも
のでなく、マイクロプロセッサを用いてソフトウェア的
に実現することも可能である。
Coefficient units bl, b2, adders 44.45, delay elements 49.
The circuit consisting of 50 realizes the prediction filter 32 shown in FIG. It is also possible to realize it using software.

2フレーム前の目標予測誤差の信号を、この予測フィル
タに加えることによって、1フレーム前の目標予測位置
の信号を発生するので、これを遅延素子51に加えるこ
とによって、上述の2フレーム前の目標予測位置の信号
を発生する。
By adding the signal of the target prediction error two frames before to this prediction filter, a signal of the target prediction position one frame before is generated. By adding this to the delay element 51, the signal of the target prediction error two frames before Generates a predicted position signal.

さらに、前述のジンバルLO3角の信号を遅延素子52
において1フレーム遅延し、減算器47において、■フ
レーム前の目標予測位置の信号から減算することによっ
て、画面内目標予測位置のの信号を発生する。この信号
によって位置を指定することによって、画像処理器21
において次フレームにおける追尾ゲートの設定が行われ
る。
Furthermore, the signal of the aforementioned gimbal LO3 angle is transmitted to the delay element 52.
The subtracter 47 generates a signal of the predicted target position within the screen by subtracting it from the signal of the predicted target position of the previous frame. By specifying the position using this signal, the image processor 21
In , the tracking gate for the next frame is set.

本発明においては、追尾誤差信号に含まれる、画像セン
サを搭載するジンバル装置における空間安定化残留外乱
による、ジンバル装置からのLO8角の変動は、目標予
測位置の信号からジンバルLO3角を差し引く段階で打
ち消されるので、画面内目標予測位置の信号においては
、その影響が除去されている。
In the present invention, fluctuations in the LO8 angle from the gimbal device due to spatial stabilization residual disturbance in the gimbal device equipped with the image sensor, which are included in the tracking error signal, are determined at the stage of subtracting the gimbal LO3 angle from the signal of the predicted target position. Since the signal is canceled, its influence is removed from the signal of the target predicted position within the screen.

(発明の効果〕 以上説明したように本発明によれば、画像追尾装置にお
いて、画面内における目標位置予測機能を、追尾信号処
理機能に付加して、ジンバル装置における空間安定化残
留外乱によるLO3角の変動の影響を受けることなく、
画面上において目標位置を予測することができるので、
画像処理範囲を定める追尾ゲートサイズを小さくするこ
とが可能となり、従って、目標抽出の画像処理が容易か
つ正確になって、処理速度が向上するとともに、目標を
抽出てきないため、追尾不能乙こなる誤動作を防止する
ことができる。
(Effects of the Invention) As described above, according to the present invention, in an image tracking device, a target position prediction function within the screen is added to a tracking signal processing function, and the LO3 angle due to the spatial stabilization residual disturbance in the gimbal device is added. without being affected by fluctuations in
Since the target position can be predicted on the screen,
It is possible to reduce the size of the tracking gate that defines the image processing range, which makes image processing for target extraction easier and more accurate, improving processing speed, and preventing tracking from occurring because the target is not extracted. Malfunctions can be prevented.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の原理的構成を示す図、第2図(a)、
 (b)は画像追尾装置の概念を示す図、第3図は本発
明の詳細な説明する図、第4図は目標位置予測処理器に
おける処理を示す図、第5図は本発明の一実施例を示す
図である。 1は画像センサ、2は指向装置、3は画像処理手段、4
はクローズドループ追尾制御手段、5は指向角変化速度
計測手段、6は目標位置予測手段である。
Fig. 1 is a diagram showing the basic configuration of the present invention, Fig. 2(a),
(b) is a diagram showing the concept of the image tracking device, FIG. 3 is a diagram explaining the present invention in detail, FIG. 4 is a diagram showing the processing in the target position prediction processor, and FIG. 5 is an embodiment of the present invention. It is a figure which shows an example. 1 is an image sensor, 2 is a directing device, 3 is an image processing means, 4
5 is a closed loop tracking control means, 5 is a direction angle change rate measuring means, and 6 is a target position prediction means.

Claims (5)

【特許請求の範囲】[Claims] (1)任意の方向に転向可能な指向装置(2)上に搭載
された画像センサ(1)からの画面上における目標と該
画像センサの視軸との追尾誤差を検出する画像処理手段
(3)を備え、該追尾誤差に応じて前記指向装置(2)
を駆動して指向装置の視軸を目標に追尾させる画像追尾
装置において、前記指向装置(2)の転向時における指
向角変化速度の信号を積分して指向角を求め、該指向角
と前記追尾誤差とを加算して目標位置を求め、該目標位
置から目標予測位置を減算して目標予測誤差を求め、該
目標予測誤差から所要の予測特性によって目標予測位置
を求め、該目標予測位置から指向角を減算して画面内目
標予測位置を求め、該画面内目標予測位置に応じて前記
画像処理手段(3)における次の処理時における画像処
理範囲を定めることを特徴とする画像追尾装置。
(1) Image processing means (3) for detecting the tracking error between the target on the screen from the image sensor (1) mounted on the pointing device (2) which can be turned in any direction and the visual axis of the image sensor. ), and the pointing device (2) according to the tracking error.
In an image tracking device that tracks the visual axis of the pointing device to a target by driving the pointing device (2), the pointing angle is determined by integrating the signal of the pointing angle change rate when the pointing device (2) turns, and the pointing angle and the tracking The target position is obtained by adding the error, the target predicted position is subtracted from the target position to obtain the target predicted error, the target predicted position is determined from the target predicted error by the required prediction characteristics, and the target position is determined from the target predicted position. An image tracking device characterized in that a predicted intra-screen target position is obtained by subtracting a corner, and an image processing range for the next processing in the image processing means (3) is determined according to the predicted intra-screen target position.
(2)任意の方向に転向可能な指向装置(2)上に搭載
された画像センサ(1)の画面上において目標を抽出す
るとともに該目標と画像センサの視軸との追尾誤差を検
出する画像処理手段(3)と、該追尾誤差に応じて画像
追尾制御の処理を行って前記指向装置(2)に対する駆
動指令レート信号を発生するクローズドループ追尾制御
手段(4)とを有する画像追尾装置において、 前記指向装置(2)の転向時における指向角変化速度を
計測する指向角変化速度計測手段(5)と、 該指向角変化速度を積分して指向角を求め、該指向角と
追尾誤差とを加算して目標位置を求め、該目標位置から
目標予測位置を減算して目標予測誤差を求め、該目標予
測誤差から所要の予測特性を有する予測フィルタ(41
)によって目標予測位置を求め、該目標予測位置から指
向角を減算して画面内目標予測位置を求める目標位置予
測手段(6)とを設け、 該画面内目標予測位置に応じて前記画像処理手段(3)
において次の処理時における画像処理範囲を定める追尾
ゲートを設定するようにしたことを特徴とする画像追尾
装置。
(2) An image that extracts a target on the screen of an image sensor (1) mounted on a pointing device (2) that can be turned in any direction and detects the tracking error between the target and the visual axis of the image sensor. An image tracking device comprising a processing means (3) and a closed loop tracking control means (4) that performs image tracking control processing according to the tracking error and generates a drive command rate signal for the pointing device (2). , a pointing angle change rate measuring means (5) for measuring the rate of change in the pointing angle when the pointing device (2) turns; A prediction filter (41
), and a target position prediction means (6) for calculating a predicted target position in the screen by subtracting a pointing angle from the predicted target position, and a target position prediction means (6) for calculating the predicted target position in the screen according to the predicted target position in the screen. (3)
An image tracking device characterized in that a tracking gate is set for determining an image processing range in the next processing.
(3)目標を撮像する画像センサ(1)と、該画像セン
サ(1)を搭載し任意の方向に転向可能な指向装置(2
)と、 該画像センサ(1)の画面上において目標を抽出すると
ともに該目標と画像センサの視軸との追尾誤差を検出す
る処理を2フレームの遅延で行う画像処理手段(3)と
、 該追尾誤差に応じて画像追尾制御の処理を行って前記指
向装置(2)に対する駆動レート信号を発生するクロー
ズドループ追尾制御手段(4)とを有する画像追尾装置
において、 前記指向装置(2)の転向時における指向角変化速度を
計測する指向角変化速度計測手段(5)と、 該指向角変化速度を積分して指向角を求める積分器(4
0)と、該指向角を2フレーム遅延させた信号と前記追
尾誤差とを加算して2フレーム前の目標位置を求める加
算手段(42)と、該2フレーム前の目標位置から2フ
レーム前の目標予測位置を減算して2フレーム前の目標
予測誤差を求める第1の減算手段(46)と、該2フレ
ーム前の目標予測誤差から所要の予測特性によって1フ
レーム前の目標予測位置を求める予測フィルタ(41)
と、該1フレーム前の目標予測位置を1フレーム遅延さ
せて前記2フレーム前の目標予測位置を求める遅延手段
(51)と、該1フレーム前の目標予測位置から前記指
向角を1フレーム遅延させた信号を減算して1フレーム
前の画面内目標予測位置を求める第2の減算手段(47
)とを有する目標位置予測手段(6)とを設け、 該1フレーム前の画面内目標予測位置に応じて前記画像
処理手段(3)において次の処理時における画像処理範
囲を定める追尾ゲートを設定することを特徴とする画像
追尾装置。
(3) An image sensor (1) that images a target, and a pointing device (2) equipped with the image sensor (1) and capable of turning in any direction.
), an image processing means (3) for extracting a target on the screen of the image sensor (1) and detecting a tracking error between the target and the visual axis of the image sensor with a delay of two frames; An image tracking device comprising a closed-loop tracking control means (4) that performs image tracking control processing according to a tracking error and generates a drive rate signal for the pointing device (2), the turning of the pointing device (2) a pointing angle change rate measuring means (5) for measuring the changing rate of the pointing angle when the pointing angle changes;
0), an adding means (42) for calculating the target position two frames before by adding the signal obtained by delaying the pointing angle by two frames and the tracking error; a first subtraction means (46) for subtracting a target predicted position to obtain a target prediction error two frames before; and a prediction unit (46) for obtaining a target predicted position one frame before based on a required prediction characteristic from the target prediction error two frames before. Filter (41)
and a delay means (51) for obtaining the predicted target position two frames before by delaying the predicted target position one frame before by one frame, and delaying the pointing angle by one frame from the predicted target position one frame before. a second subtraction means (47
), and a tracking gate is provided to determine an image processing range for the next processing in the image processing means (3) according to the predicted target position in the screen one frame before. An image tracking device characterized by:
(4)前記予測フィルタ(41)が、位置−速度モデル
によって目標予測誤差から目標予測位置を求めることを
特徴とする請求項第2項または第3項記載の画像追尾装
置。
(4) The image tracking device according to claim 2 or 3, wherein the prediction filter (41) calculates the predicted target position from the target prediction error using a position-velocity model.
(5)前記予測フィルタ(41)が、画面上における目
標の動きの予測と、指向装置の動きの予測とに基づいて
予測を行って目標予測誤差から目標予測位置を求めるこ
とを特徴とする請求項第4項記載の画像追尾装置。
(5) A claim characterized in that the prediction filter (41) performs prediction based on the prediction of the movement of the target on the screen and the prediction of the movement of the pointing device, and calculates the predicted target position from the target prediction error. The image tracking device according to item 4.
JP2329611A 1990-11-30 1990-11-30 Image tracking device Pending JPH04207361A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2329611A JPH04207361A (en) 1990-11-30 1990-11-30 Image tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2329611A JPH04207361A (en) 1990-11-30 1990-11-30 Image tracking device

Publications (1)

Publication Number Publication Date
JPH04207361A true JPH04207361A (en) 1992-07-29

Family

ID=18223290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2329611A Pending JPH04207361A (en) 1990-11-30 1990-11-30 Image tracking device

Country Status (1)

Country Link
JP (1) JPH04207361A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162846A (en) * 1993-12-07 1995-06-23 Sumitomo Electric Ind Ltd Follow-up recognizing device for object
JP2006275631A (en) * 2005-03-28 2006-10-12 Mitsubishi Electric Corp Infrared guide system
JP2008197733A (en) * 2007-02-08 2008-08-28 Toshiba Corp Tracking method and device
JP2010121914A (en) * 2008-11-21 2010-06-03 Toshiba Denpa Products Kk Simulated rivalry device for shooting practice
JP2010121915A (en) * 2008-11-21 2010-06-03 Toshiba Denpa Products Kk Simulated rivalry device for shooting practice
JP2010231371A (en) * 2009-03-26 2010-10-14 Toshiba Corp Apparatus and method for tracking of moving object image

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162846A (en) * 1993-12-07 1995-06-23 Sumitomo Electric Ind Ltd Follow-up recognizing device for object
JP2006275631A (en) * 2005-03-28 2006-10-12 Mitsubishi Electric Corp Infrared guide system
JP4675659B2 (en) * 2005-03-28 2011-04-27 三菱電機株式会社 Infrared induction device
JP2008197733A (en) * 2007-02-08 2008-08-28 Toshiba Corp Tracking method and device
JP2010121914A (en) * 2008-11-21 2010-06-03 Toshiba Denpa Products Kk Simulated rivalry device for shooting practice
JP2010121915A (en) * 2008-11-21 2010-06-03 Toshiba Denpa Products Kk Simulated rivalry device for shooting practice
JP2010231371A (en) * 2009-03-26 2010-10-14 Toshiba Corp Apparatus and method for tracking of moving object image

Similar Documents

Publication Publication Date Title
US9883104B2 (en) Control apparatus, image pickup apparatus, control method, and non-transitory computer-readable storage medium which are capable of performing tilt correction
JP5111306B2 (en) Optical apparatus having image blur correction function and control method thereof
US9568742B2 (en) Image stabilization apparatus, control method thereof, optical apparatus and image capturing apparatus
JP5121911B2 (en) Anti-shake control device, imaging device, and anti-shake control method
WO2017075788A1 (en) Anti-jitter photographing method and apparatus, and camera device
US9025859B2 (en) Inertial sensor aided instant autofocus
JP2010025961A (en) Image stabilization control apparatus and image capturing apparatus
JP2010025962A (en) Image stabilization control apparatus and image capturing apparatus
CN105721776A (en) Sports camera device with digital image stabilization function and digital image stabilization method
JPH04207361A (en) Image tracking device
US10979653B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2941815B2 (en) Imaging device and blur correction device
KR101608828B1 (en) Apparatus for vibration compensation of gyro sensor of mobile camera
JP2014123359A (en) Digital image processing apparatus and method of estimating global motion of image
JP2011259394A (en) Tilt detection device, shake correction device, imaging device, and control method thereof
JP7449715B2 (en) Framing area learning device, framing area estimating device, and programs thereof
US20220130057A1 (en) Image processing device, image processing method, and image processing program
KR20120111857A (en) Object tracking method of the robot fish
JP2017034616A (en) Image processing apparatus and control method therefor
Kornilova et al. Real-time digital video stabilization using MEMS-sensors
US20230417575A1 (en) Orientation calculation apparatus, orientation calculation method, imaging apparatus including orientation calculation apparatus, and method for controlling same
KR102394189B1 (en) Method and apparatus for synchronizing images of heterogeneous cameras mounted on the housing
US20190244377A1 (en) Image processing method, electronic device, and non-transitory computer readable storage medium
JP7324639B2 (en) Subject position estimation device, focus assist device, and programs thereof
US20230417553A1 (en) Orientation calculation apparatus, orientation calculation method, imaging apparatus including orientation calculation apparatus, and method for controlling same