JPH0275284A - Image pickup device - Google Patents

Image pickup device

Info

Publication number
JPH0275284A
JPH0275284A JP63226017A JP22601788A JPH0275284A JP H0275284 A JPH0275284 A JP H0275284A JP 63226017 A JP63226017 A JP 63226017A JP 22601788 A JP22601788 A JP 22601788A JP H0275284 A JPH0275284 A JP H0275284A
Authority
JP
Japan
Prior art keywords
camera
motion vector
vector
output
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63226017A
Other languages
Japanese (ja)
Other versions
JP2941815B2 (en
Inventor
Masayoshi Sekine
正慶 関根
Kazuhiro Noguchi
和宏 野口
Koji Takahashi
宏爾 高橋
Masamichi Toyama
当山 正道
Toshiyuki Nakajima
中島 敏之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP63226017A priority Critical patent/JP2941815B2/en
Application filed by Canon Inc filed Critical Canon Inc
Priority to DE68928217T priority patent/DE68928217T2/en
Priority to EP95111708A priority patent/EP0682449B1/en
Priority to DE68929448T priority patent/DE68929448T2/en
Priority to EP89116447A priority patent/EP0358196B1/en
Priority to US07/403,455 priority patent/US5107293A/en
Publication of JPH0275284A publication Critical patent/JPH0275284A/en
Priority to US08/402,735 priority patent/US5561498A/en
Application granted granted Critical
Publication of JP2941815B2 publication Critical patent/JP2941815B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To improve a blur correcting function by extracting movement information of an external sensor and a video camera respectively comparing a moving vector of a picture with movement information of the video camera so as to obtain a blur correction based on the arithmetic result. CONSTITUTION:An image pickup element 101 and a moving vector extraction section 102 extracting a moving vector of a picture from an output video signal detect a movement vector of a camera itself. On the other hand, an external sensor 106 and a camera movement information detection section 107 detecting the movement information of the camera by an output of the external sensor 108 detect the movement vector of the camera itself. Then a vector comparison section 103 comparing and evaluating the moving vectors calculate the moving vector and a blur correction signal generating section 104 outputs a blur correction signal 104 to cancel the moving vector and a blur correction section 105 moves a lens system in a direction to correct the blur. Thus, an excellent blur correction function is obtained.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は装置の振動による画像のぶれを補正する機能を
備えた撮像装置に関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an imaging device having a function of correcting image blur caused by vibration of the device.

〔従来の技術〕[Conventional technology]

従来より、カメラで撮影を行う場合、撮影の失敗させる
原因としてカメラぶれが大きな問題となっていた。そし
てカメラぶれは静止画撮影であれば撮影が瞬間的なもの
であるので、比較的防ぐことができるが、近年映像機器
の発展にともなって急速に普及しているビデオカメラ等
では、動画の撮影が前提となり、しかも小型化にともな
って手持ち撮影が多く、カメラぶれはモニタ画面及び再
生画面を劣化させるきわめて重要な問題ということがで
きる。
BACKGROUND ART Conventionally, when taking pictures with a camera, camera shake has been a major problem as a cause of failure in taking pictures. Camera shake is relatively preventable when shooting still images because the shooting is instantaneous, but with video cameras and other devices that have become rapidly popular in recent years with the development of video equipment, Moreover, with miniaturization, hand-held shooting is becoming more common, and camera shake can be said to be an extremely important problem that degrades monitor screens and playback screens.

一方、このカメラぶれを検出して自動的にレンズ系をカ
メラぶれを相殺する方向に移動する方法が提案されてい
る。これらの方法としては、カメラに取り付けられた回
転ジャイロや加速度センサ等を用いてカメラぶれを検出
し、そのぶれ量に応じてレンズ系等をアクチュエータで
移動してぶれを補正するもの、撮像手段より出力された
映像信号を解析して画像のぶれを検出し、レンズ系を移
動するアクチュエータを制御し、ぶれを補正するものが
考えられる。
On the other hand, a method has been proposed in which this camera shake is detected and the lens system is automatically moved in a direction to offset the camera shake. These methods include detecting camera shake using a rotating gyro or acceleration sensor attached to the camera, and correcting the shake by moving the lens system etc. with an actuator according to the amount of shake; One possibility is to analyze the output video signal to detect image blur, control an actuator that moves the lens system, and correct the blur.

〔発明の解決しようとする問題点〕[Problem to be solved by the invention]

しかしながら、前者の回転ジャイロ、加速度センザ等に
よる外部センサのみでは、応答性、精度、感度等の特性
面で十分満足の行くものを得ること難しく、また後者の
方法によれば、外部センサを必要としない特長であるが
、検出された動き情報が、被写体とカメラとの相対的な
動き情報であるため、画像のパターンによっては、画像
の動きがカメラのぶれ等によるものなのか、被写体の移
動によるものであるのかの判断が困難であり、被写体に
よってはエラーを生じやすいという問題があった。
However, with the former method, it is difficult to obtain fully satisfactory characteristics such as response, accuracy, and sensitivity using only an external sensor such as a rotating gyro or an acceleration sensor, and with the latter method, an external sensor is not required. However, since the detected motion information is relative motion information between the subject and the camera, depending on the image pattern, it may be possible to determine whether the movement of the image is due to camera shake or the like, or whether it is due to the movement of the subject. There was a problem in that it was difficult to judge whether the image was a real object, and errors were likely to occur depending on the subject.

〔問題点を解決するだめの手段〕[Failure to solve the problem]

本発明は上述した問題点をいずれも解決することを目的
としてなされたもので、その特徴とするところは、互い
に異なる情報にもとづいて装置のぶれ量を検出する第1
及び第2の動き検出手段と、前記第1及び第2の動き検
出手段より出力された第1及び第2の動き情報とを演算
して第3の動き情報を出力する第3の動き検出手段と、
前記第3の動き検出手段より出力された前記第3の動き
情報にもとづいて前記ぶれ量を補正すべく光学系の位置
を制御する補正手段とを備えた撮像装置であり、検出対
象の異なる複数の動き情報たとえば、外部センサ(加速
度、速度および変位等を検出するセンサ)によりカメラ
の動き情報を検出して映像信号の画像処理により、得ら
れた画像の動きベクトルと比較、演算する事によりぶれ
補正信号の適正化を行い、画像のパターンによる検出精
度のばらつきや誤動作を防止し、且つ応答性、感度等の
諸性性にすぐれたぶれ補正機能を備えた撮像装置を提供
するものである。
The present invention has been made with the aim of solving all of the above-mentioned problems, and its feature is that the present invention detects the amount of shake of the device based on mutually different information.
and a second motion detection means, and a third motion detection means for calculating the first and second motion information outputted from the first and second motion detection means and outputting third motion information. and,
and a correction means for controlling the position of an optical system to correct the amount of blur based on the third motion information outputted from the third motion detection means, and the imaging apparatus includes a plurality of different detection targets. For example, by detecting camera movement information using an external sensor (a sensor that detects acceleration, velocity, displacement, etc.), and performing image processing on the video signal, it is compared with the motion vector of the obtained image and calculated. An object of the present invention is to provide an imaging device equipped with a blur correction function that optimizes a correction signal, prevents variations in detection accuracy and malfunctions due to image patterns, and has excellent properties such as responsiveness and sensitivity.

〔実施例〕〔Example〕

以下本発明における撮像装置を各図を参照しながらその
一実施例について詳述する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of an imaging apparatus according to the present invention will be described in detail below with reference to the respective figures.

第1図は本発明における撮像措置のぶれ補正システムの
基本構成を示すブロック図である。
FIG. 1 is a block diagram showing the basic configuration of a shake correction system for an imaging device according to the present invention.

同図において、CCD等の撮像素子101と、この撮像
素子101の出力映像信号中から画像の動きベクトルを
抽出する画像の動きベクトル抽出部]02によってカメ
ラ自体の動きベクトルを検出し、−方性部センサ106
、外部センサ1.06の出力にもづいてカメラの動き情
報を検出するカメラ動き情報検出部107によってカメ
ラ自体の動きベクトルを検出し、これらの動きベクトル
を比較、評価するベクトル比較部103によって画像の
ぶれの成分を表わす動きベクトルを演算し、ぶれ補正信
号発生部104によって画像ぶれを表わす動きベクトル
を相殺するためのぶれ補正信号104を出力し、ぶれ補
正部105によってレンズ系をぶれを補正する方向に移
動させるものである。
In the figure, a motion vector of the camera itself is detected by an image sensor 101 such as a CCD, and an image motion vector extractor 02 that extracts a motion vector of an image from the output video signal of the image sensor 101. part sensor 106
A camera movement information detection unit 107 detects movement information of the camera based on the output of the external sensor 1.06, and a motion vector of the camera itself is detected.A vector comparison unit 103 compares and evaluates these motion vectors. A motion vector representing a blur component is calculated, a blur correction signal generation unit 104 outputs a blur correction signal 104 for canceling the motion vector representing image blur, and a blur correction unit 105 corrects the blur in the lens system. direction.

第2図は本発明の撮像装置におけるぶれ補正システムを
具体化したときの一実施例を示すブロック図で、カメラ
部A、レンズ状態検出部、プレ補正信号発生部および補
正部りより構成されている。
FIG. 2 is a block diagram showing an embodiment of the image stabilization system in the imaging device of the present invention, which is composed of a camera section A, a lens state detection section, a pre-correction signal generation section, and a correction section. There is.

カメラ部Aにおいて、1は撮影レンズを含み、被写体像
を後述する撮像素子の撮像面上に結像させる、  撮影
レンズ系、2は撮影レンズ系1によって撮像面に結像さ
れた被写体像を電気信号に変換するたとえばCCD等の
撮像素子、3は撮像素子より出力された電気信号を読み
出して所定の信号処理を行い、輝度信号Y11信号C等
を出力するカメラ信号処理回路である。
In the camera section A, 1 includes a photographing lens and forms a subject image on the imaging surface of an image sensor (to be described later); An image sensor such as a CCD, which is converted into a signal, is a camera signal processing circuit 3 that reads out the electrical signal output from the image sensor, performs predetermined signal processing, and outputs a luminance signal Y11 signal C and the like.

レンズ状態検出部Bにおいて、11はカメラに取り付け
られた角速度センサ(取付状態については図示せず)、
12は角速度センサ11の出力に所定の信号処理を行い
、検出されたカメラのぶれ量に応じた角速度情報を出力
するセンサ信号処理回路、16はレンズ系がズームレン
ズを備えていた場合、レンズのズーミングによる焦点距
離情報を検出するズームエンコーダである。
In the lens state detection unit B, 11 is an angular velocity sensor attached to the camera (the attached state is not shown);
12 is a sensor signal processing circuit that performs predetermined signal processing on the output of the angular velocity sensor 11 and outputs angular velocity information according to the amount of camera shake detected; This is a zoom encoder that detects focal length information due to zooming.

ぶれ補正信号発生部Cにおいて、4はカメラ信号処理回
路3より出力された映像信号を1フイールド(または1
フレーム)単位でデジタル信号に変換するA/D変換器
、5はA/D変換された]画面をn個のブロックに分割
して前フィールドの画面における各ブロック内のディジ
タル情報比較し、両画面上の代表点の変位から各ブロッ
クのブロック動きベクトルilj + (x=1.2.
・・・+ n)をもとめるブロック動きベクトル検出回
路、13はレンズ状態検出系Bにおけるセンサ信号処理
回路I2の角速度情報をデジタル信号に変換するA/D
変換器、14はA/D変換器13より出力されたデジタ
ル角速度情報とズームエンコーダ16より得られたレン
ズの焦点距離情報にもとづいてぶれ等によるカメラの動
きベクトルυcamを次式より演算するカメラ動きベク
トル演算回路である。
In the blur correction signal generation section C, 4 converts the video signal output from the camera signal processing circuit 3 into one field (or one field).
5 is an A/D converter that converts the A/D converter into a digital signal in units of frames), divides the screen into n blocks, compares the digital information in each block in the screen of the previous field, and compares the digital information in both screens. From the displacement of the representative point above, the block motion vector ilj + (x=1.2.
... + n), and 13 is an A/D that converts the angular velocity information of the sensor signal processing circuit I2 in the lens state detection system B into a digital signal.
A converter 14 is a camera movement device that calculates a camera motion vector υcam due to shake etc. using the following equation based on the digital angular velocity information output from the A/D converter 13 and the lens focal length information obtained from the zoom encoder 16. It is a vector calculation circuit.

v cam = f−tan ((J) ・±)ただし
、f:焦点距離(mm) ω:カメラの角速度(rad/s) 6はブロック動きベクトル検出回路5より出力された画
像の動きベクトルυ2(i=1,2.・・・+ n)と
カメラ動きベクトル演算回路14より出力されたカメラ
動きベクトルυcamとを比較、評価し、画面の動きと
して統合して見た代表動きベクトルυと後述するパンニ
ング、デルティングの判定信号を制御するだめのパン・
チルトコントロール信号PTCONTを演算して出力す
る代表動きベクトル演算回路である。このアルゴリズム
については後述する。15はカメラ動きベクトル演算回
路14より出力されたカメラ動きベクトルυcamを各
フィールドごとに比較し、そのベクトルの変位に応じて
パンニング。
v cam = f-tan ((J) ・±) where f: focal length (mm) ω: angular velocity of camera (rad/s) 6 is the motion vector υ2 of the image output from the block motion vector detection circuit 5 ( i = 1, 2... + n) and the camera motion vector υcam output from the camera motion vector calculation circuit 14 are compared and evaluated, and a representative motion vector υ, which is integrated as screen movement and will be described later. Panning/delting control signal that controls panning and delting judgment signals.
This is a representative motion vector calculation circuit that calculates and outputs the tilt control signal PTCONT. This algorithm will be described later. Reference numeral 15 compares the camera motion vector υcam output from the camera motion vector calculation circuit 14 for each field, and performs panning according to the displacement of the vector.

チルティング等が生じているか否かを判定し、その判定
結果を表わすパンチルトモード信号PTMODEを出力
するパン・チルト判定回路である。このパン・チルト判
定回路は通常撮影時はパン・チルトモード信号PTMO
DE=0を出力し、ある所定のフィールド数以」二、カ
メラ動きベクトルの向きが変らなければパン・チルトモ
ードに入ったと判断し、パン・チルトモード信号PTM
ODE=1を出力し、そのカメラ動きベクトルの方向が
反転するまで“1″を出力し続ける。
This is a pan/tilt determination circuit that determines whether tilting or the like is occurring and outputs a pan/tilt mode signal PTMODE representing the determination result. This pan/tilt judgment circuit uses the pan/tilt mode signal PTMO during normal shooting.
DE=0 is output, and if the direction of the camera motion vector does not change after a certain number of fields, it is determined that the pan/tilt mode has entered, and the pan/tilt mode signal PTM is output.
It outputs ODE=1 and continues to output "1" until the direction of the camera motion vector is reversed.

7はズームエンコーダ16からの焦点距離情報f1パン
・チルト判定回路15からのパン・チルトモード信号P
TMODE、代表動きベクトル演算回路6からの代表動
きベクトルυ及びパン・チルトコントロール信号PTC
ONTとを取り込んで総合的なぶれ量を演算し、そのぶ
れ量に応じたぶれ補正信号υdrivと後述する補正系
の光軸回転手段を初期位置へとリセットするトリガ信号
Rを出力する補正信号発生回路である。8は補正信号発
生回路7より出力されたぶれ補正信号υdr1v及びト
リガ信号Rを後述する補正系を制御可能なアナログ信号
に変換するD/A変換器8である。
7 is focal length information f1 from the zoom encoder 16; pan/tilt mode signal P from the pan/tilt determination circuit 15;
TMODE, representative motion vector υ from representative motion vector calculation circuit 6 and pan/tilt control signal PTC
ONT and calculates the overall amount of blur, and generates a correction signal that outputs a blur correction signal υdriv corresponding to the amount of blur and a trigger signal R that resets the optical axis rotation means of the correction system to the initial position, which will be described later. It is a circuit. Reference numeral 8 denotes a D/A converter 8 that converts the blur correction signal υdr1v and trigger signal R outputted from the correction signal generation circuit 7 into analog signals that can control a correction system to be described later.

また、17は制御信号01〜08等によってぶれ補正信
号発生部C内の各回路を始めとする装置全体を所定のタ
イミングで動作制御するマイクロコンピュータからなる
システムコントロール回路である。
Reference numeral 17 denotes a system control circuit comprising a microcomputer that controls the operation of the entire apparatus including each circuit in the shake correction signal generating section C at a predetermined timing using control signals 01 to 08 and the like.

補正系りにおいて、9はぶれ補正信号発生系C内の補正
信号発生回路7より出力されたぶれ補正信号υdriv
をD/A変換した信号にもとづいて補正系10を駆動す
る駆動回路、10はレンズ系に配されている図示しない
光軸回転手段等のレンズ位置制御機構を含み、駆動回路
9に応じてこれらを動作し、画面の動きを補正する方向
にレンズ系を移動する補正系である。
In the correction system, 9 is a blur correction signal υdriv output from the correction signal generation circuit 7 in the blur correction signal generation system C.
10 includes a lens position control mechanism such as an optical axis rotation means (not shown) disposed in the lens system. This is a correction system that moves the lens system in the direction that corrects the movement of the screen.

本願の撮像装置は以上のような構成となっており、次に
上述のブロック図中、主要ブロックについてさらに詳細
に説明する。
The imaging device of the present application has the above configuration, and next, the main blocks in the above block diagram will be explained in more detail.

第3図(a)はぶれ補正信号発生系C内の代表動きベク
トル演算回路6において、画像の代表動きベクトルυお
よびパン・チルトコントロール信号PTCONTを演算
するアルゴリズムを説明するためのフローチャートであ
る。
FIG. 3(a) is a flowchart for explaining an algorithm for calculating the representative motion vector υ of an image and the pan/tilt control signal PTCONT in the representative motion vector calculation circuit 6 in the blur correction signal generation system C.

同図において、5teplで撮像画面上に設定されたn
個のブロックbIそれぞれにおける各ブロック動きベク
トルυ+ (i=1.2.・・・、n)及びカメラ動き
ベクトルυ。3mが入力される。ただし、第3図(b)
に示ずように撮像画面20上に、左上よりす、、b2゜
・・・、  bnと渦巻状に番号が割り当てられ、画面
中心のブロックがn個目のブロックbnとなるように設
定されている。カメラ動きベクトルυ。3mは5tep
 2でそのベクトルの大きさが評価され、1υcaml
が所定の値εより小さい場合には5tep3へと進んで
代表動きベクトルυをOとし、ぶれ補正動作を停止させ
る。すなわちカメラの動きが小さく補正の必要がないと
判断されるものである。
In the same figure, n set on the imaging screen at 5 tepl.
Each block motion vector υ+ (i=1.2...,n) and camera motion vector υ in each of the blocks bI. 3m is input. However, Fig. 3(b)
As shown in , numbers are assigned in a spiral pattern from the upper left corner, b2°, . There is. Camera motion vector υ. 3m is 5tep
2 evaluates the magnitude of the vector, 1υcaml
If ε is smaller than the predetermined value ε, the process proceeds to step 3, where the representative motion vector υ is set to O, and the blur correction operation is stopped. In other words, it is determined that the movement of the camera is small and there is no need for correction.

また5tep3で、lυcam l≧εであった場合に
は、ぶれが生じたと判断して5tep4へと移行し、各
ブロック動きベクトルυ+ (r = 1 、2 、・
・・+ n)を第3図(C)に示すよに画面20全ブロ
ツクにおいてカメラ動きベクトルυcamと比較し、カ
メラ動きベクトルυ。amに一致するベクトルυiの個
数及びその平均ベクトルV COR+を演算する。
In addition, in 5tep3, if lυcam l≧ε, it is determined that a blur has occurred, and the process moves to 5tep4, where each block motion vector υ+ (r = 1, 2, .
...+n) is compared with the camera motion vector υcam in all blocks of the screen 20 as shown in FIG. The number of vectors υi that match am and their average vector V COR+ are calculated.

続いて5tep 5 、5tep 6へと進み、υca
mに一致するυ1の個数Nを所定値N、、N2と比較す
る。
Next, proceed to 5tep 5, 5tep 6, and υca
The number N of υ1 that matches m is compared with predetermined values N, , N2.

ただし、N、、N2の間には、 0≦N1≦N2≦n(nは画面上のブロック数)の関係
がある。
However, there is a relationship between N, and N2 as follows: 0≦N1≦N2≦n (n is the number of blocks on the screen).

そして、υcamに一致する個数Nが非常に少なく、0
≦N≦N1てあった画面パターン1の場合には、5te
p7へと進んでパン・チルトコントロール信号PTCO
NTを“1”にし、続いて5tep8で代表動きベクト
ルυとしてカメラ動きベクトルυ。amを出力するとと
もに、パン・チルトコントロール信号PTCONT (
=1)を出力する。
Then, the number N matching υcam is very small and 0
In the case of screen pattern 1 where ≦N≦N1, 5te
Proceed to p7 and output the pan/tilt control signal PTCO.
NT is set to "1", and then in step 5, the camera motion vector υ is set as the representative motion vector υ. am and outputs the pan/tilt control signal PTCONT (
=1) is output.

またυ。amに一致する個数Nが非常に多く、N≧N2
であった画面パターン2の場合は、5tep9でパン・
チルトコントロール信号PTCONTを“1″にし、続
いて5teplOで代表動きベクトルυとして5tep
4てもとめた平均ベクトルV C0RIを出力するとと
もに、パン・チルトコントロール信号PTCONT(−
])を出力する。
Also υ. The number N that matches am is very large, N≧N2
In the case of screen pattern 2, pan/pan in step 9.
Set the tilt control signal PTCONT to “1” and then set the representative motion vector υ at 5teplO for 5tep.
It outputs the average vector VCORI obtained from 4, and also outputs the pan/tilt control signal PTCONT(-
]) is output.

尚、上述の画面パターン1、画面パターン2における撮
像画面上における具体的なベクトルの状態については後
述する。
Note that specific states of vectors on the imaging screen in the above-mentioned screen pattern 1 and screen pattern 2 will be described later.

カメラ動きベクトルυcamと一致する各ブロックの動
きベクトルυ1の個数NがN1とN2の中間の値をとる
( N I≦N≦N2)のときは、5tep】】へと進
み、第3図(d)に示す如く、撮像画面の中央部分で画
面中心のベクトルυ。に一致するυi (i=m・・・
n−1)の個数M及びその平均ベクトルV C0R2を
演算してもとめる。5tep12では、5tepl l
てもとめた個数Mを所定値M1と比較し、M<Mユてあ
った画面パターン3の場合には、5tep15へと進み
パン・チルトコントロール信号PTCONT を“]”
とし、5tep16において、代表動きベクトルυとし
て前述のカメラ動きベクトルυCamに一致するベクト
ルυ1の平均ベクトルV C0RIを出力するとともに
パン・チルトコントロール信号PTCONT(=1.)
を出力する。また5tep 12においてM≧M1であ
った画面パターン4の場合には5tep13へと進み、
パン・チルトコントロール信号PTCONTを“0“と
し、続いてS t e p ]、 4において、画面中
央部領域のυ。に一致するυ、の平均ベクトルV C0
R2を代表動きベクトルVとして出力するとともにパン
・チルトコントロール信号PTCONT (二〇)を出
力する。ただし、上述の所定値M1は、 0≦M、≦n−m (mは第3図(d)の画面中央領域の最初のブロックの
番号) の範囲内で定められた定数である。
When the number N of motion vectors υ1 of each block that matches the camera motion vector υcam takes an intermediate value between N1 and N2 (N I≦N≦N2), proceed to step 5 and proceed to Fig. 3 (d). ), the vector υ is centered at the center of the imaged screen. υi (i=m...
The number M of n-1) and its average vector V C0R2 are calculated and determined. In 5tep12, 5tepl l
The determined number M is compared with a predetermined value M1, and in the case of screen pattern 3 where M<M, the process advances to step 515 and the pan/tilt control signal PTCONT is set to "]"
Then, in 5tep16, the average vector VCORI of the vector υ1 that matches the camera movement vector υCam described above is output as the representative motion vector υ, and the pan/tilt control signal PTCONT (=1.) is output.
Output. In addition, in the case of screen pattern 4 where M≧M1 in 5tep 12, proceed to 5tep 13,
The pan/tilt control signal PTCONT is set to "0", and then, at Step ], 4, υ in the center area of the screen is set. The average vector V C0 of υ that matches
It outputs R2 as a representative motion vector V and also outputs a pan/tilt control signal PTCONT (20). However, the above-mentioned predetermined value M1 is a constant determined within the range of 0≦M,≦n-m (m is the number of the first block in the screen center area in FIG. 3(d)).

次に、第4図(a)における4つの場合(1)〜(4)
それぞれについて、そのときの画面上の各ブロックのベ
クトルの状態を第4図(a)〜(d)を用いて具体的に
説明する。
Next, the four cases (1) to (4) in Figure 4(a)
For each, the state of the vector of each block on the screen at that time will be specifically explained using FIGS. 4(a) to 4(d).

■)画面パターン1の場合について、N<N。■) For screen pattern 1, N<N.

この場合は、画面上の各ブロックの動きベクトルυ1 
(i=1.2.・・・+n)カメラ動きベクトルυ。a
mと一致する個数が非常に少ない状態であり、被写体の
動きがカメラの動きより大きいことを意味する。
In this case, the motion vector υ1 of each block on the screen
(i=1.2...+n) Camera motion vector υ. a
This is a state in which the number of objects that match m is very small, which means that the movement of the subject is greater than the movement of the camera.

この場合は第4図(a)に示すように、各ブロックの動
きベクトルがそれぞれυ。amと相異している場合、ま
たは同図(b)の各ブロックの動きベクトルυ1がυ。
In this case, as shown in FIG. 4(a), the motion vector of each block is υ. am is different from υ, or the motion vector υ1 of each block in FIG.

amと異なる向きに一致している場合が考えられる。そ
して同図(a)の場合は、細かい被写体がばらばらに動
いている場合、同図(b)は画面の大部分を占める被写
体がある方向に動いている場合等が想定できる。また同
図(a)の状態と(b)の状態の中間的な状態もあり得
る。
A case may be considered in which it coincides with a direction different from am. It can be assumed that in the case of FIG. 3(a), a small object is moving in a scattered manner, and in FIG. 2(b), the object occupying most of the screen is moving in a certain direction. In addition, there may be an intermediate state between the state shown in FIG. 4A and the state shown in FIG.

■)画面パターン2の場合について、N>N2カメラ動
きベクトルυ。amと一致する各ブロックの動きベクト
ルυ1の個数が非常に多い場合、すなわち被写体の動き
が小さ(画面の動きがカメラの動きによるものである場
合である。
■) For the case of screen pattern 2, N>N2 camera motion vector υ. When the number of motion vectors υ1 of each block that match am is very large, that is, when the movement of the subject is small (the movement of the screen is due to the movement of the camera).

同図(C)に示すように、画面上の各ブロックの動きベ
クトルυ1はカメラ動きベクトルυcamとほぼ等しい
方向に並んでいる。
As shown in FIG. 3C, the motion vector υ1 of each block on the screen is aligned in approximately the same direction as the camera motion vector υcam.

次に画面パターン3,4の場合について説明する。Next, the cases of screen patterns 3 and 4 will be explained.

画面パターン3,4の場合は、上述の画面パターン1と
画面パターン2の中間的な値をとる場合であり、これら
の場合は、カメラの動きと被写体の動きによる画面上の
影響が同程度であり、5tep12以降の制御フローに
示されているように、撮影している被写体の状態により
さらに場合分けすることができる。
In the case of screen patterns 3 and 4, values are intermediate between the above-mentioned screen patterns 1 and 2, and in these cases, the effects on the screen due to camera movement and subject movement are the same. As shown in the control flow from step 12 onwards, the cases can be further divided depending on the state of the subject being photographed.

1、TI )画面パターン3の場合について:M<M。1. TI) Regarding the case of screen pattern 3: M<M.

この場合は、画面パターン1,2の場合に該当しないの
で、被写体がほぼ画面中央部を主に存在するものと想定
し、第4図(d)にて説明したように、撮像画面の中央
部分で画面中心の動きベクトルυ。に一致する各ブロッ
クの動きベクトルυ1(1= m 、 m +1 、−
 、 n −1)の個数Mと、そのときの平均ベクトル
V C0R2とをもとめ、画面中央部分に意識的にとら
える被写体があるか否かを判断するものである。すなわ
ち、Mが所定値M1以下の場合(3)では、第4図(d
)に示すように、画面中央部に意識的にとらえている被
写体が存在しないと判断し、代表動きベクトルυとして
、平均ベクトルV C0R2を出力する。
In this case, since screen patterns 1 and 2 do not apply, it is assumed that the subject mainly exists in the center of the screen, and as explained in FIG. 4(d), the center of the imaged screen is is the motion vector υ at the center of the screen. The motion vector υ1 (1= m , m +1 , −
, n-1) and the average vector V C0R2 at that time to determine whether there is an object to be consciously captured in the center of the screen. That is, in case (3) when M is less than the predetermined value M1,
), it is determined that there is no consciously captured subject in the center of the screen, and the average vector V C0R2 is output as the representative motion vector υ.

■■)画面パターン4の場合について二M≧M1この場
合は、画面中央部に意識的にとらえている被写体が存在
する場合で、第4図(e)に示すように、画面中央部に
カメラ動きベクトルυcamと異なる被被写体の一定の
動きベクI・ルが存在している。そして代表動きベクト
ルυとしては画面中央部領域において画面中央部のブロ
ックbnの動きベクトルυmと一致する各ブロックの動
きベクトルυ+(+−m 、・・・、n−1)の平均ベ
クトルV C0R2を出力する。
■■) Regarding the case of screen pattern 4 2M≧M1 In this case, there is a subject that is consciously captured in the center of the screen, and as shown in Figure 4 (e), the camera is located in the center of the screen. There is a constant motion vector I of the subject that is different from the motion vector υcam. The representative motion vector υ is the average vector V C0R2 of the motion vector υ+(+-m,...,n-1) of each block that matches the motion vector υm of block bn in the center of the screen in the center area of the screen. Output.

以上4つの画像パターンにおいて、画像パターン1.2
.3においては、カメラの動きベクトルυ。a□にもと
づく代表動きベクトルを出力している為に、カメラの意
識的な操作すなわち、パン、チルト等の判断を必要とす
る。しかしながら画像パターンにおいては、被写体の動
きにもとづく動きベクトルを代表動きベクトルとしてい
るため、パン、チルトの判断は必要としない。したがっ
て、パン、チルトコントロール信号PTCONTは、画
像パターン]。
In the above four image patterns, image pattern 1.2
.. 3, the camera motion vector υ. Since a representative motion vector based on a□ is output, conscious operation of the camera, that is, judgment of panning, tilting, etc. is required. However, in the image pattern, since the motion vector based on the movement of the subject is used as the representative motion vector, determination of panning and tilting is not necessary. Therefore, the pan and tilt control signal PTCONT is the image pattern].

2.3についてはその値を1″としてパン・チルトを考
慮する必要のあることを示す信号を出力する。
For 2.3, the value is set to 1'', and a signal indicating that it is necessary to take panning and tilting into consideration is output.

また画像パターン4については、パン、チルトを考慮す
る必要がないので、パン・チルトコントロール信号PR
CONTを“0″としてパン・チルト判断を行わないこ
とを示す信号を出力する。
Regarding image pattern 4, since there is no need to consider panning and tilting, the panning and tilting control signal PR
CONT is set to "0" to output a signal indicating that pan/tilt judgment is not performed.

次に第2図のブロックダイヤグラムにおいて、代表動き
ベクI・ル演算回路6より出力された代表動きベクトル
υ及びパン・チルトコントロール信号PTCONTにも
とづいて、ぶれ補正信号発生回路7の構成、動作につい
て説明する。
Next, in the block diagram of FIG. 2, the configuration and operation of the blur correction signal generation circuit 7 will be explained based on the representative motion vector υ output from the representative motion vector I/L calculation circuit 6 and the pan/tilt control signal PTCONT. do.

第5図(a)は補正信号発生回路7の内部構成を示すブ
ロック図である。
FIG. 5(a) is a block diagram showing the internal configuration of the correction signal generation circuit 7. As shown in FIG.

代表動きベクトル演算回路6より出力された代表動きベ
クトルυ(x、y)は符号反転回路201により符号が
反転され、レンズ系の焦点距離情報fにもとづいて補正
角度演算回路202でぶれ補正に必要なレンズ補正角度
θyaw 、  θpitchが演算される(θyaw
はy a w i n g方向の補正角度、θpitc
hはpitching方向の補正角度である)。そして
これらのレンズ補正角度は、次式によってもとめられ、
ぶれ補正信号υdrivとして出力する。
The sign of the representative motion vector υ(x, y) outputted from the representative motion vector calculation circuit 6 is inverted by the sign inversion circuit 201, and the sign is inverted by the correction angle calculation circuit 202, which is necessary for blur correction, based on the focal length information f of the lens system. The lens correction angles θyaw and θpitch are calculated (θyaw
is the correction angle in the y a w i n g direction, θpitc
h is the correction angle in the pitching direction). These lens correction angles are determined by the following formula,
It is output as a blur correction signal υdriv.

ただし f 、焦点距離 X+ ’l :動きベクトルυの 水平、垂直方向要素 一方、代表動きベクトル演算回路6より出力されるパン
・チルトコントロール信号PTCONT及びパン・チル
ト判定回路15より得られるパン・チルト判定信号PT
MODEにもとづき、乗算器204によって論理積(A
ND)をとった信号が出力される。
where f, focal length Signal PT
Based on MODE, the multiplier 204 performs the logical product (A
ND) is output.

第5図(b)はこれらの信号PTCONTとPTMOD
Eの、上述の画面の状況に応じた場合(1)〜(4)の
それぞれにおけるAND出力論理値を示す図である。そ
して乗算器204のAND出力はスイッチ203の切換
え制御信号として用いられ、スイッチ203をAND出
力が“0”のときは、接点すに切換えて補正角度演算回
路202の出力すなわち上述の補正角度θyaw 、 
θpitchにもとづくぶれ補正信号υdrivを出力
させ、乗算器204のAND出力が“1”のときは開放
接点aへと切り換えられ、ぶれ補正信号υdrivを“
0″として出力する。
Figure 5(b) shows these signals PTCONT and PTMOD.
FIG. 6 is a diagram showing AND output logical values in each of cases (1) to (4) according to the above-mentioned screen situation of E. The AND output of the multiplier 204 is used as a switching control signal for the switch 203, and when the AND output of the switch 203 is "0", the contact is switched to the output of the correction angle calculation circuit 202, that is, the above correction angle θyaw,
The blur correction signal υdriv is output based on θpitch, and when the AND output of the multiplier 204 is "1", it is switched to the open contact a, and the blur correction signal υdriv is output as "
Output as 0''.

また立上り検出エツジトリガ回路205は、乗算器20
4の出力が“0″から“1″に反転したタイミングに合
わせ、トリガ信号Rを出力する。このトリガ信号はパン
・チルトモードに入ったことを示すものであるが、パン
、チルトと判断された時点では、レンズ系はすでに数フ
ィールド分ある一方向きへと補正手段によって補正され
た後であり、この位置で補正手段を止めておくと、パン
、チルトが終了して補正が開始されたときに、補正手段
の補正可能な領域がある一方向へとかたよっており、補
正が困難となる。
The rising edge detection edge trigger circuit 205 also includes a multiplier 20
The trigger signal R is output in synchronization with the timing when the output of 4 is inverted from "0" to "1". This trigger signal indicates that the camera has entered the pan/tilt mode, but by the time pan/tilt mode is determined, the lens system has already been corrected in one direction for several fields by the correction means. If the correction means is stopped at this position, when the correction is started after panning and tilting, the correctable area of the correction means will be biased in one direction, making correction difficult.

そこで、このトリガ信号が出力された場合には、駆動回
路9は補正系10の光軸回転手段を画面上で視覚的に目
立たない速度で初期位置へと復帰させ、パン、チルトが
終了してぶれ補正が開始されたときには、常に初期位置
から補正を行うように構成し、補正範囲を最大にとれる
よう考慮されている。
Therefore, when this trigger signal is output, the drive circuit 9 returns the optical axis rotation means of the correction system 10 to the initial position at a speed that is not visually noticeable on the screen, and the panning and tilting are completed. When blur correction is started, it is configured to always perform correction from the initial position, so that the correction range can be maximized.

上述の代表動きベクトル演算回路6と補正信号発生回路
7との動作を第6図を参照しながらまとめると、前述の
画像パターン1.2.3については、カメラの動きの影
響が画面上の各ブロックの動きベクトルυ1に作用して
いるため、パン・チルトを考慮する必要がある。したが
って、これらの場合については、パン・チルト判定回路
I5より出力されたパン・チルト判定信号PTMODE
を考慮すべくパン・チルトコントロール信号PTCON
Tを“1”にしてPTMODEに応じたAND出力を 
得る。
To summarize the operations of the representative motion vector calculation circuit 6 and the correction signal generation circuit 7 described above with reference to FIG. Since it is acting on the motion vector υ1 of the block, it is necessary to consider panning and tilting. Therefore, in these cases, the pan/tilt judgment signal PTMODE output from the pan/tilt judgment circuit I5
In order to take into account the pan/tilt control signal PTCON
Set T to “1” and output AND output according to PTMODE.
obtain.

また、画像パターン4については、カメラの動きベクト
ルの影響が小さく被写体の動きベクトルを代表動きベク
トルとしているので、パン・チルトモード判定信号PT
MODEを考慮する必要はなく、パン・チルトコントロ
ール信号PTCONTを“O”にし、AND出力を0と
している。
Regarding image pattern 4, since the influence of the camera motion vector is small and the motion vector of the subject is used as the representative motion vector, the pan/tilt mode determination signal PT
There is no need to consider MODE; the pan/tilt control signal PTCONT is set to "O" and the AND output is set to 0.

上述したように、本発明の撮像装置によれば、カメラに
取り付けられた角速度センサ11によってカメラ自体の
動きを検出し、センサ信号処理回路12、A/D変換器
13、カメラ動きベクトル演算回路14によってカメラ
の動きベクトルυcam及びカメラの動きがある方向に
所定期間以上続くか否かを検出してパン・チルI・状態
か否かを判別し、その結果を表わすパン・チルトモード
信号PTMODEを出力する。
As described above, according to the imaging device of the present invention, the movement of the camera itself is detected by the angular velocity sensor 11 attached to the camera, and the sensor signal processing circuit 12, A/D converter 13, and camera motion vector calculation circuit 14 detects the camera motion vector υcam and whether the camera movement continues in a certain direction for a predetermined period or longer, determines whether or not it is in the pan/tilt I state, and outputs a pan/tilt mode signal PTMODE representing the result. do.

また撮像素子2、カメラ信号処理回路3によって得られ
た被写体像に応じた映像信号をA/D変換器4でテジタ
ル信号に変換して、各ブロック動き ベクトル検出回路
5によって撮像面上に設定されたn個の各ブロックにお
ける動きベクトルの分布状態υ1(i=1.2.・・・
、n)をもとめる。
In addition, a video signal corresponding to the subject image obtained by the image sensor 2 and the camera signal processing circuit 3 is converted into a digital signal by the A/D converter 4, and each block motion vector detection circuit 5 sets the video signal on the imaging surface. The motion vector distribution state υ1 (i=1.2...
, n).

そして、カメラ動きベクトルυcamと撮像面上の各ブ
ロックの動きベクトルυ1とを比較して前述のアルゴリ
ズムによってその関連性を評価し、画面を代表する動き
ベクトルυをもとめ、同時にパン。
Then, the camera motion vector υcam is compared with the motion vector υ1 of each block on the imaging surface, and the relationship between them is evaluated using the above-mentioned algorithm, and the motion vector υ that represents the screen is obtained, and at the same time panning is performed.

チルトを考慮する必要性を評価し、パン、チルトを考慮
する必要があるか否かを判別するパン・チルトコントロ
ール信号PTCONTをもとめる。
The necessity of considering tilt is evaluated, and a pan/tilt control signal PTCONT is obtained for determining whether or not it is necessary to consider pan and tilt.

続いて補正信号発生回路7により、代表動きベクトルυ
とパン・チルトコントロール信号PTCONTさらにパ
ン・チルトモード信号PTMODEによってぶれを補正
するためのレンズ補正量υdrivを演算し、D/A変
換器8を介して駆動回路9へと供給し、ぶれ量を補正す
るよに補正系10を駆動し、レンズ系を調節する。
Next, the correction signal generation circuit 7 generates the representative motion vector υ
A lens correction amount υdriv for correcting blur is calculated using the pan/tilt control signal PTCONT and the pan/tilt mode signal PTMODE, and is supplied to the drive circuit 9 via the D/A converter 8 to correct the amount of blur. The correction system 10 is driven to adjust the lens system.

以上の動作によってカメラの動きと被写体の動きの両方
を考慮したぶれ補正システムを実現することができる。
Through the above operations, it is possible to realize a blur correction system that takes into account both camera movement and subject movement.

〔発明の効果〕〔Effect of the invention〕

以上述べたよううに、本発明における撮像装置によれば
、撮像手段からの撮像信号の画像処理により画像の動き
ベクトルを抽出する方式に、外部センサとビデオカメラ
の動き情報をそれぞれ抽出する手段と、画像の動きベク
トルとビデオカメラの動き情報を比較する手段を備え、
その演算結果にもとづいてぶれ補正量をもとめることに
より、外部センサのみの装置に比較して高精度、高感度
で応答性も改善され、且つ被写体とビデオカメラの相対
的な運動により生じた画像の動きが被写体の動きに起因
するものであるのかビデオカメラの動きに起因するもの
であるのかを分離する事が可能となる。したがって補正
すべき画像の動きと補正すべきでない画像の動きを認識
する事によりぶれ補正システムのエラーを大巾に低減す
る効果がある。又、カメラの動きベクトルの大きさを判
断する事によりカメラが動いていない場合にはぶれ補正
システム動作を停止させ、被写体の動きによる誤動作を
防止できる。
As described above, according to the imaging device of the present invention, a method of extracting a motion vector of an image by image processing of an imaging signal from an imaging means, means for extracting motion information of an external sensor and a video camera, respectively; comprising a means for comparing the motion vector of the image and the motion information of the video camera;
By determining the amount of blur correction based on the calculation results, it is possible to improve accuracy, sensitivity, and responsiveness compared to devices that use only external sensors, and to reduce the amount of image blur caused by relative movement between the subject and the video camera. It becomes possible to separate whether the movement is caused by the movement of the subject or the movement of the video camera. Therefore, by recognizing the movement of the image that should be corrected and the movement of the image that should not be corrected, it is effective to greatly reduce errors in the blur correction system. Furthermore, by determining the magnitude of the camera motion vector, the blur correction system operation can be stopped when the camera is not moving, thereby preventing malfunctions due to subject movement.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明における撮像装置のふれ補正システムの
基本構成を示すブロック図、 第2図は第1図のブロック図を具体化したブロック図、 第3図(a)は第2図のブロック図における代表動きベ
クトル演算回路の演算アルゴリズムを示すフローチャー
ト、 第3図(b)は撮像画面上の動きベクトル検出ブロック
の設定状態を説明するための図、第3図(C)、  (
d)は同図(a)の演算フローチャートの説明に用いる
撮像画面パターンを示す図、 第4図(a)〜第4図(e)は代表動きベクトル演算回
路で判別される撮像画面上のベクトル分布パターンを示
す図、 第5図は第2図のブロック図における補正信号発生回路
の内部の構成を示すブロック図、第6図は第4図(a)
〜第4図(e)の各画像パターンにおける補正信号発生
回路の動作を説明するための論理図である。
Fig. 1 is a block diagram showing the basic configuration of the shake correction system for an imaging device according to the present invention, Fig. 2 is a block diagram embodying the block diagram of Fig. 1, and Fig. 3(a) is a block diagram of Fig. 2. Flowchart showing the calculation algorithm of the representative motion vector calculation circuit in the figure, Figure 3(b) is a diagram for explaining the setting state of the motion vector detection block on the imaging screen,
d) is a diagram showing the image capture screen pattern used to explain the calculation flowchart in FIG. Figure 5 is a block diagram showing the internal configuration of the correction signal generation circuit in the block diagram of Figure 2, Figure 6 is Figure 4(a) showing the distribution pattern.
FIG. 4 is a logic diagram for explaining the operation of the correction signal generation circuit in each image pattern of FIG. 4(e).

Claims (1)

【特許請求の範囲】 互いに異なる情報にもとづいて装置のぶれ量を検出する
第1及び第2の動き検出手段と、前記第1及び第2の動
き検出手段より出力された第1及び第2の動き情報とを
演算して第3の動き情報を出力する第3の動き検出手段
と、 前記第3の動き検出手段より出力された前記第3の動き
情報にもとづいて前記ぶれ量を補正すべく光学系の位置
を制御する補正手段とを備えたことを特徴とする撮像装
置。
[Scope of Claims] First and second motion detecting means for detecting the amount of shake of the device based on mutually different information; and first and second motion detecting means output from the first and second motion detecting means. a third motion detecting means for calculating motion information and outputting third motion information; and correcting the amount of blur based on the third motion information output from the third motion detecting means. An imaging device comprising: a correction means for controlling the position of an optical system.
JP63226017A 1988-09-09 1988-09-09 Imaging device and blur correction device Expired - Fee Related JP2941815B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP63226017A JP2941815B2 (en) 1988-09-09 1988-09-09 Imaging device and blur correction device
EP95111708A EP0682449B1 (en) 1988-09-09 1989-09-06 Automatic image stabilization device
DE68929448T DE68929448T2 (en) 1988-09-09 1989-09-06 Automatic image stabilization device
EP89116447A EP0358196B1 (en) 1988-09-09 1989-09-06 Automatic image stabilization device
DE68928217T DE68928217T2 (en) 1988-09-09 1989-09-06 Automatic image stabilization device
US07/403,455 US5107293A (en) 1988-09-09 1989-09-06 Automatic image stabilization device
US08/402,735 US5561498A (en) 1988-09-09 1995-03-13 Automatic image stabilization device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63226017A JP2941815B2 (en) 1988-09-09 1988-09-09 Imaging device and blur correction device

Publications (2)

Publication Number Publication Date
JPH0275284A true JPH0275284A (en) 1990-03-14
JP2941815B2 JP2941815B2 (en) 1999-08-30

Family

ID=16838483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63226017A Expired - Fee Related JP2941815B2 (en) 1988-09-09 1988-09-09 Imaging device and blur correction device

Country Status (1)

Country Link
JP (1) JP2941815B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0451677A (en) * 1990-06-19 1992-02-20 Canon Inc Image pickup device
EP0481230A2 (en) * 1990-10-18 1992-04-22 Fuji Photo Film Co., Ltd. Camera shake correction system
JPH10164425A (en) * 1996-11-26 1998-06-19 Matsushita Electric Ind Co Ltd Image motion correction device
JP2001264834A (en) * 2000-03-15 2001-09-26 Canon Inc Shake detector
JP2001356380A (en) * 2000-06-16 2001-12-26 Canon Inc Device with shake detecting function
US6678328B1 (en) 1999-05-11 2004-01-13 Sony Corporation Information processor
JP2005049591A (en) * 2003-07-28 2005-02-24 Nikon Corp Photographic lens and camera system
JP2005260357A (en) * 2004-03-09 2005-09-22 Canon Inc Image recorder/reproducer, recording/reproducing method and program
JP2007088611A (en) * 2005-09-20 2007-04-05 Sony Corp Imaging apparatus and imaging method
JP2009296030A (en) * 2008-06-02 2009-12-17 Canon Inc Imaging device
US8294773B2 (en) 2007-11-16 2012-10-23 Canon Kabushiki Kaisha Image capturing apparatus and image processing method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10136063B2 (en) 2013-07-12 2018-11-20 Hanwha Aerospace Co., Ltd Image stabilizing method and apparatus
KR102282458B1 (en) 2015-03-23 2021-07-27 한화테크윈 주식회사 Method and Device for dewobbling scene

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0451677A (en) * 1990-06-19 1992-02-20 Canon Inc Image pickup device
EP0481230A2 (en) * 1990-10-18 1992-04-22 Fuji Photo Film Co., Ltd. Camera shake correction system
US5282044A (en) * 1990-10-18 1994-01-25 Fuji Photo Film Co., Ltd. Camera shake correction system
JPH10164425A (en) * 1996-11-26 1998-06-19 Matsushita Electric Ind Co Ltd Image motion correction device
US7643096B2 (en) 1999-05-11 2010-01-05 Sony Corporation Information processing apparatus
US8619197B2 (en) 1999-05-11 2013-12-31 Sony Corporation Information processing apparatus
US6678328B1 (en) 1999-05-11 2004-01-13 Sony Corporation Information processor
JP2001264834A (en) * 2000-03-15 2001-09-26 Canon Inc Shake detector
JP4612765B2 (en) * 2000-06-16 2011-01-12 キヤノン株式会社 Device with shake detection function
JP2001356380A (en) * 2000-06-16 2001-12-26 Canon Inc Device with shake detecting function
JP2005049591A (en) * 2003-07-28 2005-02-24 Nikon Corp Photographic lens and camera system
JP2005260357A (en) * 2004-03-09 2005-09-22 Canon Inc Image recorder/reproducer, recording/reproducing method and program
JP2007088611A (en) * 2005-09-20 2007-04-05 Sony Corp Imaging apparatus and imaging method
US8294773B2 (en) 2007-11-16 2012-10-23 Canon Kabushiki Kaisha Image capturing apparatus and image processing method
US8922664B2 (en) 2007-11-16 2014-12-30 Canon Kabushiki Kaisha Image capturing apparatus and image processing method
JP2009296030A (en) * 2008-06-02 2009-12-17 Canon Inc Imaging device

Also Published As

Publication number Publication date
JP2941815B2 (en) 1999-08-30

Similar Documents

Publication Publication Date Title
CN106954007B (en) Image pickup apparatus and image pickup method
JP3689946B2 (en) Data processing apparatus and method
US20020047906A1 (en) Photographing apparatus having variable image blur correction control characteristics for still photography and motion picture photography
US6100927A (en) Photographing apparatus having a blurring correcting apparatus
JPH0275284A (en) Image pickup device
JPH08331430A (en) Hand shake correcting device and video camera
JP3465264B2 (en) Apparatus and method for detecting motion of video data
KR100664811B1 (en) Method and apparatus for controlling privacy mask display
JP2862241B2 (en) Image blur detection device
JPH07283999A (en) Image synthesizer and image photographing device
JPH0846856A (en) Hand shake correcting device
JPH07162730A (en) Mobile object image pickup device
JP2000175101A (en) Automatic tracking device
JP3039669B2 (en) Imaging device
JPH05328201A (en) Correction device for camera shake of picture
JP2925890B2 (en) Video camera with image stabilization device
JP3239051B2 (en) Video camera with image stabilization device
JP2006295329A (en) Image processing apparatus, imaging apparatus, and image processing method
JPH0746456A (en) Video camera having hand-shake correction device
JP2006067391A (en) Blur compensating device
JP2021125826A (en) Imaging apparatus, control method of image processing device, and imaging system
JPH02111179A (en) Optical system correction device
JP2007116308A (en) Image information reproduction apparatus
JPH03135171A (en) Camera equipment
JPH06311416A (en) Panning detector

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees