JPH04134316A - Moving speed detection device for body and image blur correction device for camera - Google Patents

Moving speed detection device for body and image blur correction device for camera

Info

Publication number
JPH04134316A
JPH04134316A JP2257909A JP25790990A JPH04134316A JP H04134316 A JPH04134316 A JP H04134316A JP 2257909 A JP2257909 A JP 2257909A JP 25790990 A JP25790990 A JP 25790990A JP H04134316 A JPH04134316 A JP H04134316A
Authority
JP
Japan
Prior art keywords
image
movement
subject
vibration
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2257909A
Other languages
Japanese (ja)
Other versions
JP3112472B2 (en
Inventor
Masabumi Yamazaki
正文 山崎
Yoshiaki Matsuzawa
良紀 松澤
Tatsuya Sato
達也 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP02257909A priority Critical patent/JP3112472B2/en
Publication of JPH04134316A publication Critical patent/JPH04134316A/en
Application granted granted Critical
Publication of JP3112472B2 publication Critical patent/JP3112472B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Adjustment Of Camera Lenses (AREA)

Abstract

PURPOSE:To accurately detect the moving speed of the body without being affected by a mechanical shake by providing a movement detecting means and a vibration detecting means for detecting the vibration of the movement detecting means, and calculating the moving speed of the body. CONSTITUTION:A photoelectric converting means 3, the movement detecting means 5, the vibration detecting means 14, and a speed arithmetic means 5 are provided. The movement detecting means 5 detects the movement of an image formed on the surface of the photoelectric converting means 3 through an optical system with a video signal outputted by the photoelectric converting means 3, the vibration detecting means 14 detects vibration due to a hand shake, and further the moving speed of the body itself is calculated from the detected value of the movement detecting means 5 and the detected value of the vibrating means 14. Consequently, even when the influence of the hand shake is large, the moving speed of the subject is accurately detected to correct an image blur with high accuracy.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、物体の移動速度検出装置およびカメラの像ぶ
れ補正装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an object moving speed detection device and a camera image blur correction device.

[従来の技術] 従来、カメラとして、ぶれのある写真やビデオ映像か撮
影されることを防止するための像ぶれ補正装置を用いた
ものか知られている。このふれは、撮影フィルム等の表
面の、被写体像の結像する位置か、露光中或いは撮影中
に変化することによって生しる(以下、この変化を「像
ふれ」と称す)。
[Prior Art] Conventionally, it is known that a camera uses an image blur correction device to prevent blurred photographs or video images from being taken. This wobbling occurs when the position on the surface of the photographic film where the subject image is formed changes during exposure or photography (hereinafter, this change is referred to as "image wobbling").

像ぶれの原因としては、撮影者がカメラを支える手の振
動(以下、この振動を「手ぶれ」と称す)によるものと
被写体自体の移動によるものとがある。
There are two causes of image blur: vibration of the photographer's hand supporting the camera (hereinafter, this vibration will be referred to as "camera shake") and movement of the subject itself.

撮影者の手ぶれに起因する像ぶれを補正する像ぶれ補正
装置としては、従来、手ふれによるカメラの移動(振動
)を加速度センサ等の振動センサて検出し、検出した振
動に応じてレンズ鏡筒全体或いは撮像素子等を移動させ
るもの(例えば特公平1−53957号公報)か知られ
ている。また、手ぶれに起因する像ふれと被写体自体の
移動に起因する像ふれとの両方を補正する像ぶれ補正装
置として、物体の移動速度検出装置を用いたものか知ら
れている。これは、撮影の直前に被写体像を撮影フィル
ム上ではなく、物体の移動速度検出装置に備えられた撮
像素子上に結像させ、この撮像素子から出力された映像
信号により被写体像の移動速度を検出し、これにより像
ぶれを防止するものである。
Conventionally, image stabilization devices that correct image blur caused by camera shake by the photographer use a vibration sensor such as an acceleration sensor to detect movement (vibration) of the camera due to camera shake, and adjust the lens barrel according to the detected vibration. It is known to move the entire image sensor or the image sensor (for example, Japanese Patent Publication No. 1-53957). Furthermore, as an image blur correction device that corrects both image blur caused by camera shake and image blur caused by movement of the subject itself, it is known that an object movement speed detection device is used. In this method, the image of the subject is formed not on the photographic film but on an image sensor equipped with an object moving speed detection device immediately before shooting, and the moving speed of the object image is determined by the video signal output from this image sensor. This is to prevent image blurring.

〔発明が解決しようとする課題] しかしながら、このような従来のカメラの像ふれ補正装
置は、以下のような課題を有していた。
[Problems to be Solved by the Invention] However, such conventional image blur correction devices for cameras have had the following problems.

振動センサを用いた像ふれ補正装置は、上述のごとき撮
影者の手ぶれに起因する像ふれを防止する上では効果が
あるものの、露光中の被写体の移動に起因する像ぶれを
防止することはできない。
Although image stabilization devices using vibration sensors are effective in preventing image blur caused by the photographer's camera shake as described above, they cannot prevent image blur caused by movement of the subject during exposure. .

したがって、被写体の移動が主たる要因となって像ぶれ
が生じているような場合は、この像ぶれ補正装置を使用
しても意味のないものになってしまつ。
Therefore, if the image blur is caused mainly by the movement of the subject, there is no point in using this image blur correction device.

また、物体の移動速度検出装置を用いた像ぶれ補正装置
は、カメラと被写体との相対的な位置変化を検出するの
で、検出された像ぶれ情報は手ぶれに起因するものと被
写体の移動に起因するものとを合成したものとなる。し
かしながら、かがる物体の移動速度検出装置は、撮像素
子を構成する各光電変換素子の積分動作に要する時間や
撮像素子が出力した映像信号から像ぶれの状態を判断す
るための演算処理に要する時間が長いため、短時間にラ
ンダムな動きをすることが少ない被写体の移動速度の検
出には適しているものの、手ぶれを正確に検出すること
は困難であった。このため、従来の物体の移動速度検出
装置では、手ぶれの影響が大きい場合は被写体の移動速
度を正確に検出することはできず、したがって、かがる
物体の移動速度検出装置を用いた像ぶれ補正装置では、
像ぶれの防止を高い精度で行なうことができなかった。
In addition, since an image stabilization device using an object moving speed detection device detects relative position changes between the camera and the subject, the detected image blur information can be divided into two types: one caused by camera shake and the other caused by the movement of the subject. It is a composite of the two. However, the moving speed detection device for a moving object requires time required for the integration operation of each photoelectric conversion element constituting the image sensor and calculation processing to determine the state of image blur from the video signal output from the image sensor. Since this method takes a long time, it is suitable for detecting the moving speed of objects that rarely make random movements in a short period of time, but it is difficult to accurately detect camera shake. For this reason, conventional object movement speed detection devices cannot accurately detect the object movement speed when the influence of camera shake is large, and therefore, image blur using the object movement speed detection device In the correction device,
Image blur could not be prevented with high precision.

さらに、フィルムの露光中は撮像素子による映像信号の
検出はできないため、かかる像ぶれ補正装置では露光中
に変化する像ぶれの検出はてきないという課題もあった
Furthermore, since the image sensor cannot detect a video signal during film exposure, such an image blur correction device cannot detect image blur that changes during exposure.

本発明は、手ぶれの影響か大きい場合であっても被写体
の移動速度を正確に検出することかできる物体の移動速
度検出装置および高精度の像ふれ補正を行うことができ
るカメラの像ふれ補正装置を提供することを目的とする
The present invention provides an object moving speed detection device that can accurately detect the moving speed of an object even when the influence of camera shake is large, and a camera image blur correction device that can perform highly accurate image blur correction. The purpose is to provide

[課題を解決するための手段] 本発明の物体の移動速度検出装置は、物体の像を映像信
号に変換する光電変換手段と、この光電変換手段の表面
に前記物体の像を結像させる光学系と、前記光電変換手
段より入力し°た前記映像信号を用いて前記物体の像の
移動を検出する移動検出手段と、機械的振動センサを用
いて前記移動検出手段の振動を検出する振動検出手段と
、この振動検出手段より入力した前記移動検出手段の振
動の検出値と前記移動検出手段より入力した前記物体の
像の移動の検出値とを用いて前記物体の移動速度を演算
する速度演算手段とを具備している。
[Means for Solving the Problems] The object moving speed detection device of the present invention includes a photoelectric conversion means for converting an image of an object into a video signal, and an optical system for forming an image of the object on the surface of the photoelectric conversion means. a movement detection means for detecting movement of the image of the object using the video signal inputted from the photoelectric conversion means; and a vibration detection means for detecting vibration of the movement detection means using a mechanical vibration sensor. and a speed calculation for calculating a moving speed of the object using a detected value of vibration of the movement detecting means inputted from the vibration detecting means and a detected value of movement of the image of the object inputted from the movement detecting means. It is equipped with the means.

また、本発明のカメラの像ぶれ補正装置は、被写体像を
映像信号に変換する光電変換手段と、この光電変換手段
の表面に前記被写体像を結像させる光学系と、前記光電
変換手段より入力した前記映像信号を用いて前記被写体
像の移動を検出する移動検出手段と、機械的振動センサ
を用いて前記移動検出手段の振動を検出する振動検出手
段と、この振動検出手段より入力した前記移動検出手段
の振動の検出値と前記移動検出手段より入力した前記被
写体像の移動の検出値とを用いて、前記被写体の移動速
度を演算する速度演算手段と、この速度演算手段より入
力した前記被写体の移動速度に基づいて像ぶれの補正を
行なう補正手段とを具備している。
Further, the image blur correction device for a camera according to the present invention includes a photoelectric conversion means for converting a subject image into a video signal, an optical system for forming the subject image on the surface of the photoelectric conversion means, and an input from the photoelectric conversion means. a movement detection means for detecting movement of the subject image using the video signal obtained by the camera; a vibration detection means for detecting vibration of the movement detection means using a mechanical vibration sensor; a speed calculating means for calculating a moving speed of the subject using a detected value of vibration of the detecting means and a detected value of movement of the subject image inputted from the movement detecting means; and a correction means for correcting image blur based on the moving speed of the camera.

[作用コ 本発明の物体の移動速度検出装置は、光学系によって光
電変換手段の表面に結像された像の移動を光電変換手段
の出力する映像信号により移動検出手段で検出すると共
に、手ぶれによる移動検出手段の振動を振動検出手段で
検出し、さらに、移動検出手段の検出値と振動検出手段
の検出値とにより物体自体の移動速度を算出する。
[Function] The object moving speed detection device of the present invention detects the movement of the image formed on the surface of the photoelectric conversion means by the optical system using the movement detection means based on the video signal output from the photoelectric conversion means, and also detects the movement of the image formed on the surface of the photoelectric conversion means by the movement detection means. The vibration of the movement detection means is detected by the vibration detection means, and the moving speed of the object itself is calculated based on the detection value of the movement detection means and the detection value of the vibration detection means.

本発明のカメラの像ぶれ補正装置は、光学系によって光
電変換手段の表面に結像された被写体像の移動を光電変
換手段の出力する映像信号により移動検出手段で検出す
ると共に、手ぶれによる移動検出手段の振動を振動検出
手段で検出し、さらに、移動検出手段の検出値と振動検
出手段の検出値とにより被写体自体の移動速度を算出し
、この算出値を用いて補正手段で像ぶれの補正を行なう
The image stabilization device for a camera according to the present invention detects movement of a subject image formed on the surface of a photoelectric conversion means by an optical system using a video signal output from the photoelectric conversion means, and also detects movement due to camera shake. The vibration of the means is detected by the vibration detection means, and the moving speed of the subject itself is calculated from the detection value of the movement detection means and the detection value of the vibration detection means, and the image blur is corrected by the correction means using this calculated value. Do this.

[実施例コ 以下、本発明の1実施例として、本発明の物体の移動速
度検出装置を用いて構成した本発明のカメラの像ぶれ補
正装置を、焦点検出機能を有する一眼レフレックスカメ
ラに搭載した場合を例にとって説明する。
[Embodiment 1] Hereinafter, as an embodiment of the present invention, an image stabilization device for a camera of the present invention configured using the object moving speed detection device of the present invention is installed in a single-lens reflex camera having a focus detection function. This will be explained using an example.

第1図は、本実施例に係わるカメラの構成を概略的に示
したブロック構成図である。図に示したように、このカ
メラは、撮影レンズ1、焦点検出光学系2、エリアイメ
ージセンサ3、インターフェイス回路4、CPU (セ
ントラル・プロセッシング・ユニット)5、ROM (
リード・オンリ・メモリ)6、レンズROM7、レンズ
駆動回路8、レンズ駆動用モータ9、スリット10、フ
ォトインタラプタ11を構成する発光ダイオードlla
とフォトレジスタ11b1表示装置12、防振装置13
、防振センサ14を有する機構ぶれ検出部15、動体追
尾をスタートさせるためのスイッチSWI、レリーズス
イッチSW2等から構成されている。
FIG. 1 is a block diagram schematically showing the configuration of a camera according to this embodiment. As shown in the figure, this camera includes a photographic lens 1, a focus detection optical system 2, an area image sensor 3, an interface circuit 4, a CPU (central processing unit) 5, and a ROM (
read-only memory) 6, a lens ROM 7, a lens drive circuit 8, a lens drive motor 9, a slit 10, and a light emitting diode lla that constitutes a photointerrupter 11.
and photoresistor 11b1 display device 12, vibration isolator 13
, a mechanical shake detection unit 15 having an anti-vibration sensor 14, a switch SWI for starting tracking of a moving object, a release switch SW2, and the like.

エリアイメージセンサ3は、焦点検出光学系2によって
結像される像を電気信号(映像信号)に光電変換するも
のである。また、インターフェイス回路4は、エリアイ
メージセンサ3を駆動したり、エリアイメージセンサ3
からの電気信号(アナログ信号)をディジタル信号に変
換してCPU5に出力する。このCPU5は、カメラ全
体の動作制御を司るもので、例えば、エリアイメージセ
ンサ3の出力に基づいて被写体距離を演算したり、表示
装置12における合焦、非合焦などの表示制御や防振制
御を行なうようになっている。
The area image sensor 3 photoelectrically converts an image formed by the focus detection optical system 2 into an electric signal (video signal). The interface circuit 4 also drives the area image sensor 3 and
The electrical signal (analog signal) from is converted into a digital signal and output to the CPU 5. The CPU 5 is in charge of controlling the operation of the entire camera, and includes, for example, calculating a subject distance based on the output of the area image sensor 3, display control such as focusing and defocusing on the display device 12, and image stabilization control. It is now possible to do this.

ROM6は、焦点検出を行なう複数の領域における合焦
時のずれ量(2像間隔)を記憶する。また、レンズRO
M7は、レンズ鏡筒内に設けられ、レンズのFナンバー
や像のずれ量からデフォーカス量を求めるための変換係
数など、焦点検出に必要な各種のデータを記憶するもの
である。さらに、レンズ駆動回路8は、CPU5の制御
によってモータ9を駆動することにより、撮影レンズ1
の位置を移動するものである。
The ROM 6 stores the amount of deviation (interval between two images) at the time of focusing in a plurality of areas where focus detection is performed. Also, lens RO
M7 is provided in the lens barrel and stores various data necessary for focus detection, such as a conversion coefficient for determining the amount of defocus from the F number of the lens and the amount of image shift. Furthermore, the lens drive circuit 8 drives the motor 9 under the control of the CPU 5, thereby driving the photographing lens 1.
It moves the position of.

通常、被写体距離を検出し、その距離情報に基づいて撮
影レンズ1を駆動するAF制御においては、レンズ1の
駆動量をCPU5にフィードバックする必要がある。こ
の場合、レンズ1が実際に移動されたその移動量を、駆
動用モ、−夕9の回転数で代用するのが一般的となって
いる。このため、ここでは前記スリット10をフォトイ
ンタラプタ11でカウントすることにより求めるように
している。
Normally, in AF control in which a subject distance is detected and the photographing lens 1 is driven based on the distance information, it is necessary to feed back the driving amount of the lens 1 to the CPU 5. In this case, it is common practice to substitute the actual movement amount of the lens 1 with the number of rotations of the driving motors. For this reason, here, the number of slits 10 is counted by a photointerrupter 11 to obtain the number.

すなわち、レンズ駆動回路8が動作してモータ9が回転
されると、レンズ鏡筒の回転部材に等間隔に設けられた
スリット10が回転される。すると、このスリット10
が、対向配置された発光ダイオード11aとフォトトラ
ンジスタllbとの間を通過することにより、その回転
数がCPU5によってカウントされる。この後、カウン
ト数が所定値に達したところで、モータ9の回転を停止
するように制御される。機構ぶれ検出部15は、例えば
角速度センサのような振動センサ14を含み、カメラの
振動から像面上でのぶれ量を検出する。
That is, when the lens drive circuit 8 operates and the motor 9 is rotated, the slits 10 provided at equal intervals in the rotating member of the lens barrel are rotated. Then, this slit 10
passes between the light emitting diode 11a and the phototransistor llb, which are arranged opposite to each other, and the number of rotations thereof is counted by the CPU 5. Thereafter, when the count reaches a predetermined value, the motor 9 is controlled to stop rotating. The mechanical shake detection unit 15 includes a vibration sensor 14 such as an angular velocity sensor, and detects the amount of shake on the image plane from the vibration of the camera.

第2図は、上記第1図における焦点検出光学系2の詳細
な構成を示す光学配置図である。この焦点検出光学系2
は、矢印A1の方向に移動可能に設けられたクイックリ
ターンミラー2aと、プリズム2bと、フィールドレン
ズ2cと、明るさ絞り2d1や光軸類はプリズム2d2
などからなる視野像伝達光学系2dとにより構成されて
いる。
FIG. 2 is an optical layout diagram showing the detailed configuration of the focus detection optical system 2 shown in FIG. 1 above. This focus detection optical system 2
, a quick return mirror 2a movably provided in the direction of arrow A1, a prism 2b, a field lens 2c, an aperture diaphragm 2d1 and optical axes are provided by a prism 2d2.
The visual field image transmission optical system 2d consists of the following.

上記クイックリターンミラー2aは、上記撮影レズ1か
らの光束(画像情報)を、AF動作時にはプリズム2b
の方向へ、また撮影時にはフィルム面2eの方向へそれ
ぞれ導くためのものである。
The quick return mirror 2a transfers the light flux (image information) from the photographing lens 1 to the prism 2b during AF operation.
, and in the direction of the film surface 2e during photographing.

また、視野像伝達光学系2dは、導かれる光束を瞳分割
によって2つに分割し、エリアイメージセンサ3上に2
像Ia、Ibを結像するようになっている。
Further, the visual field image transmission optical system 2d divides the guided light beam into two by pupil division, and displays the two on the area image sensor 3.
Images Ia and Ib are formed.

ここで、本実施例に係わるカメラの焦点検出の原理につ
いて説明する。なお、ここでは、瞳分割による2像Ia
、Ibの間隔から被写体距離を求める、いわゆる位相差
方式が採用されている。すなわち、撮影レンズ1を通過
した光束は、フィールドレンズ2cを通過した後、視野
像伝達光学系2dによって分割され、エリアイメージセ
ンサ3上にそれぞれ像Ia、Ibとなって結像される。
Here, the principle of focus detection of the camera according to this embodiment will be explained. In addition, here, two images Ia by pupil division
, Ib is used to determine the subject distance. That is, the light flux that has passed through the photographing lens 1 passes through the field lens 2c, and is then split by the visual field image transmission optical system 2d, and is formed on the area image sensor 3 as images Ia and Ib, respectively.

この場合、例えば合焦(ジャストピント)時には、第3
図(a)に示すように、被写体距離に拘らず2像Ia、
Ibはある間隔faをもって結像される。また、このジ
ャストピント時に対して、被写体の前にピントがあって
いる前ピント時には、第3図(b)に示すように、2像
1a、Ibの間隔fbがジャストピント時の間隔faよ
りも狭くなる。さらに、被写体の後にピントがあってい
る後ピント時には、第3図(C)に示すように、2像I
a、Ibの間隔fcがジャストピント時の間隔faより
も広くなる。したがって、これらの2像Ia、Ibの間
隔を演算することにより、被写体までの距離を得ること
ができる。以上が位相差方式による焦点検出の原理であ
る。
In this case, for example, when focusing (just in focus), the third
As shown in figure (a), regardless of the subject distance, the two images Ia,
Ib is imaged at a certain interval fa. Furthermore, in contrast to this time of just focus, when the front focus is in front of the subject, the distance fb between the two images 1a and Ib is greater than the distance fa during just focus, as shown in Figure 3(b). It gets narrower. Furthermore, when the subject is in focus after the subject, the two images I
The distance fc between a and Ib is wider than the distance fa when in just focus. Therefore, by calculating the interval between these two images Ia and Ib, the distance to the subject can be obtained. The above is the principle of focus detection using the phase difference method.

次に、映像信号から被写体像の移動を検出する方法につ
いて説明する。かかる被写体像の移動の検出は、上記第
1図に示したエリアイメージセンサ3の受光面のうち一
部の領域のみを用いて行なう。第4図は、エリアイメー
ジセンサ3の受光面のうち、被写体の移動の検出に使用
する範囲の一例を示す概念図である。図において、Aで
示した領域は被写体像1aを結像させるための領域であ
り、Bで示した領域は被写体像1bを結像させるための
領域である。なお、第4図は、被写体像がエリアイメー
ジセンサ3上の中央付近に結像されている場合を示して
いる。ここで、第5図に示すように、フィルム面の長辺
方向の座標軸をy軸、短辺方向の座標軸をy軸、光軸方
向の座標軸を2軸とすると、これに対応するエリアイメ
ージセンサ3のX軸方向、y軸方向は、第4図に示した
ようになる。また、第6図(a)および第6図(b)に
、第4図に示したA領域およびB領域の画素構成を示す
。ここで、第6図(a)は第4図に示した領域Aの画素
構成を、第6図(b)は同しく領域Bの画素構成を示し
ている。以下、第6図(a)および第6図(b)に示し
たように、領域Aの画素出力をanmで、領域Bの画素
出力をbnmで表すこととする。また、時刻tにおける
領域への第1行の画素出力の総和を S A (xi、t)−Σ a  i  j     
     −<1)ノー1 とする。なお、rtJは時刻、rxiJは第1行である
こと(Xは加算方向)を示している。同様に、時刻tに
おける領域Aの第5列の画素出力の総和を S A (yj、t)−Σ aij ・・・(2) とし、さらに、時刻tにおける領域Bの第1列の画素出
力の総和を とする。
Next, a method for detecting movement of a subject image from a video signal will be described. Detection of such movement of the subject image is performed using only a part of the light receiving surface of the area image sensor 3 shown in FIG. 1 above. FIG. 4 is a conceptual diagram showing an example of a range of the light receiving surface of the area image sensor 3 used for detecting movement of a subject. In the figure, the area indicated by A is an area for forming a subject image 1a, and the area indicated by B is an area for forming a subject image 1b. Note that FIG. 4 shows a case where the subject image is formed near the center on the area image sensor 3. Here, as shown in Fig. 5, if the coordinate axis in the long side direction of the film surface is the y axis, the coordinate axis in the short side direction is the y axis, and the coordinate axes in the optical axis direction are two axes, the area image sensor corresponding to this The X-axis direction and the y-axis direction of No. 3 are as shown in FIG. Further, FIGS. 6(a) and 6(b) show the pixel configurations of area A and area B shown in FIG. 4. Here, FIG. 6(a) shows the pixel configuration of area A shown in FIG. 4, and FIG. 6(b) similarly shows the pixel configuration of area B. Hereinafter, as shown in FIGS. 6(a) and 6(b), the pixel output of area A will be expressed as anm, and the pixel output of area B will be expressed as bnm. Also, the sum of the pixel outputs of the first row to the area at time t is S A (xi, t) - Σ a i j
−<1) No.1. Note that rtJ indicates time, and rxiJ indicates the first row (X indicates the addition direction). Similarly, the sum of pixel outputs in the fifth column of area A at time t is S A (yj, t) - Σ aij (2), and further, the sum of pixel outputs in the first column of area B at time t is Let the sum of

第7図(a)および第7図(b)は、X軸方向、y軸方
向および2軸方向についての被写体の移動速度を求める
手順を説明するためのフローチャートである。以下、こ
のフローチャートにしたがって説明する。
FIGS. 7(a) and 7(b) are flowcharts for explaining the procedure for determining the moving speed of the subject in the X-axis direction, the y-axis direction, and the two-axis directions. Hereinafter, explanation will be given according to this flowchart.

まず、撮影者は、被写体像が画面の中央付近に結像され
るように構図を決める(ST701)。
First, the photographer decides on a composition so that the subject image is formed near the center of the screen (ST701).

構図が決定されると、CPU5は、エリアイメージセン
サ3の積分動作を行い、開始時刻t1を記憶する(ST
702)。続いて、上記式(1)〜(3)の演算を行な
い 演算結果を記憶する(ST703.5T704)。
When the composition is determined, the CPU 5 performs an integral operation of the area image sensor 3 and stores the start time t1 (ST
702). Subsequently, the above equations (1) to (3) are calculated and the calculation results are stored (ST703.5T704).

その後、さらに、時刻t 2についてのエリアイメージ
センサ3の積分動作を行ない(ST705) 、続いて
、上記式(1)〜(3)の演算を行なう(ST706.
5T7C17)。
Thereafter, the area image sensor 3 performs an integral operation for time t2 (ST705), and then calculates the above equations (1) to (3) (ST706.
5T7C17).

次に、以上の演算データを用いて、X軸方向、y軸方向
およびX軸方向についての被写体の移動速度を、それぞ
れ求める(ST708〜5T712)。ここで、被写体
が2軸方向に移動しているとき、これによって被写体距
離が変化するので、エリアイメージセンサ3上の2像1
a、Ibの像間隔(第3図(a)〜第3図(c)参照)
が変化し、像1a(領域Aの像)はX軸のマイナス方向
にずれ、像1b(領域Bの像)はX軸のプラス方向にず
れる。これに対して、y軸方向の位相のずれは、被写体
の2軸方向の移動によっては生じない。一方、被写体の
X軸方向、y軸方向の移動に対しては、2像1a、Ib
は、それぞれ、X軸、y軸の同じ方向に対して同量の位
置変化をする。したがって、2像1a、Ibのy軸方向
の変化は被写体のy軸方向の移動にのみ対応しているの
に対し、X軸方向の変化は被写体のX軸方向の移動によ
る変化と2軸方向の移動による変化とが合成されたもの
となる。このため、被写体のy軸方向の移動速度は、像
1a或いは像1bの一方について時間t2−t、におけ
る移動量を算出することにより簡単に求めることができ
るのに対し、X軸方向、Z軸方向の移動速度は、像Ia
の移動量と像Ibの移動量とを両方考慮しなければ求め
ることができない。以下、各方向に対する被写体の移動
速度を求める方法について説明する。
Next, using the above calculation data, the moving speeds of the subject in the X-axis direction, the y-axis direction, and the X-axis direction are determined (ST708 to 5T712). Here, when the subject is moving in two axes, the subject distance changes, so the two images 1 on the area image sensor 3
Image spacing of a and Ib (see Figures 3(a) to 3(c))
changes, the image 1a (image of area A) shifts in the minus direction of the X-axis, and the image 1b (image of area B) shifts in the plus direction of the X-axis. On the other hand, the phase shift in the y-axis direction is not caused by the movement of the subject in the two-axis directions. On the other hand, for the movement of the subject in the X-axis direction and the y-axis direction, two images 1a, Ib
make the same amount of positional change in the same direction of the X-axis and y-axis, respectively. Therefore, the change in the y-axis direction of the two images 1a and Ib corresponds only to the movement of the subject in the y-axis direction, whereas the change in the X-axis direction corresponds to the change due to the movement of the subject in the It is a combination of changes due to movement of . Therefore, the moving speed of the subject in the y-axis direction can be easily determined by calculating the moving amount at time t2-t for either image 1a or image 1b, whereas The moving speed in the direction is the image Ia
It cannot be determined unless both the amount of movement of the image Ib and the amount of movement of the image Ib are considered. A method for determining the moving speed of a subject in each direction will be described below.

まず、y軸方向に対する被写体の移動速度を求める(S
T708)。領域Aを構成する各画素の内、被写体の移
動の検出に使用する範囲(基準像)を、第8図(a)に
示すように、第に行から第9行まで(すなわちi−に−
41)とすると、時刻t1における画素出力と時刻t2
における画素出力との相関演算出力は、 FAX(S)−Σ l 5A(X+、t+)   5A
(X+++s+ 、12) l −(4)で与えられる
。ここで、FAx(S)の最小値を与えるSの値を81
とすると、Slは時刻tlにおける画素出力と時刻t2
における画素出力とが最もよく一致する、像の時間的ず
れ量を表している。
First, find the moving speed of the subject in the y-axis direction (S
T708). Among the pixels constituting area A, the range (reference image) used to detect the movement of the subject is divided from the 1st row to the 9th row (i.e., i- to -), as shown in FIG. 8(a).
41), the pixel output at time t1 and time t2
The correlation calculation output with the pixel output in is FAX (S) - Σ l 5A (X+, t+) 5A
It is given by (X+++s+, 12) l - (4). Here, the value of S that gives the minimum value of FAx(S) is 81
Then, Sl is the pixel output at time tl and time t2
represents the amount of temporal shift of the image that best matches the pixel output at .

すなわち、第9図に示したように、像が時刻t1から時
刻t2の間にX軸方向に距離S1だけ移動したことを表
している。したがって、焦点検出光学系2の結像倍率を
βとすると、被写体のy軸方向のスピードvyは、 で与えられる。
That is, as shown in FIG. 9, this indicates that the image has moved by a distance S1 in the X-axis direction between time t1 and time t2. Therefore, if the imaging magnification of the focus detection optical system 2 is β, the speed vy of the subject in the y-axis direction is given by:

次に、X軸方向に対する被写体の移動速度を求める(S
T709)。領域Aおよび領域Bを構成する各画素の内
、被写体の移動の検出に使用する範囲(基準像)を、第
8図(b)に示すように、第に′行から第g′行まで(
すなわちi−に’〜1’)とする。領域Aについての、
時刻t1における画素出力と時刻t2における画素出力
との相関演算出力は、 FBY(S) −:f−l S B (y+、t+)−
3B(y++、s+ 、 t2) 1−(6)で与えら
れる。ここで、FAY(S)の最小値を与えるSの値を
82とすると、S2は時刻t1における画素出力と時刻
t2における画素出力とが最もよく一致する、像のずれ
量を表している。このずれ量S2は、第10図に示した
ように、被写体がX軸方向に移動したことに伴う像のず
れΔx1と被写体が2軸方向に移動したことに伴う像の
ずれ一Δx2の和である。すなわち、S2の値はΔX1
−Δx2となる。一方、領域Bについての、時刻t1に
おける画素出力と時刻t2における画素出力との相関演
算出力は、 FBY(S)−Σ l5B(y+、t+)   5B(
yt++s+、t2)   ・−(7)で与えられる。
Next, find the moving speed of the subject in the X-axis direction (S
T709). Of each pixel constituting area A and area B, the range (reference image) used for detecting the movement of the subject is defined from the 'th row to the g'th row (
That is, i- is set to '~1'). Regarding area A,
The correlation calculation output between the pixel output at time t1 and the pixel output at time t2 is FBY(S) −: fl SB (y+, t+) −
3B(y++, s+, t2) is given by 1-(6). Here, if the value of S giving the minimum value of FAY(S) is 82, S2 represents the amount of image shift at which the pixel output at time t1 and the pixel output at time t2 most closely match. As shown in Fig. 10, this shift amount S2 is the sum of the image shift Δx1 caused by the subject moving in the X-axis direction and the image shift Δx2 caused by the subject moving in the two-axis direction. be. That is, the value of S2 is ΔX1
−Δx2. On the other hand, the correlation calculation output between the pixel output at time t1 and the pixel output at time t2 for area B is FBY(S)-Σ l5B(y+, t+) 5B(
It is given by yt++s+, t2) -(7).

FBY(S)の最小値を与えるSの値を83とすると、
第10図に示したように、このずれ量S3は、被写体が
X軸方向に移動したことに伴う像のずれΔX1と被写体
か2軸方向に移動したことに伴う像のずれΔX2の和で
ある。すなわち、S3の値はΔX1+Δx2となる。し
たがって、焦点検出光学系2の結像倍率を上記同様βと
すると、被写体のX軸方向のスピードVxは、て与えら
れる。
Assuming that the value of S that gives the minimum value of FBY(S) is 83,
As shown in FIG. 10, this shift amount S3 is the sum of the image shift ΔX1 caused by the subject moving in the X-axis direction and the image shift ΔX2 caused by the subject moving in the two-axis direction. . That is, the value of S3 becomes ΔX1+Δx2. Therefore, if the imaging magnification of the focus detection optical system 2 is β as described above, the speed Vx of the subject in the X-axis direction is given by.

続いて、Z軸方向に対する被写体の移動速度を求める(
Sr110−3T712)。本実施例では、まず、時刻
t1における2像間隔f1と時刻t2における2像間隔
f2を求め(ST710ST711)、求めたflとf
2とを用いてZ軸方向に対する像の移動速度Vzを求め
る。なお、被写体距離については、精度の高い演算か必
要とされるので、上述の画素加算出力S A (yj、
t)。
Next, find the moving speed of the subject in the Z-axis direction (
Sr110-3T712). In this example, first, the two-image interval f1 at time t1 and the two-image interval f2 at time t2 are determined (ST710ST711), and the determined fl and f
2 is used to find the moving speed Vz of the image in the Z-axis direction. Note that since a highly accurate calculation is required for the subject distance, the above-mentioned pixel addition output S A (yj,
t).

S B (yj、t)を用いず、加算する画素数を少な
くして演算を行なう。ここでは、1行の画素のみを用い
ることとし、使用する行を第り行(kくhくg)とする
The calculation is performed by reducing the number of pixels to be added without using S B (yj, t). Here, only one row of pixels is used, and the row used is the second row (kh x g).

時刻t1における領域Aの第り行の画素出力a b+’
= a beのうち、abk’  〜ah、−を基準像
とし、この基準像と領域Bの画素出力bhk・〜bh、
・ との間で 対するずれ量は、式(6)および式(4)より、それぞ
れ、S281であるから、画素出力a (h+sI++
に’  +52)  ′++ a (h+511(I’
  +521  sb lll’sl++翫′+S21
〜b Lh4SI)l’・32+を用いて・相関演算 の相関演算を行なう。ここで、H+(Ω)の最小値を与
えるfの値をflとすると、flは時刻t1における2
像間隔を表している。なお、この相関演算によって求め
た2像間隔f1について補間演算を行うことにより、さ
らに正確な2像間隔を求めることができる。
Pixel output a b+' of the second row of area A at time t1
= a be, abk' ~ah, - is a reference image, and this reference image and the pixel output of area B bhk・~bh,
・The amount of deviation between
ni' +52) '++ a (h+511(I'
+521 sb lll'sl++ 翫'+S21
~b Lh4SI) Perform the correlation calculation using l'·32+. Here, if the value of f that gives the minimum value of H+(Ω) is fl, then fl is 2 at time t1.
It represents the image spacing. Note that by performing an interpolation calculation on the two-image interval f1 determined by this correlation calculation, a more accurate two-image interval can be determined.

次に、時刻t2における2像間隔f2を求める(Sr1
11)。時刻t2においては、像はエリアイメージセン
サ3上で移動しているので、時刻1、の場合と同じ画素
bb1〜b□・での相関演算を行なうことはできない。
Next, find the two-image interval f2 at time t2 (Sr1
11). At time t2, since the image is moving on the area image sensor 3, the same correlation calculation for pixels bb1 to b□· as at time 1 cannot be performed.

領域Aの像を基準像とする場合、この像のX軸方向およ
びX軸方向にを行なう。ここで、H2(R)の最小値を
与えるfの値をf2とすると、f2は時刻t2における
2像間隔を表している。
When the image of area A is used as a reference image, the image is scanned in the X-axis direction and in the X-axis direction of this image. Here, if the value of f that gives the minimum value of H2(R) is f2, then f2 represents the interval between the two images at time t2.

続いて、Sr110て−求めた2像間隔f1と5T71
1で求めた2像間隔f2とにより、被写体の2軸方向へ
の移動速度Vzを求める(ST712)。VZは、αを
係数として、 て与えられる。
Next, Sr110-calculated two-image interval f1 and 5T71
The moving speed Vz of the subject in the two-axis directions is determined based on the two-image interval f2 determined in step 1 (ST712). VZ is given by α as a coefficient.

次に、Vx、Vy、Vzが後述のぶれ防止駆動や動体予
測駆動で制御できる範囲内であるか否かの判断を行なう
。まず、Vx、Vy、Vzを、あらかじめ定められた上
限値C,,C2,C3と比較する(Sr113〜ST7
15)、Vx、Vy。
Next, it is determined whether Vx, Vy, and Vz are within a range that can be controlled by blur prevention drive or moving object prediction drive, which will be described later. First, Vx, Vy, and Vz are compared with predetermined upper limit values C,, C2, and C3 (Sr113 to ST7
15), Vx, Vy.

Vzの内のいづれかが上限値を越えている場合は、レリ
ーズ禁止フラグをセットする(S T 720)。
If any of Vz exceeds the upper limit value, a release prohibition flag is set (ST 720).

続いて、被写体のX軸方向、y軸方向、Z軸方向への加
速度ΔVX、 Δ■y、ΔVzが、後述のぶれ防止駆動
や動体予測駆動で制御できる範囲内であるか否かの判断
を行なう。本フローチャートは繰り返し実行され、した
がってVx、Vy、Vzは、繰り返し演算されるので、
連続する2回の実行により求められたVx、Vy、Vz
の各演算値よりVx、Vy、Vzの単位時間当たりの変
化量を求めることにより、加速度ΔVx、 ΔVy。
Next, it is determined whether the accelerations ΔVX, Δ■y, and ΔVz of the subject in the X-axis direction, y-axis direction, and Z-axis direction are within the range that can be controlled by the blur prevention drive and moving object prediction drive described later. Let's do it. This flowchart is executed repeatedly, so Vx, Vy, and Vz are calculated repeatedly, so
Vx, Vy, Vz determined by two consecutive runs
By calculating the amount of change per unit time in Vx, Vy, and Vz from each calculated value, the accelerations ΔVx and ΔVy are determined.

ΔVzを得ることができる。これらをあらかじめ定めら
れた上限値C4,C5,C6と比較しく5T716〜5
T718)、いづれかが上限値を越えている場合は、レ
リーズ禁止フラグをセットする(ST720)。
ΔVz can be obtained. Compare these with the predetermined upper limit values C4, C5, and C6.
T718), if either exceeds the upper limit, a release prohibition flag is set (ST720).

最後に、次回のフローチャート実行時に被写体を追尾で
きるように、追尾範囲の変更を行なう(Sr121)。
Finally, the tracking range is changed so that the subject can be tracked the next time the flowchart is executed (Sr121).

ここで、次回の積分開始時刻をt3とすると、領域Aの
追尾範囲は、y軸方向にX軸方向に だけずらした位置となる。また、領域Bの追尾範囲は、
y軸方向には式(12)で与えられる画素数たけずらし
、X軸方向には だけずらした位置となる。
Here, if the next integration start time is t3, the tracking range of area A is a position shifted from the y-axis direction only in the X-axis direction. In addition, the tracking range of area B is
The position is shifted by the number of pixels given by equation (12) in the y-axis direction, and shifted by the number of pixels given by equation (12) in the X-axis direction.

なお、本実施例では位相差方式のAF用のエリアセンサ
の出力を用いてX軸方向、y軸方向の被写体の移動速度
を求めたが、通常の無偏芯のイメージヤ−を用いて簡単
に被写体の移動速度を求めることも可能である。
Note that in this example, the moving speed of the subject in the X-axis direction and the y-axis direction was determined using the output of the area sensor for phase difference AF, but it can be easily calculated using an ordinary non-eccentric imager. It is also possible to determine the moving speed of the subject.

次に、第1図に示した防振装置13について、詳細に説
明する。
Next, the vibration isolator 13 shown in FIG. 1 will be explained in detail.

第11図および第12図は、かかる防振装置13の構成
を概略的に示すものであり、第11図は断面図、第12
図は斜視図である。両図において、101はカメラの本
体、102は撮影レンズである。撮影レンズ102は、
撮影光学系103、第4図に示したy軸の回転方向に対
する振動を検知するための第1の加速度センサ119a
11 and 12 schematically show the structure of such a vibration isolator 13, with FIG. 11 being a sectional view and FIG.
The figure is a perspective view. In both figures, 101 is the main body of the camera, and 102 is a photographic lens. The photographic lens 102 is
Photographing optical system 103, first acceleration sensor 119a for detecting vibration in the rotational direction of the y-axis shown in FIG.
.

第4図に示したX軸の回転方向に対する振動を検知する
ための第2の加速度センサ119b、軸110aを中心
に回転できるように構成されたyz平面内の振動を補正
するための第1の補正光学素子108、軸111aを中
心に回転できるように構成されたxz平面内の振動を補
正するための第2の補正光学素子109、第1の補正光
学素子108を駆動させるためのディスク型超音波モー
タ112、第2の補正光学素子109を駆動させるため
のディスク型超音波モータ113、第1の補正光学素子
108の回転状態を検出するためのエンコーダ114、
第2の補正光学素子109の回転状態を検出するための
エンコーダ115、ディスク型超音波モータ112およ
び113の駆動を行なうための電気回路部120、カメ
ラの本体101と撮影レンズ102との信号のやり取り
を行なうための撮影レンズ側接点116により構成され
ている。なお、エンコーダ114は、第1の補正光学素
子108の回転に応して回転するドラム114a、ドラ
ム114aの回転状態を検出するための磁気センサ(磁
気ヘッド等、以下、MRセンサと称する)114b、 
 ドラム114aの回転の終端を検出するための図示し
ていない光学センサ(フォトリフレクタ等、以下、PR
センサと称する)により構成されている。同様に、エン
コーダ115は、第2の補正光学素子109の回転に応
じて回転するドラム115a、  ドラム115aの回
転状態を検出するためのMRセンサ11.5 b 、 
ドラム115aの回転の終端を検出するためのPRセン
サ(図示せず)により構成されている。一方、カメラの
本体101は、クイックリターンミラー104、焦点検
出光学系2およびファインダー光学系からなる本体光学
系106、接眼レンズ107、信号処理やカメラのぶれ
量の演算等を行なうための電気回路部118、カメラの
本体101と撮影レンズ102との信号のやり取りを行
なうためのカメラ本体側接点117により構成されてい
る。
A second acceleration sensor 119b is used to detect vibrations in the rotational direction of the X-axis shown in FIG. A correction optical element 108, a second correction optical element 109 configured to be rotatable about the axis 111a and for correcting vibrations in the xz plane, and a disk-type ultrasonic device for driving the first correction optical element 108. A sonic motor 112, a disk-type ultrasonic motor 113 for driving the second correction optical element 109, an encoder 114 for detecting the rotational state of the first correction optical element 108,
An encoder 115 for detecting the rotational state of the second correction optical element 109, an electric circuit section 120 for driving the disk-type ultrasonic motors 112 and 113, and exchange of signals between the camera body 101 and the photographing lens 102. It is constituted by a photographing lens side contact point 116 for performing this. The encoder 114 includes a drum 114a that rotates in accordance with the rotation of the first correction optical element 108, a magnetic sensor (such as a magnetic head, hereinafter referred to as an MR sensor) 114b for detecting the rotational state of the drum 114a,
An optical sensor (not shown, such as a photoreflector, hereinafter referred to as PR) is used to detect the end of rotation of the drum 114a.
(referred to as a sensor). Similarly, the encoder 115 includes a drum 115a that rotates in accordance with the rotation of the second correction optical element 109, an MR sensor 11.5b for detecting the rotational state of the drum 115a,
It is composed of a PR sensor (not shown) for detecting the end of rotation of the drum 115a. On the other hand, the main body 101 of the camera includes a quick return mirror 104, a main body optical system 106 consisting of a focus detection optical system 2 and a finder optical system, an eyepiece 107, and an electric circuit section for performing signal processing, calculation of camera shake amount, etc. 118, and a camera body side contact 117 for exchanging signals between the camera body 101 and the photographing lens 102.

また、カメラの本体101には、カメラの機械的なふれ
量を検出するために、X軸角速度検出部119aとX軸
角速度検出部119bか搭載されている。ここで、カメ
ラのX軸方向およびy軸方向を第13図のように定める
。X軸角速度検出部119aは、カメラのy軸回りの回
転方向のぶれの角速度を検出するためのものである。こ
のy軸回りの回転方向のぶれは、フィルム105上での
X軸方向の像ぶれを発生させる要因となる。また、X軸
角速度検出部119aは、カメラのX軸回りの回転方向
のぶれの角速度を検出するためのものであり、このX軸
回りの回転方向のぶれは、フィルム105上でのy軸方
向の像ぶれを発生させる要因となる。X軸角速度検出部
119aおよびX軸角速度検出部1〕9bにより検出さ
れたふれ情報は、カメラ本体10]の電気回路部118
内に具備されたCPU5に転送される。
Further, the camera body 101 is equipped with an X-axis angular velocity detection section 119a and an X-axis angular velocity detection section 119b in order to detect the amount of mechanical shake of the camera. Here, the X-axis direction and the y-axis direction of the camera are determined as shown in FIG. The X-axis angular velocity detection unit 119a is for detecting the angular velocity of camera shake in the rotational direction about the y-axis. This rotational blur around the y-axis causes image blur on the film 105 in the x-axis direction. Further, the X-axis angular velocity detection unit 119a is for detecting the angular velocity of the camera shake in the rotational direction around the X-axis. This causes image blur. The shake information detected by the X-axis angular velocity detection section 119a and the X-axis angular velocity detection section 1]9b is transmitted to the electric circuit section 118 of the camera body 10].
The data is transferred to the CPU 5 provided within the computer.

次に、防振装置13の電気回路系について、第14図を
用いて説明する。第14図において、第11図および第
12図と同じ符号を付した構成部は、それぞれ第11図
および第12図の場合と同じものを示す。また、7は撮
影レンズに関する情報を記憶するレンズROM、137
はディスク型超音波モータ112を駆動させるための駆
動制御部、138はディスク型超音波モータ113を駆
動させるための駆動制御部、139は各種プログラムを
記憶する記憶部である。
Next, the electric circuit system of the vibration isolator 13 will be explained using FIG. 14. In FIG. 14, components designated by the same reference numerals as in FIGS. 11 and 12 are the same as in FIGS. 11 and 12, respectively. Further, 7 is a lens ROM 137 that stores information regarding the photographic lens.
138 is a drive control unit for driving the disk-type ultrasonic motor 112; 138 is a drive control unit for driving the disk-type ultrasonic motor 113; and 139 is a storage unit for storing various programs.

上述の式(5)および式(8)で求められた映像信号に
よる被写体速度Vxおよびvyと、X軸角速度検出部1
19aおよびX軸角速度検出部119bにより検出され
たぶれ情報は、CPU5に取り込まれる。CPU5は、
取り込んだ角加速度情報とレンズメモリ136および記
憶部139に格納された各種の定数やプログラムとに基
づいて、像の移動を打ち消すために必要な、補正光学素
子108および109の角速度を算出し、算出された角
速度を駆動制御部137および138に送る。駆動制御
部137および138は、取り込んた角速度に基づいて
ディスク型超音波モータ112および113を駆動させ
、像ふれの補正を行なう。
The subject velocities Vx and vy based on the video signals obtained by the above equations (5) and (8) and the X-axis angular velocity detection section 1
The blur information detected by the X-axis angular velocity detection section 19a and the X-axis angular velocity detection section 119b is taken into the CPU 5. CPU5 is
Based on the captured angular acceleration information and various constants and programs stored in the lens memory 136 and storage unit 139, the angular velocity of the correction optical elements 108 and 109 necessary to cancel the movement of the image is calculated. The obtained angular velocity is sent to drive control units 137 and 138. Drive control units 137 and 138 drive disk-type ultrasonic motors 112 and 113 based on the acquired angular velocity to correct image blur.

次に、エンコーダ114,115について説明する。第
15図(a)〜(C)は、エンコーダ1]4の構成を示
す図であり、第15図(a)は上面図、第15図(b)
は斜視図、第15図(c)は側面図である。
Next, the encoders 114 and 115 will be explained. Figures 15(a) to (C) are diagrams showing the configuration of the encoder 1]4, with Figure 15(a) being a top view and Figure 15(b) being a top view.
is a perspective view, and FIG. 15(c) is a side view.

第1の補正光学素子108の回転に応じて回転するドラ
ム114aの外周部114a’ には磁気パターンが着
磁されている。この磁気パターンはMRセンサ114b
によって読み取られ、ディスク型超音波モータ112の
回転量と回転方向が検出される。さらにこの値から回転
速度も検出される。また、ドラム114aの外周部11
4a には赤外光の反射率の異なるパターンが取り付け
られており、PRセンサ114c  114dによって
読み取られる。これらは、第1の補正光学素子108の
回転限界を検出し、機械的な終端に衝突するのを防止す
るリミットスイッチとして利用される。第16図(a)
および第16図(b)はPRセンサ114c、114d
の動作を説明するための図である。ドラム114aか左
回転した場合にはドラム外周114a”のパターンは明
部(図中、白で示した部分)から暗部(図中、黒で示し
た部分)へ変化してPRセンサ114Cは左回転限界を
示す信号を出力し、右回転した場合には暗部から明部へ
変化してPRセンサ114Cは右回転限界を示す信号を
出力する。
A magnetic pattern is magnetized on the outer peripheral portion 114a' of the drum 114a, which rotates in accordance with the rotation of the first correction optical element 108. This magnetic pattern is the MR sensor 114b.
The amount and direction of rotation of the disk-type ultrasonic motor 112 are detected. Furthermore, the rotation speed is also detected from this value. In addition, the outer peripheral portion 11 of the drum 114a
Patterns with different reflectances of infrared light are attached to 4a, and are read by PR sensors 114c and 114d. These are used as limit switches to detect the rotational limits of the first corrective optical element 108 and prevent it from colliding with mechanical ends. Figure 16(a)
And FIG. 16(b) shows PR sensors 114c and 114d.
FIG. When the drum 114a rotates to the left, the pattern of the drum outer periphery 114a'' changes from a bright area (the area shown in white in the figure) to a dark area (the area shown in black in the figure), and the PR sensor 114C rotates to the left. A signal indicating the limit is outputted, and when the PR sensor 114C rotates clockwise, the dark area changes to a bright area, and the PR sensor 114C outputs a signal indicating the limit of clockwise rotation.

MRセンサ114bが出力する回転信号や方向信号は、
単位時間ごとのディスク型超音波モータ112.113
の回転量信号として変換され、駆動制御部137(第1
4図)がディスク型超音波モータ112,113の速度
制御フィードバック信号としてディスク型超音波モータ
112゜113の速度制御に使用したり、或いは、ある
基重位置からの変位信号として位置制御に利用される。
The rotation signal and direction signal output by the MR sensor 114b are
Disk type ultrasonic motor per unit time 112.113
is converted as a rotation amount signal, and the drive control unit 137 (first
4) is used as a speed control feedback signal for the disc type ultrasonic motors 112 and 113 to control the speed of the disc type ultrasonic motors 112 and 113, or as a displacement signal from a certain reference weight position for position control. Ru.

また、CPU5内のシーケンスコントロール部も、この
MRセンサ114bが出力するディスク型超音波モータ
112,113の回転信号と方向信号とをモニタし、駆
動用の角速度信号の補正に利用したりする。CPU5内
のシーケンスコントロール部が回転信号をモニタする場
合には、モニタもれが生じないような信号間隔となるよ
うにドラム114aの外周部114a’ の磁気パター
ンの間隔を定めるか、或いはラッチ部を介することに゛
よってモニタの動作が遅れても回転信号を読み落とすこ
とがないようにすることが望ましい。
Furthermore, the sequence control section within the CPU 5 also monitors the rotation signal and direction signal of the disk-type ultrasonic motors 112, 113 output by the MR sensor 114b, and uses the signals to correct the angular velocity signal for driving. When the sequence control unit in the CPU 5 monitors the rotation signal, the interval between the magnetic patterns on the outer circumferential portion 114a' of the drum 114a is determined so that the signal interval will not be monitored, or the latch section is It is desirable to prevent the rotation signal from being overlooked even if the operation of the monitor is delayed due to the interference.

例えば、ディスク型超音波モータ112,11Bが最も
速く回転した場合でも1/1.024秒に1信号以下の
割合で回転信号が出力されるようにドラム114aの外
周部114a−の磁気パターンの間隔を定め、ラッチ回
路でその信号を保持することとする。シーケンスコント
ロール部は1/1024秒ごとに回転信号をモニタし、
信号が入っていれば過去1/1024秒の間に回転信号
の出力があったと理解し、ラッチ回路をクリアする。シ
ーケンスコントロール部は、この回転信号と方向信号と
をアップダウンカウンタ等で積算することにより、ディ
スク型超音波モータ112゜113がどこに位置してい
るかを把握することかできる。積算する場合の基準位置
は、PRセンサ114c、114dによって作られる。
For example, the spacing of the magnetic patterns on the outer circumference 114a- of the drum 114a is such that even when the disk-type ultrasonic motors 112, 11B rotate at the fastest speed, rotation signals are output at a rate of 1 signal or less every 1/1.024 seconds. , and hold that signal in a latch circuit. The sequence control section monitors the rotation signal every 1/1024 seconds,
If there is a signal, it is understood that a rotation signal was output within the past 1/1024 seconds, and the latch circuit is cleared. The sequence control section can grasp where the disk type ultrasonic motors 112 and 113 are located by integrating the rotation signal and the direction signal using an up/down counter or the like. The reference position for integration is created by the PR sensors 114c and 114d.

ここでは、ディスク型超音波モータ112,113の駆
動範囲のうち右回転限界を基準位置とする。従って、デ
ィスク型超音波モータ112,113かこの右回転限界
に達したときは、駆動を停止すると共にディスク型超音
波モータ112,113の位置を示すカウンタなりレジ
スタなりを「0」クリアする。逆に、ディスク型超音波
モータ112゜113が左回転限界に達したときには、
駆動を停止すると共にディスク型超音波モータ112゜
113の位置を示すカウンタなリレジスタなりを所定の
値に補正する。この様にすることにより、ディスク型超
音波モータ112,113の位置をより正確に把握する
ことができる。
Here, the right rotation limit of the drive range of the disk-type ultrasonic motors 112 and 113 is taken as the reference position. Therefore, when the disk-type ultrasonic motors 112, 113 reach their right rotation limit, the drive is stopped and a counter or register indicating the position of the disk-type ultrasonic motors 112, 113 is cleared to "0". On the other hand, when the disc-type ultrasonic motor 112° 113 reaches its left rotation limit,
At the same time as stopping the drive, the counters or registers indicating the positions of the disk type ultrasonic motors 112 and 113 are corrected to predetermined values. By doing so, the positions of the disk-type ultrasonic motors 112 and 113 can be more accurately grasped.

二こで、カメラの機械的なぶれが引き起こす画像のぶれ
について、X軸方向にθXの回転が起きた場合(第13
図参照)を例にとって説明する。
Regarding the image blur caused by the mechanical blur of the camera, if a rotation of θX occurs in the X-axis direction (13th
(see figure) will be explained as an example.

第17図は、撮影光学系103とフィルム105との関
係を示す概略的断面図であり、X軸のプラス側から見た
状態を示している。なお、回転中心としてのX軸は、フ
ィルムの中心にあるものとする。X軸方向にθ、の回転
が起きた場合に発生する像ぶれ量Δycは、撮影倍率を
β、焦点距離をf  [mmコとすると、 Δyc−−f−(1+β)2 tanθXで与えられる
。ここで、無限光、つまり撮影倍率βが零であるとする
と、 Δyc−−fatanθx       −(15)と
なる。一般的な撮影では撮影倍率は小さいので、このよ
うに撮影倍率βを近似的に零として考えてよい。また、
像の移動量が被写体距離に比べて十分に小さい場合には
、式(15)は %式%(16) と近似することができる。また、必要に応じて、Δyc
−−f  ・ (1+β)2 ・ θx   =(17
)と近似してもよい。
FIG. 17 is a schematic cross-sectional view showing the relationship between the photographing optical system 103 and the film 105, as viewed from the positive side of the X-axis. Note that the X axis serving as the center of rotation is located at the center of the film. The amount of image blur Δyc that occurs when a rotation of θ occurs in the X-axis direction is given by Δyc−−f−(1+β)2tanθX, where β is the imaging magnification and f[mm] is the focal length. Here, assuming that there is infinite light, that is, the photographing magnification β is zero, then Δyc−fatanθx−(15). Since the imaging magnification is small in general photography, the imaging magnification β may be considered to be approximately zero in this way. Also,
If the amount of movement of the image is sufficiently small compared to the subject distance, equation (15) can be approximated by the following equation (16). In addition, if necessary, Δyc
−−f ・(1+β)2 ・θx =(17
) may be approximated as

ここで、近似式(16)の両辺についての時間微分を考
えると、 d(Δyc)/dt −−f・ (dθx / d t )   ・・(18
)の関係が成立する。ここで、dθx/dtは角速度で
あり、d(Δyc)/dtはθ、の角速度か発生した場
合の像の移動速度Vcyである。
Here, considering the time differentiation on both sides of approximate equation (16), d(Δyc)/dt −−f・(dθx/dt) ・(18
) holds true. Here, dθx/dt is the angular velocity, and d(Δyc)/dt is the moving speed Vcy of the image when the angular velocity of θ is generated.

また、y軸方向にθYの回転か起きた場合も、同様にし
て、像の移動速度を求めることかできる。
Furthermore, even when a rotation of θY occurs in the y-axis direction, the moving speed of the image can be determined in the same manner.

第18図は、撮影光学系103とフィルム105との関
係を示す概略的断面図であり、y軸のプラス側から見た
状態を示している。y軸方向にθYの回転が起きた場合
に発生する像ぶれ量Δxcは、Δxc−f・ (1+β
)2tanθ7で与えられ、したがって、dθY/dt
の角速度が発生した場合の像の移動速度Vcxは、Vc
x=d (Δxc)/dt −f・ (dθY / d t )    ・・・(1
9)て表される。
FIG. 18 is a schematic cross-sectional view showing the relationship between the photographing optical system 103 and the film 105, as viewed from the positive side of the y-axis. The amount of image blurring Δxc that occurs when rotation of θY occurs in the y-axis direction is Δxc−f・(1+β
)2tanθ7, therefore dθY/dt
The image moving speed Vcx when an angular velocity of Vcx occurs is Vc
x=d(Δxc)/dt-f・(dθY/dt)...(1
9) It is expressed as

次に、第1図に示した機構ぶれ検出部15について説明
する。第19図は、機構ぶれ検出部15の構成を概略的
に示すブロック図である。図に示したように、機構ふれ
検出部15は、X軸回りの角速度を検出するX軸角速度
検出部210と、y軸回りの角速度を検出するX軸角速
度検出部211と、撮影レンズ102の焦点距離に関す
る情報を出力する焦点距離情報出力部212と、被写体
距離の情報を検出して出力する被写体距離検出部213
と、これらの各部の出力情報により像の移動速度を算出
する機構ぶれ像移動演算部2コ4とにより構成されてい
る。
Next, the mechanical shake detection section 15 shown in FIG. 1 will be explained. FIG. 19 is a block diagram schematically showing the configuration of the mechanical shake detection section 15. As shown in the figure, the mechanism shake detection unit 15 includes an X-axis angular velocity detection unit 210 that detects angular velocity around the X-axis, an A focal length information output unit 212 that outputs information regarding focal length, and a subject distance detection unit 213 that detects and outputs information about subject distance.
and mechanical blur image movement calculating sections 2 and 4 that calculate the moving speed of the image based on the output information of each of these sections.

機構ぶれ検出部15の動作シーケンスについて、第20
図を用いて説明する。まず、焦点距離f、レンズ位置、
ピントずれを読出しく5T2001ST2002,5T
2003) 、次に、第3図を用いて説明したようにし
て、被写体距離gの演算を行なう(ST2004)。続
いて、撮影倍率βの演算を行なう(ST2005)。撮
影倍率βは、焦点距離fと被写体距離Ωとを用いて、公
知の方法によって算出することかできる。また、精度の
要求に応して近似式等を用いることにより、演算を簡単
化することも可能である。なお、近似式計算により被写
体距離を用いずに撮影倍率を求める場合には、第19図
に示した被写体距離検出部213は不要である。また、
固定焦点の場合には、固定値を用いて演算を行なうこと
により、焦点距離情報出力部212も不要となる。
Regarding the operation sequence of the mechanical shake detection unit 15, the 20th
This will be explained using figures. First, the focal length f, the lens position,
Read out of focus 5T2001ST2002, 5T
2003), then the subject distance g is calculated as explained using FIG. 3 (ST2004). Subsequently, the imaging magnification β is calculated (ST2005). The imaging magnification β can be calculated by a known method using the focal length f and the subject distance Ω. In addition, calculations can be simplified by using approximate expressions or the like according to requirements for accuracy. It should be noted that if the photographing magnification is determined by approximate formula calculation without using the subject distance, the subject distance detecting section 213 shown in FIG. 19 is not necessary. Also,
In the case of a fixed focus, the focal length information output unit 212 is also not required by performing calculations using fixed values.

その後、ステップ5T2006〜ステツプ5T2011
で、機構ふれを算出する。ます、X軸角速度検出部11
9bでX軸回りの角速度dθX/dtを検出しく5T2
006)  この検出値dθx / d tを用いて上
述の式(18)により像移動速度Vcyを求め(ST2
007)、演算結果を出力する(ST2008)。続い
て、y軸角速度検出部119aてy軸回りの角速度dθ
Y/dtを検出しく5T2009)  この検出値dθ
Y / d tを用いて上述の式(19)により像移動
速度Vcxを求め(ST2010) 、最後に演算結果
を出力して(ST2011) 、シーケンスを終了する
After that, Step 5T2006 to Step 5T2011
Calculate the mechanical deflection. , X-axis angular velocity detection section 11
9b to detect the angular velocity dθX/dt around the X axis 5T2
(ST2
007) and outputs the calculation result (ST2008). Next, the y-axis angular velocity detection unit 119a detects the angular velocity dθ around the y-axis.
To detect Y/dt 5T2009) This detected value dθ
Using Y/dt, the image movement speed Vcx is determined by the above equation (19) (ST2010), and finally, the calculation result is output (ST2011), and the sequence ends.

本実施例では、上述の式(5)、(8)(11)で求め
た、映像信号から得られた像移動情報と、上述の式(1
8)、(19)で求めた、機構ぶれ検出部15から得ら
れた像移動情報とを用いて、被写体の移動に関する情報
を検出する。
In this example, the image movement information obtained from the video signal obtained by the above equations (5), (8) and (11) and the above equation (1) are used.
8) and the image movement information obtained from the mechanical shake detection unit 15 obtained in steps (19) are used to detect information regarding the movement of the subject.

映像信号から求めた像移動情報は、被写体とカメラ(カ
メラのエリアイメージセンサ3)との相対的な移動に関
する情報であるから、被写体の移動による像移動の成分
とカメラの機構的なぶれによる像移動の成分とを合成し
たものとなっている。
The image movement information obtained from the video signal is information about the relative movement between the subject and the camera (area image sensor 3 of the camera), so the image movement information obtained from the image signal includes the image movement component due to the movement of the subject and the image due to mechanical blur of the camera. It is a composite of the movement component.

したがって、映像信号から求めた像移動速度と機構ぶれ
検出部15から求めた像移動速度との差を求めることで
、被写体の移動による像移動速度を算出することができ
る。すなわち、被写体の移動によるX軸方向の像移動速
度をVox、同じくy軸方向の移動速度をVoyとする
と、映像信号によるX軸方向、y軸方向の像移動速度は
VX。
Therefore, by finding the difference between the image movement speed obtained from the video signal and the image movement speed obtained from the mechanical shake detection section 15, it is possible to calculate the image movement speed due to the movement of the subject. That is, if the image movement speed in the X-axis direction due to the movement of the subject is Vox, and the movement speed in the y-axis direction is Voy, then the image movement speed in the X-axis direction and the y-axis direction due to the video signal is VX.

Vy1カメラの機構的なぶれによるX軸方向、y軸方向
の像移動速度はVcx、Vcyであるから、Vox−V
x−Vex        −−(20)Vo y=V
y−Vc y        −(21)が成立する。
Since the image movement speeds in the X-axis direction and y-axis direction due to mechanical blur of the Vy1 camera are Vcx and Vcy, Vox-V
x-Vex --(20)Vo y=V
y-Vc y-(21) holds true.

第21図に、被写体の移動による像移動速度Vox、V
oyを求める手順を示す。まず、映像信号を用いて、上
述の式(5)、(8)、(11)ニヨリ、Vx、Vyを
算出する(ST2101)。
FIG. 21 shows the image movement speed Vox, V due to the movement of the subject.
The procedure for finding oy is shown below. First, the above equations (5), (8), and (11) grin, Vx, and Vy are calculated using a video signal (ST2101).

次に、y軸角速度検出部119aおよびX軸角速度検出
部119bでy軸回りの角速度dθ、・/dtおよびX
軸回りの角速度dθx/dtを検出する(ST2102
)  続いて、・撮影レンズ102の焦点距離fを検出
しく5T2103)、dθY/dt、dθx/dt、f
を用いてカメラの機構的なぶれによる像移動速度Vcx
、Vcyを算出する(ST2104)。最後に、上述の
式(20)および式(21)を用いて、Vox。
Next, the y-axis angular velocity detection unit 119a and the X-axis angular velocity detection unit 119b detect the angular velocity dθ, /dt and X
Detect the angular velocity dθx/dt around the axis (ST2102
) Next, detect the focal length f of the photographic lens 102. 5T2103), dθY/dt, dθx/dt, f
The image movement speed Vcx due to the mechanical shake of the camera is calculated using
, Vcy are calculated (ST2104). Finally, using equations (20) and (21) above, Vox.

Voyを求める(ST2105)。Find Voy (ST2105).

このようにして、撮影に先立って、被写体の移動による
像移動速度Vox、Voyと機構的なぶれによる像移動
速度Vcx、Vcyを検出し、Vcx、Vcyを用いて
防振装置13で機構的なふれを補正する際に、被写体の
移動による像移動速度Vox、Voyをも考慮して補正
を行なうことにより、カメラの機構的なぶれを補正する
と同時に被写体の移動による像ぶれをも補正することか
可能となる。
In this way, prior to photographing, the image movement speeds Vox and Voy due to the movement of the subject and the image movement speeds Vcx and Vcy due to mechanical shake are detected, and the image movement speeds Vcx and Vcy are detected using the image stabilization device 13 using Vcx and Vcy. When correcting camera shake, by taking into account the image movement speeds Vox and Voy caused by the movement of the subject, it is possible to correct the mechanical shake of the camera as well as the image blur caused by the movement of the subject. It becomes possible.

第22図(a)は、第21図に示したような手順て被写
体の移動による像移動速度Vox。
FIG. 22(a) shows the image movement speed Vox due to the movement of the subject according to the procedure shown in FIG.

Voyを求める際の各処理の実行タイミングを示すタイ
ミングチャートである。図において、t。
5 is a timing chart showing the execution timing of each process when calculating Voy. In the figure, t.

は測距開始時刻(エリアイメージセンサ3の1回目の積
分開始時刻)、tlは映像信号の1回目の読出しタイミ
ング、tlは映像信号の2回目の読出しタイミングであ
る。また、Δt1はエリアイメージセンサ3の1回目の
積分の積分時間、Δt2は2回目の積分の積分時間であ
る。映像信号により求める像移動速度Vx、Vyの演算
は、映像信号の2回目の読出しと同時に開始される。
is the distance measurement start time (the first integration start time of the area image sensor 3), tl is the first readout timing of the video signal, and tl is the second readout timing of the video signal. Further, Δt1 is the integration time of the first integration of the area image sensor 3, and Δt2 is the integration time of the second integration. The calculation of the image movement speeds Vx and Vy determined from the video signal is started at the same time as the second reading of the video signal.

Vx、Vyの演算が終了すると、カメラの機構的なふれ
による像移動速度Vcx、Vcyの検出(角速度dθx
/dt、dθ、 / d tの測定とVcx、Vcyの
算出)を開始する(開始タイミンクt3)。Vcx、V
cyの検出か終了すると、最後に、上述の式(20)お
よび式(21)を用いて、Vox、Voyを求める(開
始タイミング14)。
When the calculation of Vx and Vy is completed, the image movement speed Vcx and Vcy due to the mechanical shake of the camera are detected (angular velocity dθx
Measurement of /dt, dθ, /dt and calculation of Vcx and Vcy are started (start timing t3). Vcx, V
When the detection of cy is completed, Vox and Voy are finally obtained using the above-mentioned equations (20) and (21) (start timing 14).

ここで、映像信号の1回目の読出しによって得られる映
像信号は、時刻t。から時刻t1まての間(Δ1.)の
被写体の位置の平均を示すものであると考えることがで
きる。また、同様に、2回目の読出しによって得られる
映像信号は、Δt2間の被写体の位置の平均であると考
えることができる。したがって、これらの映像信号から
求められた像移動速度Vx、Vyは、toからtlまで
のX軸方向およびy軸方向にだいする像移動速度の平均
であると考えることができる。このことを、カメラの機
構的なぶれによる像移動速度を検出するときに考慮する
ことで、被写体の移動による像移動速度Vox、Voy
を求める際の精度を向上させることができる。第22図
(b)に、かかる考慮を行なって被写体の移動による像
移動速度Vox、VoYを求める際のタイミングチャー
トの一例を示す。第22図(b)では、toからtlま
ての間にカメラの機構的なぶれによる像移動速度Vex
、Vcyの検出を複数回行ない、続いて、タイミングt
3で、得られた像移動速度Vex、Vcyの平均値の演
算を行なうこととしている。なお、この場合、Vcxの
検出とVcyの検出は必ずしも同時に行なう必要はなく
、それぞれの平均値を求めることができればよい。例え
ば、両者を交互に検出することとし、これにより1回の
測定に要する時間を減らすことも可能である。
Here, the video signal obtained by the first reading of the video signal is at time t. It can be considered that it indicates the average position of the subject from time t1 to time t1 (Δ1.). Similarly, the video signal obtained by the second readout can be considered to be the average of the subject positions during Δt2. Therefore, the image movement speeds Vx and Vy obtained from these video signals can be considered to be the average of the image movement speeds in the X-axis direction and the y-axis direction from to to tl. By taking this into consideration when detecting the image movement speed due to the mechanical shake of the camera, the image movement speed Vox, Voy due to the movement of the subject can be
It is possible to improve the accuracy when determining . FIG. 22(b) shows an example of a timing chart when calculating the image movement speeds Vox and VoY due to the movement of the subject by taking such consideration into account. In FIG. 22(b), the image movement speed Vex due to the mechanical shake of the camera between to and tl is
, Vcy are detected multiple times, and then at timing t
In step 3, the average value of the obtained image movement velocities Vex and Vcy is calculated. Note that in this case, the detection of Vcx and the detection of Vcy do not necessarily need to be performed at the same time, and it is sufficient that the average value of each can be determined. For example, both can be detected alternately, thereby reducing the time required for one measurement.

次に、撮影露光中の像ぶれを防止するための防振制御に
ついて説明する。
Next, a description will be given of image stabilization control for preventing image blur during photographic exposure.

被写体の移動は、一般的には、それ程高周波では起きな
い。特に、流し撮り時などの場合には、被写体の像の移
動は、略々等速的に生じる。そのため、露光中の防振制
御は、基本的に露出開始直前に検出した被写体像の移動
速度を用いて行なっても精度上問題は生じない。一方、
本実施例では、人体の振動等によるカメラの機構的なぶ
れを検出し、このぶれによる像の移動(像ぶれ)を演算
により求め、この像ぶれも併せて補正できるように防振
制御を行なうが、この像ぶれの検出は、露光中でも行な
うことかできる。すなわち、本実施例では、露光に直前
に求められた被写体の移動による像移動速度Vox、V
oyと露光中に逐次検出されるカメラの機構的なぶれに
よる像移動速度Vcx、Vcyとを加算したぶれを露光
中に補正するように、リアルタイムに防振制御を行なう
Object movement generally does not occur at such high frequencies. Particularly, when taking panning shots, the movement of the image of the subject occurs at approximately constant speed. Therefore, no problem will arise in terms of accuracy even if image stabilization control during exposure is basically performed using the moving speed of the subject image detected immediately before the start of exposure. on the other hand,
In this embodiment, mechanical blur of the camera due to vibrations of the human body, etc. is detected, image movement (image blur) due to this blur is calculated, and anti-shake control is performed so that this image blur can also be corrected. However, this image blur detection can be performed even during exposure. That is, in this embodiment, the image movement speed Vox, V
Image stabilization control is performed in real time so as to correct during exposure the blur that is the sum of oy and image movement speeds Vcx and Vcy due to mechanical blur of the camera that are sequentially detected during exposure.

第23図に、防振制御の概略フローを示す。FIG. 23 shows a schematic flow of vibration isolation control.

まず、上述の第20図に示したようにして機構ぶれの検
出を行ない、カメラの機構的なぶれによる像移動速度V
cx、Vcyを求める(ST2301)。次に、上述の
第21図に示したようにして検出した被写体の移動によ
る像移動速度Vox、Voyを読み出す(ST2302
)、続イテ、VCX+VOX(7)演算オヨびVc y
+Voyの演算を行なう(ST2303,5T2304
)、このVcx+VoxおよびVc y+Voyか、露
光中にリアルタイムに防止すべき像のふれである。その
後、これらのデータを用い、ふれ補正を行なう(ST2
305)。このように、本実施例では、露光中に検出す
ることかできないVox、Voyとしては予想値として
露光直前の値を用い、露光中でも逐次検出することかで
きるVcx、Vcyとしては露光中の検出値を使用する
ことにより、補正の精度を向上させている。なお、この
一連の動作は、露光中、繰り返して行われる。
First, the mechanical shake is detected as shown in FIG. 20 above, and the image movement speed V due to the mechanical shake of the camera is
cx and Vcy are determined (ST2301). Next, the image movement speeds Vox and Voy due to the movement of the subject detected as shown in FIG. 21 described above are read out (ST2302
), continued, VCX+VOX (7) calculation, Vc y
+Voy calculation (ST2303, 5T2304
), Vcx+Vox and Vcy+Voy are image blurs that should be prevented in real time during exposure. Then, using these data, perform shake correction (ST2
305). As described above, in this embodiment, values immediately before exposure are used as expected values for Vox and Voy, which cannot be detected during exposure, and detected values during exposure are used for Vcx and Vcy, which can be sequentially detected even during exposure. By using , the accuracy of correction is improved. Note that this series of operations is repeated during exposure.

次に、本実施例に係わる一眼レフレックスカメラの動作
について、第24図(a)および第24図(b)に示し
たフローチャートにしたがって説明する。第24図(a
)および第24図(b)は本実施例におけるCPU5の
動作シーケンスを示すフローチャートである。
Next, the operation of the single-lens reflex camera according to this embodiment will be explained according to the flowcharts shown in FIGS. 24(a) and 24(b). Figure 24 (a
) and FIG. 24(b) are flowcharts showing the operation sequence of the CPU 5 in this embodiment.

電源か投入されると、まず、イニシャライズとして、C
PU5のリセット、初期設定、各電気回路のチエツク、
各種機構部のリセット等を必要に応じて行なう(ST2
401)。次に、測光サブルーチンを実行する(ST2
402)。この測光サブルーチンは、被写体の輝度を測
定し、適正な露出か得られるような絞り値とシャッタス
ピードとを計算するサブルーチンである。続いて、キー
人力サブルーチンを実行する(ST2403)。
When the power is turned on, the C
Reset PU5, initial settings, check each electric circuit,
Perform resets of various mechanical parts as necessary (ST2
401). Next, execute the photometry subroutine (ST2
402). This photometry subroutine is a subroutine that measures the brightness of a subject and calculates an aperture value and shutter speed that will provide appropriate exposure. Subsequently, a key manual subroutine is executed (ST2403).

このキー人力サブルーチンは、カメラの各種スイッチの
状態を読み込み、読み込んたスイッチの状態に応じてモ
ードの設定等を行なうサブルーチンである。
This key manual subroutine is a subroutine that reads the states of various switches on the camera and performs mode settings, etc. according to the read switch states.

その後、AFモートをシングルAFモート或いはコンテ
ィニュアスAFモードに設定する。まず、シングルAF
スイッチのオン/オフをチエツクしく5T2404) 
、オンであればSAFフラグを「1」にセットしてAF
モートをシングルAFモートに設定する(ST2405
)。一方、シングルAFスイッチかオフてあればSAF
フラグを「0」にクリアしてAFモードをコンティニュ
アスAFモードに設定する(ST2406)。ここて、
シングルAFモードとは一度合焦を行った後にオートフ
ォーカス(AF)による自動焦点調整を禁止するモード
であり、コンティニュアスAFモートとは一度合焦を行
った後でもAFによる自動焦点調整を禁止しないモード
である。
After that, the AF mode is set to single AF mode or continuous AF mode. First, single AF
Please check the on/off switch 5T2404)
, if it is on, set the SAF flag to "1" and perform AF.
Set the mote to single AF mote (ST2405
). On the other hand, if the single AF switch is off, SAF
The flag is cleared to "0" and the AF mode is set to continuous AF mode (ST2406). Here,
Single AF mode is a mode that prohibits automatic focus adjustment by autofocus (AF) after focusing once, and continuous AF mode prohibits automatic focus adjustment by AF even after focusing once. This is the mode in which it does not.

次に、表示すブルーチンを実行する(ST2407)。Next, a blue routine to be displayed is executed (ST2407).

この表示すブルーチンでは、カメラの動作モートや露出
値の表示が行われる。その後、スイッチ1の状態をチエ
ツクしく5T2408)、オフであればステップ5T2
402以降を再度実行する。一方1.スイッチ1かオン
であれば、続いて、ファーストレリーズスイッチの状態
をチエツクする(ST2409)   ここて、ファー
ストレリーズスイッチかオフであればステップ5T24
02以降を再度実行する。一方、ファーストレリーズス
イッチがオンであれば、続いて、測距サブルーチンを実
行する(ST2410)。この測距サブルーチンは、被
写体のピント状態やピントのずれ量の測定を行なう。
In this display blue routine, the camera's operating mode and exposure value are displayed. After that, check the status of switch 1 (5T2408), and if it is off, step 5T2
Execute steps 402 and subsequent steps again. On the other hand 1. If switch 1 is on, then check the state of the first release switch (ST2409).If the first release switch is off, step 5T24
Execute steps 02 and later again. On the other hand, if the first release switch is on, then a distance measurement subroutine is executed (ST2410). This distance measurement subroutine measures the focus state of the subject and the amount of out-of-focus.

次に、AF駆動サブルーチンを実行する(ST2411
)。このAF駆動サブルーチンでは、上記測距サブルー
チンで測定された被写体のピント状態やピントのずれ量
を用いて合焦状態であるか否かの7判断を行ない、合焦
状態である場合は合焦状態であることを示すフラグをセ
ットすると共に、その旨を示す表示を行なう。一方、合
焦状態でない場合には、測距不能であるか否かによって
、異なる処理を行なう。測距不能であるときには、その
旨の表示、動作を行なう。また、測距は可能で、単にピ
ントかすれているたけであるときには、ピントのずれ量
から焦点検出光学系2の駆動量を算出し、その結果に基
づいて焦点検出光学系2を駆動させ、合焦状態にする。
Next, execute the AF drive subroutine (ST2411
). In this AF drive subroutine, a judgment is made as to whether or not the subject is in focus using the focus state and the amount of focus deviation of the subject measured in the distance measurement subroutine, and if it is in focus, it is determined that the subject is in focus. A flag indicating that is set is set, and a display to that effect is displayed. On the other hand, when the camera is not in focus, different processing is performed depending on whether distance measurement is not possible. When distance measurement is not possible, a display and action to that effect are performed. In addition, when distance measurement is possible and the focus is simply blurred, the drive amount of the focus detection optical system 2 is calculated from the amount of focus shift, and the focus detection optical system 2 is driven based on the result. bring to a state of focus.

AF駆動サブルーチンの実行を終えると、続いて、ファ
ーストレリーズスイッチの状態を再度チエツクする(S
T2412)。ここで、ファーストレリーズスイッチが
オフであればステップ5T2402以降を再度実行する
。一方、ファーストレリーズスイッチがオンであれば、
SAFフラグの状態をチエツクする(ST2413)。
After completing the AF drive subroutine, check the state of the first release switch again (S
T2412). Here, if the first release switch is off, steps 5T2402 and subsequent steps are executed again. On the other hand, if the first release switch is on,
Check the state of the SAF flag (ST2413).

SAFフラグか「1」であるとき、すなわちAFモード
かシングルAFモードであるときは、次に、合焦状態で
あるか否かの判断を行ない(ST2412)  合焦状
態でないときは、ステップ5T2410以降を再度実行
する。一方、合焦状態であるときは、上述の被写体の移
動による像移動速度Vox、Voy、Vozを求めるサ
ブルーチンであるVOCALサブルーチン(第21図参
照)を実行する(ST2413)。その後、ファースト
レリーズスイッチの状態をチエツクしく5T2416)
  オフてあればステップ5T2402以降を再度実行
する。一方、ファーストレリーズスイッチがオンであれ
ば、レリーズ禁止状態であるか否かをチエツクしくS、
T2417)、レリーズ禁止状態であればステップ5T
2415以降を再度実行する。一方、レリーズ禁止状態
でなければ、次に、レリーズスイッチの状態をチエツク
しく5T2418)、オフであれば、ステップ5T24
15以降を再度実行する。一方、レリーズスイッチかオ
ンであれば、ステップ5T2422以降を実行する。
When the SAF flag is "1", that is, when the mode is AF mode or single AF mode, next, it is determined whether or not it is in focus (ST2412).If it is not in focus, step 5T2410 and subsequent steps are performed. Execute again. On the other hand, when the camera is in focus, the VOCAL subroutine (see FIG. 21), which is a subroutine for determining the image movement speeds Vox, Voy, and Voz due to the movement of the subject described above, is executed (ST2413). After that, check the condition of the first release switch (5T2416).
If it is off, step 5T2402 and subsequent steps are executed again. On the other hand, if the first release switch is on, check whether the release is prohibited or not.
T2417), if release is prohibited, step 5T
Execute steps 2415 and later again. On the other hand, if the release is not prohibited, then check the state of the release switch (5T2418), and if it is off, step 5T24).
Execute steps 15 and later again. On the other hand, if the release switch is on, steps 5T2422 and subsequent steps are executed.

一方、ステップ5T2413においてSAFフラグが「
0」であるとき、すなわちAFモートかコンティニュア
スAFモードであるときは、次に、VOCALサブルー
チン(第21図参照)を実行する(ST2419)。続
いて、レリーズ禁止状態であるか否かをチエツクしく5
T2420)、レリーズ禁止状態であればステップ5T
2410以降を再度実行する。一方、レリーズ禁止状態
てなければ、次に、レリーズスイッチの状態をチエツク
しく5T2421) 、オフであれば、ステップ5T2
410以降を再度実行する。また、レリーズスイッチが
オンであれば、ステップ5T2422以降を実行する。
On the other hand, in step 5T2413, the SAF flag is set to "
0'', that is, when the mode is AF mode or continuous AF mode, next, the VOCAL subroutine (see FIG. 21) is executed (ST2419). Next, check whether the release is prohibited or not.
T2420), if release is prohibited, step 5T
Execute steps 2410 and later again. On the other hand, if the release is not prohibited, then check the state of the release switch (5T2421); if it is off, step 5T2
Execute steps 410 and later again. Furthermore, if the release switch is on, steps 5T2422 and subsequent steps are executed.

ステップ5T2422以降は、露出シーケンスである。Step 5T2422 and subsequent steps are an exposure sequence.

まず、動体予測駆動サブルーチンを実行する(ST24
22)。動体予測駆動サブルーチンとは、被写体像の光
軸方向への移動速度Vzから、レリーズタイムラグ中の
被写体の移動量を予測し、フィルム露光時にピントが合
うように焦点検出光学系2を駆動させるサブルーチンで
ある。
First, a moving object prediction drive subroutine is executed (ST24
22). The moving object predictive drive subroutine is a subroutine that predicts the amount of movement of the object during the release time lag from the moving speed Vz of the object image in the optical axis direction, and drives the focus detection optical system 2 so that the object is in focus during film exposure. be.

次に、防振装置13の駆動を開始する(ST2424)
。その後、露出を開始し、併せてミラーのアップ、絞り
の駆動、シャッタの制御等が行われる(ST2424)
。続いて、防振制御サブルーチンを実行する(ST24
25)。この防振制御サブルーチンは、上述したように
(第23図参照)、vOCALサブルーチン(第21図
参照)で求められた被写体の移動による像移動速度Vo
x、Voy、Vozとカメラの機構的なぶれによる像移
動速度Vcx、Vcyとにより、まず、カメラの機構的
なぶれによる像のぶれを補正し、さらに、被写体の移動
による像ぶれをも補正するものである。このサブルーチ
ンは、ステップ5T2426において露光が終了したと
判断されるまで、繰り返し行われ、露出中の像ぶれの発
生を防止する。露出が終了すると、まず、防振リセット
サブルーチンを実行して防振装置を初期状態に戻しく5
T2427) 、次に、露出機構リセットサブルーチン
を実行してミラーのダウン、シャッタチャージ、絞り開
放リセット、フィルム巻き上げ等の次回の撮影に必要な
動作を行ない(ST2428)、ステップ5T2402
へ戻る。
Next, start driving the vibration isolator 13 (ST2424)
. After that, exposure is started, and the mirror is raised, the aperture is driven, the shutter is controlled, etc. (ST2424)
. Next, the vibration isolation control subroutine is executed (ST24).
25). As described above (see FIG. 23), this anti-shake control subroutine uses the image movement speed Vo due to the movement of the subject determined in the vOCAL subroutine (see FIG.
Using x, Voy, Voz and image movement speeds Vcx and Vcy due to mechanical camera shake, first, image blur due to mechanical shake of the camera is corrected, and then image blur due to movement of the subject is also corrected. It is something. This subroutine is repeated until it is determined in step 5T2426 that the exposure has ended, thereby preventing image blurring during exposure. When the exposure is finished, first execute the anti-vibration reset subroutine to return the anti-vibration device to its initial state5.
T2427), then executes the exposure mechanism reset subroutine to perform operations necessary for the next shooting such as lowering the mirror, charging the shutter, resetting the aperture to open the aperture, and advancing the film (ST2428), and then returns to step 5T2402.
Return to

第25図は、カメラが連写モードであるときのCPU5
の基本的な動作を示すフローチャートである。
Figure 25 shows the CPU 5 when the camera is in continuous shooting mode.
2 is a flowchart showing the basic operation of FIG.

まず、エリアイメージセンサ3の1回目の積分を行ない
、動体追尾を行なう領域についてのX軸方向およびy軸
方向の加算を行なう(ST2501)。次に、エリアイ
メージセンサ3の2回目の積分を行ない、同様にして、
X軸方向およびy軸方向の加算を行なう(ST2502
)。続いて、上述の第7図(a)および第7図(b)に
おける説明と同様にして、相関演算を行ない(ST25
03) 、映像信号より像移動速度Vx。
First, the first integration of the area image sensor 3 is performed, and addition is performed in the X-axis direction and the y-axis direction for the area where moving object tracking is performed (ST2501). Next, perform the second integration of the area image sensor 3, and similarly,
Perform addition in the X-axis direction and y-axis direction (ST2502
). Subsequently, a correlation calculation is performed in the same manner as explained in FIGS. 7(a) and 7(b) above (ST25).
03) Image movement speed Vx from the video signal.

Vy、Vzを求める(ST2504)、次に、第20図
で説明した場合と同様にして、カメラの機構ぶれによる
像移動速度Vcx、Vcyを求める(ST2505)。
Vy and Vz are determined (ST2504), and then image movement speeds Vcx and Vcy due to camera mechanical shake are determined in the same manner as described in FIG. 20 (ST2505).

さらに、式(20)、(21)により、被写体の移動に
よる像移動速度Vox。
Furthermore, according to equations (20) and (21), the image movement speed Vox due to the movement of the subject.

Voyを求める(ST2506)  その後、レリーズ
スインチのチエツクを行ない(ST2507)  オフ
であれば、ステップ5T2501以降を再度実行する。
Voy is determined (ST2506). Thereafter, the release inch is checked (ST2507). If it is off, step 5T2501 and subsequent steps are executed again.

一方、レリーズスインチかオンであれば、第24図で説
明した場合と同様にして、動体予測駆動、防振制御を行
ない(ST2508.5T2509) 、続いて露出制
御を行なう(ST2510)。その後、ステップ5T2
501に戻り、同様の動作を繰り返すことこより、連写
モートによる撮影を行なうことができる。
On the other hand, if the release button is on, moving object predictive driving and anti-shake control are performed (ST2508.5T2509), and then exposure control is performed (ST2510) in the same manner as described in FIG. Then step 5T2
By returning to step 501 and repeating the same operation, it is possible to perform photography using the continuous shooting mode.

第26図は、カメラか連写モードであるときのCPU5
の基本的な動作の他の例を示すフロチャートである。第
26図に示したフローチャートは、露出制御を行なった
後に、ステップ5T2502に戻る点て、第25図に示
したフローチャートと異なる。この場合、像移動速度V
xVy、Vzの演算(ST2504)は、前回の実行時
の2回目の積分(ST2502)による画素出力を用い
て行なえばよい。このようにすれば、レリーズ間の積分
動作を1回減らすことかできるので、高速の連写か可能
となる。
Figure 26 shows the CPU 5 when the camera is in continuous shooting mode.
12 is a flowchart showing another example of the basic operation of FIG. The flowchart shown in FIG. 26 differs from the flowchart shown in FIG. 25 in that the process returns to step 5T2502 after performing exposure control. In this case, the image movement speed V
The calculation of xVy and Vz (ST2504) may be performed using the pixel output from the second integration (ST2502) in the previous execution. In this way, the number of integral operations between releases can be reduced by one, thereby enabling high-speed continuous shooting.

第27図は、カメラか連写モートであるときのCPU5
の基本的な動作の第3の例を示すフローチャートである
。第27図に示したフローチャートは、2回目以降はス
テップ5T2501〜ステツプ5T2506を実行しな
い点て、第25図および第26図に示したフローチャー
トと異なる。
Figure 27 shows the CPU5 when the camera is in continuous shooting mode.
12 is a flowchart showing a third example of the basic operation of FIG. The flowchart shown in FIG. 27 differs from the flowcharts shown in FIGS. 25 and 26 in that steps 5T2501 to 5T2506 are not executed from the second time onwards.

この場合、像移動速度としては、すべて最初の検出値を
使用する。このようにすれば、さらに高速の連写か可能
となる。
In this case, the first detected value is used as the image movement speed. In this way, even higher speed continuous shooting becomes possible.

[発明の効果] 以上詳細に説明したように、本発明の物体の移動速度検
出装置によれば、機構的なふれに影響されること無く、
物体の移動速度を正確に検出することか可能となる。ま
た、本発明のカメラの像ふれ補正装置によれば、カメラ
の手ふれによる像ぶれと被写体の移動による像ふれとの
両方に起因して像ぶれか生じている場合であっても、高
精度の像ふれ補正を行うことか可能となり、特に、動体
なとの流し撮り撮影を行なうときに有効である。
[Effects of the Invention] As explained in detail above, according to the object moving speed detection device of the present invention, the object movement speed detection device of the present invention can detect
It becomes possible to accurately detect the moving speed of an object. Further, according to the image stabilization device for a camera of the present invention, even when image blur occurs due to both image blur due to camera shake and image blur due to movement of the subject, high accuracy can be achieved. This makes it possible to perform image blur correction, which is particularly effective when taking panning shots of moving objects.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の1実施例を概略的に示したブロック構
成図、第2図は第1図における焦点検出光学系の詳細な
構成を示す光学配置図、第3図(a)〜第3図(C)は
カメラの焦点検出の原理について説明するための図、第
4図は第1図に示したエリアイメージセンサの受光面の
うち被写体の移動の検出に使用する範囲の一例を示す概
念図、第5図はフィルム面の座標を示す概念図、第6図
(a)および第6図(b)は第4図に示したA領域およ
びB領域の画素構成を示す概念図、第7図(a)および
第7図(b)は被写体の移動速度を求める手順を説明す
るためのフローチャート、第8図(a)、第8図(b)
、第9図および第10図は映像信号から像移動速度を求
める手順を説明するための概念図、第11図は防振装置
の構成を概略的に示す断面図、第12図は防振装置の構
成を概略的に示す斜視図、第13図はカメラのX軸方向
およびy軸方向を示す概念図、第14図は防振装置の電
気回路系を示すブロック図、第15図(a)〜(C)は
エンコーダの構成を示す図であり、第15図(a)は上
面図、第15図(b)は斜視図、第15図(C)は側面
図、第16図(a)および第16図(b)はPRセンサ
の動作を説明するための概略的斜視図、第17図および
第18図は撮影光学系とフィルムとの関係を示す概略的
断面図、第19図は機構ふれ検出部の構成を概略的に示
すブロック図、第20図は機構ふれ検出部の動作ンーケ
ンスを示すフローチャート、第21図は被写体の移動に
よる像移動速度を求める手順を示すフローチャート、第
22図(・a)および第22図(b)は被写体の移動に
よる像移動速度を求める際のタイミングチャート、第2
3図は防振制御の手順を示すフローチャート、第24図
は第1図に示したCPUの動作ンーケンスを示すフロー
チャート、第25図〜第27図はカメラが連写モードで
あるときのCPUの基本的な動作を示すフローチャート
である。 1・・・撮影レンズ、2・・・焦点検出光学系、3・・
・工リアイメージセンサ、4・・・インターフェイス回
路、5・・・CPU、6・・・ROM、7・・・レンズ
ROM 。 8・・・レンズ駆動回路、9・・・レンズ駆動用モータ
、10・・・スリット、11・・・フォトインタラプタ
、11a・・・発光ダイオード、11b・・・フォトレ
ジスタ、12・・・表示装置、13・・・防振装置、1
4・・・防振センサ、15・・・機構ぶれ検出部。
FIG. 1 is a block configuration diagram schematically showing an embodiment of the present invention, FIG. 2 is an optical layout diagram showing the detailed configuration of the focus detection optical system in FIG. 1, and FIGS. Figure 3 (C) is a diagram for explaining the principle of focus detection of a camera, and Figure 4 shows an example of the area of the light-receiving surface of the area image sensor shown in Figure 1 that is used to detect the movement of a subject. A conceptual diagram, FIG. 5 is a conceptual diagram showing the coordinates of the film plane, FIGS. 6(a) and 6(b) are conceptual diagrams showing the pixel configuration of the A area and B area shown in FIG. Figures 7(a) and 7(b) are flowcharts for explaining the procedure for determining the moving speed of a subject, and Figures 8(a) and 8(b)
, FIG. 9 and FIG. 10 are conceptual diagrams for explaining the procedure for determining the image movement speed from the video signal, FIG. 11 is a sectional view schematically showing the structure of the vibration isolator, and FIG. 12 is the vibration isolator. 13 is a conceptual diagram showing the X-axis direction and y-axis direction of the camera, FIG. 14 is a block diagram showing the electric circuit system of the vibration isolator, and FIG. 15(a) ~(C) are diagrams showing the configuration of the encoder, where FIG. 15(a) is a top view, FIG. 15(b) is a perspective view, FIG. 15(C) is a side view, and FIG. 16(a) 16(b) is a schematic perspective view for explaining the operation of the PR sensor, FIGS. 17 and 18 are schematic sectional views showing the relationship between the photographing optical system and the film, and FIG. 19 is the mechanism. A block diagram schematically showing the configuration of the shake detection section, FIG. 20 is a flowchart showing the operation sequence of the mechanical shake detection section, FIG. 21 is a flowchart showing the procedure for determining the image movement speed due to the movement of the subject, and FIG.・A) and FIG. 22(b) are timing charts when determining the image movement speed due to the movement of the subject.
Figure 3 is a flowchart showing the procedure for anti-shake control, Figure 24 is a flowchart showing the CPU operation sequence shown in Figure 1, and Figures 25 to 27 are the basics of the CPU when the camera is in continuous shooting mode. 2 is a flowchart showing a typical operation. 1...Photographing lens, 2...Focus detection optical system, 3...
- Rear image sensor, 4... Interface circuit, 5... CPU, 6... ROM, 7... Lens ROM. 8... Lens drive circuit, 9... Lens drive motor, 10... Slit, 11... Photo interrupter, 11a... Light emitting diode, 11b... Photo resistor, 12... Display device , 13... vibration isolator, 1
4... Anti-vibration sensor, 15... Mechanical shake detection section.

Claims (2)

【特許請求の範囲】[Claims] (1)物体の像を映像信号に変換する光電変換手段と、 この光電変換手段の表面に前記物体の像を結像させる光
学系と、 前記光電変換手段より入力した前記映像信号を用いて前
記物体の像の移動を検出する移動検出手段と、 機械的振動センサを用いて前記移動検出手段の振動を検
出する振動検出手段と、 この振動検出手段より入力した前記移動検出手段の振動
の検出値と前記移動検出手段より入力した前記物体の像
の移動の検出値とを用いて、前記物体の移動速度を演算
する速度演算手段と を具備することを特徴とする物体の移動速度検出装置。
(1) a photoelectric conversion means for converting an image of an object into a video signal; an optical system for forming an image of the object on the surface of the photoelectric conversion means; a movement detection means for detecting movement of an image of an object; a vibration detection means for detecting vibration of the movement detection means using a mechanical vibration sensor; and a detected value of vibration of the movement detection means inputted from the vibration detection means. and a speed calculation means for calculating the movement speed of the object using the detection value of the movement of the image of the object inputted from the movement detection means.
(2)被写体像を映像信号に変換する光電変換手段と、 この光電変換手段の表面に前記被写体像を結像させる光
学系と、 前記光電変換手段より入力した前記映像信号を用いて前
記被写体像の移動を検出する移動検出手段と、 機械的振動センサを用いて前記移動検出手段の振動を検
出する振動検出手段と、 この振動検出手段より入力した前記移動検出手段の振動
の検出値と前記移動検出手段より入力した前記被写体像
の移動の検出値とを用いて、前記被写体の移動速度を演
算する速度演算手段と、この速度演算手段より入力した
前記被写体の移動速度に基づいて像ぶれの補正を行なう
補正手段と を具備することを特徴とするカメラの像ぶれ補正装置。
(2) a photoelectric conversion means for converting a subject image into a video signal; an optical system for forming the subject image on the surface of the photoelectric conversion means; and an image of the subject using the video signal inputted from the photoelectric conversion means. movement detection means for detecting the movement of the movement detection means; vibration detection means for detecting the vibration of the movement detection means using a mechanical vibration sensor; and a detection value of the vibration of the movement detection means inputted from the vibration detection means and the movement. a speed calculation means for calculating a moving speed of the object using a detected value of movement of the object image input from the detection means; and image blur correction based on the movement speed of the object input from the speed calculation means. What is claimed is: 1. An image blur correction device for a camera, comprising: a correction means for performing the following steps.
JP02257909A 1990-09-26 1990-09-26 Object moving speed detecting device and camera image blur correcting device Expired - Fee Related JP3112472B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02257909A JP3112472B2 (en) 1990-09-26 1990-09-26 Object moving speed detecting device and camera image blur correcting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02257909A JP3112472B2 (en) 1990-09-26 1990-09-26 Object moving speed detecting device and camera image blur correcting device

Publications (2)

Publication Number Publication Date
JPH04134316A true JPH04134316A (en) 1992-05-08
JP3112472B2 JP3112472B2 (en) 2000-11-27

Family

ID=17312878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02257909A Expired - Fee Related JP3112472B2 (en) 1990-09-26 1990-09-26 Object moving speed detecting device and camera image blur correcting device

Country Status (1)

Country Link
JP (1) JP3112472B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08321984A (en) * 1995-03-22 1996-12-03 Sony Corp Automatic tracking image pickup device
US5619030A (en) * 1993-01-22 1997-04-08 Canon Kabushiki Kaisha Control apparatus for image blur prevention employing an angular velocity and an image field sensor
JP2007079030A (en) * 2005-09-13 2007-03-29 Canon Inc Imaging system
JP2008046415A (en) * 2006-08-17 2008-02-28 Fujinon Corp Lens device
US8135267B2 (en) 2005-09-13 2012-03-13 Canon Kabushiki Kaisha Autofocus imaging optical system and image pickup device
US9498153B2 (en) 2011-04-07 2016-11-22 Olympus Corporation Endoscope apparatus and shake correction processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6818473B2 (en) 2016-09-07 2021-01-20 キヤノン株式会社 Blur correction device and its control method, imaging device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5619030A (en) * 1993-01-22 1997-04-08 Canon Kabushiki Kaisha Control apparatus for image blur prevention employing an angular velocity and an image field sensor
JPH08321984A (en) * 1995-03-22 1996-12-03 Sony Corp Automatic tracking image pickup device
JP2007079030A (en) * 2005-09-13 2007-03-29 Canon Inc Imaging system
US8135267B2 (en) 2005-09-13 2012-03-13 Canon Kabushiki Kaisha Autofocus imaging optical system and image pickup device
JP2008046415A (en) * 2006-08-17 2008-02-28 Fujinon Corp Lens device
US9498153B2 (en) 2011-04-07 2016-11-22 Olympus Corporation Endoscope apparatus and shake correction processing method

Also Published As

Publication number Publication date
JP3112472B2 (en) 2000-11-27

Similar Documents

Publication Publication Date Title
US6954233B1 (en) Electronic image pick-up apparatus and method of adjusting the focal position thereof
KR100712085B1 (en) Optical apparatus
JP3450449B2 (en) Imaging device and imaging method thereof
US8854533B2 (en) Image capture apparatus and control method therefor
US8081223B2 (en) Imaging apparatus
JPH116951A (en) Lens device or optical equipment
JPS6394232A (en) Control device for camera
JP4567313B2 (en) camera
JP6851854B2 (en) Control method of image processing device, imaging device and image processing device
JP3683930B2 (en) Blur correction device
JPH04134316A (en) Moving speed detection device for body and image blur correction device for camera
JPH04163535A (en) Blurring preventive device for camera
JP2003274281A (en) Image pickup device
JP2002214659A (en) Camera with shake correcting function
JP5038448B2 (en) camera
JPH0651384A (en) Shaking prevention device for camera
JP3543999B2 (en) Optical equipment having image blur prevention device
JPH04216534A (en) Blur preventing device for camera
JPH06202199A (en) Parallax correction device
JP3929778B2 (en) Imaging device
EP4250755A1 (en) Control apparatus, lens apparatus, image pickup apparatus, camera system, control method, and program
JPH04215623A (en) Jiggle preventive device for camera
JP3531642B2 (en) Interchangeable lens with image stabilization function
JP2010145500A (en) Optical equipment
JP2022008011A (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080922

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080922

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090922

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090922

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100922

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees