JPH04163535A - Blurring preventive device for camera - Google Patents

Blurring preventive device for camera

Info

Publication number
JPH04163535A
JPH04163535A JP2292586A JP29258690A JPH04163535A JP H04163535 A JPH04163535 A JP H04163535A JP 2292586 A JP2292586 A JP 2292586A JP 29258690 A JP29258690 A JP 29258690A JP H04163535 A JPH04163535 A JP H04163535A
Authority
JP
Japan
Prior art keywords
image
subject
camera
shake
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2292586A
Other languages
Japanese (ja)
Inventor
Yoshiaki Matsuzawa
良紀 松澤
Tatsuya Sato
達也 佐藤
Masabumi Yamazaki
正文 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2292586A priority Critical patent/JPH04163535A/en
Publication of JPH04163535A publication Critical patent/JPH04163535A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2217/00Details of cameras or camera bodies; Accessories therefor
    • G03B2217/005Blur detection

Landscapes

  • Lens Barrels (AREA)

Abstract

PURPOSE:To perform an effective blurring compensation as utilizing the blurring compensation range to the maximum within the limited blurring compensating range by setting a blurring compensation means at a specified position in advance of photographing. CONSTITUTION:This preventer is provided with a subject travel speed detecting means 3 which detects information as to a travel speed of a subject from each output of an image blurring detecting means 1 and a mechanical shaking detecting means 2. Also it is provided with a blurring compensation value operational means 4, operating a blurring compensation value in exposure from the travel speed of the subject and the exposure time and an initial position setting means 6 which presets the initial position of a blurring compensation mechanism 5 of a camera on the basis of this means 4. In addition, it has a blurring compensation control means 7 which controls the blurring compensation mechanism 5 on the basis of each output of the image blurring detecting means 1 and the mechanical shaking detection means 2. In advance of photographing, information conformed to only a movement of the subject is found out, and blurring compensation takes place in consideration of travel information of the subject previously sought when the image travel information by means of the mechanical shaking is compensated. With this constitution, the blurring compensation range is utilizable to the maximum within the limited blurring compensation range, thus effective blurring compensation takes place in this way.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明はカメラ、ビデオ等の画像情報の撮影装置に於
いて、被写体や撮影装置の移動、振動等により発生する
画像のブレを補正するカメラのブレ防止装置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention is a camera that corrects image blur caused by movement, vibration, etc. of the subject or the photographing device in an image information photographing device such as a camera or a video camera. This invention relates to an anti-shake device.

[従来の技術〕 従来より、撮影装置に於けるブレ補正装置としては、例
えば特公平1−53957号のように、角速度センサを
用いて、カメラを支持している撮影者の手のブレ(手ブ
レ)による撮影装置の回転に関する情報を検出し、その
情報に基いてレンズ鏡筒全体或いは一部の光学系、或い
は撮像部を移動させてブレを補正するものがある。また
、光電変換素子から成る撮像手段からの出力から、画像
のブレを検出し、それに応じて画像情報の電荷の転送タ
イミングを制御することで画像のブレを補正するものが
ある。
[Prior Art] Conventionally, as disclosed in Japanese Patent Publication No. 1-53957, an angular velocity sensor has been used as a shake correction device in a photographing device to reduce the shake of the hand of the photographer who is supporting the camera. There is a camera that detects information regarding the rotation of the photographing device due to camera shake (shake) and moves the entire lens barrel, a part of the optical system, or the imaging unit based on the information to correct the camera shake. In addition, there is a device that corrects image blur by detecting image blur from the output from an imaging means made of a photoelectric conversion element and controlling the timing of charge transfer of image information accordingly.

[発明が解決しようとする課題] ところで、映像信号を使用したブレ防止に於いては、短
時間にランダムな動きをすることの少ない低い周波数の
ブレを検出するのに適している。
[Problems to be Solved by the Invention] By the way, in preventing blurring using a video signal, it is suitable for detecting low-frequency blurring that rarely causes random movements in a short period of time.

しかしながら、この映像信号を使用したブレ防止に於い
ては、光電変換素子による被写体光の積分とデータの演
算処理に時間を要するものであり、この時間中に像が移
動するのでランダムな動きに対して追従制御するのが困
難なものであった。
However, in preventing blur using this video signal, it takes time for the photoelectric conversion element to integrate the object light and process the data, and since the image moves during this time, it is difficult to prevent random movements. It was difficult to perform follow-up control.

また、銀塩カメラのように実際の撮影時に光電変換素子
による映像信号を使用しにくい場合には、露光中に変化
するブレの検出はできない。
Further, in a case where it is difficult to use a video signal from a photoelectric conversion element during actual photographing, such as with a silver halide camera, it is not possible to detect blurring that changes during exposure.

更に、角速度センサ等の機械的振動センサを使用したブ
レ防止に於いては、上記映像信号を使用したブレ防止で
は困難なカメラブレによる比較的周波数の高いランダム
な振動の検出に適したちのである。しかしながら、この
ように角速度センサや加速度センサ等の機械的振動セン
サを用いたブレ防止に於いては、被写体が移動したこと
て発生するブレの防止はできないものであった。
Furthermore, in the case of blur prevention using a mechanical vibration sensor such as an angular velocity sensor, it is suitable for detecting relatively high-frequency random vibrations caused by camera shake, which is difficult to prevent using the above video signal. However, in preventing blur using mechanical vibration sensors such as angular velocity sensors and acceleration sensors, it has not been possible to prevent blur caused by movement of the subject.

加えて、ブレを補正する手段には、おのずとその範囲に
限界があり、限界を超える範囲の像のブレの補正はする
ことができない。これは、撮影者が無造作にブレ防止を
開始した場合、ブレ防止を最大限に活用できず、十分に
効かない場合が生じることを指している。
In addition, the means for correcting blur naturally has a limit in its range, and cannot correct image blur in a range that exceeds the limit. This means that if the photographer starts blur prevention carelessly, he or she may not be able to make the most of the blur prevention, and the camera may not be fully effective.

この発明は上記のような点に鑑みて成されたもので、限
られたブレ補正範囲内で、最大限にそのブレ補正範囲を
活用でき、効果的なブレ補正を行うことが可能なカメラ
のブレ防止装置を提供することを目的とする。
This invention was made in view of the above-mentioned points, and is a camera that can make maximum use of the limited image stabilization range and perform effective image stabilization. The purpose of the present invention is to provide an anti-shake device.

[課題を解決するための手段] すなわちこの発明によるカメラのブレ防止装置は、第1
図に示されるように、イメージセンサの出力に基いて画
像のブレを検出する画像ブレ検出手段1と、カメラ内部
に設けられたメカセンサの出力に基いてブレを検出し、
それによる画像のブレを演算するメカブレ検出手段2と
、上記画像ブレ検出手段1の出力と上記メカブレ検出手
段2とから被写体の移動速度に関する情報を検出する被
写体移動速度検出手段3と、上記被写体の移動速度と露
出時間とから露出中のブレ補正量を演算するブレ補正量
演算手段4と、上記ブレ補正量に基いて上記カメラのブ
レ補正機構5の初期位置をプリセットする初期位置設定
手段6と、を有し、更に上記画像ブレ検出手段1と上記
メカブレ検出手段2の出力に基いて上記ブレ補正機構5
の制御を行うブレ補正制御手段7とを有することにより
、露出中のブレ補正を効果的に大きな範囲で行う。
[Means for Solving the Problems] That is, the camera shake prevention device according to the present invention has the following features:
As shown in the figure, image blur detection means 1 detects image blur based on the output of an image sensor, and detects blur based on the output of a mechanical sensor provided inside the camera.
Mechanical blur detection means 2 calculates the image blur caused by the image blurring; Subject movement speed detection means 3 detects information regarding the moving speed of the subject from the output of the image blur detection means 1 and the mechanical blur detection means 2; a shake correction amount calculating means 4 for calculating a shake correction amount during exposure from a moving speed and an exposure time; and an initial position setting means 6 for presetting an initial position of the shake correction mechanism 5 of the camera based on the shake correction amount. , and further includes a shake correction mechanism 5 based on the outputs of the image shake detection means 1 and the mechanical shake detection means 2.
By having the shake correction control means 7 that performs control, shake correction during exposure can be effectively performed over a wide range.

[作 用] この発明によるカメラのブレ防止装置に於いて、映像信
号から求めた像移動情報は、被写体とカメラの相対的な
移動に関する情報であるから、被写体の移動による像移
動の成分と、機械的なブレ移動による成分とから成って
いる。また、メカブレ検出手段で求めたメカブレによる
像の移動情報は、カメラの機械的なブレや移動による成
分のみでできている。したがって、映像信号で求めた像
移動情報と、カメラのメカ的なブレから求めた像移動情
報との差を求めることにより、被写体の移動によって生
じた像の移動情報を求めることが可能である。更に、撮
影に先立ち、上記のように被写体の移動にのみ応じた情
報を求め、撮影中に刻々と発生するカメラの機械的なブ
レからメカブレによる像の移動情報を検出し、それを補
正する場合に先に求めた被写体の移動情報を考慮してブ
レの補正を行うことで、機械的なカメラのブレをキャン
セルし、尚且つ露光中に映像信号が取込めない場合であ
っても、被写体の移動による像ブレをキャンセルするこ
とが可能となる。
[Function] In the camera shake prevention device according to the present invention, since the image movement information obtained from the video signal is information regarding the relative movement between the subject and the camera, the image movement component due to the movement of the subject, It consists of components caused by mechanical blur movement. Further, the image movement information due to mechanical shake obtained by the mechanical shake detection means is made up only of components due to mechanical shake and movement of the camera. Therefore, by finding the difference between the image movement information obtained from the video signal and the image movement information obtained from the mechanical blur of the camera, it is possible to obtain the image movement information caused by the movement of the subject. Furthermore, prior to shooting, information corresponding only to the movement of the subject is obtained as described above, and image movement information due to mechanical shake is detected from the mechanical shake of the camera that occurs momentarily during shooting, and the information is corrected. By correcting camera shake by taking into account the movement information of the subject previously determined, mechanical camera shake can be canceled, and even if the video signal cannot be captured during exposure, the subject's movement can be corrected. It becomes possible to cancel image blur caused by movement.

[実施例] 以下図面を参照して、この発明の詳細な説明する。[Example] The present invention will be described in detail below with reference to the drawings.

第2図は、この発明によるカメラのブレ防止装置が適用
されたカメラの構成を概略的に示したブロック構成図で
ある。同図に於いて、このカメラは、撮影レンズ11、
焦点検出光学系12、エリアイメージセンサ13、イン
ターフェース回路14、CPU (中央処理装置)15
、ROM (リード・オンリーメモリ)16、レンズR
OM 17、レンズ駆動回路18、レンズ駆動用モータ
19、スリット20、フォトインクラブタを構成する発
光ダイオード21a1フ寸トダイオード21b、表示装
置22、露出時間設定部23、防振装置24、メカブレ
検出部25、ブレ検出補正信号発生部及びファーストレ
リーズスイッチSW1、セカンドレリーズスイッチSW
2等で構成されている。
FIG. 2 is a block diagram schematically showing the configuration of a camera to which the camera shake prevention device according to the present invention is applied. In the figure, this camera includes a photographing lens 11,
Focus detection optical system 12, area image sensor 13, interface circuit 14, CPU (central processing unit) 15
, ROM (read only memory) 16, lens R
OM 17, lens drive circuit 18, lens drive motor 19, slit 20, light emitting diode 21a1 which constitutes a photo ink converter, double dimensional diode 21b, display device 22, exposure time setting section 23, vibration isolator 24, mechanical shake detection part 25, shake detection correction signal generation part, first release switch SW1, second release switch SW
It is made up of 2nd class.

上記焦点検出光学系12は、撮影レンズ11を介して図
示されない被写体からの光束(画像情報)が入射され、
上記撮影レンズ11で取込まれた被写体の像を結像する
べく焦点を検出するものである。
The focus detection optical system 12 receives a light beam (image information) from a subject (not shown) through the photographic lens 11, and
The focal point is detected in order to form an image of the subject captured by the photographing lens 11.

上記エリアイメージセンサ13は、結像される被写体の
像を電気信号(映像信号)に光電変換するもので、上記
インターフェース回路14により駆動される。また、イ
ンターフェース回路14は、エリアイメージセンサ13
からの電気信号(アナログ信号)をデジタル信号に変換
してCPU15に出力する。
The area image sensor 13 photoelectrically converts a formed image of a subject into an electrical signal (video signal), and is driven by the interface circuit 14. The interface circuit 14 also includes an area image sensor 13.
The electrical signal (analog signal) is converted into a digital signal and output to the CPU 15.

上記CPU15は、このカメラ全体の動作制御を司るも
ので、例えばエリアイメージセンサ13の出力に基いて
被写体距離を演算したり、上記表示装置22に於ける合
焦、非合焦やその他の状態等の表示の制御、また防振装
置24の制御等を行うようになっている。
The CPU 15 controls the operation of the entire camera, for example, calculates the object distance based on the output of the area image sensor 13, and controls the in-focus, out-of-focus, and other states of the display device 22. It is designed to control the display of , and also control the vibration isolator 24 .

更に、ROMIBは焦点検出を行う複数の領域に於ける
合焦点のずれ量(2像間隔)を記憶する。
Further, the ROMIB stores the amount of deviation of the in-focus point (distance between two images) in a plurality of areas where focus detection is performed.

上記レンズROM17は、レンズ鏡筒内に設けられてレ
ンズのFナンバや像のずれ量から、デフォーカス量や焦
点調節光学系の駆動量に変換するための変換係数等、焦
点検出、焦点調節に必要な各種のデータを記憶するもの
である。
The lens ROM 17 is provided in the lens barrel and stores information such as conversion coefficients for converting the F number of the lens and the amount of image shift into the amount of defocus and the amount of drive of the focusing optical system, for focus detection and focus adjustment. It stores various necessary data.

上記レンズ駆動回路18は、CP U 15の制御に基
いてレンズ駆動用モータ19を駆動することにより、上
記撮影レンズ11の焦点調節光学系の位置を移動させる
ものである。
The lens drive circuit 18 moves the focus adjustment optical system of the photographic lens 11 by driving a lens drive motor 19 under the control of the CPU 15.

通常、被写体距離を検出し、その距離情報に基いて撮影
レンズ11を駆動するAF(オートフォーカス)動作に
於いては、撮影レンズ11の駆動量をCPU15にフィ
ードバックする必要がある。この場合、撮影レンズ11
が実際に移動されたその移動量を駆動用モータ19の回
転数で代用するのが一般的となっている。このため、こ
こでは上記スリット20を、フォトインタラプタでカウ
ントすることにより求めるようにしている。すなわち、
レンズ駆動回路18が動作して、駆動用モータJ9が回
転されると、レンズ鏡筒の回転部材に等間隔に設けられ
たスリット20が回転される。すると、このスリット2
0が、対向配置された発光ダイオード21aとフォトダ
イオード21bとの間を通過することにより、その回転
数がCPU15によってカウントされる。その後、カウ
ント数が所定値に達したところで、駆動用モータ19の
回転を停止するように制御される。尚、ファーストレリ
ーズスイッチSWI及びセカンドレリーズスイッチSW
2はAF動作のためのスイッチである。
Normally, in an AF (autofocus) operation that detects a subject distance and drives the photographic lens 11 based on the distance information, it is necessary to feed back the driving amount of the photographic lens 11 to the CPU 15. In this case, the photographic lens 11
It is common practice to substitute the rotational speed of the drive motor 19 for the actual amount of movement. Therefore, here, the number of slits 20 is determined by counting with a photo interrupter. That is,
When the lens drive circuit 18 operates and the drive motor J9 is rotated, the slits 20 provided at equal intervals on the rotating member of the lens barrel are rotated. Then, this slit 2
0 passes between the light emitting diode 21a and the photodiode 21b, which are arranged opposite to each other, and the number of rotations thereof is counted by the CPU 15. Thereafter, when the count reaches a predetermined value, the drive motor 19 is controlled to stop rotating. In addition, first release switch SWI and second release switch SW
2 is a switch for AF operation.

第3図は、第2図の焦点検出光学系12の詳細な構成を
示す光学配置図である。この焦点検出光学系12は、図
示矢印A1方向に移動可能に取付けられたクイックリタ
ーンミラー121、プリズム12□、フィールドレンズ
12.と、明るさ絞り L2a及び光軸類はプリズム 
12b等から成る視野像伝達光学124により構成され
ている。尚、12.はフィルム面を表している。
FIG. 3 is an optical layout diagram showing the detailed configuration of the focus detection optical system 12 of FIG. 2. FIG. The focus detection optical system 12 includes a quick return mirror 121, a prism 12□, a field lens 12. The aperture diaphragm L2a and optical axes are prisms.
It is constituted by a visual field image transmission optical system 124 consisting of 12b and the like. Furthermore, 12. represents the film surface.

上記クイックリターンミラー12+は、上記撮影レンズ
11からの光束を、AF動作時にはプリズム12□の方
向へ、また撮影時にはフィルム125の方向へ、それぞ
れに導くためのものである。また、視野像伝達光学系1
24は、導かれる光束を瞳分割によって2つに分割し、
エリアイメージセンサ13上に2つの像1a、■bを結
像するようにしている。
The quick return mirror 12+ is for guiding the light beam from the photographing lens 11 toward the prism 12□ during AF operation and toward the film 125 during photography. In addition, the visual field image transmission optical system 1
24 divides the guided light beam into two by pupil division,
Two images 1a and 2b are formed on the area image sensor 13.

焦点検出については、いわゆる瞳分割による2像1a、
Ibの間隔から被写体距離を求める一般的に公知の位相
差方式により行う。この位相差方式による原理を第4図
CB)〜(C)に示す。
For focus detection, two images 1a,
A generally known phase difference method is used to determine the object distance from the interval Ib. The principle of this phase difference method is shown in FIGS. 4 CB) to 4 (C).

撮影レンズ11を通過した光束は、フィールドレンズ1
23を通過した後、視野像伝達光学系124によって分
割され、エリアイメージセンサ13上にそれぞれ像1a
S Ibとなって結像される。この場合、合焦(ジャス
トピント)時には、第4図(a)に示されるように、被
写体距離に関係なく2つの像1a、Ibは、ある間隔f
aを保持して結像される。また、このジャストピントに
対して、被写体の前側にピントが合っている状態、いわ
ゆる前ピン時には、第4図(b)に示されるように、2
つの像1a、Ibの間隔fbがジャストピント時の間隔
faより狭くなる。反対に、被写体の後ろがIピントが
合っている状態、いわゆる後ピン時には、第4図(C)
に示されるように、2つの像間隔fcは上記faより広
く保持される。したがって、2つの像IaS Ibの間
隔を検出、演算することで、ピントのずれや焦点の状態
の情報を得ることができる。
The light flux that has passed through the photographing lens 11 is passed through the field lens 1.
23, it is divided by the visual field image transmission optical system 124, and the images 1a and 1a are respectively displayed on the area image sensor 13.
It becomes S Ib and is imaged. In this case, when in focus (just in focus), the two images 1a and Ib are separated by a certain distance f, regardless of the subject distance, as shown in FIG. 4(a).
The image is formed while holding a. In addition, when the front side of the subject is in focus, so-called front focus, as shown in FIG. 4(b),
The distance fb between the two images 1a and Ib is narrower than the distance fa when the two images are in just focus. On the other hand, when the back of the subject is in focus (so-called rear focus), the image shown in Figure 4 (C)
As shown in , the distance fc between the two images is maintained wider than the above fa. Therefore, by detecting and calculating the interval between the two images IaS and Ib, it is possible to obtain information about the focus shift and the focus state.

次に、第5図を参照して露出時間設定部23の構成につ
いて説明する。
Next, the configuration of the exposure time setting section 23 will be explained with reference to FIG.

この露出時間設定部23は、測光部231と、露出補正
部232と、露出モード設定部233と、露出値設定部
234及び露出演算部23.から成っている。
The exposure time setting section 23 includes a photometry section 231, an exposure correction section 232, an exposure mode setting section 233, an exposure value setting section 234, and an exposure calculation section 23. It consists of

上記測光部23□は、撮影レンズ11を通ってきた被写
体光の強さを測ることで被写体の輝度信号を生成する。
The photometry section 23□ generates a brightness signal of the subject by measuring the intensity of the subject light that has passed through the photographic lens 11.

露出補正部232は、カメラに装填されているフィルム
の感度情報と撮影者の指示による露出補正の感度等から
測光値に対して、どの程度の補正を行うかの露出補正信
号を生成するものである。また、露出モード設定部23
3は、撮影者の設定により、公知の多様な露出モード、
例えば絞り優先露出モード、シャッタスピード優先露出
モード、マニュアル露出モード、プログラム露出モード
等から、何れの露出モードが選択されているのかを示す
露出モード情報を発生する。
The exposure compensation section 232 generates an exposure compensation signal indicating how much compensation to perform on the photometric value based on the sensitivity information of the film loaded in the camera and the sensitivity of exposure compensation specified by the photographer. be. In addition, the exposure mode setting section 23
3. Various well-known exposure modes, depending on the settings of the photographer.
For example, exposure mode information indicating which exposure mode is selected from among aperture priority exposure mode, shutter speed priority exposure mode, manual exposure mode, program exposure mode, etc. is generated.

上記露出値設定部234は、例えば上記絞り優先露出モ
ードではどの絞り値が設定されているかを、シャッタス
ピード優先露出モードではどのシャッタスピードが選択
されているかを生成する。また、マニュアル露出モード
の場合は設定されている絞り値とシャッタスピードの両
者を示す信号を、プログラム露出モードではプログラム
線図のすらし量を示す信号に相当する露出値設定情報を
生成するものである。
The exposure value setting section 234 generates, for example, which aperture value is set in the aperture priority exposure mode, and which shutter speed is selected in the shutter speed priority exposure mode. In addition, in manual exposure mode, it generates a signal indicating both the set aperture value and shutter speed, and in program exposure mode, it generates exposure value setting information corresponding to a signal indicating the amount of smoothing of the program diagram. be.

更に、露出演算部235は、上述した測光部231から
の被写体輝度信号と、露出補正部232からの露出補正
信号と、露出モード設定部233からの露出モード情報
及び露出値設定部234からの露出値設定情報から、実
際の撮影のために制御する露出時間情報と絞り値情報を
演算して出力するものである。
Further, the exposure calculation section 235 receives the subject brightness signal from the photometry section 231 described above, the exposure correction signal from the exposure correction section 232, the exposure mode information from the exposure mode setting section 233, and the exposure value from the exposure value setting section 234. From the value setting information, exposure time information and aperture value information to be controlled for actual photography are calculated and output.

第6図はカメラの回転方向の例を表したもので、例えば
フィルム面の長手方向をy軸、上記フィルムの短辺方向
をy軸とし、光軸方向を2軸とする。
FIG. 6 shows an example of the rotation direction of the camera. For example, the longitudinal direction of the film surface is the y-axis, the short side direction of the film is the y-axis, and the optical axis direction is the two axes.

また第7図(a)及び(b)は、一対のエリアイメージ
センサ13、例えばエリアイメージセンサ13a及び1
3b中の動体を追尾する範囲を示したものである。この
場合、動体追尾範囲13..13□は画面の略中央付近
にあることを表している。
Further, FIGS. 7(a) and 7(b) show a pair of area image sensors 13, for example, area image sensors 13a and 1.
3b shows the range for tracking the moving object. In this case, the moving object tracking range 13. .. 13□ indicates that it is located approximately at the center of the screen.

更に、第8図(a)及び(b)は、動体追尾範囲内の画
素配列を示したもので、第8図(a)はエリアイメージ
センサ13aの動体追尾範囲の画素配列であり、同図(
b)はエリアイメージセンサ13bの動体追尾範囲の画
素配列である。
Furthermore, FIGS. 8(a) and 8(b) show the pixel array within the moving object tracking range, and FIG. 8(a) shows the pixel arrangement within the moving object tracking range of the area image sensor 13a. (
b) is a pixel array of the moving object tracking range of the area image sensor 13b.

尚、これらの動体追尾については後述する。Note that these moving object tracking will be described later.

次に、この実施例に係る防振装置24を説明する。Next, the vibration isolating device 24 according to this embodiment will be explained.

第9図及び第10図は、この防振装置24が適用された
一眼レフレックスカメラを概略的に示した断面図及び概
略的斜視図である。第9図及び第10図に於いて、上記
−眼レフレックスカメラは、カメラの本体26と、撮影
レンズ27から成っている。この撮影レンズ27は、撮
影光学系28と、軸29を中心に回転可能に構成された
yz平面内の振動を補正するための第1の補正光学素子
30と、この第1の補正光学素子30を駆動させるため
のディスク型超音波モータ31と、第1の補正光学素子
30の回転状態を検出するためのエンコーダ32と、軸
33を中心に回転可能に構成されたxz平面内の振動を
補正するための第2の補正光学素子34と、この第2の
補正光学素子34を駆動させるためのディスク方超音波
モータ35と、第2の補正光学素子35の回転状態を検
出するためのエンコーダ36とを有している。また、撮
影レンズ27は、上記ディスク型超音波モータ31及び
35の駆動を行うための電気回路部37と、カメラ本体
26と撮影レンズ27との信号のやり取りを行うための
撮影レンズ側接点38をも備えている。
9 and 10 are a cross-sectional view and a schematic perspective view of a single-lens reflex camera to which this vibration isolator 24 is applied. 9 and 10, the above-mentioned eye reflex camera consists of a camera body 26 and a photographic lens 27. This photographing lens 27 includes a photographing optical system 28, a first correcting optical element 30 configured to be rotatable about an axis 29 and for correcting vibrations in the yz plane, and this first correcting optical element 30. A disk-type ultrasonic motor 31 for driving the first correction optical element 30, an encoder 32 for detecting the rotational state of the first correction optical element 30, and an encoder 32 for correcting vibrations in the xz plane, which is configured to be rotatable about an axis 33. a second correction optical element 34 for driving the second correction optical element 34, a disk ultrasonic motor 35 for driving the second correction optical element 34, and an encoder 36 for detecting the rotational state of the second correction optical element 35. It has The photographic lens 27 also includes an electric circuit section 37 for driving the disk-type ultrasonic motors 31 and 35, and a photographic lens side contact 38 for exchanging signals between the camera body 26 and the photographic lens 27. It is also equipped with

尚、エンコーダ32は、第1の補正光学素子3oの回転
に応じて回転するドラム32□と、このドラム32□の
回転状態を検出するための磁気センサ(磁気ヘッド等、
以下MRセンサと略称する)32□と、トラム32□の
回転の終端を検出するための図示されない光学センサ(
フォトリフレクタ等、以下PRセンサと省略する)によ
り構成されている。
The encoder 32 includes a drum 32□ that rotates in accordance with the rotation of the first correction optical element 3o, and a magnetic sensor (such as a magnetic head, etc.) for detecting the rotational state of the drum 32□.
32□ (hereinafter abbreviated as MR sensor) and an optical sensor (not shown) for detecting the end of rotation of the tram 32□.
It is composed of a photoreflector (hereinafter abbreviated as PR sensor).

同様に、エンコーダ36は、第2の補正光学素子34の
回転に応じて回転するドラム34.と、このドラム34
.の回転状態を検出するためのMRセンサ342と、ド
ラム341の回転の終端を検出するための図示されない
PRセンサにより構成されている。
Similarly, the encoder 36 rotates the drum 34 . And this drum 34
.. The drum 341 includes an MR sensor 342 for detecting the rotational state of the drum 341, and a PR sensor (not shown) for detecting the end of rotation of the drum 341.

一方、カメラ本体26は、クイックリターンミラー39
と、焦点検出光学系及びファインダ光学系4゜と、接眼
レンズ41と、信号処理やカメラのブレ量の演算等を行
うための電気回路部42と、このカメラ本体26と撮影
レンズ27との信号のやり取りを行うためのカメラ本体
側接点43により構成されている。また、上記カメラ本
体26には、カメラのメカ的なブレ量を検出するために
、X軸角速度検出部44□とX軸角速度検出部44□か
ら成る角速度検出部44が搭載されている。
On the other hand, the camera body 26 has a quick return mirror 39.
, a focus detection optical system and a finder optical system 4°, an eyepiece lens 41, an electric circuit section 42 for performing signal processing and calculating the amount of camera shake, and signals between the camera body 26 and the photographing lens 27. It is composed of a camera body side contact point 43 for exchanging information. Further, the camera body 26 is equipped with an angular velocity detection section 44 consisting of an X-axis angular velocity detection section 44□ and an X-axis angular velocity detection section 44□ in order to detect the amount of mechanical shake of the camera.

上記y軸角速度検出部441は、カメラのy軸回りの回
転のブレの角速度を検出するものである。
The y-axis angular velocity detection section 441 detects the angular velocity of rotational shake of the camera around the y-axis.

このy軸回りの回転によるブレは、フィルム上でX軸方
向の像ブレを発生させる要因となる。また、X軸角速度
検出部44□は、同様にカメラのX軸回りの回転のブレ
の角速度を発生するものである。
The blur caused by this rotation around the y-axis causes image blur in the x-axis direction on the film. Further, the X-axis angular velocity detection section 44□ similarly generates the angular velocity of the rotational shake of the camera around the X-axis.

このX軸回りの回転によるブレは、フィルム上でy軸方
向の像ブレを発生させる要因となる。これらのy軸及び
X軸角速度検出部441及び442が検出したカメラブ
レ情報は、カメラ本体26の電気回路部42内のCPU
15に転送される。
This blurring due to rotation around the X-axis causes image blurring in the y-axis direction on the film. The camera shake information detected by these y-axis and X-axis angular velocity detection units 441 and 442 is transmitted to
Transferred to 15.

更に、この防振装置24の電気回路系について、第11
図を参照して説明する。尚、第11図に於いて、第9図
及び第10図と同一の部分には同じ符号を付して、その
説明は省略するものとする。
Furthermore, regarding the electric circuit system of this vibration isolator 24, the eleventh
This will be explained with reference to the figures. In FIG. 11, the same parts as in FIGS. 9 and 10 are designated by the same reference numerals, and their explanation will be omitted.

第11図に於いて、CPU15には撮影レンズ27に関
する情報を記憶するレンズROM17と、ディスク型超
音波モータ31及び35をそれぞれ駆動させるための駆
動制御部45及び4Bと、エンコーダ32及び36と、
各種プログラムを記憶する記憶部47が結合されている
。また、CPU15には、第6図に示された軸方向のう
ち、X軸方向及びy軸方向に関して上記y軸及びX軸角
速度検出部25、及び25□で検出されたカメラブレ情
報と、像移動情報が供給されるようになっている。
In FIG. 11, the CPU 15 includes a lens ROM 17 that stores information regarding the photographing lens 27, drive control units 45 and 4B for driving the disk-type ultrasonic motors 31 and 35, respectively, and encoders 32 and 36.
A storage section 47 that stores various programs is coupled thereto. The CPU 15 also stores camera shake information detected by the y-axis and X-axis angular velocity detection sections 25 and 25 Information is being provided.

CPU15は、こうして供給された像移動信号とレンズ
ROM17及び記憶部47に格納された各種の定数やプ
ログラムに基いて、像移動を打消すために必要な第1及
び第2の補正光学素子30及び34の角速度を算出し、
この算出した角速度を駆動制御部45及び46に送出す
る。これら駆動制御部45及び46は、取込んだ角速度
に基いてディスク型超音波モータ31及び35を駆動さ
せ、像ブレの補正を行う。
Based on the image movement signal thus supplied and various constants and programs stored in the lens ROM 17 and the storage unit 47, the CPU 15 adjusts the first and second correction optical elements 30 and 30 necessary to cancel the image movement. Calculate the angular velocity of 34,
This calculated angular velocity is sent to drive control units 45 and 46. These drive control units 45 and 46 drive the disk type ultrasonic motors 31 and 35 based on the acquired angular velocity to correct image blur.

次に、メカブレ検出部25について、第12図を参照し
て説明する。メカブレ検出部25は、y軸回りの角速度
を検出するX軸角速度検出部251と、X軸回りの角速
度を検出するX軸角速度検出部252と、撮影レンズ2
7の焦点距離に関する情報を検出、出力する焦点距離情
報出力部25.と、被写体の距離の情報を検出してこれ
を出力する被写体距離検出部254と、これらの情報を
処理し、メカブレによる像移動の速度を演算して求める
メカブレ像移動演算部25.とから成っている。そして
、このメカブレ像移動演算部25.から、y軸方向及び
X軸方向メカブレ像移動速度情報が、CPU15に供給
されるようになっている。
Next, the mechanical shake detection section 25 will be explained with reference to FIG. 12. The mechanical shake detection section 25 includes an X-axis angular velocity detection section 251 that detects angular velocity around the y-axis, an X-axis angular velocity detection section 252 that detects angular velocity around the
Focal length information output unit 25 that detects and outputs information regarding the focal length of No.7. , a subject distance detection unit 254 that detects and outputs information on the distance of the subject, and a mechanical shake image movement calculation unit 25 that processes this information and calculates the speed of image movement due to mechanical shake. It consists of. Then, this mechanical blur image movement calculation section 25. The mechanical shake image movement speed information in the y-axis direction and the X-axis direction is supplied to the CPU 15 from the above.

第13図(a)〜(C)は、上述したエンコーダ32及
び36の構成を示した図であり、同図(a)は上面図、
同図(b)は斜視図、同図(c)は側面図である。尚、
ここではエンコーダ32について述べるが、エンコーダ
36についても同様の構成であるのでここでは説明を省
略する。
FIGS. 13(a) to 13(C) are diagrams showing the configurations of the encoders 32 and 36 described above, and FIG. 13(a) is a top view;
The figure (b) is a perspective view, and the figure (c) is a side view. still,
The encoder 32 will be described here, but since the encoder 36 has a similar configuration, its explanation will be omitted here.

第1の補正光学素子30の回転に応じて回転するドラム
321の第1の外周部32、′ には、図示されない所
定の磁気パターンが着磁されている。この磁気パターン
は、MRセンサ322によって読取られ、ディスク型超
音波モータ31の回転量と回転方向が検出される。更に
、この値から回転速度も検出されるようになっている。
A predetermined magnetic pattern (not shown) is magnetized on the first outer peripheral portion 32,' of the drum 321, which rotates in accordance with the rotation of the first correction optical element 30. This magnetic pattern is read by the MR sensor 322, and the amount and direction of rotation of the disk-type ultrasonic motor 31 are detected. Furthermore, the rotation speed is also detected from this value.

また、ドラム321の第1の外周部321′の下部に位
置する第2の外周部32、′には、赤外光の反射率の異
なるパターンが取付けられており、PRセンサ323及
び324によって読取られるようになっている。これら
は、第1の補正光学素子30の回転限界を検出し、機械
的な終端に衝突するのを防止するりットスイッチとして
使用される。
In addition, patterns with different infrared light reflectances are attached to the second outer peripheral part 32,' located below the first outer peripheral part 321' of the drum 321, and are read by PR sensors 323 and 324. It is now possible to These are used as a limit switch to detect the rotational limit of the first corrective optical element 30 and prevent it from hitting a mechanical end.

第14図(a)及び(b)は、上記PRセンサ32、及
び324の動作を説明するための図である。
FIGS. 14(a) and 14(b) are diagrams for explaining the operations of the PR sensors 32 and 324.

いま、ドラム32.が図に於いて左回転した場合には、
ドラムの第2の外周部321′のパターンは明部(図に
於いて白く示した部分)から暗部(図に於いて塗潰した
部分)へ変化する。すると、PRセンサ32.は左回転
限界を示す信号を出力する。
Now drum 32. If rotates to the left in the figure, then
The pattern of the second outer periphery 321' of the drum changes from a bright area (the white area in the figure) to a dark area (the solid area in the figure). Then, the PR sensor 32. outputs a signal indicating the left rotation limit.

同様に、ドラム32□が右回転した場合には、ドラムの
第2の外周部321′のパターンは暗部から明部へ変化
して、PRセンサ324が右回転限界を示す信号を出力
する。
Similarly, when the drum 32□ rotates clockwise, the pattern on the second outer peripheral portion 321' of the drum changes from a dark area to a bright area, and the PR sensor 324 outputs a signal indicating the limit of clockwise rotation.

PRセンサ323及び324が出力する回転信号や方向
信号は、単位時間毎のディスク型超音波モータ31及び
35の回転量信号として変換される。そして、この変換
された信号は、駆動制御部45及び46により、ディス
ク型超音波モータ31及び35の速度制御フィードバッ
ク信号として、ディスク型超音波モータ31及び35の
速度制御に使用されたり、或いはある基準位置からの変
位信号として位置制御に使用される。また、CPU1S
内のシーケンスコントロール部(図示せず)も、このM
Rセンサ32□が出力するディスク型超音波モータ31
及び35の回転信号と方向信号とをモニタし、駆動用の
角速度信号の補正に利用する。上記CPU15内のコン
トロール部が回転信号をモニタする場合には、モニタ漏
れが生じないような信号間隔となるように、ドラム32
1の第1の外周部32、′ の磁気パターンの間隔を定
めるか、或いはラッチ部を介することによってモニタの
動作が遅れても回転信号を読み落とすことがないように
することが望ましい。
The rotation signals and direction signals output by the PR sensors 323 and 324 are converted into rotation amount signals of the disk-type ultrasonic motors 31 and 35 per unit time. The converted signals are then used by the drive control units 45 and 46 to control the speed of the disk-type ultrasonic motors 31 and 35 as a speed control feedback signal for the disk-type ultrasonic motors 31 and 35, or Used for position control as a displacement signal from the reference position. Also, CPU1S
The sequence control section (not shown) in the M
Disk type ultrasonic motor 31 outputted by R sensor 32□
The rotation signal and direction signal of 35 are monitored and used for correcting the angular velocity signal for driving. When the control unit in the CPU 15 monitors the rotation signal, the drum 32 is
It is desirable to set the interval between the magnetic patterns on the first outer circumferential portion 32,' of the monitor 1 or to use a latch portion to prevent the rotation signal from being read even if the operation of the monitor is delayed.

次に、カメラの機械的なブレが引起こす画像のブレにつ
いて述べる。
Next, we will discuss image blur caused by mechanical camera shake.

第15図は第6図のX軸のプラス側から見たカメラの概
略的な側断面図である。同図に於いて、θ8の回転が生
じた場合について考える。先ず、フィルムの中心を回転
中心としたθ1の回転を考える。この場合に発生する像
ブレ量(Δyc)は、撮影倍率をβ、焦点距離をf(w
)として、Δr、 =−f (1+β)2・tan(θ
、)     −=(1)となる。いま、無限光、つま
り撮影倍率がゼロの場合には、 Δ7cm−f−tan(θ8)        ・・・
(2)として表すことができる。一般的な撮影では撮影
倍率は小さく、例えば倍率をゼロとして近似的に考えれ
ば、一般的に(2)式が成立する。また、像の移動量が
焦点距離fに対して小さい場合にはθ、は小さく、 tan(θ・)二θ・ となり、(2)式は Δ7cm+i−r・θ、          ・・・(
3)と近似できる。
FIG. 15 is a schematic side sectional view of the camera viewed from the positive side of the X-axis in FIG. In the figure, consider the case where a rotation of θ8 occurs. First, let us consider the rotation of θ1 around the center of the film. The amount of image blurring (Δyc) that occurs in this case is determined by setting the photographing magnification to β and the focal length to f(w
), Δr, =-f (1+β)2・tan(θ
, ) −=(1). Now, in the case of infinite light, that is, the imaging magnification is zero, Δ7cm-f-tan(θ8)...
(2). In general photographing, the photographing magnification is small. For example, if the magnification is assumed to be zero and considered approximately, equation (2) generally holds true. In addition, when the amount of image movement is small relative to the focal length f, θ is small and becomes tan(θ・)2θ・, and equation (2) becomes Δ7cm+ir・θ, ... (
3) can be approximated.

また、必要に応じて、 八y。−((1+β)2 ・θア       ・・・
(4)と近似してもよい。
Also, if necessary, 8y. −((1+β)2 ・θa...
(4) may be approximated.

近似式(4)の右辺、左辺について時間微分を考えて、 Δ7cm−f・θ8          ・・・(5)
の関係が成立する。ここてδ8は角速度であり、ΔQ、
はδ8の角速度が発生した場合の像移動速度(Vcy)
である。
Considering the time differentiation of the right and left sides of approximate equation (4), Δ7cm−f・θ8 ...(5)
The relationship holds true. Here, δ8 is the angular velocity, ΔQ,
is the image movement speed (Vcy) when an angular velocity of δ8 occurs
It is.

撮影倍率βは、焦点距離fと被写体までの距離によって
定まる。公知の方法により撮影倍率βを求めることがで
きる。また、精度の要求に応して近似式等を用いること
で簡単に演算ができるようになる。その場合、撮影倍率
に関する情報が必要無ければ被写体距離の情報は必要な
いので、被写体距離検出は必要がない。
The photographing magnification β is determined by the focal length f and the distance to the subject. The imaging magnification β can be determined by a known method. In addition, calculations can be easily performed by using approximate expressions, etc. in accordance with the requirements for accuracy. In this case, if there is no need for information regarding the photographing magnification, there is no need for information on the subject distance, so there is no need to detect the subject distance.

第16図は第6図のy軸のプラス側から見たカメラの概
略的な側断面図である。同図に於いて、上述の場合と同
様に、θ、の回転について考えると、像ブレ量は、 Δxe −−f’ (tll)2・tan(θ、)  
   −(6)となり、近似的に、像移動速度は、 Δx c = −f ’θ、−Vc、        
−(7)の関係が成立する。
FIG. 16 is a schematic side sectional view of the camera viewed from the positive side of the y-axis in FIG. In the same figure, if we consider the rotation of θ, as in the above case, the amount of image blur is Δxe −−f' (tll)2・tan(θ, )
-(6), and approximately, the image movement speed is Δx c = -f'θ, -Vc,
- The relationship (7) holds true.

上述したように、カメラのメカ的なブレによる像の移動
を検出する場合には、カメラのメカ的なブレの情報以外
に、焦点距離、または焦点距離と倍率、或いは焦点距離
と被写体距離というような情報が必要になる。これらの
情報は、撮影レンズ27の焦点調整光学系の位置、変倍
光学系を有するレンズであれば、その変倍光学系の位置
等の検出により、データ参照や演算等のデータ処理から
求めることができる。それ故、カメラの機械的なブレが
引起こす画像のブレを検出する際には、撮影レンズ27
の少なくとも一部の光学系の位置の情報を刻々検出し、
焦点距離や撮影倍率を求めながらブレを検出すればよい
As mentioned above, when detecting image movement due to mechanical camera shake, in addition to information about the mechanical shake of the camera, information such as focal length, focal length and magnification, or focal length and subject distance is required. information is required. This information can be obtained from data processing such as data reference and calculation by detecting the position of the focusing optical system of the photographic lens 27, and the position of the variable magnification optical system if the lens has a variable magnification optical system. I can do it. Therefore, when detecting image blur caused by mechanical blur of the camera, it is necessary to
detecting position information of at least a part of the optical system moment by moment;
All you have to do is detect the blur while determining the focal length and imaging magnification.

次に、ブレ検出中に撮影レンズの少なくとも一部の光学
系の移動を伴った場合の像の移動について考える。
Next, consideration will be given to image movement when at least part of the optical system of the photographing lens is moved during shake detection.

第17図に於いて、光軸空距離Hたけ離れた点に被写体
を置き、フィルム面上に投影される被写体の像について
考える。撮影レンズ27の位置をレンズ位置L1とF2
の2箇所について考え、レンズ位置し1に於ける像倍率
をβ1、そのときの像の光軸からの距離をdlとする。
In FIG. 17, consider the image of the subject projected onto the film surface, with the subject placed at a point a distance H apart from the optical axis. The position of the photographing lens 27 is set to lens positions L1 and F2.
Considering two locations, the image magnification at lens position 1 is β1, and the distance of the image from the optical axis at that time is dl.

同様に、レンズ位置し2に於ける像倍率をβ2、そのと
きの像の光軸からの距離をβ2とする。すると、以下の
関係式が成立する。
Similarly, the image magnification at lens position 2 is β2, and the distance of the image from the optical axis at that time is β2. Then, the following relational expression holds true.

dl−β1・H・・・(8) β2−β2・H・・・(9) したがって d、−(β1/β2)・β2     ・・(10)い
ま、レンズ位置り、からレンズ位置L2へ撮影レンズ2
7が移動し、構成を変化させた場合の像の移動量は、 d 2   d +  −d 2   (β1/β2)
β2−(1−βl/β2) β2 −((β2−β1)/β2)・ β2    ・・・(
11)となる。すなわち、同一の位置関係を被写体とフ
ィルム面が保持していたとしても、レンズの位置の変化
により像倍率が変化した場合に像の位置が変化する。被
写体の像の移動を検出する場合には、画像の移動に対し
てこの値を考慮して差引かなければならない。
dl-β1・H...(8) β2-β2・H...(9) Therefore, d, -(β1/β2)・β2...(10) Now, shoot from lens position to lens position L2 lens 2
The amount of movement of the image when 7 moves and changes the configuration is d 2 d + −d 2 (β1/β2)
β2-(1-βl/β2) β2-((β2-β1)/β2)・β2...(
11). That is, even if the subject and the film surface maintain the same positional relationship, the position of the image changes when the image magnification changes due to a change in the position of the lens. When detecting the movement of the image of the subject, this value must be subtracted in consideration of the movement of the image.

像の移動速度を考慮した場合、レンズ位置し1での画像
情報をサンプルした時間をtll、レンズ位置L2での
画像情報を時間t12でのものとし、レンズ位置し2で
の画像情報の画面内での位置を、フィルムの中心を原点
として(d、、d、)とし、レンズ位置の変化による像
の移動速度を(VL、。
When considering the moving speed of the image, the time when image information at lens position 1 is sampled is tll, the image information at lens position L2 is sampled at time t12, and the image information at lens position 2 is sampled within the screen. The position at is (d,,d,) with the center of the film as the origin, and the moving speed of the image due to the change in lens position is (VL,.

VL、)とすると、 と求めることができる。VL, ), then can be asked.

次に、画像上の被写体の移動について考える。Next, consider the movement of the subject on the image.

第18図は、メカブレによる像の移動と、被写体の移動
による像の移動と、フィルム面(撮像面)上での画像の
ずれについて示した図である。同図に於いて、Flは元
の被写体の位置、F2は移動後の被写体の位置を表す。
FIG. 18 is a diagram showing image movement due to mechanical shake, image movement due to subject movement, and image shift on the film surface (imaging surface). In the figure, Fl represents the original position of the subject, and F2 represents the position of the subject after movement.

また、Plは元のカメラの位置、F2はブレによるカメ
ラの位置を表し、El、F2は、それぞれ元の像、メカ
ブレによる像の位置、EFはメカブレと被写体の移動に
よる像の位置(画像のずれ)を表し、Bは被写体の移動
による像の移動量を表し、更にFjlはフィルム面を表
している。この第17図より、撮像面で起きる画像のず
れが、メカブレにより像の移動と被写体の移動による被
写体の像の移動とによるものであることがわかる。
In addition, Pl represents the original camera position, F2 represents the camera position due to camera shake, El and F2 represent the original image position and the image position due to mechanical shake, respectively, and EF represents the image position due to mechanical shake and subject movement (image B represents the amount of movement of the image due to movement of the subject, and Fjl represents the film surface. It can be seen from FIG. 17 that the image shift that occurs on the imaging surface is due to the movement of the image due to mechanical shake and the movement of the image of the subject due to movement of the subject.

映像信号から求めた像移動情報は、被写体とカメラの相
対的な移動に関する情報であるがら、被写体の移動(F
+からF2)による像移動の成分と、カメラの機械的な
ブレや移動(PtがらF2)による成分とからできてい
る。また、メカブレ検山部25で求めたメカブレによる
像の移動情報は、カメラの機械的なブレや移動による成
分のみでてきている。
The image movement information obtained from the video signal is information about the relative movement of the subject and the camera, but it is also information about the movement of the subject (F
It is made up of a component of image movement due to + to F2) and a component due to mechanical shake or movement of the camera (from Pt to F2). Further, the image movement information due to mechanical shake obtained by the mechanical shake detection unit 25 includes only components due to mechanical shake and movement of the camera.

それ故、速度の次元で考慮すると、映像信号で求めた像
移動速度(V、、V、)と、カメラのメカ的なブレから
求めた像移動速度(■、ヨ、v=y)との差を求めるこ
とで、被写体の移動によって生じた像の移動速度(V 
o、、 V ay)を求めることが可能である。ここで
、V、 、Vcf、V。言よ、それぞれX軸方向の像移
動成分である。同様に、■7、■0、y ayは、それ
ぞれy軸方向の像移動成分である。具体的には、 として求めることができる。
Therefore, considering the dimension of speed, the image movement speed (V,,V,) obtained from the video signal and the image movement speed (■, y, v=y) obtained from the mechanical shake of the camera are By calculating the difference, the moving speed of the image caused by the movement of the subject (V
o,, V ay). Here, V, ,Vcf,V. Say, each is an image movement component in the X-axis direction. Similarly, ■7, ■0, and y ay are image movement components in the y-axis direction, respectively. Specifically, it can be obtained as follows.

ここで、更に上述したレンズ位置の変化による像の移動
速度(VL、、VL、)を考慮すると、となり、上記で
示した例では、 と表すことができる。
Here, if the moving speed of the image (VL, , VL,) due to the change in the lens position described above is further taken into account, it becomes, and in the example shown above, it can be expressed as follows.

次に、撮影露光中のブレ防止のための防振制御について
説明する。
Next, a description will be given of image stabilization control for preventing blur during photographic exposure.

撮影に先立って、上述したように被写体の移動にのみ応
じた情報を求め、撮影中に刻々発生するカメラの機械的
なブレから、メカブレによる像の移動情報を検出し、そ
れを補正する場合に、先に求めた被写体の移動情報を考
慮してブレの補正を行うことで、機械的なブレをキャン
セルし、尚且つ被写体の移動による像ブレをキャンセル
することが可能である。第18図は、このような基本的
な考えをまとめた概念図である。
Before shooting, as mentioned above, information corresponding only to the movement of the subject is obtained, and information on the movement of the image due to mechanical shake is detected from the mechanical shake of the camera that occurs every moment during shooting, and when it is corrected. By correcting the blur in consideration of the previously obtained object movement information, it is possible to cancel mechanical blur and also cancel image blur caused by the movement of the object. FIG. 18 is a conceptual diagram summarizing such basic ideas.

被写体の移動(ブロック24A)は、−殻内にそれ程高
周波数では起きない。特に、流し撮り時等の場合には、
被写体の像の移動は、略等速的に生じる(ブロック24
B)。そのため、露光中の防振制御は、基本的に露出開
始直前に求めた被写体の像の移動速度をキャンセルする
ように、等速度のブレ防止の制御が行われる。更に、撮
影者の人体の振動等によるカメラのメカ的ブレを検出し
、それによる像の移動を演算により求め、それをキャン
セルするようにブレの防止制御が行われる。すなわち、
露出に先立って求められた被写体の像の移動速度(V、
、、V、、)(ブロック24A)と、露光中に逐次検出
されるカメラのメカブレによる像の移動速度(Vex、
 Vc、)  (ブロック24C)とを加算したブレが
、露光中のブレとなる(ブロック24D)。したがって
、この加算されたブレを露光中にキャンセルするように
リアルタイムに防振制御が行われる。
Object movement (block 24A) does not occur at such high frequencies within the shell. Especially when taking panning shots, etc.
The movement of the image of the subject occurs at approximately constant speed (block 24
B). Therefore, in the image stabilization control during exposure, constant-velocity blur prevention control is basically performed so as to cancel the moving speed of the subject image determined immediately before the start of exposure. Further, mechanical shake of the camera due to vibrations of the photographer's body is detected, the movement of the image due to the shake is calculated, and shake prevention control is performed to cancel the shake. That is,
The moving speed of the subject image (V,
,,V, , ) (block 24A) and the image movement speed (Vex,
Vc, ) (block 24C) is added to the blur during exposure (block 24D). Therefore, image stabilization control is performed in real time to cancel this added blur during exposure.

次いで、露光中の防振を効果的に行うことのできる最適
な防振機構の初期位置について述べる。
Next, the optimal initial position of the vibration isolation mechanism that can effectively perform vibration isolation during exposure will be described.

最適な防振機構の初期位置は、メカブレに対してはラン
ダムに発生するため、ブレ補正可能な駆動範囲の中心に
置くことが望ましい。しかしながら、被写体の移動によ
る像の移動(B)は一方向であるから、ブレ補正可能な
範囲の端に初期位置を合わせることて、より広い範囲で
のブレ補正が可能になる。
Since the optimal initial position of the vibration isolation mechanism occurs randomly due to mechanical shake, it is desirable to place it at the center of the drive range where shake correction is possible. However, since the movement of the image (B) due to the movement of the subject is unidirectional, by adjusting the initial position to the edge of the blur correction possible range, blur correction can be performed over a wider range.

ここで、この2つのブレについて考慮して、撮影直前に
測定した被写体の像の移動量から撮影前の防振機構の最
適な位置を求めて、その位置まで防振機構を移動させる
ようにする。
Now, taking into account these two types of blur, the optimal position of the anti-shake mechanism before shooting is determined from the amount of movement of the subject's image measured just before shooting, and the anti-shake mechanism is moved to that position. .

露光中に被写体の像の補正をする量を求めると、いま、
露出時間設定部23で設定される実際の撮影のための制
御露出時間をSoとする。フォーカルブレーンシャッタ
を有するカメラの場合、実際の撮影に要する時間は、2
枚のシャツタ幕の走行時間S1を加味したものである。
If we calculate the amount of correction for the image of the subject during exposure, we now get:
The control exposure time for actual photographing set by the exposure time setting section 23 is assumed to be So. In the case of a camera with a focal-brain shutter, the actual time required for shooting is 2
This takes into account the running time S1 of the shirt curtain.

その走行時間S1を加味した露出時間をSとする。The exposure time including the running time S1 is assumed to be S.

S = S o + 81− (1B)画像ブレ補正手
段としての防振装置24の作動が必要な時間は、この時
間Sの間である。実際の時間S1は、約5■seC程度
であり、ブレの補正が必要な露出時間と比較すれば、か
なり短い時間である。したがって、上記(16)式を5
−Soと近似してもよい。レンズシャッタ等では5−S
oとなっている。
S = S o + 81- (1B) The time during which the vibration isolating device 24 as an image blur correction means is required to operate is during this time S. The actual time S1 is about 5 secondsC, which is quite short compared to the exposure time that requires blur correction. Therefore, the above equation (16) can be changed to 5
-So may be approximated. 5-S for lens shutter etc.
o.

また、被写体の像の移動速度(V 、−= V 、y)
に追従して防振装置24の基本的な駆動速度が決定され
る。そのため、時間Sの間に防振装置24か補正する被
写体の移動による画像の変位量(v 61+V0.)は
、 となる。これを効果的に防振補正するための初期位置と
しては、フィルムの中心を原点として、(−V、、/2
.−X、、/2)の位置が考えられる。
Also, the moving speed of the image of the subject (V, -= V, y)
The basic driving speed of the vibration isolator 24 is determined in accordance with the above. Therefore, the amount of displacement (v61+V0.) of the image due to the movement of the subject to be corrected by the image stabilization device 24 during the time S is as follows. The initial position for effective image stabilization is (-V, , /2) with the center of the film as the origin.
.. -X, , /2) positions are possible.

メカブレによる像の移動量について、露光中に起きるこ
とが予測される範囲について、その半径を推測する。こ
の値を(rm)とする。露光中に防振しなければならな
いブレの大きさは、最大(2・rm+   。8 + 
。、  )と考えることができる。そして、これをx、
Y軸別に考えると、(2・rm+Xaj 、  (2・
rm+X、、)とできるが、この値が35關サイズのカ
メラの場合に、それぞれ防振機構の駆動範囲を超える場
合には、適切な防振ができない可能性がある。この場合
は、露光時間や撮影時の変倍光学系の位置を変更して適
切な防振駆動を行うことができるようにすることも可能
である。
As for the amount of image movement due to mechanical shake, the radius is estimated for the range that is expected to occur during exposure. Let this value be (rm). The maximum amount of shake that must be prevented during exposure is (2・rm+.8+
. , ) can be considered. And this is x,
Considering each Y axis, (2・rm+Xaj, (2・
rm + In this case, it is also possible to perform appropriate anti-shake driving by changing the exposure time and the position of the variable magnification optical system during photographing.

また、メカブレの露光開始時の仮の方向がメカブレの測
定結果かられかった場合には、短時間内のそのメカブレ
の予測値をX□、X、、として、この値と撮影直前に測
定した被写体の像の移動量から撮影前の防振機構の最適
な位置を求めて、その位置まで防振機構を移動させるよ
うにする。この場合は、(−V 、、/ 2− X□、
−Xo、/2−Xヨ、)の位置が考えられる。
In addition, if the tentative direction at the start of exposure due to mechanical shake cannot be determined from the mechanical shake measurement results, the predicted value of the mechanical shake within a short time is defined as X□, The optimum position of the vibration isolation mechanism before photographing is determined from the amount of movement of the image of the subject, and the vibration isolation mechanism is moved to that position. In this case, (-V,,/2-X□,
-Xo, /2-Xyo, ) positions are considered.

次に、カメラ全体の動作について、第20図のCPU1
5の全体のシーケンスフローチャートを参照して説明す
る。
Next, regarding the operation of the entire camera, the CPU 1 in FIG.
This will be explained with reference to the overall sequence flowchart of No. 5.

先ず、電源が投入されてプログラムがスタートした後、
ステップS1にてイニシャライズのプログラムが実行さ
れ、各種の初期設定動作を行う。
First, after the power is turned on and the program starts,
In step S1, an initialization program is executed to perform various initial setting operations.

これは、例えばCPU15のタイマの設定、CPU15
の割込み条件の設定、I10ポートの設定、スタックポ
インタの設定等、CPU15のハードウェア的、または
ソフトウェア的なリセット的動作と、CPU15の外部
に配された不揮発性記憶部からの各種カメラの操作状態
や、フィルムの撮影駒数等のデータ読出し等の動作、或
いはCPU15が制御している各電気回路やメカ機構等
の初期設定、初期動作、状態の検出等の動作を行うもの
である。
This includes, for example, the timer settings for the CPU 15,
hardware or software reset operations of the CPU 15, such as interrupt condition settings, I10 port settings, stack pointer settings, etc., and various camera operation statuses from a non-volatile storage section located outside the CPU 15. It also performs operations such as reading out data such as the number of frames to be photographed on a film, and operations such as initial setting, initial operation, and state detection of each electric circuit and mechanical mechanism controlled by the CPU 15.

次いで、ステップS2にてキー人力ルーチンの実行によ
り、カメラの各入力スイッチの読込みがなされ、それら
スイッチの操作状態により各操作に応じたカメラの設定
モード、データ設定がなされる。キー人力が実行された
ならば、ステップS3に進んで表示ルーチンが実行され
る。ここでは、カメラの動作状態、データ等の表示機器
を使用した表示が行われる。
Next, in step S2, each input switch of the camera is read by executing a key manual routine, and the setting mode and data of the camera are set according to each operation according to the operating state of these switches. If the key input is executed, the process advances to step S3 and a display routine is executed. Here, the operating status of the camera, data, etc. are displayed using a display device.

次に、ステップS4に於いて、測光のサブルーチンが実
行される。この測光のサブルーチンは、第21図に示さ
れるようになっている。この測光のサブルーチンについ
ては、上述した露出時間設定部23の動作である。露出
時間設定部23内の露出演算部23.は、測光部23□
にて生成された被写体輝度信号を測定する(ステップA
I)。そして、露出補正部23□で生成されたカメラに
装填されているフィルムの感度情報を読出しくステップ
A2)、この感度情報に応して生成される露出補正信号
を読出す(ステップA3)。更に、露出演算部23.は
、露出モード設定部23.から所定の露出モード情報を
読出す(ステップA4)と共に、露出値設定部234か
ら設定された露出値を読出す(ステップA5)。そして
、露出演算部23.は、これら読出された被写体輝度信
号、露出補正信号、露出モード情報及び露出値設定情報
から、実際の撮影のために必要な露出値を演算しくステ
ップA6)、これに応じて制御する露出時間を出力しく
ステップA7)、更に絞り値を出力する(ステップA8
)。
Next, in step S4, a photometry subroutine is executed. This photometry subroutine is shown in FIG. This photometry subroutine is the operation of the exposure time setting section 23 described above. Exposure calculation unit 23 in the exposure time setting unit 23. is the photometry section 23□
Measure the subject brightness signal generated in step A
I). Then, the sensitivity information of the film loaded in the camera generated by the exposure compensation section 23□ is read out (step A2), and the exposure compensation signal generated in accordance with this sensitivity information is read out (step A3). Further, the exposure calculation section 23. is the exposure mode setting section 23. Predetermined exposure mode information is read out from the exposure value setting section 234 (step A4), and the set exposure value is read out from the exposure value setting section 234 (step A5). Then, the exposure calculation section 23. Step A6) calculates the exposure value necessary for actual photography from the read subject brightness signal, exposure compensation signal, exposure mode information, and exposure value setting information, and controls the exposure time accordingly. output the aperture value (step A7), and further output the aperture value (step A8).
).

こうして、測光が終了すると、ステップS5に於いて、
ファーストレリーズスイッチSW1の読込み及び判定を
行う。ここで、ファーストレリーズスイッチSWIがオ
フ状態、すなわち操作されていない場合はステップS2
に戻る。これに対して、ファーストレリーズSWIがオ
ン、すなわち操作されている状態の場合には、ステップ
S6に進んで測距のサブルーチンが実行される。この測
距のルーチンでは、被写体の光軸方向のピントのずれに
関する情報が求められる。ここで、もし上記ピントのず
れが合焦していると判断される程度に十分小さければ、
合焦判定フラグがセットされる。これに対して、ピント
のずれが許容できないと判断された場合には、合焦判定
フラグがクリアされる。また、被写体の輝度の不足やコ
ントラストの不足等の理由で、被写体に対して合焦する
ことができないと判断される場合にも、合焦判定フラグ
はクリアされる。
In this way, when photometry is completed, in step S5,
Read and judge the first release switch SW1. Here, if the first release switch SWI is in the off state, that is, it is not operated, step S2
Return to On the other hand, if the first release SWI is on, that is, is being operated, the process advances to step S6 and a distance measurement subroutine is executed. In this distance measurement routine, information regarding the focus shift of the subject in the optical axis direction is obtained. Here, if the above focus shift is small enough to be judged as being in focus,
A focus determination flag is set. On the other hand, if it is determined that the focus shift is unacceptable, the focus determination flag is cleared. The focus determination flag is also cleared when it is determined that it is impossible to focus on the subject due to insufficient brightness or contrast of the subject.

次いで、ステップS7に於いて、合焦判定フラグにより
合焦の判定と動作の分離がなされる。ここで、合焦して
いない場合(合焦判定フラグ−0)には、ステップS8
に分岐し、合焦している場合(合焦判定フラグ−1)に
はステップS9に進む。
Next, in step S7, focus determination and operation are separated using a focus determination flag. Here, if it is not in focus (focus determination flag -0), step S8
If the camera is in focus (focus determination flag -1), the process branches to step S9.

上記ステップS7にて合焦していないと判定されてステ
ップS8に分岐した場合、このステップS8に於いてA
F駆動のサブルーチンが実行される。このサブルーチン
では、ステップS6の測距のルーチンで求められたピン
トのずれの情報に基いて、被写体に合焦するように撮影
レンズ27の焦点調節光学系が駆動される。そして、こ
の後ステップS2に戻る。
If it is determined in step S7 that the focus is not in focus and the process branches to step S8, then in step S8
The F-driven subroutine is executed. In this subroutine, the focusing optical system of the photographing lens 27 is driven to focus on the subject based on the information on the out-of-focus obtained in the distance measurement routine of step S6. After this, the process returns to step S2.

上記ステップS7にて合焦していると判定された場合は
、ステップS9に進んで像ブレ検出のサブルーチン(V
OCAL−1)が実行される。この像ブレ検出のサブル
ーチンは、第22図に示されるもので、以下上述した第
6図、第7図(a)及び(b)、第8図(a)及び(b
)を参照して、この画像ブレ検出について説明する。
If it is determined in step S7 that the focus is in focus, the process proceeds to step S9, where the image blur detection subroutine (V
OCAL-1) is executed. This image blur detection subroutine is shown in FIG. 22, and is described below in FIGS.
), this image blur detection will be explained.

いま、第7図(a)及び(b)、第8図(a)及び(b
)に示されたような動体追尾範囲の画素配列のエリアイ
メージセンサ13aの画素出力をal。(mは行、nは
列を表す)、エリアイメージセンサ13bの画素出力を
b□とする。そして、エリアイメージセンサ13aの時
刻tに於ける第1行の画素出力の総和を (但しXはX方向に加算したことを表す)とし、エリア
イメージセンサ13aの時刻tに於ける第1行の画素出
力の総和を (但しyはX方向に加算したことを表す)とする。そし
て、同様にエリアイメージセンサ13bの時刻tに於け
る第5列の画素出力の総和をとする。
Now, Fig. 7 (a) and (b), Fig. 8 (a) and (b)
) is the pixel output of the area image sensor 13a having a pixel array in the moving object tracking range as shown in FIG. (m represents a row and n represents a column), and the pixel output of the area image sensor 13b is assumed to be b□. Then, let the sum of the pixel outputs of the first row at time t of the area image sensor 13a be (where X represents addition in the X direction), and the sum of the pixel outputs of the first row at time t of the area image sensor 13a is Let the sum of pixel outputs be (where y represents addition in the X direction). Similarly, the sum of the pixel outputs of the fifth column at time t of the area image sensor 13b is assumed to be.

先ず、動体フィルム面上でのx、y軸方向の像移動速度
V、、V、と、動体の光軸方向への移動速度v8を求め
る。始めに、撮影者はカメラのファインダの画面中央に
被写体が入るように構図を決める(ステップBl)。次
に、時刻t1に於いてエリアイメージセンサ13の積分
を行った(ステップB2)後、順次画素信号を読出して
A/D変換し、CPU15により上記(18)、(19
)、(20)式で表される画素加算を行う(ステップB
3、B4)。次いで、時刻t2に於いて、ステップB2
と同様にエリアイメージセンサ13の積分を行い(ステ
ップB5)、上記(18)、(19)、(20)式で表
される画素加算を行う(ステップB6、B7)。
First, the image moving speeds V, , V, in the x- and y-axis directions on the moving object film surface, and the moving speed v8 of the moving object in the optical axis direction are determined. First, the photographer decides on a composition so that the subject is placed in the center of the viewfinder of the camera (step Bl). Next, at time t1, after integrating the area image sensor 13 (step B2), the pixel signals are sequentially read out and A/D converted, and the CPU 15 performs the above (18) and (19).
), performs pixel addition expressed by equation (20) (step B
3, B4). Next, at time t2, step B2
Similarly, integration of the area image sensor 13 is performed (step B5), and pixel addition expressed by the above equations (18), (19), and (20) is performed (steps B6 and B7).

そして、このようなデータを用いてV、、V、。Then, using such data, V,,V,.

Vlの速度を求めることになる。エリアイメージセンサ
13a、  iab上の2つの像は、被写体までの光軸
方向(第6図に於けるz軸のプラス方向)の距離情報と
して、X軸方向に位相がずれるが、y軸方向は上記距離
情報としての位相は変化しない。また、被写体のX軸、
y軸方向への移動として、エリアイメージセンサ13a
、  13b上の2つの像は、X軸方向及びy軸方向と
も同じ量だけ変化することになる。したがって、y軸方
向の像の移動速度■、は、A像またはB像の時刻t1と
t2間の時間的変化として簡単に求められるか、X軸方
向の増は上記位相ずれと被写体のX軸方向の移動量が合
成されたものとなる。したがって、A像及びB像の像の
移動量を考慮して求める必要がある。
The velocity of Vl will be found. The two images on the area image sensors 13a and iab are out of phase in the X-axis direction as distance information in the optical axis direction (positive direction of the z-axis in FIG. 6) to the subject, but the phase is shifted in the y-axis direction. The phase as the distance information does not change. Also, the X axis of the subject,
As a movement in the y-axis direction, the area image sensor 13a
, 13b will change by the same amount in both the X-axis direction and the y-axis direction. Therefore, the moving speed of the image in the y-axis direction can be easily determined as a temporal change between time t1 and t2 of image A or B, or the increase in the The amount of movement in the direction is combined. Therefore, it is necessary to calculate it by considering the amount of movement of the A image and the B image.

tl  。tl.

いま、5A81(1−1〜m)のうち、基準像として、
第23図(a)に示されるように、5Axl(i−に−
N)を用いるものとする。ここで、時を 刻t1とtlのSA、、の相関演算出力をとする。FA
エ (S)が最小となるSがSlのとき、このS、は上
記基準像と最もよく一致する時刻t2に於ける像の時間
的ずれ量S1を表している(第24図(a)及び(b)
参照)。したがって、焦点検出光学系12の結像倍率(
撮像倍率)をβとすると、フィルム面上に於ける像のy
軸方向の移動速度V、は、 Vy =S+ /β(tl  t + )    −(
22)で表される(ステップB8)。
Now, among 5A81 (1-1 to m), as a reference image,
As shown in FIG. 23(a), 5Axl (i-to-
N) shall be used. Here, it is assumed that the correlation calculation output of SA of time t1 and tl is. F.A.
D. When S, which minimizes (S), is Sl, this S represents the temporal shift amount S1 of the image at time t2, which most closely matches the reference image (Fig. 24(a) and (b)
reference). Therefore, the imaging magnification of the focus detection optical system 12 (
If the imaging magnification) is β, then y of the image on the film surface is
The moving speed V in the axial direction is Vy = S+ /β(tl t + ) −(
22) (step B8).

次に、X軸方向の像の移動速度■1を求める。Next, the moving speed (1) of the image in the X-axis direction is determined.

上記と同様にして、第23図(b)に示されるように、
時刻t1とtlに於けるS A r +(1−1〜n)
の相関演算出力を、 とする。ここで、時刻t1に於ける基準像としてtl 
 。
In the same manner as above, as shown in FIG. 23(b),
S A r + (1-1 to n) at times t1 and tl
Let the correlation calculation output of be . Here, as a reference image at time t1, tl
.

は、S A y + (1−k ’ 〜N’)を用いる
。そして、FA、’(S)を最小とするSを82とする
と、S2は時刻t1に対する時刻t2に於けるA像のX
軸方向の像の移動量を表す(第25図参照)。
uses S A y + (1-k' to N'). Then, if S, which minimizes FA,'(S), is 82, then S2 is X of the A image at time t2 with respect to time t1
It represents the amount of movement of the image in the axial direction (see Figure 25).

同様にして、時刻t1とtlに於けるSB、。Similarly, SB at times t1 and tl.

(l−1〜n)の相関演算出力を とする。FB、(S)を最小にするSを83とすると、
このS、は時刻t1に対する時刻t2に於けるB像のX
軸方向の移動量を表す(第25図参照)。
Let the correlation calculation output of (l-1 to n) be. If S, which minimizes FB, (S), is 83, then
This S is the X of the B image at time t2 with respect to time t1.
It represents the amount of movement in the axial direction (see Figure 25).

こうして、第23図(a)及び(b)かられかるように
、焦点検出光学系12の結像倍率をβとしたときのX軸
方向の移動速度V8は、 v、−(S2 +33 ) /2β(tl tr )      ・・・(25)で
表される(ステップB9)。
In this way, as can be seen from FIGS. 23(a) and (b), when the imaging magnification of the focus detection optical system 12 is β, the moving speed V8 in the X-axis direction is v, -(S2 +33) / 2β(tl tr ) (25) (Step B9).

次に、被写体の、光軸(第6図に於いて2軸)方向の移
動による時刻1.とtlに於ける2像間隔Ω、とg2と
を求める。被写体までの距離の演算は、情報の高い演算
が要求されるため、第8図(a)及び(b、)に示され
る画素加算出力SA、1゜SB□は使用せず、より画素
加算数を少なくして演算する必要がある。ここでは、画
素1行を用いたものとする。いま、時刻t1に於けるA
像とB像の2像間隔g1を求めるにあたり、第α行(但
しkくαくΩ)を用いるものとする。ここで、A像の画
素出力a1(i−1〜n)のうちaal(i−に’ 〜
g′)を基準像とし、A像をB像の第α行のセンサ出力
との間で、 0゜ の相関演算を行う。I(+(j7)を最小とするgの値
をIll −1、とすると、11は第25図に示される
時刻t1に於けるA像、B像の被写体の2像間隔を表し
ている(ステップB10)。gは整数であるから、正確
に求めるためには補間演算を行って小数まで求める必要
があるが、この発明の主旨とするところではないので、
これについては省略することにする。
Next, at time 1, the subject moves in the direction of the optical axis (two axes in FIG. 6). The two-image interval Ω at tl, and g2 are determined. Calculating the distance to the subject requires calculations with high information, so the pixel addition outputs SA and 1°SB□ shown in Fig. 8 (a) and (b) are not used, and the number of pixel additions is higher. It is necessary to calculate by reducing . Here, it is assumed that one row of pixels is used. Now, A at time t1
In determining the two-image interval g1 between the image and the B image, the α-th row (k x α x Ω) is used. Here, aal(i-ni' ~
g') as a reference image, and a 0° correlation calculation is performed between the A image and the sensor output of the α-th row of the B image. Assuming that the value of g that minimizes I(+(j7)) is Ill -1, 11 represents the distance between the two images of the subject in images A and B at time t1 shown in FIG. Step B10).Since g is an integer, in order to obtain it accurately, it is necessary to perform an interpolation operation to obtain a decimal number, but this is not the main point of this invention.
We will omit this.

次いで、時刻t2に於ける被写体の2像間隔12を求め
る。時刻t2に於いて、被写体(動体)は、エリアイメ
ージセンサ13上で移動しているので、上記(26)式
と同じ行のセンサで、且つ同一の相関区間(i−に’〜
N’)で相関を行うことはできない。いま、A像を基準
像とする場合、上記の演算から被写体はy軸方向、X軸
方向にそれぞれSl、S2だけ移動しているのであるか
ら、時刻t2のA像、B像の相関演算にょる2像間隔1
2の演算に於いては、A像、B像の(Z+S、行の出力
a Fa+sl lI+  b f+++s+ 11を
用いると共に、A像の基準像の区間として、i −(k
’ +S2 )〜(ρ’+S2)を用いる。
Next, the distance 12 between two images of the subject at time t2 is determined. At time t2, the object (moving object) is moving on the area image sensor 13, so the sensor in the same row as in equation (26) above and the same correlation interval (i-)
Correlation cannot be performed with N'). Now, when image A is used as the reference image, the above calculation shows that the subject has moved by Sl and S2 in the y-axis direction and the X-axis direction, respectively, so the correlation calculation between images A and B at time t2 is 2-image interval 1
In the calculation of step 2, use the (Z+S, row output a Fa+sl lI+ b f+++s+ 11 of the A image and B image, and use i − (k
'+S2) to (ρ'+S2) are used.

すなわち、A像とB像の時刻t2に於ける相関演算 B2 (N) を行う。B2(ρ)を最小とするρの値を12とすると
き、g2は時刻t2に於けるA像とB像の被写体の2像
間隔を表している(ステップB11)。
That is, a correlation calculation B2 (N) at time t2 between the A image and the B image is performed. When the value of ρ that minimizes B2(ρ) is 12, g2 represents the interval between two images of the subject in image A and image B at time t2 (step B11).

また、被写体(物体)の光軸方向への移動速度V、は、 (但しαは係数) で表される(ステップB 12)。In addition, the moving speed V of the subject (object) in the optical axis direction is (However, α is a coefficient) (Step B 12).

V、、V、、V、が、ある所定値以上であると、上述し
たブレ防止駆動、動体予測駆動の制御限界を越えるので
、それぞれに制御可能な上限の速度C,,C2,C3を
設定して、V工>C,またはv、>C2,v、>C3で
あるか否かを判定しくステップB13、B14、B15
)、これらの関係が成立すれば、セカンドレリーズ禁止
フラグをセットする(ステップB20)。このセカンド
レリーズ禁止フラグがセットされると、セカンドレリー
ズスイッチSW2は更に露出が禁止される。一方、上記
ステップB13、B14、B15の関係が何れも成立し
ない場合は、ステップBIBに進む。上記Vx。
If V,,V,,V, exceeds a certain predetermined value, the control limits of the anti-shake drive and moving object prediction drive described above are exceeded, so the upper limit of controllable speeds C,,C2, and C3 are set for each of them. Steps B13, B14, and B15 determine whether or not V>C, or v,>C2, v, and>C3.
), if these relationships are established, a second release prohibition flag is set (step B20). When this second release prohibition flag is set, exposure of the second release switch SW2 is further prohibited. On the other hand, if none of the relationships in steps B13, B14, and B15 are established, the process proceeds to step BIB. The above Vx.

V、、V□は、繰返し演算かなされるものであるか、連
続する2回の演算結果により求められたV、、V、、V
、の差の単位時間当たりの変化ΔV8.ΔV7.ΔV、
の絶対値がそれぞれC4゜Cs、C6より大きいか否か
を判定する(ステップBIB、B17、B 18)。こ
こで、上記ΔV1゜Δv7.ΔV、の絶対値がそれぞれ
C4,、C6゜C6より大きいとき、像ブレ補正は不可
能であるとしてセカンドレリーズ禁止フラグをセットす
る(ステップB20)。これに対して、上記ステップB
IB、B17、B18の関係式1ΔV、I>C4゜1Δ
Vy  l >C9,lΔv、l>C6が成立すれば、
セカンドレリーズ禁止フラグを解除する(ステップB1
9)。
Is V, , V
, the change per unit time of the difference ΔV8. ΔV7. ΔV,
It is determined whether the absolute values of are larger than C4°Cs and C6, respectively (steps BIB, B17, and B18). Here, the above ΔV1°Δv7. When the absolute values of ΔV, respectively, are larger than C4, C6°C6, it is determined that image blur correction is impossible, and a second release prohibition flag is set (step B20). On the other hand, step B
Relational expression of IB, B17, B18 1ΔV, I>C4°1Δ
If Vy l > C9, lΔv, l > C6 hold, then
Canceling the second release prohibition flag (step B1
9).

この後、上述したステップを繰返すのであるが、被写体
は移動しているものであるから、追尾範囲を固定してし
まうと、被写体は次回の積分では追尾範囲に入っていな
い可能性がある。したがって、上述した演算結果から次
回の最適な追尾範囲を予測する(ステップB21)。次
回の積分時間をt。
After this, the above-mentioned steps are repeated, but since the object is moving, if the tracking range is fixed, the object may not be within the tracking range in the next integration. Therefore, the next optimal tracking range is predicted from the above calculation result (step B21). The next integration time is t.

とすれば、A像の追尾範囲は、画素数単位でy軸方向に X軸方向に たけずらした位置に変更する。Then, the tracking range of image A is in the y-axis direction in units of pixels. in the X-axis direction Change to a different position.

また、B像の追尾範囲は、画素数としてy軸方向は上記
(29)式と同じで、X軸方向へはだけずらした位置に
変更する。
Further, the tracking range of the B image is the same as the number of pixels in the y-axis direction as in equation (29) above, but is changed to a position shifted in the x-axis direction.

尚、上述した画像ブレ検出のサブルーチンは、位相差方
式AF用のエリアイメージセンサの出力を使用してX軸
方向、y軸方向の移動速度V、。
The image blur detection subroutine described above uses the output of the area image sensor for phase difference AF to determine the moving speed V in the X-axis direction and the y-axis direction.

■、を求めたが、通常の無偏芯のイメージヤを用いて、
簡単にV、、V、を求めることもてきる。
■, but using a normal non-eccentric imager,
It is also possible to easily find V,,V,.

すなわち、ステップS9の像ブレ検出ては、画像情報に
基いた画像のブレ速度(V、、V、)が検出される。
That is, in the image blur detection in step S9, the image blur speed (V,,V,) based on the image information is detected.

次に、ステップSIOにて、メカニズムブレ検出のサブ
ルーチンが実行される。このメカブレ検出のサブルーチ
ンは第26図に示されるもので、以下このサブルーチン
を説明する。
Next, in step SIO, a subroutine for detecting mechanism shake is executed. This subroutine for detecting mechanical shake is shown in FIG. 26, and will be explained below.

メカブレ検出部25に於いて、メカブレ像移動演算部2
5.は、焦点距離情報出力部253から撮影レンズ27
の焦点距離に関する情報(焦点距離f)を読出しくステ
ップC1)、撮影レンズ27の位置Pを読出しくステッ
プC2)、更にピントずれdを読出す(ステップC3)
。そして、被写体距離検出部254から上記レンズ位置
P及びピントずれdに基いて被写体の距離の情報(被写
体距離R)を検出して演算して(ステップC4)、この
被写体距離R及び焦点距離fから撮影倍率βを演算する
(ステップC5)。
In the mechanical shake detection section 25, the mechanical shake image movement calculation section 2
5. is from the focal length information output unit 253 to the photographing lens 27
Step C1) to read out information regarding the focal length (focal length f) of the lens 27, step C2) to read out the position P of the photographing lens 27, and read out the out-of-focus d (step C3).
. Then, the object distance detection unit 254 detects and calculates object distance information (subject distance R) based on the lens position P and focus deviation d (step C4), and calculates the object distance information based on the object distance R and focal length f. The photographing magnification β is calculated (step C5).

次に、X軸角速度検出部25□にてX軸回りの角速度θ
1か検出されると(ステップC6)、メカブレ像移動演
算部25.はこの検出結果に従ってy軸方向の像移動(
VC,−−f −(1+β)2・tanθヨ)を演算し
て(ステップC7)、y軸方向のメカプレ像移動速度を
CPU15に出力する(ステップC8)。同様に、y軸
角速度検出部251にてy軸回りの角速度θ、か検出さ
れると(ステップC9)、メカブレ像移動演算部25゜
はこの検出結果に従ってX軸方向の像移動(Ve、−f
 −(1+β)2・tanθ、)を演算して(ステップ
Cl0)、X軸方向のメカブレ像移動速度をCPU15
に出力する(ステップC11)。このようにして、メカ
ブレ像移動演算部25.から、y軸方向及びX軸方向メ
カブレ像移動速度情報が、CPU15に供給されるよう
になっている。
Next, the angular velocity θ around the X-axis is detected by the X-axis angular velocity detection unit 25□.
If 1 is detected (step C6), the mechanical shake image movement calculation unit 25. is the image movement in the y-axis direction (
VC, -f-(1+β)2·tanθ yo) is calculated (step C7), and the mechanical image movement speed in the y-axis direction is output to the CPU 15 (step C8). Similarly, when the y-axis angular velocity detection unit 251 detects the angular velocity θ around the y-axis (step C9), the mechanical blur image movement calculation unit 25° moves the image in the X-axis direction (Ve, - f
−(1+β)2・tanθ, ) (step Cl0), the mechanical blur image movement speed in the X-axis direction is determined by the CPU 15.
(step C11). In this way, the mechanical blur image movement calculation unit 25. The mechanical shake image movement speed information in the y-axis direction and the X-axis direction is supplied to the CPU 15 from the above.

尚、撮影倍率βは、公知の方法により求めることかでき
るもので、精度の要求に応して近似式等を用いることて
演算を容易にすることかできる。
Note that the photographing magnification β can be determined by a known method, and the calculation can be made easier by using an approximation formula or the like according to the requirements for accuracy.

その場合、撮影倍率に関する情報が必要無ければ、被写
体距離の情報は必要無いので被写体距離検出部254は
省略することも可能である。
In that case, if the information regarding the photographing magnification is not needed, the information about the object distance is not necessary, so the object distance detection section 254 can be omitted.

こうして、メカニズムブレ検出により画像のブレ速度(
V、、、V、、5か求められた後、ステップSllに於
いてブレ検出補正信号発生のサブルーチンか実行される
。このサブルーチンは第27図に示される。
In this way, the image blur speed (
After determining V, , V, , 5, a subroutine for generating a shake detection correction signal is executed in step Sll. This subroutine is shown in FIG.

このブレ検出補正信号発生に於いて、先ず像移動速度検
出のための第1回目の画像検出時の像倍率(β1)を検
出(ステップD1)した後、そのときの時間(t 2+
)を検出する(ステップD2)。
In generating this blur detection correction signal, first, the image magnification (β1) at the time of the first image detection for detecting the image movement speed is detected (step D1), and then the time (t2+) at that time is detected (step D1).
) is detected (step D2).

次いて、像移動速度検出のための第2回目の画像検出時
の像倍率(β2)を検出しくステップD3)、そのとき
の時間(t2□)及びそのときの像の位置(d、、d、
)を検出する(ステップD4、D5)。
Next, step D3) to detect the image magnification (β2) at the time of the second image detection for detecting the image movement speed, the time (t2□) at that time, and the image position at that time (d, d ,
) is detected (steps D4, D5).

次に、これらステップD1〜D5て求められた値から、
像倍率の変化による像の移動が演算できるか否かの判定
を行う(ステップD6)。ここて、演算ができない場合
とは、上記各値の信頼度か何等かの理由により低いと判
定される場合である。
Next, from the values obtained in steps D1 to D5,
It is determined whether the movement of the image due to the change in image magnification can be calculated (step D6). Here, the case where calculation cannot be performed is the case where the reliability of each of the above values is determined to be low for some reason.

例えば、倍率を求める場合に使用しようとした焦点調節
光学系の位置検出が、上記光学系のがたつき等のために
不適切であると考えられる場合、時間(β21、β22
)の間隔が開き過ぎていると判定される場合、或いは変
倍光学系、焦点調節光学系の移動が複雑で像倍率の検出
が不適切、不可能の場合等である。これらの理由により
、ステップD6で演算ができないと判定された場合は、
画像ブレ抑制フラグを「1」にセットする(ステップD
11)。その後、更に音や表示による警告手段を通じて
、撮影者に対して画像ブレ検出が不適性である旨の警告
を発する(ステップD12)。
For example, if the position detection of the focusing optical system that was intended to be used when calculating the magnification is considered to be inappropriate due to the wobbling of the optical system, etc., the time (β21, β22
) is determined to be too wide, or the movement of the variable magnification optical system or focusing optical system is complicated and detection of the image magnification is inappropriate or impossible. If it is determined in step D6 that the calculation cannot be performed for these reasons,
Set the image blur suppression flag to "1" (step D
11). Thereafter, a warning is issued to the photographer to the effect that image blur detection is inappropriate through a warning means such as sound or display (step D12).

一方、ステップD6にて像倍率の変化による像の移動速
度が演算可能と判定された場合は、画像ブレ抑制フラグ
をクリアすると共に、上記の値から、先ず像倍率の変化
速度(■β)を求める(ステップD7)。
On the other hand, if it is determined in step D6 that the moving speed of the image due to the change in image magnification can be calculated, the image blur suppression flag is cleared and the speed of change in image magnification (■β) is first calculated from the above value. (Step D7).

■β−((β2−β1)/β2+/(j22  t2□
) ・・・(32)また、光学系の移動による像倍率の
変化による像の移動速度(VL、、VL、)は、上記(
12)式を参照して と求められる(ステップD8、D9)。
■β−((β2−β1)/β2+/(j22 t2□
)...(32) Also, the moving speed of the image (VL,, VL,) due to the change in image magnification due to the movement of the optical system is expressed as (
12) It is determined by referring to the formula (steps D8 and D9).

像移動速度検出のための第1回目の画像検出時の像倍率
(β1)、時間(t2+) 、第2回目の画像検出時の
倍率(β2)、像の位置(β8゜d、)、時間(t 2
2)は、それぞれの画像検出時に検出し、RAM (ラ
ンダム・アクセス・メモリ)等に記憶させておき、この
ブレ検出補正信号発生のサブルーチンにて読出して使用
するようにしてもよい。
Image magnification (β1) and time (t2+) during the first image detection for image movement speed detection, magnification (β2) during the second image detection, image position (β8゜d,), and time (t 2
2) may be detected at the time of each image detection, stored in a RAM (random access memory), etc., and read out and used in the subroutine for generating the shake detection correction signal.

このようなブレ検出補正信号発生が終了すると、ステッ
プS12にて被写体像移動検出のサブルーチンが実行さ
れる。このサブルーチンは、被写体の移動による像移動
の速度(V 、、、  V ay)を求めるもので、第
28図に概略か示される。
When such generation of the blur detection correction signal is completed, a subroutine for detecting movement of the subject image is executed in step S12. This subroutine determines the speed of image movement (V ay ) due to movement of the subject, and is schematically shown in FIG. 28 .

基本的なアルゴリズムは上述した通りであるが、ここで
は先ず、画像ブレ抑制フラグを判定しくステップE1)
、ステップE1にて画像ブレ抑制フラグがクリアされて
いれば、被写体の移動による像移動速度(V、、、 V
、、) ヲ上述Lり(14) 式l:従って演算する(
ステップE2、E3)。
The basic algorithm is as described above, but here, first, the image blur suppression flag is determined (step E1).
, if the image blur suppression flag is cleared in step E1, the image movement speed (V, , V
,,) (14) Formula l: Therefore, calculate (
Steps E2, E3).

一方、上記ステップE1にて画像ブレ抑制フラグがセッ
トされていれば、被写体の移動による像移動の速度デー
タ(V 、、−= V−y)にゼロをセットする(ステ
ップE4、E5)。
On the other hand, if the image blur suppression flag is set in step E1, the speed data (V, -=Vy) of image movement due to movement of the subject is set to zero (steps E4, E5).

第29図(a) 〜(d)及び第30図(a)〜(e)
は、上述した像移動による像移動の速度を求める場合の
タイムチャートを示したものである。
Figures 29(a) to (d) and Figures 30(a) to (e)
shows a time chart when determining the speed of image movement due to the above-mentioned image movement.

例えば、第29図(a) 〜(d)は、第28図を使用
して説明した上述のアルゴリズムの場合のタイムチャー
トであり、測距のタイミングで示される時間(t20、
t2□)に、それぞれ映像信号が読出される。そして、
時間t2□に於いて、引続き像移動速度(Vx、V、)
が演算される。次いで、時間t23に於いて、カメラの
機械的なブレを測定し、メカブレによる像の移動速度(
V c、、 V cy)か求められる。次に、時間t 
24に於いて、(VL、、VL、)の検出後、被写体の
移動による像移動の速度(V 、、、 V 、、)か演
算される。ここで、Δt2□、Δt2□は、時間t2□
、t22で読出される映像信号の積分時間(サンプル時
間長さ)を表している。
For example, FIGS. 29(a) to 29(d) are time charts for the above algorithm explained using FIG. 28, and the time (t20,
At t2□), the video signals are read out. and,
At time t2□, the image movement speed (Vx, V,)
is calculated. Next, at time t23, the mechanical shake of the camera is measured, and the moving speed of the image due to the mechanical shake (
V c,, V cy) can be found. Next, time t
In step 24, after detecting (VL, , VL,), the speed of image movement (V , , V , , ) due to the movement of the subject is calculated. Here, Δt2□ and Δt2□ are time t2□
, t22 represents the integration time (sampling time length) of the video signal read out.

いま、時間t2+で求められる物体の位置を考えるとき
、それはΔt21時間内の平均的な位置であると考えら
れる。同様に、時間t2□で求められる物体の位置の情
報は、Δt2□時間内の平均的な位置である。したがっ
て、時間t22に於いて求められる物体の像の移動速度
は、時間t20からt2□の間の平均値であると考えら
れる。カメラの機械的ブレによる像移動速度(V、、、
VC,)を求める際にこの点を考慮することで、被写体
の像の移動による像移動の速度(■。t+ Vey)の
精度を増すことが可能になる。
Now, when considering the position of the object determined at time t2+, it is considered to be the average position within time Δt21. Similarly, the information on the position of the object determined at time t2□ is the average position within the time Δt2□. Therefore, the moving speed of the object image determined at time t22 is considered to be the average value between time t20 and t2□. Image movement speed due to mechanical shake of the camera (V, ,
By taking this point into consideration when determining VC,), it becomes possible to increase the accuracy of the speed of image movement (■.t+Vey) due to the movement of the image of the subject.

第30図(a)〜(e)はその−例を示したもので、時
間t 20’= 12゜内に上記像移動速度(V、、。
FIGS. 30(a) to 30(e) show an example of this, in which the image movement speed (V, .

V、、)、或いはメカブレ量の測定を複数回行い、その
後時間t23に於いてその平均値を求める。この平均値
に基いて、カメラの機械的ブレによる像移動速度(V、
ヨ、Ve、)を求め、この平均値としての値と像移動速
度(V、、V、)から、時間t24で、(VL8.VL
、)の検出後に被写体の移動による像移動の速度(Vo
l、  Vo、)を演算する。この場合、メカブレの測
定はX軸、y軸のそれぞれに関して同時に行う必要はな
く、例えば、交互のタイミングで行うようにして1回の
測定に要する時間を減らすようにしてもよい。
V, ) or the amount of mechanical shake is measured multiple times, and then the average value is determined at time t23. Based on this average value, the image movement speed (V,
(VL8.VL
, ) is detected, the speed of image movement due to the movement of the subject (Vo
l, Vo, ). In this case, it is not necessary to measure the mechanical shake on each of the X-axis and the y-axis at the same time; for example, the measurement may be performed at alternate timings to reduce the time required for one measurement.

このように、ステップS12にて被写体の像移動速度(
V。、、V、、)が求められたならば、ステップS13
に進んで再度ファーストレリーズスイッチSWIの状態
の読込みと判定を行う。ここで、ファーストレリーズス
イッチSW1がオフ状態で、つまり走査されていない場
合には、ステップS2に戻る。ファーストレリーズスイ
ッチSWIがオン、すなわち操作が継続して行われてい
る場合は、次のステップS]4に於いてブレ検出のサブ
ルーチン等でセカンドレリーズの禁止がなされてセカン
ドレリーズ禁止フラグが立っているか否かを判定する。
In this way, in step S12, the image movement speed of the subject (
V. , , V, ,) is obtained, step S13
Then, the state of the first release switch SWI is read and determined again. Here, if the first release switch SW1 is in the off state, that is, if scanning is not being performed, the process returns to step S2. If the first release switch SWI is on, that is, if the operation continues, check whether the second release is prohibited in the shake detection subroutine or the like in the next step S]4, and whether the second release prohibition flag is set. Determine whether or not.

ここで禁止されている場合には、ステップS9に戻る。If it is prohibited here, the process returns to step S9.

一方、セカンドレリーズが許可されている場合には、ス
テップ515に進んでセカンドレリーズスイッチSW2
の状態の読込みと判定を行う。もし、セカンドレリーズ
スイッチSW2がオフ状態、つまり操作されていない場
合には、ステップS9に戻る。これに対して、セカンド
レリーズスイッチSW2が操作されている場合には、セ
カンドレリーズ動作に移行する。
On the other hand, if the second release is permitted, the process advances to step 515 and the second release switch SW2 is
Read and judge the status of. If the second release switch SW2 is in the off state, that is, it is not operated, the process returns to step S9. On the other hand, if the second release switch SW2 is operated, the process shifts to a second release operation.

ステップ51Bでは、動体予測駆動のサブルーチンが実
行され、必要に応じて露光動作中の被写体の光軸方向の
移動を補正するように焦点調節光学系を駆動し、そのピ
ントのずれの補正を行う。尚、ここでいう動体予測駆動
とは、被写体(物体)の光軸方向への速度V、からレリ
ーズタイムラグ中の被写体の移動を予測して、フィルム
面への露光時にピントが合うように撮影レンズ27の焦
点調節光学系を駆動することである。この動体予測駆動
については、公知の方法を用いるものとし、この発明の
主旨ではないのでここではその詳細な説明は省略する。
In step 51B, a moving object predictive driving subroutine is executed, and the focusing optical system is driven to correct the movement of the object in the optical axis direction during the exposure operation, as necessary, and the out-of-focus correction is corrected. Note that the moving object predictive drive here refers to the speed V of the subject (object) in the optical axis direction, and predicts the movement of the subject during the release time lag, and adjusts the shooting lens so that it is in focus when exposing the film surface. 27 focusing optical systems. As for this moving object predictive driving, a known method will be used, and since it is not the gist of the present invention, a detailed explanation thereof will be omitted here.

すなわち、このステップ51Bでは、必要に応じて露光
動作中の被写体の光軸方向の移動を補正するように、方
法焦点調節光学系を駆動してピントのずれの補正を行う
That is, in this step 51B, the focus adjustment optical system is driven to correct the out-of-focus so as to correct the movement of the subject in the optical axis direction during the exposure operation, if necessary.

次に、ステップS17にて、防振メカプリセットのサブ
ルーチンが実行される。
Next, in step S17, a subroutine for resetting the anti-vibration mechanism is executed.

このサブルーチンは第31図に示されるもので、ここで
は露出中のブレ防止のために、防振機構の初期位置とし
て最適な位置に防振装置24を合わせるようにする。被
写体の像の移動速度(V、、、Vo、)を読出して(ス
テップF1)、露出時間(S)を読出す(ステップF2
)。ここで、被写体の像の移動速度(V、、、V、、)
と露出時間Sから、露出時間中の被写体の像の移動量(
X、、。
This subroutine is shown in FIG. 31, and here, in order to prevent shake during exposure, the vibration isolating device 24 is set at the optimal initial position of the vibration isolating mechanism. The moving speed (V, , Vo,) of the object image is read out (step F1), and the exposure time (S) is read out (step F2).
). Here, the moving speed of the image of the subject (V,,,V,,)
and the exposure time S, the amount of movement of the subject image during the exposure time (
X...

Y6.)を求める(ステップF3)。すなわちで表され
る。そして、ここで求めた露出時間中に防振装置24が
補正する被写体の移動による画像の変位量(X、、、X
、、)を利用して、これを効果的に防振補正するための
初期位置としては、フィルムの中心を原点として、(−
X6./2゜−X 、、/ 2 )の位置に、ブレ補正
手段としての防振装置24を、撮影に先立って駆動して
おくようにする。
Y6. ) is determined (step F3). That is, it is expressed as. Then, during the exposure time determined here, the image displacement amount (X, , X
, , ), the initial position to effectively correct the image stabilization is set at the center of the film as the origin (-
X6. The image stabilization device 24, which serves as a shake correction means, is driven to a position of /2°-X, , /2) prior to photographing.

防振メカプリセット駆動のサブルーチンが終了したなら
ば、ステップ318で防振を開始した後、ステップS1
9にて露出を開始する。次いで、ステップS20に於い
て、防振制御のサブルーチンが実行される。
When the anti-vibration mechanism reset subroutine is completed, anti-vibration is started in step 318, and then step S1
Exposure starts at 9. Next, in step S20, a subroutine for vibration isolation control is executed.

第31図は防振制御の概略を示すフローチャートで、先
ずステップG1にて、上述した原理に基いてメカブレ検
出を行い、逐次のメカブレによる像の移動速度(Ve、
、 Ve、)を検出する。次いで、ステップG2で露光
に先立って求められた被写体の像の移動速度(V o−
、V oy)を読出す。その後、X軸方向のブレについ
て(V o、+ V 、、)な加算演算を行い(ステッ
プG3)、続いてy軸方向のブレについて(V 0.+
 V 、1)の加算演算を行う(ステップG4)、この
(V0計Vcり及び(■。、+ v cy)が、露光中
にリアルタイムに防止するべき像のブレを表している。
FIG. 31 is a flowchart showing an outline of the image stabilization control. First, in step G1, mechanical shake is detected based on the above-mentioned principle, and the image movement speed (Ve,
, Ve,) is detected. Next, in step G2, the moving speed of the subject image (Vo-
, Voy). After that, an addition operation (V o, + V , , ) is performed for the shake in the X-axis direction (step G3), and then for the shake in the y-axis direction (V 0.+
V, 1) is added (step G4), and this (V0 total Vc and (■., +v cy) represents image blur that should be prevented in real time during exposure.

このように、加算して求められたブレ情報に基いて、こ
れをキャンセルするように、ブレ補正手段としての防振
装置24を駆動する(ステップG5)。以上の一連の動
作は、露光中繰り返し行われる。
In this way, based on the shake information obtained by addition, the vibration isolating device 24 as a shake correction means is driven so as to cancel the shake information (step G5). The above series of operations is repeated during exposure.

このように、防振制御が成されるたならば、ステップS
22に於いて露出が終了したか田舎を判定する。ここで
、露出が終了していない場合はステップS20に戻り、
終了している場合にはステップS23に進む。上記露出
の終了の判定は、露出時間のタイマ等のCPU15内部
で発生する信号を用いてもよいし、シャッタ装置に連動
している露出動作の終了を検出するためのスイッチ等を
設け、これの状態を検出するようにしてもよい。
Once the anti-vibration control has been achieved in this way, step S
At step 22, it is determined whether the exposure is completed or not. Here, if the exposure is not completed, return to step S20,
If the process has ended, the process advances to step S23. The above determination of the end of exposure may be made using a signal generated within the CPU 15, such as an exposure time timer, or by providing a switch or the like to detect the end of the exposure operation linked to the shutter device. The state may also be detected.

上記ステップS22に於いて露出が終了したと判定した
場合は、ステップS23にて露出メカリセットのルーチ
ンを実行する。この露出メカリセットを実行することに
より、次の撮影のためにシャッタのチャージ、絞りの開
放までの駆動、クイックリターンミラー39の上昇、フ
ィルムの1駒の巻上げ等を行う。この後、ステップS2
に戻って、上述した動作を繰返し行う。
If it is determined in step S22 that the exposure has ended, an exposure mechanism reset routine is executed in step S23. By executing this exposure mechanism reset, the shutter is charged, the aperture is driven to open, the quick return mirror 39 is raised, the film is wound one frame, etc. for the next photographing. After this, step S2
Return to and repeat the above operations.

第33図は、連写撮影モードに於ける基本的なカメラの
動作の例を示すフローチャートである。
FIG. 33 is a flowchart showing an example of basic camera operation in continuous shooting mode.

先ず、ステップH1にて光電変換素子の第1回目の積分
を行い、追尾領域のX軸、y軸方向の画素加算を行う。
First, in step H1, the first integration of the photoelectric conversion element is performed, and pixel addition in the X-axis and y-axis directions of the tracking area is performed.

次いで、ステップH2にて第2回目の光電変換素子の積
分を行い、同様に追尾領域についてX軸、y軸方向の画
素加算を行う。次に、ステップH3に於いて、第22図
に示されるフローチャートと同様に相関演算を行い、像
のX5Ys2方向の速度(v8)、(V、)、(v8)
を求める(ステップH4)。
Next, in step H2, a second integration of the photoelectric conversion elements is performed, and pixel addition in the X-axis and y-axis directions is similarly performed for the tracking region. Next, in step H3, a correlation calculation is performed in the same manner as in the flowchart shown in FIG. 22, and the velocity (v8), (V, ), (v8) of the image in the
(Step H4).

次に、ステップH5にて上述した方法により、カメラの
機械的なブレによる像のブレ速度(V、、。
Next, in step H5, the image blur velocity (V, . . . due to the mechanical blur of the camera) is determined by the method described above.

Vcy)を求めた後、第1回目及び第2回目の光電変換
素子の積分を行ったときの撮影レンズの光学系の位置情
報を基にブレ検出補正信号(VLt。
After determining the blur detection correction signal (Vcy), the camera shake detection correction signal (VLt) is calculated based on the position information of the optical system of the photographic lens when the first and second integrations of the photoelectric conversion elements are performed.

VL、)を求める(ステップH6)。以上から、ステッ
プH7にて、カメラの機械的なブレによる像の移動を除
去した被写体の像の移動速度(V 0.。
VL, ) is determined (step H6). From the above, in step H7, the moving speed of the subject image (V 0.

Vo、)を求める。Find Vo,).

そして、ステップH8に於いて、セカンドレリーズがな
されているか否かか検出、判定され、なされていない場
合はステップH1に戻る。これに対して、セカンドレリ
ーズがなされている場合には、連写撮影モードであるか
ら、ステップH9に進んで動体予測駆動を行う。次いで
、防振制御を行って(ステップHIO)、露出制御か終
了する(ステップH11)と、再びステップH1に戻っ
て、以降同じ動作を繰返す。
Then, in step H8, it is detected and determined whether or not a second release has been performed, and if not, the process returns to step H1. On the other hand, if the second release has been performed, the continuous shooting mode is in effect, and the process advances to step H9 to perform moving object predictive driving. Next, when image stabilization control is performed (step HIO) and exposure control is completed (step H11), the process returns to step H1 and the same operation is repeated thereafter.

また、第34図は連写撮影モードに於ける基本的なカメ
ラの動作の別の例を示すフローチャートである。この実
施例に於けるステップ11〜Illの動作は、上述した
第33図のステップH1〜H1lに示される動作例と同
してあり、両者の差異は、第33図に示される第1の例
か露出制御終了時に次回のステップH1の「積分コ」か
ら開始されるのに対し、第34図に示される第2の例で
は、ステップ■2の「積分2」から開始されることであ
る。この場合、像のX5YSZ方向の速度(V、)、(
Vy)、(V、)の演算は、前回の「積分2」による光
電変換素子からの出力及びそのときの撮影レンズの光学
系の構成の情報と、今回の「積分2」による光電変換素
子からの出力及び撮影レンズの光学系の構成の情報に基
いて行うものである。
Further, FIG. 34 is a flowchart showing another example of basic camera operation in continuous shooting mode. The operations in steps 11 to Ill in this embodiment are the same as the operation example shown in steps H1 to H1l in FIG. 33 described above, and the difference between the two is in the first example shown in FIG. In contrast, in the second example shown in FIG. 34, the process starts from "integration 2" in step H2 when the exposure control ends. In this case, the velocity of the image in the X5YSZ direction (V, ), (
Vy) and (V,) are calculated based on the output from the photoelectric conversion element from the previous "integration 2" and information on the configuration of the optical system of the photographing lens at that time, and from the photoelectric conversion element from the current "integration 2". This is done based on the output of the camera and information on the configuration of the optical system of the photographic lens.

これによって、セカンドレリーズ間の光電変換素子の積
分動作を1回減少させることができるので、より高速の
連写撮影が可能になる。
As a result, the number of integration operations of the photoelectric conversion element during the second release can be reduced by one time, thereby enabling higher-speed continuous shooting.

更に、第35図は連写撮影モードに於ける基本的なカメ
ラの動作の更に別の例を示すフローチャートである。こ
の実施例に於けるステップJ1〜Jllの動作は、上述
した第33図及び第34図のステップH1〜H1l及び
ステップ11〜Illに示される動作例と同じであり、
上述した第1及び第2の例との差異は、この第35図の
第3の例か露出制御終了後、直ちにセカンドレリーズ動
作に入ることである。すなわち、この場合像ブレの補正
データと動体予測駆動のデータは、全て前回のセカンド
レリーズ前のデータを用いる。これによって、更に高速
の速写撮影が可能になる。
Furthermore, FIG. 35 is a flowchart showing still another example of the basic camera operation in the continuous shooting mode. The operations in steps J1 to Jll in this embodiment are the same as the operation examples shown in steps H1 to H1l and steps 11 to Ill in FIGS. 33 and 34 described above,
The difference from the first and second examples described above is that the third example shown in FIG. 35 immediately enters the second release operation after the exposure control ends. That is, in this case, the data before the previous second release is used as the image blur correction data and the moving object predictive drive data. This allows for even faster snapshot photography.

以上述べた実施例に於いては、ブレ検出補正信号発生手
段の出力は、被写体ブレ検出手段に対してなされていた
が、画像ブレ検出手段に於いて画像のブレを検出する差
異に使用してもよい。つまり、絶えず像倍率を考慮しな
がら画像のブレをブレ検出手段を用いて検出するように
してもよい。
In the embodiments described above, the output of the blur detection correction signal generation means is sent to the object blur detection means, but it is not used for detecting image blur in the image blur detection means. Good too. In other words, image blur may be detected using the blur detection means while constantly considering the image magnification.

[発明の効果] 以上のようにこの発明によれば、撮影に先立ってブレ補
正手段を所定の位置に設定することで、限られたブレ補
正範囲内で、最大限にそのブレ補正範囲を活用でき、効
果的なブレ補正を行うことが可能なカメラのブレ防止装
置を提供することができる。また、被写体の像の移動情
報やメカブレによる像の移動情報を活用することで、そ
の効果は更に大きいものとなる。
[Effects of the Invention] As described above, according to the present invention, by setting the image stabilization means at a predetermined position prior to shooting, it is possible to make maximum use of the image stabilization range within the limited image stabilization range. Accordingly, it is possible to provide a camera shake prevention device that can perform effective shake correction. Furthermore, the effect can be even greater by utilizing information on movement of the image of the subject or information on movement of the image due to mechanical shake.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明のカメラのブレ防止装置の基本構成を
示すブロック図、第2図はこの発明によるカメラのブレ
防止装置か適用されたカメラの構成を概略的に示したブ
ロック構成図、第3図は第2図の焦点検出光学系の詳細
な構成を示す光学配置図、第4図(a)〜(c)は第2
図の焦点検出光学系に於ける焦点横比を説明する位相差
方式を概略的に示した原理図、第5図は第2図の露出時
間設定部を示すブロック構成図、第6図はカメラの回転
方向の例を示した図、第7図(a)及び(b)は第2図
のエリアイメージセンサの動体追尾範囲を含む像を示し
た図、第8図<a)及び(b)はそれぞれ第7図(a)
及び(b)に対応したエリアイメージセンサの動体追尾
範囲内の画素配列を示した図、第9図及び第10図は第
2図の防振装置が適用された−眼レフレックスカメラを
概略的に示した断面図及び概略的斜視図、第11図は第
2図の防振装置の電気回路系を示すブロック構成図、第
12図は第2図のメカブレ検出部を示すブロック構成図
、第13図(a)〜(C)は第11図のエンコーダの構
成を示すものでそれぞれ上面図、斜視図、側面図、第1
4図(a)及び(b)は第##図(a)〜(C)のドラ
ムの外周部及びPRセンサを示す動作説明図、第15図
は第6図でX軸のプラス側から見たカメラの概略的な側
断面図、第16図は第6図でX軸のプラス側から見たカ
メラの概略的な側断面図、第17図は光軸空距離と被写
体の関係によって変化するフィルム面上に投影される被
写体の像の説明図、第18図はメカブレによる像の移動
と、被写体の移動による像の移動と、フィルム面(撮像
面)上での画像のずれについて示した図、第19図はこ
の発明のカメラのブレ防止装置の概念図、第20図は第
2図のCPUの全体の動作を説明するシーケンスフロー
チャート、第21図及び第22図は第20図のフローチ
ャートに於いてそれぞれ測光及び画像ブレ検出(VOC
AL−1)を説明するサブルーチン、第23図(a)及
び(b)、第24図(a)及び(b)、第25図は第2
2図の画像ブレ検出サブルーチンに於いて2像間隔を説
明する図、第26図乃至第28図は第20図のフローチ
ャートに於けるメカブレ検出、ブレ検出補正信号発生及
び被写体造移動検出を説明するサブルーチン、第29図
(a)〜(d)及び第30図(a)〜(e)は、第28
図のサブルーチンに於いて像移動による像移動の速度を
求める場合の例を示したタイムチャート、第31図及び
第32図は第20図のフローチャートに於ける防振メカ
プリセット及び防振制御を説明するサブルーチン、第3
3図乃至第35図はそれぞれ連写撮影モードに於ける基
本的なカメラの動作の第1、第2及び第3の例を示すフ
ローチャートである。 1・・・画像ブレ検出手段、2・・・メカブレ検出手段
、3・・・被写体移動速度検出手段、4・・・ブレ補正
量演算手段、5・・ブレ補正機構、6・・・初期位置設
定手段、7・・・ブレ補正制御手段、10・・・ブレ検
出補正信号発生部、11・・・撮影レンズ、12・・焦
点検出光学系、13・・エリアイメージセンサ、14・
・・インターフェース回路、15・・・CPU (中央
処理装置)、16・ROM (リード・オンリ争メモリ
)、17・・・レンズROM、18・・・レンズ駆動回
路、19・・レンズ駆動用モータ、20・・・スリット
、21a・・・発光ダイオード、21b・・・フォトダ
イオード、22・・・表示装置、23・・露出時間設定
部、24・・・防振装置、25・・・メカブレ検出部、
SWI・・・ファーストレリーズスイッチ、SW2・・
・セカンドレリーズスイッチ。 出願人代理人 弁理士 坪井  淳 第1図 (a) (b) (c) @4図 第6図 第7図 第8図(a) 第8図(b) 第10図 第13図 第14図 5Axi 第23図    第24図 第29図 第30図 第32図      第33図 第34図 第35図
FIG. 1 is a block diagram showing the basic configuration of a camera shake prevention device according to the present invention, and FIG. 2 is a block diagram schematically showing the configuration of a camera to which the camera shake prevention device according to the present invention is applied. Figure 3 is an optical layout diagram showing the detailed configuration of the focus detection optical system in Figure 2, and Figures 4 (a) to (c) are
A principle diagram schematically showing the phase difference method to explain the focus-lateral ratio in the focus detection optical system shown in the figure, Figure 5 is a block diagram showing the exposure time setting section of Figure 2, and Figure 6 is a camera Figures 7(a) and (b) are diagrams showing images including the moving object tracking range of the area image sensor in Figure 2; Figures 8<a) and (b) are respectively shown in Figure 7(a).
Figures 9 and 10 are diagrams showing the pixel arrangement within the moving object tracking range of the area image sensor corresponding to (b), and are schematic diagrams of an eye reflex camera to which the image stabilization device shown in Figure 2 is applied. 11 is a block configuration diagram showing the electric circuit system of the vibration isolator shown in FIG. 13(a) to (C) show the configuration of the encoder in FIG. 11, and show a top view, a perspective view, a side view, and a first
Figures 4 (a) and (b) are operation explanatory diagrams showing the outer circumference of the drum and the PR sensor in Figures ## (a) to (C), and Figure 15 is Figure 6, viewed from the positive side of the X-axis. Figure 16 is a schematic side sectional view of the camera seen from the positive side of the X-axis in Figure 6, and Figure 17 is a schematic side sectional view of the camera as seen from the positive side of the X-axis in Figure 6. An explanatory diagram of the image of the subject projected onto the film plane, Figure 18 is a diagram showing the movement of the image due to mechanical shake, the movement of the image due to movement of the subject, and the deviation of the image on the film plane (imaging plane). , FIG. 19 is a conceptual diagram of the camera shake prevention device of the present invention, FIG. 20 is a sequence flowchart explaining the overall operation of the CPU in FIG. 2, and FIGS. 21 and 22 are similar to the flowchart in FIG. 20. photometry and image blur detection (VOC) respectively.
23 (a) and (b), FIG. 24 (a) and (b), and FIG. 25 are subroutines for explaining AL-1).
FIG. 2 is a diagram explaining the interval between two images in the image blur detection subroutine, and FIGS. 26 to 28 are diagrams explaining mechanical blur detection, blur detection correction signal generation, and object structure movement detection in the flowchart of FIG. 20. The subroutines in FIGS. 29 (a) to (d) and 30 (a) to (e) are
A time chart showing an example of determining the speed of image movement due to image movement in the subroutine shown in the figure, and Figs. 31 and 32 explain the anti-shake mechanical reset and anti-shake control in the flowchart of Fig. 20. subroutine, 3rd
3 to 35 are flowcharts showing first, second, and third examples of basic camera operations in continuous shooting mode, respectively. DESCRIPTION OF SYMBOLS 1... Image shake detection means, 2... Mechanical shake detection means, 3... Subject movement speed detection means, 4... Shake correction amount calculation means, 5... Shake correction mechanism, 6... Initial position Setting means, 7... Shake correction control means, 10... Shake detection correction signal generation unit, 11... Taking lens, 12... Focus detection optical system, 13... Area image sensor, 14...
...Interface circuit, 15...CPU (central processing unit), 16.ROM (read-only memory), 17...lens ROM, 18...lens drive circuit, 19...lens drive motor, 20... Slit, 21a... Light emitting diode, 21b... Photodiode, 22... Display device, 23... Exposure time setting section, 24... Vibration isolator, 25... Mechanical shake detection section ,
SWI...first release switch, SW2...
・Second release switch. Applicant's representative Patent attorney Jun Tsuboi Figure 1 (a) (b) (c) @ Figure 4 Figure 6 Figure 7 Figure 8 (a) Figure 8 (b) Figure 10 Figure 13 Figure 14 5Axi Figure 23 Figure 24 Figure 29 Figure 30 Figure 32 Figure 33 Figure 34 Figure 35

Claims (2)

【特許請求の範囲】[Claims] (1)イメージセンサの出力に基いて画像のブレを検出
する画像ブレ検出手段と、 カメラ内部に設けられたメカセンサの出力に基いてブレ
を検出し、それによる画像のブレを演算するメカブレ検
出手段と、 上記画像ブレ検出手段の出力と上記メカブレ検出手段と
から被写体の移動速度に関する情報を検出する被写体移
動速度検出手段と、 上記被写体の移動速度と露出時間とから露出中のブレ補
正量を演算するブレ補正量演算手段と、上記ブレ補正量
に基いて上記カメラのブレ補正機構の初期位置をプリセ
ットする初期位置設定手段と、 上記画像ブレ検出手段と上記メカブレ検出手段の出力に
基いて上記ブレ補正機構の制御を行うブレ補正制御手段
と、 を具備することを特徴とするカメラのブレ防止装置。
(1) Image blur detection means that detects image blur based on the output of an image sensor; Mechanical blur detection means that detects blur based on the output of a mechanical sensor installed inside the camera and calculates the resulting image blur. and a subject moving speed detecting means for detecting information regarding the moving speed of the subject from the output of the image blur detecting means and the mechanical shake detecting means, and calculating an amount of blur correction during exposure from the moving speed of the subject and the exposure time. an initial position setting means for presetting the initial position of the camera shake correction mechanism based on the shake correction amount; and an initial position setting means for presetting the initial position of the shake correction mechanism of the camera based on the shake correction amount; A camera shake prevention device comprising: a shake correction control means for controlling a correction mechanism;
(2)上記初期位置設定手段は上記ブレ補正量演算手段
の出力に応じた所定の位置に合わせるものである請求項
1に記載のカメラのブレ防止装置。
(2) The camera shake prevention device according to claim 1, wherein the initial position setting means adjusts to a predetermined position according to the output of the shake correction amount calculation means.
JP2292586A 1990-10-29 1990-10-29 Blurring preventive device for camera Pending JPH04163535A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2292586A JPH04163535A (en) 1990-10-29 1990-10-29 Blurring preventive device for camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2292586A JPH04163535A (en) 1990-10-29 1990-10-29 Blurring preventive device for camera

Publications (1)

Publication Number Publication Date
JPH04163535A true JPH04163535A (en) 1992-06-09

Family

ID=17783692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2292586A Pending JPH04163535A (en) 1990-10-29 1990-10-29 Blurring preventive device for camera

Country Status (1)

Country Link
JP (1) JPH04163535A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007139952A (en) * 2005-11-16 2007-06-07 Canon Inc Imaging apparatus
US7742690B2 (en) 2005-04-07 2010-06-22 Sony Corporation Imaging apparatus and method for processing imaging results
JP2015152888A (en) * 2014-02-19 2015-08-24 キヤノン株式会社 Imaging device and control method of the same
JP2015210493A (en) * 2014-04-30 2015-11-24 キヤノン株式会社 Blur correction device, blur correction method and program, and imaging device
DE102016103653A1 (en) 2015-03-03 2016-09-08 Canon Kabushiki Kaisha Image pickup device, control method therefor and control program therefor
JP2017090711A (en) * 2015-11-11 2017-05-25 キヤノン株式会社 Image tremor correction device, and control method of the same, program thereof, and recording medium
US9723209B2 (en) 2014-12-03 2017-08-01 Canon Kabushiki Kaisha Image shake correction device, image pickup apparatus, and control method
US10091424B2 (en) 2015-11-27 2018-10-02 Canon Kabushiki Kaisha Image blur correction apparatus, method for controlling the same, and storage medium
US10244174B2 (en) 2017-01-31 2019-03-26 Canon Kabushiki Kaisha Image shake correction apparatus, lens apparatus, imaging apparatus, and control method
US10397480B2 (en) 2016-06-01 2019-08-27 Canon Kabushiki Kaisha Image stabilization apparatus, and control method and storage medium thereof
US10812715B2 (en) 2017-06-27 2020-10-20 Canon Kabushiki Kaisha Imaging apparatus and method of controlling imaging apparatus

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7742690B2 (en) 2005-04-07 2010-06-22 Sony Corporation Imaging apparatus and method for processing imaging results
JP2007139952A (en) * 2005-11-16 2007-06-07 Canon Inc Imaging apparatus
JP2015152888A (en) * 2014-02-19 2015-08-24 キヤノン株式会社 Imaging device and control method of the same
US9635265B2 (en) 2014-02-19 2017-04-25 Canon Kabushiki Kaisha Image processing apparatus and method of controlling the same
JP2015210493A (en) * 2014-04-30 2015-11-24 キヤノン株式会社 Blur correction device, blur correction method and program, and imaging device
US9723209B2 (en) 2014-12-03 2017-08-01 Canon Kabushiki Kaisha Image shake correction device, image pickup apparatus, and control method
US10362236B2 (en) 2015-03-03 2019-07-23 Canon Kabushiki Kaisha Image capturing apparatus, control method thereof and storage medium storing control program therefor
US10091432B2 (en) 2015-03-03 2018-10-02 Canon Kabushiki Kaisha Image capturing apparatus, control method thereof and storage medium storing control program therefor
DE102016103653A1 (en) 2015-03-03 2016-09-08 Canon Kabushiki Kaisha Image pickup device, control method therefor and control program therefor
DE102016103653B4 (en) 2015-03-03 2021-11-18 Canon Kabushiki Kaisha Image pickup device, control method therefor, and control program therefor
JP2017090711A (en) * 2015-11-11 2017-05-25 キヤノン株式会社 Image tremor correction device, and control method of the same, program thereof, and recording medium
US10200601B2 (en) 2015-11-11 2019-02-05 Canon Kabushiki Kaisha Image stabilization apparatus that enables highly accurate image stabilization when panning shot capturing is performed, method for controlling the same, and storage medium
US10091424B2 (en) 2015-11-27 2018-10-02 Canon Kabushiki Kaisha Image blur correction apparatus, method for controlling the same, and storage medium
US10397480B2 (en) 2016-06-01 2019-08-27 Canon Kabushiki Kaisha Image stabilization apparatus, and control method and storage medium thereof
US10244174B2 (en) 2017-01-31 2019-03-26 Canon Kabushiki Kaisha Image shake correction apparatus, lens apparatus, imaging apparatus, and control method
US10812715B2 (en) 2017-06-27 2020-10-20 Canon Kabushiki Kaisha Imaging apparatus and method of controlling imaging apparatus

Similar Documents

Publication Publication Date Title
US5615397A (en) Apparatus used for blur suppression or blur prevention
US8081223B2 (en) Imaging apparatus
JP3926707B2 (en) Image input device
JP2009265182A (en) Imaging device
JP3250245B2 (en) Anti-vibration camera
JPH04163535A (en) Blurring preventive device for camera
JP4567313B2 (en) camera
JP3112472B2 (en) Object moving speed detecting device and camera image blur correcting device
JPH0651384A (en) Shaking prevention device for camera
JPH04216534A (en) Blur preventing device for camera
JP6395401B2 (en) Image shake correction apparatus, control method therefor, optical apparatus, and imaging apparatus
JPH04163534A (en) Blurring preventive device for camera
JP2008124850A (en) Image motion correction apparatus, lens unit, and imaging apparatus
JP5038448B2 (en) camera
CN111698416B (en) Image processing apparatus, image processing method, and storage medium
JP3543999B2 (en) Optical equipment having image blur prevention device
US10848674B2 (en) Image stabilization device, lens unit or imaging device including the same, and image stabilization method
JP3135379B2 (en) Image stabilization device
JPH0983858A (en) Image pickup device and image pickup method
JPH04212940A (en) Camera jiggling preventive device
JPH04215623A (en) Jiggle preventive device for camera
JP3038021B2 (en) Camera shake prevention device
JP7321844B2 (en) Shake correction control device and shake correction control method
JPH0682889A (en) Camera
JP7266480B2 (en) Imaging device, lens device, imaging system, imaging device control method, lens device control method