JPH03192228A - Camera capable of blur detection and correction - Google Patents

Camera capable of blur detection and correction

Info

Publication number
JPH03192228A
JPH03192228A JP33396689A JP33396689A JPH03192228A JP H03192228 A JPH03192228 A JP H03192228A JP 33396689 A JP33396689 A JP 33396689A JP 33396689 A JP33396689 A JP 33396689A JP H03192228 A JPH03192228 A JP H03192228A
Authority
JP
Japan
Prior art keywords
image
blur
optical system
finder
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33396689A
Other languages
Japanese (ja)
Inventor
Eiji Yamakawa
英二 山川
Masataka Hamada
正隆 浜田
Hiroshi Otsuka
博司 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP33396689A priority Critical patent/JPH03192228A/en
Priority to US07/632,075 priority patent/US5218442A/en
Publication of JPH03192228A publication Critical patent/JPH03192228A/en
Priority to US07/987,778 priority patent/US5270767A/en
Priority to US08/120,443 priority patent/US5365304A/en
Priority to US08/292,289 priority patent/US5420661A/en
Priority to US08/987,055 priority patent/US6215960B1/en
Pending legal-status Critical Current

Links

Landscapes

  • Viewfinders (AREA)

Abstract

PURPOSE:To confirm focus on a screen and to attain blur detection which covers a low-brightness subject by making a finder part transparent only nearby a blur detection area and forming a diffusion surface at other parts. CONSTITUTION:An area (a) of the finder screen is a transparent blur detection area, an optical path to a sensor 44 is secured, and the quantity of light increases. An area (c) is a mat part, light is diffused, and an image is formed thereupon to detect the focus. An area (b) is the visual field range of an electronic finder, this part is also transparent, and the quantity of light to an image pickup optical system 41 increases. Then a blur detection optical system 40 forms an image of part (a) of the screen (c) nearby the center on the image pickup surface and the image is used by the blur detection sensor 44; when the image pickup optical system 41 is used, an image extending over nearly the entire area of the screen (c) is formed and used as an image for the finder. Consequently, the focus on the screen surface can be confirmed and the blur detection and correction which cover even low-brightness subjects are made possible.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明はブレ検出および補正が可能なカメラに関し、
特に、オートフォーカスがilJ能でかつブレ検出およ
び補正が可能なカメラに関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a camera capable of detecting and correcting blur;
In particular, the present invention relates to a camera that is capable of automatic focusing and capable of detecting and correcting blur.

[従来の技術] 従来のオートフォーカスがI−II能なカメラは、スク
リーン上でピントの確認を行なうためファインダスクリ
ーンは拡散面であった。また、一般に従来のブレ検出が
rlJ fT::なカメラはファインダスクリーンを通
過した光束を用いて行なっていた。
[Prior Art] In conventional cameras capable of autofocusing, the finder screen was a diffusing surface because the focus was confirmed on the screen. Furthermore, in general, conventional cameras with rlJ fT:: detect blur using a light beam that passes through a finder screen.

[発明が解決しようとする課題] 従来のカメラのようにファインダスクリーンが拡散面に
なっているとブレ検出を行なうブレ検出センサに入射す
べき光線が拡散され、センサ面上の照度が低下するとい
う問題があった。また拡散面のざらつきがセンサ上に結
像され、検出精度の低下を招くという問題があった。一
方ファインダスクリーン全面を透明にした場合には、ブ
レ検出用センサ面上の照度は上がるが、ファインダスク
リーン上でのピントの確認ができなくなるという問題点
があった。
[Problem to be solved by the invention] If the finder screen of a conventional camera has a diffuser surface, the light beam that should be incident on the shake detection sensor that detects shake is diffused, reducing the illuminance on the sensor surface. There was a problem. Furthermore, there is a problem in that the roughness of the diffusion surface is imaged on the sensor, resulting in a decrease in detection accuracy. On the other hand, when the entire finder screen is made transparent, the illuminance on the shake detection sensor surface increases, but there is a problem that it becomes impossible to confirm the focus on the finder screen.

この発明は上記のような問題点を解消するためになされ
たもので、スクリーン面上でのピントが確認できかつ低
輝度の被写体にも対応できるブレ検出および補正かり能
なカメラを提供することである。
This invention was made in order to solve the above-mentioned problems, and by providing a camera that can detect and correct blurring, which allows you to check the focus on the screen and can also handle low-brightness subjects. be.

[課題を解決するための手段コ この発明に係るオートフォーカスが可能でかつブレ検出
および補正が可能なカメラは、ファインダスクリーンと
、ファインダスクリーンを通過した光束を用いて被写体
のブレ検出を行なうブレ検出手段とを含み、ファインダ
スクリーンのブレ検出を行なう光束が通過する光路部分
の近傍のみかが透明である。
[Means for Solving the Problems] The camera according to the present invention which is capable of autofocus and capable of detecting and correcting blur has a shake detection system that detects shake of a subject using a finder screen and a beam of light that has passed through the finder screen. Only the vicinity of the optical path portion through which the light beam for detecting shake of the finder screen passes is transparent.

〔作用] この発明に係るカメラにおいては、ファインダ部分のブ
レ検出領域近傍のみが透明にされ、それ以外の領域は拡
散面とされる。その結果、ブレ検出センサへの光量が増
加する。
[Operation] In the camera according to the present invention, only the vicinity of the shake detection area of the finder portion is made transparent, and the other area is made into a diffusing surface. As a result, the amount of light directed to the shake detection sensor increases.

[実施例] 以上この発明の実施例を図面を参照して説明する。第1
図はこの発明に係る電子ファインダ付ブレ検出カメラの
主便部を示すブロック図である。
[Embodiments] Hereinafter, embodiments of the present invention will be described with reference to the drawings. 1st
The figure is a block diagram showing the main part of the shake detection camera with electronic viewfinder according to the present invention.

第1図を参照して、測光用5PD(Silicoll 
 Pho t od i ode)2からの信号は測光
量+831に人力される。ΔN光回路31は、5PD2
の出力を演算し、メインCPUIへ演算結果を出力する
。撮影レンズ′うは交換可能であり、絞り駆動手段4お
よび焦点調節駆動手段5を通して絞りの駆動および焦点
調節が行なわれる。撮影レンズ回路6には、撮影レンズ
3に固HのレンズのF値、焦点距離、ブレ補正のための
各種パラメータが記憶される。撮影レンズ回路6にはさ
らに、ブレ抽圧用の光学系を駆動するアクチュエータお
よびその制御回路も内蔵されている。
Referring to Fig. 1, 5PD for photometry (Silicoll)
The signal from Photo (Photo) 2 is manually input to the photometric amount +831. The ΔN optical circuit 31 is 5PD2
It calculates the output of and outputs the calculation result to the main CPUI. The photographic lens is replaceable, and the aperture is driven and the focus is adjusted through an aperture drive means 4 and a focus adjustment drive means 5. The photographing lens circuit 6 stores the F value of the fixed H lens in the photographing lens 3, the focal length, and various parameters for blur correction. The photographing lens circuit 6 further includes an actuator for driving an optical system for blur extraction and its control circuit.

AF検検出ミラマフ、位相差型AFF出モジュール14
へ撮影レンズ3を通った光束の一部を導く。AF検検出
ミラマフフィルム露光時にフィルムへの光を遮らないよ
うにAFF出ミラー駆動手段8により退避される。フォ
ーカルブレーンシャッタのシャッタi9は、先幕および
後接を含み、シャッタ酵駆動手段10によって駆動され
る。スイッチS1はシャッタボタンの第1ストロークで
ONL、測光およびAF動作を行なう。スイッチS2は
シャッタボタンの第2ストロークでONする。フィルム
巻上げ手段15は、フィルムの巻上げ、巻戻しを行なう
。スイッチSt’、S2’ は後述するリモートファイ
ンダに設置されたシャッタボタンで、それぞれスイッチ
S1、S2と同じ働きをする。スイッチSCは連写モー
ドを作動するためのスイッチである。
AF detection Miramuff, phase difference type AFF output module 14
A part of the luminous flux passing through the photographing lens 3 is guided to. The AF detection mirror is retracted by the AFF output mirror driving means 8 so as not to block light to the film during exposure of the Miramuff film. The shutter i9 of the focal brain shutter includes a leading curtain and a trailing curtain, and is driven by a shutter driving means 10. The switch S1 performs ONL, photometry, and AF operations at the first stroke of the shutter button. Switch S2 is turned on by the second stroke of the shutter button. The film winding means 15 winds and rewinds the film. Switches St' and S2' are shutter buttons installed on a remote finder, which will be described later, and have the same function as switches S1 and S2, respectively. Switch SC is a switch for operating continuous shooting mode.

ブレ検出光学系40および電子ファインダ用撮像光学系
41はブレ検出光学系駆動1段42によって駆動され、
後述のブレ検出用のCODに光を導くための光学系であ
る。ブレ検出を行なうときはブレ検出光学系40が使用
され、上述のCCDを用いて画像の表7J<を行なうと
きは、電子ファインダ撮象光学系41が使用される。メ
インCPUにはさらに、後述する手ブレを検出するため
の手ブレ補正コントローラ18が接続される。手ブレ補
1Eコントローラ18は丁ブレ検出補IF手段11と交
1dを行なう。
The shake detection optical system 40 and the electronic finder imaging optical system 41 are driven by a shake detection optical system drive first stage 42,
This is an optical system for guiding light to a COD for shake detection, which will be described later. When performing shake detection, a shake detection optical system 40 is used, and when performing image display 7J< using the above-mentioned CCD, an electronic finder imaging optical system 41 is used. The main CPU is further connected to a camera shake correction controller 18 for detecting camera shake, which will be described later. The camera shake compensation 1E controller 18 performs an interaction 1d with the camera shake detection compensation IF means 11.

メインCPUにはさらに、測光値によって定まる露光量
に対し、露出補正を行なうための露出補正量入力手段2
2と、フィルム感度を設定するためのフィルム感度設定
手段23とが接続される。
The main CPU further includes an exposure compensation amount input means 2 for performing exposure compensation for the exposure amount determined by the photometric value.
2 is connected to film sensitivity setting means 23 for setting film sensitivity.

次に電子ファインダについて説明する。第2A図〜第2
D図は電r・ファインダの使用態様を示す図である。’
A2A図を参照して、取り外しおよび引き起こし自在の
電子ファインダ100は、カメラ本体12の上面に設け
られる。電子ファインダ100は、ファインダ像表示用
のLCD63と、シャッタボタン101を含む。電子フ
ァインダ100がm2A図のように用いられると、ウェ
ストレベルファインダとして使用される。第2B図は、
電子ファインダ100を手前へ引き起こした状態を示す
図である。ファインダ接眼レンズをのぞき込まなくても
ファインダ像が見える。したがって、カメラを胸のあた
りから頭上に差し上げたあたりの高さまでファインダ像
を確認しながら写真撮影ができる。第2C図は、電子フ
ァインダ100を前りへ引き起こした状態の図である。
Next, the electronic finder will be explained. Figure 2A ~ 2nd
Figure D is a diagram showing how the electric finder is used. '
Referring to Figure A2A, a removable and retractable electronic viewfinder 100 is provided on the top surface of the camera body 12. The electronic finder 100 includes an LCD 63 for displaying a finder image and a shutter button 101. When the electronic finder 100 is used as shown in the m2A diagram, it is used as a waist level finder. Figure 2B shows
FIG. 3 is a diagram showing a state in which the electronic finder 100 is pulled forward. You can see the finder image without looking into the finder eyepiece. Therefore, you can take pictures while checking the viewfinder image from the height of the camera held above your head. FIG. 2C shows a state in which the electronic finder 100 is pulled forward.

ファインダ像を確認しながらセルフタイマ撮影ができる
。この場合はファインダ像表示用LCD63の映像は通
常の場合と上下が逆になる。第2D図は電子ファインダ
100をカメラボディ12から取り外した状態を示す図
である。電子ファインダ延長コード102により、ファ
インダ像をLCD63で観察しながらレリーズボタン1
01により遠隔撮影できる。
You can take self-timer shots while checking the viewfinder image. In this case, the image on the finder image display LCD 63 is upside down compared to the normal case. FIG. 2D is a diagram showing a state in which the electronic viewfinder 100 is removed from the camera body 12. Using the electronic viewfinder extension cord 102, press the release button 1 while observing the finder image on the LCD 63.
01 allows remote photography.

LCD63への画tmtJ号は、後に第7図を参照して
説明するブレ検出センサ44のCCD撮像部51によっ
て撮像される。このときのCCDの露光時間は、カメラ
の露光をもとに決定する。したがって、LCD6゛うに
はでき上がりの写真の濃淡に近い画像が表示される。オ
ート露光による撮影時に、露出補正を(jなう場合は、
LCD63を見ながら主に露出を合わせたい部分が階調
よく観察できるように露出補正量人力手段22が調節さ
れればよい。マニュアル露光による撮影時の露出の決定
も、LCD63を見ながら主に露出を合わせたい部分が
階調良く観察できるように、絞りおよびシャッタ速度が
調節されればよい。また、意図的に露出オーバあるいは
アンダにしたい場合も、LCD63を観察しながら露出
を決定すれば、狙い通りの露出を有する写真が容品に得
られる。
The image tmtJ on the LCD 63 is captured by the CCD imaging unit 51 of the shake detection sensor 44, which will be explained later with reference to FIG. The exposure time of the CCD at this time is determined based on the exposure of the camera. Therefore, the LCD 6 displays an image with a density similar to that of the finished photograph. When shooting with auto exposure, set exposure compensation (if necessary,
The exposure correction amount manual means 22 may be adjusted so that the part to which the exposure is mainly desired can be observed with good gradation while viewing the LCD 63. When determining the exposure when photographing by manual exposure, the aperture and shutter speed may be adjusted so that the part to be exposed can be observed with good gradation while looking at the LCD 63. Further, even if you want to intentionally overexpose or underexpose, if you decide on the exposure while observing the LCD 63, you will be able to obtain a photograph with the desired exposure.

第3A図はこの発明に係る電子ファインダ付ブレ検出カ
メラの光学系を示す図である。第3A図を参照して、撮
影レンズ3は、ブレ補正レンズ32と、ブレ補正レンズ
32を移動するためのブレ補正レンズ駆動装置33とを
含む。なお、補正レンズ駆動装置33の詳細については
公知であるのでその説明は省略する。カメラボディ12
内にはべりクルミラ−34が固定されており、撮影レン
ズ3を通った光束の一部がファインダ光学系の方へ反射
され、残りがシャツタ幕35の方へ透過される。ペリク
ルミラー34を透過した光束の一部は、AF9出ミラー
7により位相差AF検出モジュール36の方へ導かれる
。AF検出ミラー7は、フィルム露光時にはフィルム上
に到達する露光中の光束を遮らないような位置までAF
検出ミラー駆動f段8(不図示)により退避される。
FIG. 3A is a diagram showing an optical system of a shake detection camera with an electronic finder according to the present invention. Referring to FIG. 3A, the photographing lens 3 includes a shake correction lens 32 and a shake correction lens driving device 33 for moving the shake correction lens 32. Note that the details of the correction lens driving device 33 are well known, so a description thereof will be omitted. camera body 12
A mirror mirror 34 is fixed inside, and part of the light beam passing through the photographic lens 3 is reflected toward the finder optical system, and the rest is transmitted toward the shutter curtain 35. A part of the light beam transmitted through the pellicle mirror 34 is guided toward the phase difference AF detection module 36 by the AF9 output mirror 7. During film exposure, the AF detection mirror 7 performs AF to a position that does not block the light flux reaching the film during exposure.
It is evacuated by the detection mirror drive f stage 8 (not shown).

ペリクルミラー′34により反射された光束は、コンデ
ンサレンズ37を透過してペンタプリズム38に入る。
The light beam reflected by the pellicle mirror '34 passes through the condenser lens 37 and enters the pentaprism 38.

ペンタプリズム38の接眼レンズ39側には測光5PD
2が設けられる。ペンタプリズム38の1つの而38a
は、ハーフミラ−になっており、入射光束の一部をペン
タプリズム38の外へ取出す。取出された光束はブレ検
出光学系40を通り反射鏡4゛うで反射されてブレ検出
センサ44へ達する。ブレ検出光学系40および電子フ
ァインダ用撮像光学系41はブIノ検出光学系駆動手段
42によって駆動され、選択的に光路内に出し入れされ
る。ブレ検出光学系40および電子ファインダ用撮像光
学系41はそれぞれファインダ焦点面45上の像をブレ
検出センサ44上に再結像する。ブレ検出センサ44は
CCDエリアセンサである。なお、ペンタプリズム38
は、ガラスブロックタイプだけではなく、中が空気層と
なっている中空ペンタミラーのようなものでもよい。
There is a photometric 5PD on the eyepiece lens 39 side of the pentaprism 38.
2 is provided. One element 38a of the pentaprism 38
is a half mirror, and extracts a part of the incident light flux to the outside of the pentaprism 38. The extracted light beam passes through a blur detection optical system 40, is reflected by a reflecting mirror 4, and reaches a blur detection sensor 44. The blur detection optical system 40 and the electronic viewfinder imaging optical system 41 are driven by an optical detection optical system driving means 42, and are selectively moved into and out of the optical path. The shake detection optical system 40 and the electronic finder imaging optical system 41 each re-image the image on the finder focal plane 45 onto the shake detection sensor 44. The shake detection sensor 44 is a CCD area sensor. In addition, pentaprism 38
In addition to the glass block type, it may also be a hollow pentamirror with an air layer inside.

以上のようにこの発明においては、ペリクルミラー34
を用いて彼写体の光をブレ検出センサとなるエリアセン
サ44へ伝えるようにしたため、TTL方式のカメラに
おいて画像検出方式でブレ検出が行なわれる。さらに、
ブレ検出センサ44までの光路中にペンタプリズム38
を利用しているため、ブレ検出センサ44までの光路を
別に設ける必要がない。
As described above, in this invention, the pellicle mirror 34
Since the light from the photographic subject is transmitted to the area sensor 44 which serves as a shake detection sensor, blur detection is performed using an image detection method in a TTL camera. moreover,
A pentaprism 38 is placed in the optical path up to the shake detection sensor 44.
, there is no need to provide a separate optical path to the shake detection sensor 44.

第3B図は、ブレ検出光学系駆動手段42まわりの詳細
を示す図である。第3B図を参照して、回転軸205に
ブレ検出光学系40のレンズ40a1電子フアインダ用
撮像光学系41のレンズ41aを固定したレンズホルダ
200.201が固定され、ギヤを介してモータ210
に連結されている。モータ210の軸は、ギヤを介して
円板状チコッパ202と連動し、エンコーダばね202
の回転はフォトカブラ203で読取られる。エンコーダ
ばね202が回転することにより、フォトカブラ203
の両腕間の光の遮断されるたびに、オンオフ信号が発生
する。このパルス信号をコントローラ204がカウント
する。その結果、回転軸の回転量がモニタされる。モニ
タした信号に従って、モータ210への通電をオンまた
はオフすることにより、ブレ検出光学系40.41のそ
れぞれのレンズ40 a % 41 aが回転される。
FIG. 3B is a diagram showing details around the blur detection optical system driving means 42. Referring to FIG. 3B, a lens holder 200.201 having a lens 40a of a blur detection optical system 40 and a lens 41a of an electronic viewfinder imaging optical system 41 fixed to a rotation shaft 205 is fixed to a rotation shaft 205, and a motor 210 is connected to the rotation shaft 205 through a gear.
is connected to. The shaft of the motor 210 is interlocked with the disk-shaped chipper 202 via a gear, and the encoder spring 202
The rotation of is read by the photocoupler 203. As the encoder spring 202 rotates, the photocoupler 203
An on-off signal is generated each time the light between the arms of the robot is interrupted. The controller 204 counts this pulse signal. As a result, the amount of rotation of the rotating shaft is monitored. Each lens 40a% 41a of the blur detection optical system 40.41 is rotated by turning on or off power to the motor 210 according to the monitored signal.

このようにしてブレ検出光学系駆動手段42はブレ検出
光学系40と電子ファインダ用撮像光学系41の光路を
切換える。
In this manner, the blur detection optical system driving means 42 switches the optical path between the blur detection optical system 40 and the electronic finder imaging optical system 41.

以上のようにこの発明においては、ブレ検出光学系駆動
手段42によって被写体像のブレ検出センサ44への投
影される光学系が切換えられる。
As described above, in the present invention, the optical system for projecting the subject image onto the blur detection sensor 44 is switched by the blur detection optical system driving means 42.

その結果、ブレ検出に用いられる画素領域とピントを合
わせるべく選んだAFエリアとが切換えられる。
As a result, the pixel area used for blur detection and the AF area selected for focusing are switched.

第4A図〜第4C図はファインダスクリーンを示す図で
ある。第4A図、第4B図のaは透明なブレ検出領域で
あり、この領域があるためにセンサ44への光路が確保
されるとともにセンサ44への光量が増す。Cで表わさ
れる領域はファインダスクリーンのマット部で、光が散
乱し、従来通り像がこの上に結ばされ、ピントが検出さ
れる。
FIGS. 4A to 4C are diagrams showing finder screens. 4A and 4B is a transparent blur detection area, and because of this area, an optical path to the sensor 44 is secured and the amount of light to the sensor 44 is increased. The area indicated by C is the matte portion of the finder screen, on which light is scattered, an image is focused on it, and the focus is detected in the conventional manner.

aで示される領域はまたブレ検出領域のファインダ表示
枠の表示用にも用いられる。第4A図のbは、電子ファ
インダの視野範囲であり、この部分も透明であり、電子
ファインダ用撮像光学系41へ光量が増すようになって
いる。第4C図はファインダスクリーンの全面が透明で
ある場合を示す図である。
The area indicated by a is also used for displaying the finder display frame of the shake detection area. b in FIG. 4A is the field of view range of the electronic finder, and this part is also transparent, so that the amount of light to the imaging optical system 41 for the electronic finder increases. FIG. 4C is a diagram showing a case where the entire surface of the finder screen is transparent.

ブレ検出光学系40によりファインダスクリーンCの中
央近傍の一部aが撮像面に結像される。
A portion a near the center of the finder screen C is imaged on the imaging surface by the blur detection optical system 40.

この像がブレ検出センサ44によって用いられる。This image is used by the shake detection sensor 44.

また電子ファインダ川撮像光学系41が用いられると、
ファインダスクリーンCのほぼ全域が撮像面に結像され
、その像が電子ファインダ用の像として使用される。
Furthermore, when the electronic finder imaging optical system 41 is used,
Almost the entire area of the finder screen C is imaged on the imaging surface, and the image is used as an image for the electronic finder.

なお第3A図を参照して、撮影レンズ3はレンズマウン
ト部46を介してカメラボディ12に取付けられており
、交換が−り能である。
Note that, referring to FIG. 3A, the photographing lens 3 is attached to the camera body 12 via a lens mount portion 46, and is replaceable.

なお、手ブレ補正レンズの付いていない通常のレンズが
カメラボディ12に取付けられた場合は、ブレが検出さ
れたときファインダスクリーンに警告が表示される。電
子ファインダに「手ブレ注意」と文字で手ブレの警告が
行なわれてもよい。
Note that if a normal lens without a camera shake correction lens is attached to the camera body 12, a warning will be displayed on the finder screen when shake is detected. A warning about camera shake may be displayed on the electronic viewfinder with the words "Be careful of camera shake".

第5図はこの発明に係る光学系の別の実施例である。こ
の場合においては第3A図に示した光学系に比べてペン
タプリズム38が省略されている。
FIG. 5 shows another embodiment of the optical system according to the invention. In this case, the pentaprism 38 is omitted compared to the optical system shown in FIG. 3A.

ペンタプリズム38やファインダスクリーン、コンデン
サレンズ37がないので、その分コストが安くでき、ま
た軽くそしてコンパクトになる。ブレ検出センサ44′
の前方にはセンサ川再結像レンズ45′が設けられる。
Since there is no pentaprism 38, finder screen, or condenser lens 37, the cost can be reduced accordingly, and it is also lighter and more compact. Shake detection sensor 44'
A reimaging lens 45' is provided in front of the sensor.

小領域用リレーレンズ40′および大領域用リレーレン
ズ41′は、切換えて用いられ、それによってエリアセ
ンサ44′に導く光束が切換えられる。この実施例に係
る光学系においては、反射ミラー43′、光学系駆動ア
クチュエータ42′が設けられる。
The small-area relay lens 40' and the large-area relay lens 41' are used in a switched manner, thereby switching the light flux guided to the area sensor 44'. The optical system according to this embodiment is provided with a reflecting mirror 43' and an optical system drive actuator 42'.

T86A図、第6B図は第5図に示したこの発明の別の
実施例に係る光学系を用いた場合のファインダスクリー
ンの使用状態を示す図である。これらの図は岐初の実施
例に係る第2A図〜第2D図に対応する。第6A図、第
6B図を参照して、電子ファインダ63は取り外しが可
能である。
FIGS. T86A and 6B are diagrams showing how the finder screen is used when the optical system according to another embodiment of the invention shown in FIG. 5 is used. These figures correspond to FIGS. 2A to 2D according to the first embodiment. Referring to FIGS. 6A and 6B, the electronic finder 63 is removable.

次に第7図を参照して手ブレ検出補正手段11の内容を
説明する。手ブレ検出センサ44はCCD撮像部51と
、CCD出力を増幅する出力アンプ52と、CCDの積
分時間を制御するための魚皮モニタ53と、肺1先回路
54とを含む。クロックジェネレータ55は、測光回路
54の出力を検知してCCDの積分時間および出力アン
プのゲインを設定する。また、クロックジェネレータ5
5はCODの駆動クロック、A/Dコンバータ61、D
/Aコンバータ58、感度ばらつき補正メモリ59、暗
出力補正メモリ60のクロックも発生する。ブレ検出セ
ンサ44の出力は、差動アンプ56およびゲインコント
ロールアンプ57を通ってA/Dコンバータ61へ人力
される。暗出力補正メモリ60、感度ばらつき補正メモ
リ59にはそれぞれCCDの感度ばらつき、暗出力の補
正のためのデータが記憶されている。暗出力補正メモリ
60は、D/Aコンバータ58に対しデータを出力する
。D/A変換の出力/:号は、差動アンプ56の差動入
力に入力される。これによりCCD51の暗出力は補正
される。ゲインコントロールアンプ57はデジタル信号
により増幅度が制御されるアンプである。ゲインコント
ロールアンプ57は感度ばらつき補正メモリ59に記憶
されている感度ばらつき補正データにより制御され、C
CD出力の感度ばらつきを補正する。
Next, the contents of the camera shake detection and correction means 11 will be explained with reference to FIG. The camera shake detection sensor 44 includes a CCD imaging section 51, an output amplifier 52 for amplifying the CCD output, a fish skin monitor 53 for controlling the integration time of the CCD, and a lung 1 circuit 54. A clock generator 55 detects the output of the photometric circuit 54 and sets the integration time of the CCD and the gain of the output amplifier. In addition, the clock generator 5
5 is a COD drive clock, A/D converter 61, D
A clock is also generated for the /A converter 58, the sensitivity variation correction memory 59, and the dark output correction memory 60. The output of the shake detection sensor 44 is input to the A/D converter 61 through a differential amplifier 56 and a gain control amplifier 57. The dark output correction memory 60 and the sensitivity variation correction memory 59 respectively store data for correcting CCD sensitivity variations and dark output. Dark output correction memory 60 outputs data to D/A converter 58. The output signal of the D/A conversion is input to the differential input of the differential amplifier 56. As a result, the dark output of the CCD 51 is corrected. The gain control amplifier 57 is an amplifier whose amplification degree is controlled by a digital signal. The gain control amplifier 57 is controlled by the sensitivity variation correction data stored in the sensitivity variation correction memory 59, and
Correct sensitivity variations in CD output.

A/Dコンバータ61の出力信号は、画像部メモリ64
、基準部メモリ65または嘗照部メモリ66に記憶され
る。アドレス生成器67は画像メモリ64、基準部メモ
リ65、参照部メモリ66の各メモリの動作に必要なア
ドレスデータを発生させる。
The output signal of the A/D converter 61 is sent to the image section memory 64.
, are stored in the reference section memory 65 or reference section memory 66. The address generator 67 generates address data necessary for the operation of the image memory 64, the reference part memory 65, and the reference part memory 66.

演算器68は減算回路69と、絶λ・I鎖回路70と、
加算回路71とレジスタ72とを含む。基準部メモリ6
5および参照部メモリ66のデータが入力として与えら
れる。
The arithmetic unit 68 includes a subtraction circuit 69, an absolute λ/I chain circuit 70,
It includes an adder circuit 71 and a register 72. Reference section memory 6
5 and the data in the reference section memory 66 are given as inputs.

演算器68からの演算結果は、演算の種類により相関結
果メモリ73、縦コントラストメモリ74または横コン
トラストメモリ75のどれかに記憶される。これらのメ
モリは、コントロールCPL176に接続されており、
コントロールCPU76からアクセスできる。コントロ
ールCPU76は、アドレス生成器67およびクロック
ジェネレータ55の制御も行なう。画像メモリ64のデ
ータは、D/Aコンバータ77でD/A変換され、映像
信号処理回路62に人力される。スイッチSRVは電子
ファインダであるLCD63を前方へ引き起こした場合
にONとなるスイッチである。
The calculation results from the calculator 68 are stored in a correlation result memory 73, a vertical contrast memory 74, or a horizontal contrast memory 75 depending on the type of calculation. These memories are connected to the control CPL 176,
It can be accessed from the control CPU 76. Control CPU 76 also controls address generator 67 and clock generator 55. The data in the image memory 64 is D/A converted by a D/A converter 77 and input to the video signal processing circuit 62 . The switch SRV is a switch that is turned on when the LCD 63, which is an electronic viewfinder, is pulled forward.

このスイッチがONされることにより、映像信号処理回
路62は上下反転させて映像をLCD63に表示する。
When this switch is turned on, the video signal processing circuit 62 displays the video on the LCD 63 with the video upside down.

次にブレ検出の方法およびブレ量の演算を示す。Next, a method of detecting blur and calculation of the amount of blur will be described.

まずブレ検出のシーケンスについて説明する。この発明
においては、二次元の画像データを検出し得るエリアセ
ンサ44を用いて被写体像を平面的に検出する。その被
写体像の時間によるずれをエリアセンサ44を用いて検
出することにより、画像のブレを検出している。
First, the shake detection sequence will be explained. In this invention, a subject image is detected in a two-dimensional manner using an area sensor 44 that can detect two-dimensional image data. Image blur is detected by detecting the shift of the subject image over time using the area sensor 44.

CCD51はlxJ画索のエリアセンサである。The CCD 51 is an lxJ area sensor.

、AA準郡部メモリ65よび参照部メモリ66はそれぞ
れ!XJワードのメモリであり、相関結果メモリ73は
HXHワードの容量を有するメモリである。CCD51
の受光面をMXNのブロックに分けて考える。各ブロッ
クは隣接するKXL画素で構成される。縦コントラスト
メモリ74、横コントラストメモリ75はそれぞれMX
Nワードの容量を有するメモリである。以下、ブレ検出
の手順を説明するが、ここでは1−68、J−52、K
−8、L−8、M−8、N−6、H−5とする。
, AA sub-division memory 65 and reference section memory 66, respectively! The memory has a capacity of XJ words, and the correlation result memory 73 has a capacity of HXH words. CCD51
Consider dividing the light-receiving surface into MXN blocks. Each block is composed of adjacent KXL pixels. The vertical contrast memory 74 and the horizontal contrast memory 75 are each MX
The memory has a capacity of N words. The procedure for detecting blur will be explained below.
-8, L-8, M-8, N-6, H-5.

A/Dコンバータ61の分解能は8ビツトであり、レジ
スタ72は14ビツトであり、相関結果メモリ73、縦
コントラストメモリ74、横コントラストメモリ75の
1ワードはそれぞれ14ビツトで表わされるとする。
It is assumed that the resolution of the A/D converter 61 is 8 bits, the register 72 is 14 bits, and one word of the correlation result memory 73, vertical contrast memory 74, and horizontal contrast memory 75 is each represented by 14 bits.

第8図はCCD51の受光部の一部の模式図である。小
さい正方形の1個の格子が単位画素を表わしている。図
中左ドの画素を画素(1,1)とし、右上の画素を画素
(68,52)とする。受光部の外周の2画素を除いて
CCD51の受光部は8画素×8画素で構成されるブロ
ックに分割される。図中太線で囲まれた部分が各ブロッ
クに対応する。左ドのブロックをブロック(L 1)、
右上のブロックをブロック(8,6)とする。
FIG. 8 is a schematic diagram of a portion of the light receiving section of the CCD 51. One grid of small squares represents a unit pixel. In the figure, the pixel on the left side is assumed to be pixel (1, 1), and the pixel on the upper right side is assumed to be pixel (68, 52). The light receiving section of the CCD 51 is divided into blocks each consisting of 8 pixels x 8 pixels, except for two pixels on the outer periphery of the light receiving section. The parts surrounded by thick lines in the figure correspond to each block. Block the block on the left (L 1),
Let the upper right block be block (8, 6).

ブレ検出のシーケンスは大きく (1) コントラスト計算およびブロックの選択 (2)  +n関シ1算 (3) 内挿=1算 の3つの部分に分けられる。The shake detection sequence is large. (1) Contrast calculation and block selection (2) +n Kanshi 1 arithmetic (3) Interpolation = 1 calculation It is divided into three parts.

コントラスト計算はブロックの選択のために行なわれる
計算である。CCD51の受光部に結像した被写体の各
部には、ブレ検出に適した部分もあればそうでない部分
もある。本実施例ではブレ検出に適した部分を選び出す
ために被写体のコントラストの計算を行なう。各ブロッ
クごとに被写体のコントラストが計算され、縦方向のコ
ントラストの大きいブロック4個および横方向のコント
ラストの大きいブロック4個の計8個のブロックを月1
いてブレの検出が?iなわれる。
Contrast calculation is a calculation performed for block selection. Among the various parts of the object imaged on the light receiving section of the CCD 51, some parts are suitable for blur detection, while others are not. In this embodiment, the contrast of the object is calculated in order to select a portion suitable for blur detection. The contrast of the subject is calculated for each block, and a total of 8 blocks, 4 blocks with high contrast in the vertical direction and 4 blocks with high contrast in the horizontal direction, are taken once a month.
Is it possible to detect blur? i will be told.

(1) コントラスト計算およびブロック選択の説明 まずCCD51の出力が基準部メモリ65および蓼照部
メモリ66の両方に記憶される。このデータを用いて各
ブロックの縦方向のコントラストおよびbA/r向のコ
ントラストが計算される。スl算はブロック(1,1)
、(2,1)、・・・ (7゜6) 、(8,6)の横
方向コントラスト、ブロック(1,1)、(2,1)%
・・・(7,6)、(8゜6)の縦方向のコントラスト
の順に行なう。
(1) Description of contrast calculation and block selection First, the output of the CCD 51 is stored in both the reference part memory 65 and the taillight part memory 66. Using this data, the contrast in the vertical direction and the contrast in the bA/r direction of each block is calculated. The calculation is block (1, 1)
, (2,1), ... (7°6), (8,6) horizontal contrast, block (1,1), (2,1)%
...The vertical contrast is performed in the order of (7, 6) and (8°6).

CCD51の画素(i、  j)の出力をA(i。The output of pixel (i, j) of CCD 51 is A(i.

j)として、ブロック(k、  (1,)の横方向のコ
ントラストを 縦方向のコントラストを が与えられるようにアドレス生成器67からアドレスが
送出される。減算回路69で減算されたデータは絶対値
回路70で絶対値をとられ、加算回路71でレジスタ7
2の内容に加算されてレジスタ72に記憶される。次に
i−it1となるべきアドレスをアドレス生成器67か
ら送出し、同様の=1mが行なわれる。このようにして
、1−8(k−1)+2〜8に+2、j−8(fL−1
) +3〜8N+2の範囲で処理を行なうとレジスタ7
2には、 この計算式を第7図のハードウェアで実行する手順を次
に説明する。CCD51の画4(i、j)の出力に対応
する基準部メモリ65の内容をR(1,J)、参照部メ
モリ66の内容をS(i。
j), an address is sent from the address generator 67 so that the horizontal contrast and the vertical contrast of the block (k, (1,) are given.The data subtracted by the subtraction circuit 69 is an absolute value. The absolute value is taken in the circuit 70 and added to the register 7 in the adder circuit 71.
2 and stored in the register 72. Next, the address to be i-it1 is sent from the address generator 67, and the same =1m is performed. In this way, +2 to 1-8(k-1)+2 to 8, j-8(fL-1
) When processing is performed in the range of +3 to 8N+2, register 7
2, the procedure for executing this calculation formula on the hardware shown in FIG. 7 will be explained below. The contents of the reference section memory 65 corresponding to the output of image 4 (i, j) of the CCD 51 are R(1, J), and the contents of the reference section memory 66 are S(i.

j)とする。まず>JJめにレジスタ72をクリアする
。次に減算器69の−h°の入力にRci、j)、他方
の入力ににS (it1.j)’  !但しi −8(
k−1)+2、j−8(鉦−1)+2とする)が記憶さ
れている。
j). First, clear the register 72 >JJ. Next, Rci,j) is input to the -h° input of the subtractor 69, and S (it1.j)'! is input to the other input. However, i −8(
k-1)+2 and j-8(gon-1)+2) are stored.

基準部メモリ65および参照部メモリ66には同一の内
容A(K、j)が記憶されており、Aci、j)婁R(
i、  j) −3ci、  j)であるから、レジス
タ72の内容は横方向のコントラスト タフ2の内容が横コントラストメモリ75のそのブロッ
クに対応するところへ転送されて記憶される。
The reference part memory 65 and the reference part memory 66 store the same contents A(K, j), and Aci, j) R(
i, j) -3ci, j), the contents of the register 72 and the contents of the horizontal contrast tough 2 are transferred to and stored in the horizontal contrast memory 75 corresponding to that block.

同様にし、残りの全ブロックの横方向のコントラストが
シ1算によって求められ、横コントラストメモリ75に
記憶される。
Similarly, the contrast in the horizontal direction of all remaining blocks is calculated by calculation and stored in the horizontal contrast memory 75.

次に縦方向のコントラストが計算される。横方向のコン
トラストが31.算された場合と同様に、まずレジスタ
72がクリアされる。次に減算回路69の一方の入口に
R(i、j)%他方の入力にS(i、j→1) (但し
i−8(k−1)+3、j−8(11)+2、とする)
が与えられるようにアドレス生成器67からアドレスが
送出される。
Vertical contrast is then calculated. The horizontal contrast is 31. First, the register 72 is cleared, as in the case of calculation. Next, R(i, j)% is input to one input of the subtraction circuit 69, and S(i, j→1) is input to the other input (however, i-8(k-1)+3, j-8(11)+2, do)
An address is sent from the address generator 67 so that the address is given.

減算回路69で減りされたデータは、絶対値回路70で
絶対値をとられ、加算回路71でレジスタ72の内容に
加算されてレジスタ72に記憶される。次にi=i+1
となるべきアドレスがアドレス生成器67から送出され
、同様の計算が行なわれる。このようにして、i−8(
k−1)+3〜8に+2、j −8(IL−1) +2
〜8悲+2の範囲で処理が行なわれる。その結果レジス
タ721;は、 が記憶されている。ここでA (’+  J) −R(
itj) −8(・it  J)であるから、レジスタ
72のレジスタ72の内容が縦コントラストメモリ74
のそのブロックに対応するところへ転送されて記憶され
る。
The data subtracted by the subtraction circuit 69 has its absolute value taken by an absolute value circuit 70, is added to the contents of a register 72 by an addition circuit 71, and is stored in the register 72. Then i=i+1
The address to be obtained is sent from the address generator 67, and a similar calculation is performed. In this way, i-8(
k-1) +2 to +3 to 8, j -8 (IL-1) +2
Processing is performed in the range of ~8+2. As a result, the following is stored in the register 721; Here A ('+ J) - R(
itj) -8(・it J), so the contents of the register 72 are stored in the vertical contrast memory 74.
is transferred to the location corresponding to that block and stored.

同様にして残りの全ブロックの縦方向のコントラストが
計算され、縦コントラストメモリ74に記憶される。
Similarly, the vertical contrasts of all remaining blocks are calculated and stored in the vertical contrast memory 74.

コントロールCPUは、以上のようにして得られた各ブ
ロックの縦方向および横方向のコントラストの中から最
もコントラストの高いブロックを選び出す。次に残りの
ブロックの中から先に選んだコントラストの方向とは異
なる方向(たとえば先に選んだのが縦方向なら横方向)
で最もコントラストの高いブロックを選び出す。以下同
様にコントラストの方向を変えながらコントラストの高
いブロックの順に8個(縦、構台4個ずつ)のブロック
が選び出される。選ばれたブロックを81〜B8とする
The control CPU selects a block with the highest contrast from among the contrasts in the vertical and horizontal directions of each block obtained as described above. Next, choose a contrast direction from the remaining blocks that is different from the contrast direction you selected first (for example, if the first choice was vertical, then horizontal)
Select the block with the highest contrast. Thereafter, eight blocks (vertical, four gantry blocks each) are selected in descending order of contrast while changing the direction of contrast. The selected blocks are 81 to B8.

(2)相関計算の説明 基準部メモリ65の内容としては、コントラストの計算
を行なったデータが基準画像データとしてそのまま残さ
れる。CCD51からは次々と新しいデータが読出され
、そのたびに参照画像として参照部メモリ66に書込ま
れる。参照部メモリ66に新しくデータが書込まれるた
びに、基準画像と参照画像とが比較され、両者間の空間
的ずれが画像のブレとして検出される。画像のブレは以
上で説明する相関計算および内挿計算で求められる。
(2) Description of Correlation Calculation As for the contents of the reference section memory 65, the data on which the contrast has been calculated is left as is as reference image data. New data is successively read from the CCD 51, and each time new data is written into the reference section memory 66 as a reference image. Every time new data is written to the reference section memory 66, the reference image and the reference image are compared, and a spatial shift between the two is detected as image blur. Image blur is determined by the correlation calculation and interpolation calculation described above.

次式でブロックBk(k−1,2,・・・8)相関((
、■+m−L−1+0°、1.2  >(1i、Jiは
ブロックBkで最も若い画素番号を表わす) fl−m −0の場合を考えると、 となる。この値は基準画像と参照画像の同じ画素のデー
タの差の絶対値を1ブロック分加算したものになる。Q
 m m m O以外の場合について考えると、Ck 
(L m)は基準画像の画素(i、  j)のデータと
参照画像の画*(i+(1,j+m)のデータとの差の
絶対値−1ブロック分加算したものである。8ブロック
分の相関値が加えられたものを相関値 C(話、m)−Σ Ck(庭、m) 貴−1 (Q!−m−−2,−1,0,1,2)とする。
Block Bk (k-1, 2,...8) correlation ((
, ■+m-L-1+0°, 1.2 > (1i, Ji represents the youngest pixel number in block Bk) Considering the case of fl-m -0, it becomes. This value is the sum of the absolute value of the difference between the data of the same pixel in the standard image and the reference image for one block. Q
Considering cases other than m m m O, Ck
(L m) is the absolute value of the difference between the data of pixel (i, j) of the reference image and the data of pixel * (i + (1, j + m)) of the reference image - 1 block is added. 8 blocks. Let the correlation value C (story, m) - Σ Ck (garden, m) Ki -1 (Q! - m - -2, -1, 0, 1, 2) be obtained by adding the correlation value of .

減算回路69の−Jjの人力は基準部メモリ65は接続
され、他方の人力は参照部メモリ66が接続されている
。したがって、レジスタ72をクリアした後減算回路6
9の一方の入力にR(i、j)、他方の入力S (i+
Q、j+m)が入力され、iSjの所定の範囲のデータ
が処理されるようにコントロールCPUにより決定され
たアドレスがアドレス生成器67から送出される。する
とレジスタ72にはC(L m)が得られる。これが相
関結果メモリ73の所定のアドレスのところへ転送され
て記憶される。91口1の鎖を変えて上記の処理が繰返
されることにより、C(11,m)  :(見、 lT
l−−2,−1,0,1,2)がすべて求められる。
The reference section memory 65 is connected to the -Jj input of the subtraction circuit 69, and the reference section memory 66 is connected to the other input. Therefore, after clearing the register 72, the subtraction circuit 6
R (i, j) to one input of 9, and the other input S (i+
Q, j+m) is input, and the address generator 67 outputs an address determined by the control CPU so that data in a predetermined range of iSj is processed. Then, C(L m) is obtained in the register 72. This is transferred to a predetermined address in the correlation result memory 73 and stored. By repeating the above process by changing the chain of 91-unit 1, C(11, m) :(see, lT
l--2, -1, 0, 1, 2) are all found.

(3)内挿計算の説明 計算された相関ViC(1,m)を(を横軸に「nを縦
軸に並べてみると数のような配列になる。
(3) Explanation of interpolation calculation When the calculated correlation ViC (1, m) is arranged on the horizontal axis and n is arranged on the vertical axis, it becomes an array like a number.

e(−2,1)  C(−!、1)  C(0,1) 
 C(1,1)  C(2,1)C(−2,0)  C
(−1,0)  C(0,0)  C(1,0)  C
(2,0)C(−2,−1)  C(−1,−1)  
C(0,−1)  C(1,−1)  C(2,−1)
C(−2,−2)  c(−t、−2)  c(a、−
x)  C(1,−2)  C(2,−2)基準画像と
参照画像の間に全くずれがない場合は、C(L)、 O
)が0になり、配列の外側に行きほど大きい値を持つよ
うになる。また、参照画像が基準画像に対して右に1o
Fi素、上にmO画素ずれていたとすると、C(lLo
 r mO)がOになり、これから遠ざかるほど大きい
値を持つ。しかしながら、像のずれは画素の整数イΔと
は限らない。
e(-2,1) C(-!,1) C(0,1)
C(1,1) C(2,1)C(-2,0) C
(-1,0) C(0,0) C(1,0) C
(2,0)C(-2,-1)C(-1,-1)
C(0,-1) C(1,-1) C(2,-1)
C(-2,-2) c(-t,-2) c(a,-
x) C(1,-2) C(2,-2) If there is no deviation between the standard image and the reference image, C(L), O
) becomes 0, and the further outside the array, the larger the value. Also, the reference image is 1o to the right of the standard image.
Assuming that the Fi element is shifted upward by mO pixels, C(lLo
r mO) becomes O, and the further away from it, the larger the value. However, the image shift is not limited to the integer number Δ of the pixel.

また像ブレの速度は一定ではないので、像ブレによる画
像のボケが基準画像と参照画像で異なることもある。こ
ういう場合の相関値CNL、 m)の分布の様子を等直
線で表わすと第9図のようになる。第9図を参照して、
実際に値が得られているのは図中の格子点上だけである
が、格子間の値を想定して等直線が引かれている。等直
線は中心はど小さい値である。等直線の中心は座標(X
O。
Furthermore, since the speed of image blur is not constant, the blur of the image due to image blur may differ between the standard image and the reference image. The distribution of the correlation values CNL, m) in this case can be expressed as equal straight lines as shown in Fig. 9. Referring to Figure 9,
Although values are actually obtained only on the lattice points in the figure, equal lines are drawn assuming values between the lattices. The center of the isoline has the smallest value. The center of the isoline is the coordinate (X
O.

yo)のMP点であり、参照画像は基準画像に対し横へ
XOs縦へy。だけずれていると考えられる。H1閃:
1算で得られているのは格子点上の値だけであるから、
MP点は格子点のデータを用いて内挿して求める必要が
ある。ブレ険出光学系40の倍率、CCD51の画素サ
イズ、積分時間は実際のブレの大きさを想定してMP点
が −1−5<xQ s yO< 1.5になるように設定
される。
yo), and the reference image is XOs horizontally and y vertically with respect to the reference image. It is thought that there is a deviation. H1 flash:
Since only the values on the grid points are obtained in one calculation,
The MP points must be determined by interpolation using grid point data. The magnification of the blur detection optical system 40, the pixel size of the CCD 51, and the integration time are set so that the MP point satisfies -1-5<xQsyO<1.5, assuming the actual magnitude of the blur.

相関=1算終了後の内挿計算について具体的に説明する
。横方向の=1算について説明する。まずC(鉦、 r
r+)の最小値CN1o、mo)を見つける。
The interpolation calculation after the completion of the correlation=1 calculation will be specifically explained. The calculation of =1 in the horizontal direction will be explained. First, C (gong, r
Find the minimum value CN1o,mo) of r+).

Qoの値およびCtllo−+ 、 me )とC(i
oft 。
The value of Qo and Ctllo−+, me ) and C(i
oft.

mo)との大小関係で第10図の(a) 〜(h)に示
す場合に分けられる。
The cases are divided into the cases shown in (a) to (h) in FIG. 10 depending on the magnitude relationship with mo).

(a)条件の場へ 0≦xg<lと判断する。(a) To the place of conditions It is determined that 0≦xg<l.

点(−1,C(−1,mo ) )と点(0,C(0,
m6))を結ぶ直線(i)と、点(1,C(1,m6 
) )と、点(2,C(2,mo ) )を結ぶ直線(
i i)との交点の(座標をXQとする。
Point (-1,C(-1,mo)) and point (0,C(0,
m6)) and the point (1, C(1, m6
) ) and the straight line (
Let the coordinates of the intersection with i i) be XQ.

lo −−C(28ms)+2・C(1、go)−C(
0,會。)C(Ov))−C(−1,5o)−C(2,
m。)”C(1,56)(b)条件の場合 1くxoく0と判断する。
lo −−C(28ms)+2・C(1, go)−C(
0, meeting. )C(Ov))-C(-1,5o)-C(2,
m. )”C(1,56)(b) In the case of the condition, it is determined that 1 x x0.

点(−2,C(−2,rrmo ) )と、(−1,C
(−1,lTl0 ) )を結ぶ直線(i)と、点(0
゜C(0,mo ) )と、点(1,’C(1,mo 
))を結ぶ直線(11)との交点の庭座標をXQとする
Points (-2,C(-2,rrmo)) and (-1,C
(-1,lTl0) ) and the point (0
゜C(0,mo) ) and the point (1,'C(1,mo
))) Let the garden coordinates of the intersection with the straight line (11) be XQ.

IQ  − C(0,1o)−2◆C(−1、lo)+C(−2,1
a)C(−1,@、)−C(−2,園。)−C(1,@
、)十〇(口、−0)(c)条件の場合 0<xo<1と判断する。
IQ - C(0,1o)-2◆C(-1,lo)+C(-2,1
a) C(-1,@,)-C(-2, Sono.)-C(1,@
, ) 10 (mouth, -0) (c) In the case of the condition, it is determined that 0<xo<1.

以下は(a)の場合と同様で1 、、 =  −C(2,s )”2争C(1,5o)−
C(O山)C(0,sゆ)  −C(−1,s、)−C
(2,m。)+C(1,■。)(d)条件の場合 1≦XO<2と判断する。
The following is the same as in case (a), 1,, = -C(2,s)''2C(1,5o)-
C(O mountain)C(0,syu) -C(-1,s,)-C
(2, m.) + C (1, ■.) (d) In the case of the condition, it is determined that 1≦XO<2.

点(0,C(0,mo ) )、(1,C(1,mo)
)を結ぶ直線(i)と、(2,0(2,m6 ))を通
り傾きが直線(i)と逆符号の直線(ii)との交点の
庭座標をXQ とする。
Point (0,C(0,mo)), (1,C(1,mo)
) and a straight line (ii) that passes through (2,0(2,m6)) and whose slope is opposite to that of the straight line (i). Let XQ be the garden coordinates of the intersection.

、。 、、−3・  C(0,−o  )  +2 ・
C(1,so  )+C(2,IQ  )2 拳(C(
1,go )−C(0,10))(e)条件の場合 一1≦x(1<Qと判断する。
,. ,,-3・C(0,-o)+2・
C(1,so)+C(2,IQ)2 Fist(C(
1,go)-C(0,10))(e) In the case of condition-1≦x(1<Q).

以下は(b)の場合と同様で xo −−〇(0,5o)−2拳C(−1,10)+C
(−2,141)C(−11o)−C(−2,5o)−
C(1,so)+C(0,麿。)(f)条件の場合 −2<x6<−1と判断する。
The following is the same as in (b), xo --〇(0,5o)-2 fistC(-1,10)+C
(-2,141)C(-11o)-C(-2,5o)-
In the case of the condition C(1, so)+C(0, Maro.)(f), it is determined that -2<x6<-1.

点(−1,C(−1,mo ) )と点(0,C(10
,no ) )を通る直線(ii)と点(−2゜C(−
2,mO) )を通り、傾きが直線(i i)と逆符号
の直線(i)との交点の9座標をx6とする。
Point (-1,C(-1,mo)) and point (0,C(10
, no )) and the point (-2°C(-
2, mO) ), and the 9 coordinates of the intersection of the straight line (i i) with the slope and the straight line (i) with the opposite sign are set as x6.

2  ・  (C(0,so  )  −C(−1,s
o  ))(g)および(h)条件の場合 想定している最大のブレを越えるブレが発生したとして
ブレ量検出不能と判断する。
2 ・(C(0,so) -C(-1,s
o)) In the case of conditions (g) and (h), it is determined that the amount of shake cannot be detected as a shake exceeding the assumed maximum shake has occurred.

以上XQを求める手順を示したが、yoについても同様
にして求めることができる。
Although the procedure for determining XQ has been described above, yo can also be determined in the same manner.

次に第3A図に示した補正レンズ32の駆動方法につい
て説明する。第11図は補正レンズ32の駆動方法を説
明するための図である。ここでは像ブレの横方向の成分
だけを考える。第11図において横軸tは時間を表わし
、縦軸Xは像の位置を表わす、1−、.1−2、t−1
、・・・はCCD51の積分開始時刻を表わし、i−3
、L2  、t−1・・・は積分完了時刻を表わす。積
分時間TI、はT1、mt、  −t、で表わされる。
Next, a method of driving the correction lens 32 shown in FIG. 3A will be described. FIG. 11 is a diagram for explaining a method of driving the correction lens 32. Here, only the horizontal component of image blur will be considered. In FIG. 11, the horizontal axis t represents time, and the vertical axis X represents the position of the image, 1-, . 1-2, t-1
,... represent the integration start time of the CCD 51, i-3
, L2, t-1, . . . represent the integration completion time. The integration time TI is expressed as T1,mt,-t.

被写体が交流光源で照明されている場合は、CCD51
の露光量が一定になるように積分時間が表化される。し
たがって、積分時間は一定ではない。積分開始時刻1−
、.1−、、e−1s”’は等間隔Tsである。実線の
曲線301は像ブレがあるときのCCD51上の像の軌
跡を示している。補正レンズ32によるブレ補正が行な
われない場合は、像はこの曲線上を動く。なお、ブレ補
正はt−”tQから開始されるため、曲線301は点(
tg、O)を通るように描かれる。折れ線302は補正
レンズ32の軌跡である。破線の折れ線303は補正レ
ンズ32を動かして補正を行なった場合のCCD51上
の像の軌跡を表わす。点P−2、P−1、P Os・・
・は積分期間1−、〜1−.  1−2〜t−2、t−
、〜を−7・・・における像の平均的な位置を表わす。
If the subject is illuminated with an AC light source, CCD51
The integral time is expressed so that the exposure amount is constant. Therefore, the integration time is not constant. Integration start time 1-
,. 1-, , e-1s"' are equal intervals Ts. A solid curve 301 shows the locus of the image on the CCD 51 when there is image blurring. When blurring is not corrected by the correction lens 32, , the image moves on this curve. Note that the blur correction starts from t-"tQ, so the curve 301 moves on the point (
tg, O). A polygonal line 302 is the locus of the correction lens 32. A broken line 303 represents the locus of the image on the CCD 51 when the correction lens 32 is moved to perform correction. Points P-2, P-1, P Os...
・ is the integration period 1-, ~1-. 1-2~t-2, t-
, ~ represents the average position of the image at -7...

t1〜tl′の間に積分したCCDのデータは、t1◆
1〜t、ヤ、の間に読出され、計算処理が行なわれて像
の位置P、が得られる。”++2からは求められたデー
タにより補正レンズ32が駆動される。
The CCD data integrated between t1 and tl' is t1◆
The image is read out between 1 and t, and calculation processing is performed to obtain the image position P. From ``++2'', the correction lens 32 is driven by the obtained data.

なお、以下の説明の中で、P−2、p−、、P Q s
・・・、X4、X2、X3、・・・、X、′、X2 、
X、  ・・・、xo  Sx、  、x3  ・・・
は点の名称であると同時にその点のX座標の値としても
用いられる。
In addition, in the following explanation, P-2, p-,, P Q s
...,X4,X2,X3,...,X,',X2,
X, ..., xo Sx, , x3 ...
is the name of a point and is also used as the value of the X coordinate of that point.

時刻t−tQからの補正をするためには、tQからt、
の間のブレの速度を求める必要がある。
In order to correct from time t-tQ, from tQ to t,
It is necessary to find the speed of the blur between the two.

最近の2点の像位置の変化からブレの速度を求め、to
〜t7間のブレの速度もそれと同じであると予11?1
する。t−tQの時点でわかっている最新の像位置はP
、である。P−2からP−1までの時間がTS−(T 
x−、−TI−、)/2であるから、t。
Find the speed of blur from the recent changes in the image position of the two points, and
Predict that the speed of the blur between ~t7 is the same as that.11?1
do. The latest image position known at the time of t-tQ is P
, is. The time from P-2 to P-1 is TS-(T
x-, -TI-, )/2, so t.

〜t、のブレの速度の1’ 71?1値VxOはである
。したがって、to〜【、の間、補正光学系はVx(l
の速度で駆動される。
1'71?1 value VxO of the velocity of the blur of ~t. Therefore, between to and [, the correction optical system is Vx(l
is driven at a speed of

次に時刻tmt、の場合を考える。このとき補正レンズ
32はVxoで駆動されたため、Xo’の位置まで移動
される。この時点ではpoの位置がわかっているのでt
 H−12のブレ速度の予測値vxlが計算で次のよう
に求められる。
Next, consider the case of time tmt. At this time, since the correction lens 32 was driven by Vxo, it is moved to the position of Xo'. At this point, the position of po is known, so t
The predicted value vxl of the blur speed of H-12 is calculated as follows.

速度VXjは最近の像位置データに藝づいて求められて
いるため、i(1”=*Hの間のブレ速度の予測値とし
ては、VXOより精度が高いと考えられる。そこで、手
押j誤差ERX、を次のようにして計算する。
Since the velocity VXj is obtained based on recent image position data, it is considered to be more accurate than VXO as a predicted value of the blur velocity during i(1''=*H. The error ERX is calculated as follows.

ERx + ” (Vx O−Vx + )  ” T
Sこれらの鎖からi m i 、での像の位置X、は次
のようにしてr測される。
ERx + ” (Vx O-Vx +) ” T
The position of the image at i m i from S these chains, X, is measured as follows.

X、−VxO−TS−C;−ERx。X, -VxO-TS-C; -ERx.

” (Vxo  c (Vxo  vx+))  ・T
SGは予測係数と呼ばれ、第11図においては、予測係
数G−2の場合が示されている。ここで補正レンズ32
が新しく予測されたX7点へ駆動される必要があるが、
駆動にはt、〜t、/の時間が必要である。その間に像
はX、′の位置へ移動すると予測されるため、補正レン
ズ32はX+ ’ ”)C+ +v、+ X (t+ 
 −t、)の位置へ駆動され、t 、 l 〜t2の間
は■8.の速度で駆動される。
” (Vxo c (Vxo vx+)) ・T
SG is called a prediction coefficient, and FIG. 11 shows the case of prediction coefficient G-2. Here, the correction lens 32
needs to be driven to the newly predicted point X7,
Driving requires a time of t, to t,/. During that time, it is predicted that the image will move to the position of X,', so the correction lens 32 will move to the position of
-t, ), and between t, l and t2, ■8. is driven at a speed of

次に時刻t”tzの場合を考える。このとき補正レンズ
はX、  −X、+vx、−TSで表わされる位置まで
移動されている。この時点では、Pし速度の予測値VX
2が次のように=1算できる。
Next, consider the case of time t"tz. At this time, the correction lens has been moved to the positions represented by X, -X, +vx, -TS. At this point, the predicted value of the velocity
2 can be calculated as 1 as follows.

VX2は1.−12の間のブレ速度の予測値としてはv
xlより精度が高いと考えられる。そこで予11誤差E
RX2を次のように計算する。
VX2 is 1. The predicted value of the blur speed between -12 is v
It is considered that the accuracy is higher than xl. Therefore, the preliminary 11 error E
Calculate RX2 as follows.

E RX 2− (Vx + −Vx 2 )  会T
Sこれらの値から1−12での像の位置X2は次のよう
に千潤される。
E RX 2- (Vx + -Vx 2) T
S From these values, the image position X2 at 1-12 is calculated as follows.

X2−X’ −C; −ERx。X2-X'-C;-ERx.

=X+  +  (Vx  )  −に  (Vx  
+  −VX 2 ) )侮TS ここで補正レンズ32は新しく予ハ1された位置X2へ
駆動される必要があるが、駆動にはt2〜12/の時間
が必要である。その間に像はX2の位置へ移動すると予
3−1できるため補正レンズ32は X2−X2+V、X2・(tz −tz)の位置へ駆動
され、t2′〜t、の間はVX2の速度で駆動される。
=X+ + (Vx) - to (Vx
+ -VX 2 )) TS Here, the correction lens 32 needs to be driven to the newly preset position X2, but the driving requires a time of t2 to 12/. During that time, the image moves to the position of X2, which can be predetermined by 3-1, so the correction lens 32 is driven to the position of X2 - X2 + V, be done.

次に時刻1−1.の場合を考える。このとき補正レンズ
X2″は X2 ”X2+Vx2−’rs で表わされる位置にある。この時点ではP2の位置がわ
かっているためt、〜t4間のずれ速度の(但し【−t
、〜tmt、’の時間は無視する。)vx、はt2〜t
8間のブレ速度の予測値としてvx□よりは精度が高い
と考えられるため予測ffi2mER3を次のように求
める。
Next, time 1-1. Consider the case of At this time, the correction lens X2'' is at a position represented by X2''X2+Vx2-'rs. At this point, the position of P2 is known, so the deviation velocity between t and t4 (however, [-t
, ~tmt,' are ignored. )vx, is t2~t
Since it is considered to be more accurate than vx□ as a predicted value of the blur speed between 8 and 8, the predicted ffi2mER3 is obtained as follows.

ER3−(Vx 2−VX s ) ” TSこれらの
値から1−1.での像の位置X、はX、 =Xz  −
G 嚇ERx a ”X2 + (VX 2−G (Vx 2−VX 3)
 1TS と予測できる。ここで補正レンズ32は新しく予fil
lされた位置X、へ駆動される必要があるが、駆動には
(、〜t、I間の時間が必要である。その間に像はX3
′の位置へ移動すると予測できるため、補正レンズ32
は X、’−x、+vx3* (t31−t3)の位置へ駆
動され、t3′〜t1間はVX 3の速度で駆動される
ER3-(Vx 2-VX s ) ” TS From these values, the image position X at 1-1. is X, = Xz −
G Threat ERx a ”X2 + (VX 2-G (Vx 2-VX 3)
It can be predicted that it will be 1TS. Here, the correction lens 32 is newly prefilled.
The image needs to be driven to the position
Since it can be predicted that the correction lens 32 will move to the position
is driven to the position of X,'-x,+vx3* (t31-t3), and is driven at a speed of VX3 between t3' and t1.

以下、同様にして、X4、VX 4 、Xl 、VX3
、・・・が求められ、補正光学系が駆動される。
Hereinafter, in the same way, X4, VX 4, Xl, VX3
, . . . are determined, and the correction optical system is driven.

なお、本実施例では、予測係数Gは一定とした。Note that in this example, the prediction coefficient G is constant.

しかしながら、ブレ検出の状況によっては補正シーケン
スの途中でGの値が変更されてもよい。数回のブレ補正
が行なわれても、予測誤差ERが小さくならない場合、
あるいは予測誤差ER,の符号が反転しない場合には、
予測係数Gが大きくされてもよい。また予測誤差ER,
の符号が耐えず反転を繰返す場合には、Gの値が小さく
されてもよい。
However, depending on the situation of shake detection, the value of G may be changed during the correction sequence. If the prediction error ER does not become smaller even after several times of blur correction,
Or, if the sign of the prediction error ER, is not reversed,
The prediction coefficient G may be increased. Also, the prediction error ER,
If the sign of G cannot withstand repeated inversions, the value of G may be reduced.

第11図を参照して、時刻t6からtzまでの時間TR
はカメラの撮影露光時間である。第11図かられかるよ
うに、手ブレ補正を行なうシーケンスは、この撮影露光
時間TRの時間内に何回も繰返される。したがって、1
回や2回だけ補正が行なわれるわけではなく、少なくと
も数回補正が行なわれる。したがって、実際の手ブレ量
計算や補正用:1算時間は成る程度短い時間内に行なわ
れる必要がある。また手ブレを検出するセンサの積分時
間T I 3 、T I 2 、・” T 16 ・”
 T I n も短時間である必要がある。撮影露光時
間TRが数10m g 〜1000 m sというオー
ダに対して、TI。は数ms程度である。この関係が保
たれないと手ブレ補正の効果は現われない。
Referring to FIG. 11, the time TR from time t6 to tz
is the camera's exposure time. As can be seen from FIG. 11, the sequence for performing camera shake correction is repeated many times within this photographing exposure time TR. Therefore, 1
Correction is not performed only once or twice, but at least several times. Therefore, the time required for actual camera shake amount calculation and correction must be performed within a reasonably short period of time. In addition, the integral time of the sensor for detecting camera shake is T I 3 , T I 2 , ・” T 16 ・”
T I n also needs to be short. TI while the photographing exposure time TR is on the order of several tens of mg to 1000 msec. is about several ms. If this relationship is not maintained, the effect of image stabilization will not be apparent.

以上のようにこの発明においては、被写体像を検出する
エリアセンサの出力を使ってブレ検出を行ない、検出し
たブレ量を用いて上記のようなブレ補正が行なわれる。
As described above, in the present invention, blur detection is performed using the output of an area sensor that detects a subject image, and the above-described blur correction is performed using the detected amount of blur.

次に交換レンズ3とカメラ本体12とのインタフェース
について説明する。交換レンズ3からはそのレンズ固有
の情報として 補正倍率KBLX、KBLY (ズーミングが行なわれ
た場合に各焦点距離に対応するff1)  :(フィル
ム面の像移動1i1) / (駆動パルス)が入力され
る。
Next, the interface between the interchangeable lens 3 and the camera body 12 will be explained. From the interchangeable lens 3, correction magnifications KBLX, KBLY (ff1 corresponding to each focal length when zooming is performed): (image movement 1i1 on the film surface) / (drive pulse) are input as lens-specific information. .

そして駆動パルスxi−像移動EIXo/補正倍率KB
LXまたはyi−像移動mYo /補正倍率KBLYで
求められる。次に上述のレンズ駆動を行なうために必要
なデータ ■方向X:正、負 ■駆動スピード■xl■駆動パルス
Xl ■駆動パルスX。
And drive pulse xi - image movement EIXo/correction magnification KB
It is determined by LX or yi-image movement mYo/correction magnification KBLY. Next, the data required to drive the lens described above: ■ Direction X: positive, negative ■ Drive speed ■ xl ■ Drive pulse Xl ■ Drive pulse X.

■方向Y:正、負 ■駆動スピードVyl■駆動パルス
Y  ■駆動パルスY。
■Direction Y: Positive, Negative ■Drive speed Vyl ■Drive pulse Y ■Drive pulse Y.

■原点復帰 がレンズ側に出力される。ここで原点復帰信号■は、レ
ンズが原点に復帰されるときにだけセットされ、レンズ
側はこの信号があるときのみ補正レンズ32を原点に復
帰させる。
■Return to origin information is output to the lens side. Here, the origin return signal (2) is set only when the lens is returned to the origin, and the lens side returns the correction lens 32 to the origin only when this signal is present.

なお、レンズ側での$illは入力したデータに基づき
上述のように補正レンズ32が駆動される。
Note that $ill on the lens side drives the correction lens 32 as described above based on the input data.

また検出不能データが出力されたときは、1つ前のデー
タと同一のデータが出力される。
Furthermore, when undetectable data is output, the same data as the previous data is output.

次にCCD51の積分時間の制御について説明する。第
12A図はCCD51の積分時間を制御するための回路
であり、照度モニタ用SPDと測光回路を含む。測光回
路は積分回路およびリセット回路とを含む。照度モニタ
川SPDはCCD51の撮影領域近傍に形成される。照
度モニタSPDの出力である光電流は、積分回路によっ
て積分される。積分回路の出力は積分期間中照度モニタ
に入射した光量に比例する。照度モニタおよび測光回路
を用いるのは、被写体が螢光灯などの交流光源で照明さ
れている場合でもCCD51の出力を一定に保つためで
ある。交流光源の照明下にある被写体を撮像する場合に
、CCD51の積分時間を一定にしていたのでは、毎回
の読出出力が変動するためである。これについては後述
する。CCD51の読出出力を安定させるためには、被
写体の照度に合わせて積分時間が2J節される必要があ
る。この実施例においては、CCD51の積分開始と同
時に測光回路の積分も開始され、積分回路の出力でCC
D51の露光量がモニタされる。
Next, control of the integration time of the CCD 51 will be explained. FIG. 12A shows a circuit for controlling the integration time of the CCD 51, and includes an SPD for illuminance monitoring and a photometry circuit. The photometric circuit includes an integrating circuit and a reset circuit. The illuminance monitor SPD is formed near the imaging area of the CCD 51. The photocurrent that is the output of the illuminance monitor SPD is integrated by an integrating circuit. The output of the integrating circuit is proportional to the amount of light incident on the illuminance monitor during the integration period. The purpose of using the illuminance monitor and photometry circuit is to keep the output of the CCD 51 constant even when the subject is illuminated with an AC light source such as a fluorescent light. This is because when capturing an image of a subject under illumination with an AC light source, if the integration time of the CCD 51 is kept constant, the readout output will vary each time. This will be discussed later. In order to stabilize the readout output of the CCD 51, it is necessary to adjust the integration time by 2J in accordance with the illuminance of the subject. In this embodiment, the photometric circuit starts integrating at the same time as the CCD 51 starts integrating, and the output of the integrating circuit
The exposure amount of D51 is monitored.

第12B図は第12A図の変形例である。FIG. 12B is a modification of FIG. 12A.

次にCCD51をブレ検出用センサとして用いる場合の
第12A図、第12B図に示した積分時間制御回路の動
作について説明する。リセット回路がONされ、精分回
路がリセットされる。CCDの蓄積部の電荷がクリアさ
れる。CCD51の積分が開始されるとリセット回路が
OFFされ、測光回路が積分を開始する。
Next, the operation of the integral time control circuit shown in FIGS. 12A and 12B when the CCD 51 is used as a shake detection sensor will be described. The reset circuit is turned on and the refinement circuit is reset. The charge in the storage section of the CCD is cleared. When the CCD 51 starts integrating, the reset circuit is turned off and the photometry circuit starts integrating.

第13図は測光回路出力の時間的変化を表わす図である
。横軸tは積分時間を表わし、縦軸IはJIJ光回路の
出力の大きさを示す。被写体が交流光源によって照明さ
れている場合、il?1光回路の出力は図に示すように
曲線を描いて上昇していく。測光出力を適当な基準値!
、と比較して、測光出力Iがioになったときに積分回
路がリセットされ、CCD51の積分が打切られる。C
CD51の出力が読出され、露光量が適当であるかどう
かが判断される。露光量が適当である場合には、以後の
露光には基準1i11oが用いられる。露光量が不適当
であった場合は、たとえば露光量かに倍されて1o X
kが新しい基準V11oとされ、以後の露光が行なわれ
る。
FIG. 13 is a diagram showing temporal changes in the output of the photometric circuit. The horizontal axis t represents the integration time, and the vertical axis I represents the magnitude of the output of the JIJ optical circuit. If the subject is illuminated by an AC light source, il? The output of one optical circuit increases in a curved line as shown in the figure. Set the photometric output to an appropriate reference value!
, when the photometric output I reaches io, the integration circuit is reset and the integration of the CCD 51 is discontinued. C
The output of the CD 51 is read and it is determined whether the exposure amount is appropriate. If the exposure amount is appropriate, the reference 1i11o is used for subsequent exposures. If the exposure amount is inappropriate, for example, the exposure amount is multiplied by 1o
k is set as a new reference V11o, and subsequent exposures are performed.

次にCCD51が電子ファインダ用撮像素子として用い
られる場合の積分時間制御回路の動作について説明する
。δ−1光回路31の出力信号、露光補正量人力手段2
2からの信号およびフィルム感度設定手段23からの信
号をもとに基準値Noが設定される(この内容について
は第14図を参照してメインCPUのシーケンスステッ
プ#70で説明する)。
Next, the operation of the integration time control circuit when the CCD 51 is used as an image sensor for an electronic finder will be described. Output signal of δ-1 optical circuit 31, exposure correction amount manual means 2
The reference value No. is set based on the signal from the film sensitivity setting means 23 and the signal from the film sensitivity setting means 23 (this content will be explained in sequence step #70 of the main CPU with reference to FIG. 14).

以上説明したブレ検出、補正およびリモートファインダ
等を含めたカメラのシーケンスをメインCPUおよびブ
レ補」EのコントロールCPUのフローチャートに基づ
いて説明する。
The camera sequence including the blur detection, correction, remote finder, etc. described above will be explained based on the flowchart of the main CPU and the control CPU of the blur correction "E".

まずメインCPUIのシーケンスについて説明する。第
14図を参照して、ステップ#5(以下ステップを略す
)のループでメインCPUは待機状態にある。すなわち
、#5のループによって、レリーズボタンの第1ストロ
ークでスイッチS1がONになるのを待っている。スイ
ッチS1がONになると、AF完了フラグAFEFおよ
び信号がリセットされ(#10)、υ1光回路31、A
F険出出モジュール14手ブレ補正コントローラ18等
必要な回路の電源が投入される(# 15)。
First, the main CPUI sequence will be explained. Referring to FIG. 14, the main CPU is in a standby state in the loop of step #5 (hereinafter the step is abbreviated). That is, the loop #5 waits for the switch S1 to be turned on by the first stroke of the release button. When the switch S1 is turned ON, the AF completion flag AFEF and the signal are reset (#10), and the υ1 optical circuit 31, A
Power is turned on to necessary circuits such as the F exposure module 14 and the image stabilization controller 18 (#15).

次に補正レンズ32の原点復帰信号が撮影レンズ3へ出
力され(#20)、タイマがリセットされた後、スター
トされ(#25)、撮影レンズ3のレンズデータが人力
され(#30) 、開放測光が行なわれる(# 35)
Next, the origin return signal of the correction lens 32 is output to the photographic lens 3 (#20), the timer is reset, and then started (#25), the lens data of the photographic lens 3 is input manually (#30), and the camera is opened. Photometry is performed (#35)
.

#40ではAF完了フラグAFEFが1かどうかが判断
され、1であればプログラムは#65ヘジャンプし、1
でなければプログラムは#45へ進む。#45ではAF
検出が行なわれる。#50では、#45のAF検出の結
果合焦しているかどうかが判断される。合焦していれば
プログラムは#55へ行き、合焦していなければ#60
へ分岐する。#60ではピント位置へ撮影レンズ3が駆
動された後、#45ヘプログラムはジャンプする。
In #40, it is determined whether the AF completion flag AFEF is 1, and if it is 1, the program jumps to #65, and the AF completion flag AFEF is set to 1.
Otherwise, the program proceeds to #45. AF in #45
Detection is performed. In #50, it is determined whether or not the subject is in focus as a result of the AF detection in #45. If it is in focus, the program goes to #55, if it is not in focus, it goes to #60.
Branch to. After the photographing lens 3 is driven to the focus position in #60, the program jumps to #45.

#55でAF完了フラグAFEFが1にされる。At #55, the AF completion flag AFEF is set to 1.

#65では#35で得られた1111光値、フィルム感
度および#45のAFの結果得られた距離情報をもとに
AE演算が行なわれる。#70ではCCD51の露光量
が設定される。
In #65, AE calculation is performed based on the 1111 light value obtained in #35, the film sensitivity, and the distance information obtained as a result of AF in #45. In #70, the exposure amount of the CCD 51 is set.

#75でシャッタボタンの第2ストロークのスイッチS
2がONされているかどうかがチエツクされる。スイッ
チS2がONであれば、プログラムは#105へ行き、
ONでなければ#80へ分岐する。#80ではスイッチ
S1がONかどうかを判断する。スイッチS1がONで
あれば、プログラムは#25ヘジャンプする。ONでな
ければシャッタボタンが全く押されていないので、#8
5で一定時間経過しているかどうかをタイマでチエツク
する。一定時間経過していれば11$3光回路3、AF
検出モジュール14、手ブレ補正コントローラ18等の
回路の電源をOFF (#100)してから#5の待機
状態へプログラムはジャンプする。
At #75, switch S for the second stroke of the shutter button
It is checked whether or not 2 is turned on. If switch S2 is ON, the program goes to #105,
If not ON, branch to #80. In #80, it is determined whether the switch S1 is ON. If switch S1 is ON, the program jumps to #25. If it is not ON, the shutter button has not been pressed at all, so #8
In step 5, check the timer to see if a certain amount of time has elapsed. If a certain period of time has passed, 11$3 Optical circuit 3, AF
After turning off the power to the circuits such as the detection module 14 and the camera shake correction controller 18 (#100), the program jumps to the standby state in #5.

一定時間経過しなければ、AF完了フラグAFEFが0
に設定され(#90)、プログラムは#80へ進む。
If a certain period of time does not pass, the AF completion flag AFEF becomes 0.
is set (#90), and the program proceeds to #80.

#105では、シャッタボタンの第2ストロークが押さ
れているのでレリーズ信号がHレベルにされ、コントロ
ールCPUにその旨が知らされる。
At #105, since the second stroke of the shutter button has been pressed, the release signal is set to H level, and the control CPU is notified of this.

#110以降は撮影レンズ3の絞りを#65のAE演算
で求めた絞り値まで絞り込む(# 110)。
After #110, the aperture of the photographic lens 3 is stopped down to the aperture value determined by the AE calculation in #65 (#110).

電子ファインダ用撮像光学系41がらブレ検出光学系4
0へ光学系が切換えられ(#115)、ブレ検出信号が
Hレベルにされ、コントロールcPυのブレ検出シーケ
ンスがスタートされる(#120)。AFミラー7が退
避され(#125)、絞り込み111光が行なわれ(#
130) 、AE演算を行なったシャッタ速度が修正さ
れる(審135)。
Image pickup optical system 41 for electronic finder Shake detection optical system 4
The optical system is switched to 0 (#115), the shake detection signal is set to H level, and the shake detection sequence of the control cPυ is started (#120). The AF mirror 7 is retracted (#125), and the focusing 111 light is performed (#125).
130), the shutter speed at which the AE calculation was performed is corrected (Trial 135).

#140ではコントロールCPUがらの露出許可信号が
Hレベルになるのを待つ。露出許可信号がHレベルにな
れば、シャッタ′Fi9が走行され、露出制御が行なわ
れる(# 145)。露光が終われば、原点復帰信号が
撮影レンズ3に出力され(#150)、補正レンズ32
が原点位置へ戻され、ブレ検出信号がLレベルにされて
露光が終了したことがコントロールcPUへ知らされる
(#155)。
At #140, the CPU waits until the exposure permission signal from the control CPU becomes H level. When the exposure permission signal becomes H level, the shutter 'Fi9 is operated and exposure control is performed (#145). When the exposure is completed, a return-to-origin signal is output to the photographing lens 3 (#150), and the correction lens 32
is returned to the origin position, the shake detection signal is set to L level, and the control cPU is notified that the exposure has ended (#155).

フィルムの巻上げを行ない(#160)、連写モードか
どうかが判断される(# 165)。速写モードでなけ
れば、#180へプログラムは分岐し速写モードであれ
ば#17oへ行き、スイッチS2がONかどうかが判断
される。ここでスイッチS2がOFFであれば、連写モ
ードではあるが連写しないでのプログラムは#18oへ
分岐する。
The film is advanced (#160), and it is determined whether continuous shooting mode is selected (#165). If it is not the quick-shot mode, the program branches to #180, and if it is the quick-shot mode, the program goes to #17o, where it is determined whether the switch S2 is ON. Here, if the switch S2 is OFF, the program branches to #18o in continuous shooting mode but not continuous shooting.

スイッチS2がONであれば、速写を行なうので、ブレ
検出信号がHレベルにされ(#175)、プログラムは
#130ヘジャンプする。
If the switch S2 is ON, rapid shooting is performed, so the blur detection signal is set to H level (#175) and the program jumps to #130.

#180以降は、AFミラー7が検出位置へ戻され(1
180)、撮影レンズ3の絞りが開hkされ(#185
)、レリーズ信号がLレベルにされて(#190)、コ
ントロールCPUIにその旨が知らされる。ブレ検出光
学系40が電子ファインダ用撮像光学系41に切換えら
れ(#200)、S2がOFFになるのを待ち(#20
5)、プログラムは#80ヘジャンプして次の撮影に備
えられる。
After #180, the AF mirror 7 is returned to the detection position (1
180), the aperture of the photographic lens 3 is opened (#185)
), the release signal is set to L level (#190), and the control CPUI is notified of this. The camera shake detection optical system 40 is switched to the electronic viewfinder imaging optical system 41 (#200), and waits for S2 to turn OFF (#20).
5) The program jumps to #80 and prepares for the next shooting.

次にコントロールCPUの動作について第15図を参照
して説明する。第14図の#15で千4ブレ補正コント
ローラ18の電源が投入され、シーケンスがスタートさ
れる。フラグ、出力信号がリセットされ(#B5) 、
CCD51の積分がリセットされた後積分が開始される
(# B 10)。#B15で積分が終了された場合、
読出したデータが画像メモリ64ヘダンプされる(#B
20)。
Next, the operation of the control CPU will be explained with reference to FIG. At #15 in FIG. 14, the power to the 14-shake blur correction controller 18 is turned on, and the sequence is started. The flag and output signal are reset (#B5),
After the integration of the CCD 51 is reset, integration is started (#B10). If the integration is finished at #B15,
The read data is dumped to the image memory 64 (#B
20).

ダンプされたデータは順次読出されてD/A変換され、
映像信号処理回路62によりLCD63で画像が表示さ
れる。#B25では、CCD51の積分がリセットされ
た後、積分がスタートされ、プログラムは#B15ヘジ
ャンプする。
The dumped data is sequentially read out and D/A converted,
An image is displayed on the LCD 63 by the video signal processing circuit 62. At #B25, after the integration of the CCD 51 is reset, integration is started, and the program jumps to #B15.

#B15で積分が終了していないときは、プログラムは
#B30へ分岐する。#B30ではメインCPUからの
レリーズ信号がチエツクされ、Hレベルであればプログ
ラムは# B 35−\進み、Lレベルであればプログ
ラムは#B15へ分岐する。
If the integration is not completed at #B15, the program branches to #B30. At #B30, the release signal from the main CPU is checked, and if it is at H level, the program advances to #B35-\, and if it is at L level, the program branches to #B15.

#B35ではメインCPtJからのブレ検出信号がHレ
ベルになってブレ検出が開始されるのを待つ。
At #B35, it waits until the shake detection signal from the main CPtJ becomes H level and shake detection is started.

ブレ検出信号がHレベルになれば、CCD51の積分リ
セットの後、積分が開始される。(#B40)。このと
き光学系はメインCPUによって既にブレ検出光学系の
方に切換えられている。#B45でCCD’51の積分
終了が待たれる。CCD51の積分終了後は、読出した
データが基準メモリ65および参照メモリ66ヘダンブ
される(# B ’30)。CCD51の積分リセット
後、積分が開始される(# B 55)。
When the shake detection signal becomes H level, integration is started after the CCD 51 is reset. (#B40). At this time, the optical system has already been switched to the blur detection optical system by the main CPU. At #B45, the completion of the integration of CCD'51 is awaited. After the CCD 51 completes the integration, the read data is dumped into the standard memory 65 and reference memory 66 (#B'30). After the integration of the CCD 51 is reset, integration is started (#B 55).

コントラスト演算が行なわれ(#B60) 、ブレ検出
に用いられるブロックの選択が行なわれる(# B 6
5)。CCD51の積分終了が待たれる(# 870)
。積分終了後は読出したデータを参照メモリ66ヘダン
プしく#B75) 、CCD51の積分リセットの後、
積分が開始される。
Contrast calculation is performed (#B60), and a block to be used for blur detection is selected (#B6
5). Waiting for CCD51 to complete integration (#870)
. After completing the integration, dump the read data to the reference memory 66 (#B75), and after resetting the integration of the CCD 51,
Integration begins.

相関演算(#B85)および内挿演算(#B90)が行
なわれ、像ブレ量が検出される。撮影レンズ3のレンズ
データを読出しく#895)、補正レンズ32の補正、
量、方向がfipされる(#B100)。
A correlation calculation (#B85) and an interpolation calculation (#B90) are performed to detect the amount of image blur. Read the lens data of the photographing lens 3 (#895), correct the correction lens 32,
The amount and direction are fipped (#B100).

#8105でメインCPUからのブレ検出信号がLレベ
ルか否かを判断し、Lレベルであればブレ検出が終了さ
れるためプログラムは#B130へ分岐する。#B10
5でブレ検出信号がLレベルでなければ、ブレ検出を続
けるのでプログラムは#B110へ進む。露出許可信号
がHレベルにされ(#8110)、メインCPUに露出
が開始されてもよいことを知らせ、レンズ補正データが
撮影レンズ3に対して出力され(#B120)、プログ
ラムは#870ヘジャンブする。
In #8105, it is determined whether or not the shake detection signal from the main CPU is at L level. If it is at L level, shake detection is terminated, and the program branches to #B130. #B10
If the shake detection signal is not at L level in step 5, shake detection continues, and the program advances to #B110. The exposure permission signal is set to H level (#8110), notifying the main CPU that exposure may be started, lens correction data is output to the photographing lens 3 (#B120), and the program jumps to #870. .

#B130では、メインCPUからのレリーズ信号がL
レベルかどうかを判断する。Lレベルであれば、撮影が
終わっているのでプログラムは#B10ヘジャンプする
。Lレベルでない場合は連続撮影なので、プログラムは
# B 135へ進み、検出信号がHレベルになるのを
待つ。検出信号がHレベルになれば、プログラムは#B
40B40ヘジヤンプ 第16図はコントロールCPUの別の実施例である。レ
リーズが始まってからも、#B247および#B275
で画像メモリへデータがダンプされ、手ブレ検出の画像
情報が表示される。すなわち、露光寸前までは撮影領域
の全域がLCD63に表示されるのに対し、露光が始ま
ると光学系が切換わって手ブレ検出エリアの表示がLC
D63に行なわれる。
At #B130, the release signal from the main CPU is L.
determine whether the level is If the level is L, the program jumps to #B10 because the shooting has ended. If it is not the L level, continuous shooting is being performed, so the program advances to #B135 and waits for the detection signal to become the H level. If the detection signal goes to H level, the program goes to #B.
40B40 Hedge Jump FIG. 16 is another embodiment of the control CPU. Even after the release starts, #B247 and #B275
The data is dumped to the image memory, and image information for camera shake detection is displayed. In other words, the entire photographic area is displayed on the LCD 63 until just before exposure, but once exposure begins, the optical system is switched and the camera shake detection area is displayed on the LCD.
This is done on D63.

[発明の効果] 以上のようにこの発明によれば、オートフォーカスが0
1能でかつブレ検出および補11:、ができるカメラに
おいては、ファインダ部分のブレ検出領域の近傍のみが
透明にされ、その他の部分は拡散面とされる。したがっ
て、ブレ検出センサへの光量が増加する。その結果、ス
クリーン上でのピントが確認できかつ低輝度の被写体に
対応できるブレ検出が61能でかつ補正ができるカメラ
を提供できる。
[Effects of the Invention] As described above, according to the present invention, autofocus is zero.
In a camera capable of detecting and compensating for blur, only the vicinity of the blur detection area in the viewfinder is made transparent, and the other parts are made into a diffusive surface. Therefore, the amount of light directed to the shake detection sensor increases. As a result, it is possible to provide a camera that can confirm focus on the screen, can handle low-luminance objects, and is capable of detecting and correcting blur.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明に係る電子ファインダ付ブレ検出カメ
ラの中心部をなすメインCPUのブロック図であり、第
2A図〜第2D図は電子ファインダのカメラボディへの
取付状態を説明するための図であり、第3A図はこの発
明に係る電子ファインダ付ブレ検出カメラの光学系を示
す図であり、第3B図はブレ検出光学系駆動手段まわり
の詳細を示す図であり、第4A図〜第4C図は電子ファ
インダのスクリーンを示す図であり、第5図は第3A図
に示した光学系の食形例を示す図であり、第6A図、第
6B図は第5図に示した実施例における電子ファインダ
のカメラボディへの取付状態を示す図であり、第7図は
fブレ検出補正手段のブロック図であり、第8図はCC
Dの受光部の模式図であり、第9図は像ブレ量を求める
ための相関値を説明するための図であり、第10図は内
挿計算の方法を説明するための図であり、第11図は補
正レンズの駆動方法を説明するための図であり、第12
A図、第12B図は、CCDの積分時間を制御する回路
を示す回路図であり、第13図は測光回路出力の時間変
化を表わす図であり、第14因〜第16図はこの発明に
係る電子ファインダ付ブレ検出カメラのメインCPU、
コントロールCPUの動作を説明するためのフローチャ
ートである。 1はメインCPU、2はSPD、3は撮影レンズ、4は
絞り駆動手段、5は焦点調節駆動手段、6は撮影レンズ
回路、7はAF検出ミラー、31は測光回路、32は補
正レンズ、40はブ1ノ検出光学系、41は電子ファイ
ンダ撮像光学系、42は光学系切換手段である。 なお図中、同一符号は同一、または相当部分を示す。
FIG. 1 is a block diagram of a main CPU that forms the central part of a shake detection camera with an electronic viewfinder according to the present invention, and FIGS. 2A to 2D are diagrams for explaining how the electronic viewfinder is attached to the camera body. FIG. 3A is a diagram showing the optical system of the shake detection camera with an electronic viewfinder according to the present invention, and FIG. 3B is a diagram showing details around the shake detection optical system drive means, and FIGS. Figure 4C is a diagram showing the screen of the electronic finder, Figure 5 is a diagram showing an example of the shape of the optical system shown in Figure 3A, and Figures 6A and 6B are diagrams showing the implementation shown in Figure 5. FIG. 7 is a block diagram of the f-shake detection and correction means, and FIG.
FIG. 9 is a diagram for explaining the correlation value for determining the amount of image blur, and FIG. 10 is a diagram for explaining the interpolation calculation method. FIG. 11 is a diagram for explaining the method of driving the correction lens.
Figures A and 12B are circuit diagrams showing a circuit that controls the integration time of the CCD, and Figure 13 is a diagram showing changes in the photometric circuit output over time. The main CPU of the shake detection camera with electronic viewfinder,
3 is a flowchart for explaining the operation of a control CPU. 1 is a main CPU, 2 is an SPD, 3 is a photographic lens, 4 is an aperture drive means, 5 is a focus adjustment drive means, 6 is a photographic lens circuit, 7 is an AF detection mirror, 31 is a photometry circuit, 32 is a correction lens, 40 1 is a detection optical system, 41 is an electronic finder imaging optical system, and 42 is an optical system switching means. In the drawings, the same reference numerals indicate the same or corresponding parts.

Claims (1)

【特許請求の範囲】 オートフォーカスが可能でかつブレ検出および補正が可
能なカメラであって、 ファインダスクリーンと、 前記ファインダスクリーンを通過した光束を用いて被写
体像のブレ検出を行なうブレ検出手段とを含み、 前記ファインダスクリーンの前記ブレ検出を行なう光束
が通過する光路部分の近傍のみが透明であるブレ検出お
よび補正が可能なカメラ。
[Scope of Claims] A camera capable of autofocus and capable of detecting and correcting shake, comprising: a finder screen; and a shake detecting means for detecting shake of a subject image using a light beam passing through the finder screen. A camera capable of detecting and correcting blur, wherein only the vicinity of an optical path portion of the finder screen through which the light flux for detecting the blur passes is transparent.
JP33396689A 1989-12-21 1989-12-21 Camera capable of blur detection and correction Pending JPH03192228A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP33396689A JPH03192228A (en) 1989-12-21 1989-12-21 Camera capable of blur detection and correction
US07/632,075 US5218442A (en) 1989-12-21 1990-12-21 Camera with camera-shake detection apparatus
US07/987,778 US5270767A (en) 1989-12-21 1992-12-09 Camera with camera-shake detection apparatus
US08/120,443 US5365304A (en) 1989-12-21 1993-09-14 Camera with camera-shake detection apparatus
US08/292,289 US5420661A (en) 1989-12-21 1994-08-18 Camera with camera-shake detection apparatus
US08/987,055 US6215960B1 (en) 1989-12-21 1997-12-09 Camera with camera-shake detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33396689A JPH03192228A (en) 1989-12-21 1989-12-21 Camera capable of blur detection and correction

Publications (1)

Publication Number Publication Date
JPH03192228A true JPH03192228A (en) 1991-08-22

Family

ID=18271982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33396689A Pending JPH03192228A (en) 1989-12-21 1989-12-21 Camera capable of blur detection and correction

Country Status (1)

Country Link
JP (1) JPH03192228A (en)

Similar Documents

Publication Publication Date Title
US5365304A (en) Camera with camera-shake detection apparatus
JP2003344891A (en) Automatic photographing mode setting camera
JP2985087B2 (en) Focus detection device
JP2009015185A (en) Image detection device, focusing device and image pickup apparatus
JP2008187231A (en) Image tracking device and imaging device
JP2017103601A (en) Focus detector and camera
JP5959871B2 (en) Imaging device, control method thereof, and control program
JP2010109923A (en) Imaging apparatus
US5270767A (en) Camera with camera-shake detection apparatus
JP3254689B2 (en) Camera that can detect and correct blur
JP2973443B2 (en) camera
JP7224839B2 (en) Imaging device and its control method
JPH03192228A (en) Camera capable of blur detection and correction
JP2002131824A (en) Camera
JP5473479B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2926812B2 (en) Image blur detection device
JP3365852B2 (en) Camera with suitability indication
JP6005955B2 (en) Photometric device and imaging device
JPH03192229A (en) Blur detection camera
JP2011075841A (en) Imaging apparatus
JPH03192882A (en) Blur correction camera provided with electronic view finder
JP3421993B2 (en) Camera with monitor
JP2024004307A (en) Imaging device and control method thereof, program, and storage medium
JP2002372664A (en) Moving body region discriminating system, method of discriminating moving body region and focusing device
JPH06110107A (en) Camera provided with monitor