JP2973443B2 - camera - Google Patents

camera

Info

Publication number
JP2973443B2
JP2973443B2 JP1333965A JP33396589A JP2973443B2 JP 2973443 B2 JP2973443 B2 JP 2973443B2 JP 1333965 A JP1333965 A JP 1333965A JP 33396589 A JP33396589 A JP 33396589A JP 2973443 B2 JP2973443 B2 JP 2973443B2
Authority
JP
Japan
Prior art keywords
image
blur
camera
subject
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1333965A
Other languages
Japanese (ja)
Other versions
JPH03192227A (en
Inventor
英二 山川
正隆 浜田
博司 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP1333965A priority Critical patent/JP2973443B2/en
Priority to US07/632,075 priority patent/US5218442A/en
Publication of JPH03192227A publication Critical patent/JPH03192227A/en
Priority to US07/987,778 priority patent/US5270767A/en
Priority to US08/120,443 priority patent/US5365304A/en
Priority to US08/292,289 priority patent/US5420661A/en
Priority to US08/987,055 priority patent/US6215960B1/en
Application granted granted Critical
Publication of JP2973443B2 publication Critical patent/JP2973443B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Viewfinders (AREA)
  • Adjustment Of Camera Lenses (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] この発明はブレ検出カメラに関するもので、特にTTL
方式のブレ検出カメラに関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera for detecting blur, and more particularly to a TTL camera.
The present invention relates to a camera shake detection camera.

[従来の技術] 従来電子ファインダを有するカメラがたとえば特開昭
62−35329号公報に開示されている。しかしながら、従
来の電子ファインダ付カメラにはブレ検出装置が付いて
いなかった。
[Prior Art] Conventionally, a camera having an electronic finder is disclosed in
It is disclosed in JP-A-62-35329. However, the conventional camera with an electronic finder has not been equipped with a shake detecting device.

一方ブレ検出可能な電子ファインダ付カメラがたとえ
ば特開昭63−129328号公報に開示されている。同公報に
よれば、ブレ検出可能な電子ファインダ付カメラはブレ
検出用エリアCCDセンサを含み、ブレ検出を或るときの
画像と別のときの画像とを比較して検出している。しか
しながら、従来の電子ファイダ付ブレ検出カメラは、外
光式でTTL方式ではなかった。
On the other hand, a camera with an electronic finder capable of detecting blur is disclosed, for example, in Japanese Patent Application Laid-Open No. 63-129328. According to the publication, a camera with an electronic viewfinder capable of detecting blur includes an area CCD sensor for blur detection, and detects blur by comparing an image at a certain time with an image at another time. However, the conventional shake detection camera with an electronic finder is an external light type and not a TTL type.

一方、TTL方式でブレ補正をするビデオカメラがたと
えば特開昭61−240778号公報に開示されている。同公報
によれば、ビデオカメラは角速度センサを使って像のブ
レを検出し、レンズを移動することによってそのブレを
補正している。
On the other hand, a video camera that performs blur correction by the TTL method is disclosed in, for example, Japanese Patent Application Laid-Open No. 61-240778. According to the publication, a video camera detects a blur of an image using an angular velocity sensor and corrects the blur by moving a lens.

[発明が解決しようとする課題] 従来の電子ファインダおよびブレ検出装置付カメラ
や、TTL方式のビデオカメラは上記のように構成されて
いた。したがって、スチルカメラにおいては、TTL方式
ではないためパララックスがある。その結果、像ブレに
対する補正が困難であった。さらに、TTL方式のビデオ
カメラにおいては、スチルカメラではないため光路を考
える必要がなかった。
[Problems to be Solved by the Invention] Conventional cameras with an electronic finder and a shake detection device, and video cameras of the TTL system have been configured as described above. Therefore, still cameras have parallax because they are not of the TTL type. As a result, it has been difficult to correct image blur. Furthermore, in the case of a TTL video camera, there is no need to consider the optical path because it is not a still camera.

この発明は上記のような問題点を解消するためになさ
れたもので、撮影開始指示前後の被写体像の表示が確認
できるとともに、撮影時のブレの有無が確認できるカメ
ラを提供することを目的とする。
The present invention has been made in order to solve the above-described problems, and an object of the present invention is to provide a camera capable of confirming display of a subject image before and after a shooting start instruction and confirming the presence or absence of blur during shooting. I do.

[課題を解決するための手段] この発明に係る、被写体からの光を導き入れて所定の
面上にその被写体像を結像させる撮影光学系を備えたカ
メラは、被写体から所定の面までの光路中に設けられ、
被写体からの光を分割する半透過ミラーと、半透過ミラ
ーによって分割された被写体からの光のうちの一方を受
光し、電気信号に変換する2次元エリアセンサと、2次
元エリアセンサの出力信号に基づいて、ブレの検出を行
なうブレ検出手段と、2次元エリアセンサの出力信号に
基づいて被写体像を電気的に表示する表示手段と、撮影
の開始を指示する手段と、撮影の開始指示前において
は、エリアセンサから繰返し出力される信号に基づいて
表示手段に被写体像の表示を順次行なわせ、撮影の開始
指示後においては、2次元エリアセンサの撮影中におけ
る出力信号に基づいてブレ検出手段によるブレ検出を行
なわせるとともに、表示手段に被写体像の表示を行なわ
せる制御手段とを備える。
Means for Solving the Problems According to the present invention, a camera provided with a photographing optical system for guiding light from a subject and forming an image of the subject on a predetermined surface is provided. Provided in the light path,
A semi-transmissive mirror that splits light from the subject, a two-dimensional area sensor that receives one of the light from the subject split by the semi-transmissive mirror, and converts the light into an electric signal, and an output signal of the two-dimensional area sensor. Based on the output signal of the two-dimensional area sensor, a display unit for electrically displaying a subject image based on an output signal of the two-dimensional area sensor, a unit for instructing a start of photographing, Causes the display means to sequentially display the subject image on the basis of a signal repeatedly output from the area sensor, and after the instruction to start shooting, the blur detecting means based on the output signal of the two-dimensional area sensor during shooting. And control means for performing blur detection and causing the display means to display a subject image.

[作用] この発明においては、撮影開始の指示の前には表示手
段に被写体像の表示を順次行なわせ、開始指示後には、
ブレ検出手段によるブレの検出を行なわせるとともに、
被写体像の表示を行なう。したがって、撮影開始前には
ループで繰返し表示されるファインダ画像を確認でき、
撮影開始後はブレの有無の目視確認が可能になる。
[Operation] In the present invention, the display unit sequentially displays the subject image before the instruction to start shooting, and after the start instruction,
In addition to causing the blur detection means to detect blur,
The subject image is displayed. Therefore, before starting shooting, you can check the viewfinder image that is repeatedly displayed in a loop,
After the start of shooting, it is possible to visually check whether or not there is blur.

[実施例] 以下この発明の実施例を図面を参照して説明する。第
1図はこの発明に係る電子ファインダ付ブレ検出カメラ
の主要部を示すブロック図である。
Embodiment An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a main part of an electronic viewfinder-equipped shake detection camera according to the present invention.

第1図を参照して、測光用SPD(Silicon Photodiod
e)2からの信号は測光回路31に入力される。測光回路3
1は、SPD2の出力を演算し、メインCPU1へ演算結果を出
力する。撮影レンズ3は交換可能であり、絞り駆動手段
4および焦点調節駆動手段5を通して絞りの駆動および
焦点調節が行なわれる。撮影レンズ回路6には、撮影レ
ンズ3に固有のレンズのF値、焦点距離、ブレ補正のた
めの各種パラメータが記憶される。撮影レンズ回路6に
はさらに、ブレ補正用の光学系を駆動するアクチュエー
タおよびその制御回路も内蔵されている。
Referring to FIG. 1, a photometric SPD (Silicon Photodiod
e) The signal from 2 is input to the photometric circuit 31. Photometry circuit 3
1 calculates the output of SPD2 and outputs the calculation result to the main CPU1. The photographing lens 3 is exchangeable, and the aperture is driven and the focus is adjusted through the aperture driving means 4 and the focus adjustment driving means 5. The photographing lens circuit 6 stores an F-number, a focal length, and various parameters for blur correction of the lens unique to the photographing lens 3. The photographing lens circuit 6 further includes an actuator for driving an optical system for blur correction and a control circuit therefor.

AF検出ミラー7は、位相差型AF検出モジュール14へ撮
影レンズ3を通った光束の一部を導く。AF検出ミラー7
はフィルム露光時にフィルムへの光を遮らないようにAF
検出ミラー駆動手段8により退避される。フォーカルプ
レーンシャッタのシャッタ幕9は、先幕および後幕を含
み、シャッタ幕駆動手段10によって駆動される。スイッ
チS1はシャッタボタンの第1ストロークでONし、測光お
よびAF動作を行なう。スイッチS2はシャッタボタンの第
2ストロークでONする。フィルム巻上げ手段15は、フィ
ルムの巻上げ、巻戻しを行なう。スイッチS1′、S2′は
後述するリモートファインダに設置されたシャッタボタ
ンで、それぞれスイッチS1、S2と同じ働きをする。スイ
ッチSCは連写モードを作動するためのスイッチである。
The AF detection mirror 7 guides a part of the light beam that has passed through the photographing lens 3 to the phase difference type AF detection module 14. AF detection mirror 7
AF does not block light to film during film exposure
It is retracted by the detection mirror driving means 8. The shutter curtain 9 of the focal plane shutter includes a front curtain and a rear curtain, and is driven by a shutter curtain driving unit 10. The switch S1 is turned on at the first stroke of the shutter button to perform photometry and AF operation. The switch S2 is turned on by the second stroke of the shutter button. The film winding means 15 winds and rewinds the film. Switches S1 'and S2' are shutter buttons provided on a remote finder described later, and have the same function as switches S1 and S2, respectively. The switch SC is a switch for operating the continuous shooting mode.

ブレ検出光学系40および電子ファインダ用撮影光学系
41はブレ検出光学系駆動手段42によって駆動され、後述
のブレ検出用のCCDに光を導くための光学系である。ブ
レ検出を行なうときはブレ検出光学系40が使用され、上
述のCCDを用いて画像の表示を行なうときは、電子ファ
インダ撮像光学系41が使用される。メインCPUにはさら
に、後述する手ブレを検出するための手ブレ補正コント
ローラ18が接続される。手ブレ補正コントローラ18は手
ブレ検出補正手段11と交信を行なう。
Blur detection optical system 40 and shooting optical system for electronic viewfinder
Reference numeral 41 denotes an optical system that is driven by the shake detection optical system driving unit 42 and guides light to a later-described shake detection CCD. The blur detection optical system 40 is used when performing blur detection, and the electronic finder imaging optical system 41 is used when displaying an image using the above-described CCD. The main CPU is further connected to a camera shake correction controller 18 for detecting camera shake described later. The camera shake correction controller 18 communicates with the camera shake detection and correction means 11.

CPUにはさらに、測光値によって定まる露光量に対
し、露出補正を行なうための露出補正量入力手段22と、
フィルム感度を設定するためのフィルム感度設定手段23
とが接続される。
The CPU further includes an exposure correction amount input means 22 for performing exposure correction on the exposure amount determined by the photometric value,
Film sensitivity setting means 23 for setting film sensitivity
Are connected.

次に電子ファインダについて説明する。第2A図〜第2D
図は電子ファインダの使用態様を示す図である。第2A図
を参照して、取り外しおよび引き起こし自在の電子ファ
インダ100は、カメラ本体12の上面に設けられる。電子
ファインダ100は、ファインダ像表示用のLCD63と、シャ
ッタボタン101を含む。電子ファインダ100が第2A図のよ
うに用いられると、ウエストレベルファインダとして使
用される。第2B図は、電子ファインダ100を手前へ引き
起こした状態を示す図である。ファインダ接眼レンズを
のぞき込まなくてもファインダ像が見える。したがっ
て、カメラを胸のあたりから頭上に差し上げたあたりの
高さまでファインダ像を確認しながら写真撮影ができ
る、第2C図は、電子ファインダ100を前方へ引き起こし
た状態の図である。ファインダ像を確認しながらセルフ
タイマ撮影ができる。この場合はファインダ像表示用LC
D63の映像は通常の場合と上下が逆になる。第2D図は電
子ファインダ100をカメラボディ12から取り外した状態
を示す図である。電子ファインダ延長コード102によ
り、ファインダ像をLCD63で観察しながらレリーズボタ
ン101により遠隔撮影できる。
Next, the electronic finder will be described. Figures 2A to 2D
The figure shows the usage of the electronic finder. Referring to FIG. 2A, a detachable and movable electronic finder 100 is provided on the upper surface of the camera body 12. The electronic finder 100 includes an LCD 63 for displaying a finder image, and a shutter button 101. When the electronic finder 100 is used as shown in FIG. 2A, it is used as a waist level finder. FIG. 2B is a diagram showing a state where the electronic finder 100 is raised toward the user. You can see the viewfinder image without looking through the viewfinder eyepiece. Therefore, it is possible to take a picture while checking the viewfinder image from around the chest to the height at which the camera is held above the head. FIG. 2C is a view showing the electronic viewfinder 100 raised forward. Self-timer shooting can be performed while checking the viewfinder image. In this case, LC for viewfinder image display
The D63 image is upside down from the normal case. FIG. 2D is a diagram showing a state in which the electronic finder 100 is detached from the camera body 12. By using the electronic finder extension cord 102, the release button 101 can be used for remote photography while observing the finder image on the LCD 63.

LCD63への画像信号は、後に第7図を参照して説明す
るブレ検出センサ44のCCD撮像部51によって撮像され
る。このときのCCDの露光時間は、カメラの露光をもと
に決定する。したがって、LCD63にはでき上がりの写真
の濃淡に近い画像が表示される。オート露光による撮影
時に、露出補正を行なう場合は、LCD63を見ながら主に
露出を合わせたい部分が階調よく観察できるように露出
補正量入力手段22が調節されればよい。マニュアル露光
による撮影時の露出の設定も、LCD63を見ながら主に露
出を合わせたい部分が階調良く観察できるように、絞り
およびシャッタ速度が調節されればよい。また、意図的
に露出オーバあるいはアンダにしたい場合も、LCD63を
観察しながら露出を決定すれば、狙い通りの露出を有す
る写真が容易に得られる。
The image signal to the LCD 63 is picked up by the CCD pick-up unit 51 of the shake detection sensor 44 described later with reference to FIG. At this time, the exposure time of the CCD is determined based on the exposure of the camera. Therefore, an image close to the density of the completed photograph is displayed on the LCD 63. When performing exposure correction during photographing by auto exposure, the exposure correction amount input means 22 may be adjusted so that a portion to which exposure is to be mainly adjusted can be observed with good gradation while looking at the LCD 63. The exposure setting at the time of shooting by manual exposure may be adjusted by adjusting the aperture and the shutter speed so that a portion to be mainly exposed can be observed with good gradation while watching the LCD 63. In addition, even when intentionally overexposure or underexposure is desired, if the exposure is determined while observing the LCD 63, a photograph having the intended exposure can be easily obtained.

第3A図はこの発明に係る電子ファインダ付ブレ検出カ
メラの光学系を示す図である。第3A図を参照して、撮影
レンズ3は、ブレ補正レンズ32と、ブレ補正レンズ32を
移動するためのブレ補正レンズ駆動装置33とを含む。な
お、補正レンズ駆動装置33の詳細については公知である
のでその説明は省略する。カメラボディ12内にはペリク
ルミラー34が固定されており、撮影レンズ3を通った光
束の一部がファインダ光学系の方へ反射され、残りがシ
ャッタ幕35の方へ透過される。ペリクルミラー34を透過
した光束の一部は、AF検出ミラー7により位相差AF検出
モジュール36の方へ導かれる。AF検出ミラー7は、フィ
ルム露光時にはフィルム上に到達する露光中の光束を遮
らないような位置までAF検出ミラー駆動手段8(不図
示)により退避される。
FIG. 3A is a diagram showing an optical system of a camera shake detection camera with an electronic finder according to the present invention. Referring to FIG. 3A, photographing lens 3 includes a blur correction lens 32, and a blur correction lens driving device 33 for moving blur correction lens 32. Since the details of the correction lens driving device 33 are known, the description thereof is omitted. A pellicle mirror 34 is fixed in the camera body 12, and a part of the light beam that has passed through the photographing lens 3 is reflected toward the finder optical system, and the rest is transmitted toward the shutter curtain 35. Part of the light beam transmitted through the pellicle mirror 34 is guided by the AF detection mirror 7 toward the phase difference AF detection module 36. The AF detection mirror 7 is retracted by the AF detection mirror driving means 8 (not shown) to a position where the light flux during exposure that reaches the film during exposure of the film is not blocked.

ペリクルミラー34により反射された光束は、コンデン
サレンズ37を透過してペンタプリズム38に入る。ペンタ
プリズム38の接眼レンズ39側には測光SPD2が設けられ
る。ペンタプリズム38の1つの面38aは、ハーフミラー
になっており、入射光束の一部をペンタプリズム38の外
へ取出す。取出された光束はブレ検出光学系40を通り反
射鏡43で反射されてブレ検出センサ44へ達する。ブレ検
出光学系40および電子ファインダ用撮像光学系41はブレ
検出光学系駆動手段42によって駆動され、選択的に光路
内に出し入れされる。ブレ検出光学系40および電子ファ
インダ用撮像光学系41はそれぞれファインダ焦点面45上
の像をブレ検出センサ44上に再結像する。ブレ検出セン
サ44はCCDエリアセンサである。なお、ペンタプリズム3
8は、ガラスブロックタイプだけではなく、中が空気層
となっている中空ペンタミラーのようなものでもよい。
The light beam reflected by the pellicle mirror 34 passes through the condenser lens 37 and enters the pentaprism 38. On the eyepiece 39 side of the pentaprism 38, a photometric SPD2 is provided. One surface 38a of the pentaprism 38 is a half mirror, and takes out a part of the incident light beam out of the pentaprism 38. The extracted light flux passes through a blur detection optical system 40, is reflected by a reflecting mirror 43, and reaches a blur detection sensor 44. The blur detection optical system 40 and the imaging optical system 41 for an electronic finder are driven by a blur detection optical system driving means 42, and are selectively put in and out of the optical path. The blur detection optical system 40 and the electronic finder imaging optical system 41 re-image the image on the finder focal plane 45 on the blur detection sensor 44, respectively. The blur detection sensor 44 is a CCD area sensor. The pentaprism 3
8 may be not only a glass block type but also a hollow pentamirror having an air layer inside.

以上のようにこの発明においては、ペリクルミラー34
を用いて被写体の光をブレ検出センサとなるエリアセン
サ44へ伝えるようにしたため、TTL方式のカメラにおい
て画像検出方式でブレ検出が行なわれる。さらに、ブレ
検出センサ44までの光路中にペンタプリズム38を利用し
ているため、ブレ検出センサ44までの光路を別に設ける
必要がない。
As described above, in the present invention, the pellicle mirror 34
Is used to transmit the light of the subject to the area sensor 44 serving as a blur detection sensor, so that the camera of the TTL system detects the blur by the image detection system. Further, since the pentaprism 38 is used in the optical path to the blur detection sensor 44, there is no need to provide a separate optical path to the blur detection sensor 44.

第3B図は、ブレ検出光学系駆動手段42まわりの詳細を
示す図である。第3B図を参照して、回転軸205にブレ検
出光学系40のレンズ40a、電子ファインダ用撮像光学系4
1のレンズ41aを固定したレンズホルダ200、201が固定さ
れ、ギヤを介してモータ210に連結されている。モータ2
10の軸は、ギヤを介して円板状チョッパ202と連動し、
エンコーダばね202の回転はフォトカプラ203で読取られ
る。エンコーダばね202が回転することにより、フォト
カプラ203の両腕間の光の遮断されるたびに、オンオフ
信号が発生する。このパルス信号をコントローラ204が
カウントする。その結果、回転軸の回転量がモニタされ
る。モニタした信号に従って、モータ210への通電をオ
ンまたはオフすることにより、ブレ検出光学系40、41の
それぞれのレンズ40a、41aが回転される。このようにし
てブレ検出光学系駆動手段42はブレ検出光学系40と電子
ファインダ用撮像光学系41の光路を切換える。
FIG. 3B is a diagram showing details around the shake detection optical system driving means 42. Referring to FIG. 3B, the lens 40a of the blur detection optical system 40 and the imaging optical system
Lens holders 200 and 201 to which one lens 41a is fixed are fixed, and are connected to a motor 210 via gears. Motor 2
The shaft of 10 is interlocked with the disk-shaped chopper 202 via a gear,
The rotation of the encoder spring 202 is read by a photocoupler 203. When the encoder spring 202 rotates, an on / off signal is generated each time light between the arms of the photocoupler 203 is cut off. The controller 204 counts this pulse signal. As a result, the amount of rotation of the rotating shaft is monitored. By turning on or off the energization of the motor 210 according to the monitored signal, the lenses 40a and 41a of the blur detection optical systems 40 and 41 are rotated. In this way, the shake detecting optical system driving unit 42 switches the optical path between the shake detecting optical system 40 and the electronic finder imaging optical system 41.

以上のようにこの発明においては、ブレ検出光学系駆
動手段42によって被写体像のブレ検出センサ44への投影
される光学系が切換えられる。その結果、ブレ検出に用
いられる画素領域とピントを合わせるべく選んだAFエリ
アとが切換えられる。
As described above, in the present invention, the optical system for projecting the subject image onto the blur detection sensor 44 is switched by the blur detection optical system driving means 42. As a result, the pixel area used for blur detection and the AF area selected for focusing are switched.

第4A図〜第4C図はファインダスクリーンを示す図であ
る。第4A図,第4B図のaは透明なブレ検出領域であり、
この領域があるためにセンサ44への光路が確保されると
ともにセンサ44への光量が増す。cで表わされる領域は
ファインダスクリーンのマット部で、光が散乱し、従来
通り像がこの上に結ばされ、ピントが検出される。aで
示される領域はまたブレ検出領域のファインダ表示枠の
表示用にも用いられる。第4A図のbは、電子ファインダ
の視野範囲であり、この部分も透明であり、電子ファイ
ンダ用撮像光学系41へ光量が増すようになっている。第
4C図はファインダスクリーンの全面が透明である場合を
示す図である。
4A to 4C are views showing a finder screen. 4A and 4A are transparent blur detection areas,
The presence of this region secures an optical path to the sensor 44 and increases the amount of light to the sensor 44. The area represented by c is a mat portion of the finder screen, where light is scattered, an image is formed thereon as in the past, and focus is detected. The area indicated by a is also used for displaying the finder display frame of the blur detection area. FIG. 4B shows the visual field range of the electronic finder, which is also transparent, so that the amount of light to the image finder imaging optical system 41 increases. No.
FIG. 4C is a diagram showing a case where the entire surface of the finder screen is transparent.

ブレ検出光学系40によりファインダスクリーンcの中
央近傍の一部aが撮像面に結像される。この像がブレ検
出センサ44によって用いられる。また電子ファインダ用
撮像光学系41が用いられると、ファインダスクリーンc
のほぼ全域が撮像面に結像され、その像が電子ファイン
ダ用の像として使用される。
A part a near the center of the finder screen c is imaged on the imaging surface by the shake detection optical system 40. This image is used by the blur detection sensor 44. Further, when the imaging optical system 41 for an electronic finder is used, the finder screen c
Is formed on the imaging surface, and the image is used as an image for the electronic finder.

なお第3A図を参照して、撮影レンズ3はレンズマウン
ト部46を介してカメラボディ12に取付けられており、交
換が可能である。
Referring to FIG. 3A, the taking lens 3 is attached to the camera body 12 via a lens mount 46, and can be replaced.

なお、手ブレ補正レンズの付いていない通常のレンズ
がカメラボディ12に取付けられた場合は、ブレが検出さ
れたときファインダスクリーンに警告が表示される。電
子ファインダに「手ブレ注意」と文字で手ブレの警告が
行なわれてもよい。
When a normal lens without a camera shake correction lens is attached to the camera body 12, a warning is displayed on the finder screen when blur is detected. A warning of camera shake may be given to the electronic finder with the text “Caution for camera shake”.

第5図はこの発明に係る光学系の別の実施例である。
この場合においては第3A図に示した光学系に比べてペン
タプリズム38が省略されている。ペンタプリズム38やフ
ァインダスクリーン、コンデンサレンズ37がないので、
その分コストが安くでき、また軽くそしてコンパクトに
なる。ブレ検出センサ44′の前方にはセンサ用再結像レ
ンズ45′が設けられる。小領域用リレーレンズ40′およ
び大領域用リレーレンズ41′は、切換えて用いられ、そ
れによってエリアセンサ44′に導く光束が切換えられ
る。この実施例に係る光学系においては、反射ミラー4
3′、光学系駆動アクチュエータ42′が設けられる。
FIG. 5 shows another embodiment of the optical system according to the present invention.
In this case, the pentaprism 38 is omitted as compared with the optical system shown in FIG. 3A. Since there is no pentaprism 38, finder screen, condenser lens 37,
The cost can be reduced, and it is lighter and more compact. A sensor re-imaging lens 45 'is provided in front of the blur detection sensor 44'. The small-area relay lens 40 'and the large-area relay lens 41' are used by switching, whereby the light flux guided to the area sensor 44 'is switched. In the optical system according to this embodiment, the reflection mirror 4
3 ', an optical system drive actuator 42' is provided.

第6A図、第6B図は第5図に示したこの発明の別の実施
例に係る光学系を用いた場合のファインダスクリーンの
使用状態を示す図である。これらの図は最初の実施例に
係る第2A図〜第2D図に対応する。第6A図、第6B図を参照
して、電子ファインダ63は取り外しが可能である。
6A and 6B are views showing a use state of a finder screen when the optical system according to another embodiment of the present invention shown in FIG. 5 is used. These figures correspond to FIGS. 2A to 2D according to the first embodiment. Referring to FIGS. 6A and 6B, electronic finder 63 is removable.

次に第7図を参照して手ブレ検出補正手段11の内容を
説明する。手ブレ検出センサ44はCCD撮像部51と、CCD出
力を増幅する出力アンプ52と、CCDの積分時間を制御す
るための照度モニタ53と、測光回路54とを含む。クロッ
クジェネレータ55は、測光回路54の出力を検知してCCD
の積分時間および出力アンプのゲインを設定する。ま
た、クロックジェネレータ55はCCDの駆動クロック、A/D
コンバータ61、D/Aコンバータ58、感度ばらつき補正メ
モリ59、暗出力補正メモリ60のクロックも発生する。ブ
レ検出センサ44の出力は、差動アンプ56およびゲインコ
ントロールアンプ57を通ってA/Dコンバータ61へ入力さ
れる。暗出力補正メモリ60、感度ばらつき補正メモリ59
にはそれぞれCCDの感度ばらつき、暗出力の補正のため
のデータが記憶されている。暗出力補正メモリ60は、D/
Aコンバータ58に対しデータを出力する。D/A変換の出力
信号は、差動アンプ56の差動入力に入力される。これに
よりCCD51の暗出力は補正される。ゲインコントロール
アンプ57はデジタル信号により増幅度が制御されるアン
プである。ゲインコントロールアンプ57は感度ばらつき
補正メモリ59に記憶されている感度ばらつき補正データ
により制御され、CCD出力の感度ばらつきを補正する。
Next, the contents of the camera shake detection and correction means 11 will be described with reference to FIG. The camera shake detection sensor 44 includes a CCD imaging unit 51, an output amplifier 52 for amplifying a CCD output, an illuminance monitor 53 for controlling the integration time of the CCD, and a photometric circuit 54. The clock generator 55 detects the output of the photometry circuit 54 and
Set the integration time and gain of the output amplifier. The clock generator 55 is used to drive the CCD drive clock, A / D
Clocks for the converter 61, the D / A converter 58, the sensitivity variation correction memory 59, and the dark output correction memory 60 are also generated. The output of the shake detection sensor 44 is input to the A / D converter 61 through the differential amplifier 56 and the gain control amplifier 57. Dark output correction memory 60, sensitivity variation correction memory 59
Stores data for correcting variations in CCD sensitivity and dark output. The dark output correction memory 60 has a D /
Data is output to A converter 58. The output signal of the D / A conversion is input to the differential input of the differential amplifier 56. Thereby, the dark output of the CCD 51 is corrected. The gain control amplifier 57 is an amplifier whose amplification is controlled by a digital signal. The gain control amplifier 57 is controlled by sensitivity variation correction data stored in the sensitivity variation correction memory 59, and corrects the sensitivity variation of the CCD output.

A/Dコンバータ61の出力信号は、画像部メモリ64、基
準部メモリ65または参照部メモリ66に記憶される。アド
レス生成器67は画像メモリ64、基準部メモリ65、参照部
メモリ66の各メモリの動作に必要なアドレスデータを発
生させる。
The output signal of the A / D converter 61 is stored in the image section memory 64, the reference section memory 65, or the reference section memory 66. The address generator 67 generates address data necessary for the operation of each of the image memory 64, the reference unit memory 65, and the reference unit memory 66.

演算器68は減算回路69と、絶対値回路70と、加算回路
71とレジスタ72とを含む。基準部メモリ65および参照部
メモリ66のデータが入力として与えられる。
The arithmetic unit 68 includes a subtraction circuit 69, an absolute value circuit 70, and an addition circuit
71 and a register 72 are included. Data of the reference section memory 65 and the reference section memory 66 are provided as inputs.

演算器68からの演算結果は、演算の種類により相関結
果メモリ73、縦コントラストメモリ74または横コントラ
ストメモリ75のどれかに記憶される。これらのメモリ
は、コントロールCPU76に接続されており、コントロー
ルCPU76からアクセスできる。コントロールCPU76は、ア
ドレス生成器67およびクロックジェネレータ55の制御も
行なう。画像メモリ64のデータは、D/Aコンバータ77でD
/A変換され、映像信号処理回路62に入力される。スイッ
チSRVは電子ファインダであるLCD63を前方へ引き起こし
た場合にONとなるスイッチである。このスイッチがONさ
れることにより、映像信号処理回路62は上下反転させて
映像をLCD63に表示する。
The calculation result from the calculator 68 is stored in one of the correlation result memory 73, the vertical contrast memory 74, and the horizontal contrast memory 75 depending on the type of calculation. These memories are connected to the control CPU 76 and can be accessed from the control CPU 76. The control CPU 76 also controls the address generator 67 and the clock generator 55. The data in the image memory 64 is stored in the D / A converter 77
/ A conversion and input to the video signal processing circuit 62. The switch SRV is turned on when the LCD 63, which is an electronic finder, is raised forward. When this switch is turned on, the video signal processing circuit 62 displays the video on the LCD 63 with the upside down.

次にブレ検出の方法およびブレ量の演算を示す。まず
ブレ検出のシーケンスについて説明する。この発明にお
いては、二次元の画像データを検出し得るエリアセンサ
44を用いて被写体像を平面的に検出する。その被写体像
の時間によるずれをエリアセンサ44を用いて検出するこ
とにより、画像のブレを検出している。
Next, a method of shake detection and calculation of a shake amount will be described. First, a blur detection sequence will be described. In the present invention, an area sensor capable of detecting two-dimensional image data
The object image is detected two-dimensionally using 44. The image blur is detected by detecting the time-dependent shift of the subject image using the area sensor 44.

CCD51はI×J画素のエリアセンサである。基準部メ
モリ65および参照部メモリ66はそれぞれI×Jワードの
メモリであり、相関結果メモリ73はH×Hワードの容量
を有するメモリである。CCD51の受光面をM×Nのブロ
ックに分けて考える。各ブロックは隣接するK×L画素
で構成される。縦コントラストメモリ74、横コントラス
トメモリ75はそれぞれM×Nワードの容量を有するメモ
リである。以下、ブレ検出の手順を説明するが、ここで
はI=68、J=52、K=8、L=8、M=8、N=6、
H=5とする。A/Dコンバータ61の分解能は8ビットで
あり、レジスタ72は14ビットであり、相関結果メモリ7
3、縦コントラストメモリ74、横コントラストメモリ75
の1ワードはそれぞれ14ビットで表わされるとする。
The CCD 51 is an area sensor of I × J pixels. The reference unit memory 65 and the reference unit memory 66 are each a memory of I × J words, and the correlation result memory 73 is a memory having a capacity of H × H words. The light receiving surface of the CCD 51 is divided into M × N blocks. Each block is composed of adjacent K × L pixels. The vertical contrast memory 74 and the horizontal contrast memory 75 are memories each having a capacity of M × N words. Hereinafter, the procedure of blur detection will be described. Here, I = 68, J = 52, K = 8, L = 8, M = 8, N = 6,
Let H = 5. The resolution of the A / D converter 61 is 8 bits and the register 72 is 14 bits.
3, vertical contrast memory 74, horizontal contrast memory 75
Is represented by 14 bits.

第8図はCCD51の受光部の一部の模式図である。小さ
い正方形の1個の格子が単位画素を表わしている。図中
左下の画素を画素(1、1)とし、右上の画素を画素
(68、52)とする。受光部の外周の2画素を除いてCCD5
1の受光部は8画素×8画素で構成されるブロックに分
割される。図中太線で囲まれた部分が各ブロックに対応
する。左下のブロックをブロック(1、1)、右上のブ
ロックをブロック(8、6)とする。
FIG. 8 is a schematic view of a part of the light receiving section of the CCD 51. One small square grid represents a unit pixel. In the figure, the lower left pixel is a pixel (1, 1), and the upper right pixel is a pixel (68, 52). CCD5 excluding the two pixels on the outer periphery of the light receiving section
One light receiving section is divided into blocks each composed of 8 pixels × 8 pixels. The portion surrounded by a thick line in the figure corresponds to each block. The lower left block is a block (1, 1), and the upper right block is a block (8, 6).

ブレ検出のシーケンスは大きく (1) コントラスト計算およびブロックの選択 (2) 相関計算 (3) 内挿計算 の3つの部分に分けられる。 The blur detection sequence is roughly divided into three parts: (1) contrast calculation and block selection (2) correlation calculation (3) interpolation calculation.

コントラスト計算はブロックの選択のために行なわれ
る計算である。CCD51の受光部に結像した被写体の各部
には、ブレ検出に適した部分もあればそうでない部分も
ある。本実施例ではブレ検出に適した部分を選び出すた
めに被写体のコントラストの計算を行なう。各ブロック
ごとに被写体のコントラストが計算され、縦方向のコン
トラストの大きいブロック4個および横方向のコントラ
ストの大きいブロック4個の計8個のブロックを用いて
ブレの検出が行なわれる。
The contrast calculation is a calculation performed for selecting a block. Each part of the subject imaged on the light receiving part of the CCD 51 includes a part suitable for blur detection and a part not suitable for blur detection. In this embodiment, the contrast of the subject is calculated in order to select a portion suitable for blur detection. The contrast of the subject is calculated for each block, and blur detection is performed using a total of eight blocks, four blocks with high contrast in the vertical direction and four blocks with high contrast in the horizontal direction.

(1)コントラスト計算およびブロック選択の説明 まずCCD51の出力が基準部メモリ65および参照部メモ
リ66の両方に記憶される。このデータを用いて各ブロッ
クの縦方向のコントラストおよび横方向のコントラスト
が計算される。計算はブロック(1,1)、(2,1)、…、
(7,6)、(8,6)の横方向コントラスト、ブロック(1,
1)、(2,1)、…(7,6)、(8,6)の縦方向のコントラ
ストの順に行なう。
(1) Description of Contrast Calculation and Block Selection First, the output of the CCD 51 is stored in both the reference memory 65 and the reference memory 66. Using this data, the vertical and horizontal contrasts of each block are calculated. The calculation is for blocks (1,1), (2,1),…,
(7,6), (8,6) horizontal contrast, block (1,
1), (2, 1),... (7, 6), and (8, 6) are performed in the order of vertical contrast.

CCD51の画素(i,j)の出力をA(i,j)として、ブロ
ック(k,)の横方向のコントラストを この計算式を第7図のハードウェアで実行する手順を
次に説明する。CCD51の画素(i,j)の出力に対応する基
準部メモリ65の内容をR(i,j)、参照部メモリ66の内
容をS(i,j)とする。まず初めにレジスタ72をクリア
する。次に減算器69の一方の入力にR(i、j)、他方
の入力ににS(i+1,j){但しi=8(k−1)+
2、j=8(−1)+2とする}が与えられるように
アドレス生成器67からアドレスが送出される。減算回路
69で減算されたデータは絶対値回路70で絶対値をとら
れ、加算回路71でレジスタ72の内容に加算されてレジス
タ72に記憶される。次にi=i+1となるべきアドレス
をアドレス生成器67から送出し、同様の計算が行なわれ
る。このようにして、i=8(k−1)+2〜8k+2、
j=8(−1)+3〜8+2の範囲で処理を行なう
とレジスタ72には、 基準部メモリ65および参照部メモリ66には同一の内容
A(i,j)が記憶されており、A(i,j)=R(i,j)=
S(i,j)であるから、レジスタ72の内容は横方向のコ
ントラスト である。1ブロック分計算できたところでレジスタ72の
内容が横コントラストメモリ75のそのブロックに対応す
るところへ転送されて記憶される。
Assuming that the output of the pixel (i, j) of the CCD 51 is A (i, j), the horizontal contrast of the block (k,) is The procedure for executing this formula using the hardware shown in FIG. 7 will be described below. The contents of the reference part memory 65 corresponding to the output of the pixel (i, j) of the CCD 51 are R (i, j), and the contents of the reference part memory 66 are S (i, j). First, the register 72 is cleared. Next, R (i, j) is input to one input of the subtracter 69, and S (i + 1, j) is input to the other input, where i = 8 (k-1) +
2, the address is sent from the address generator 67 so that} is set to j = 8 (−1) +2. Subtraction circuit
The data subtracted at 69 is taken by the absolute value circuit 70 to obtain an absolute value, added to the content of the register 72 by the adder circuit 71, and stored in the register 72. Next, an address to be i = i + 1 is transmitted from the address generator 67, and the same calculation is performed. Thus, i = 8 (k-1) +2 to 8k + 2,
When processing is performed in the range of j = 8 (-1) +3 to 8 + 2, the register 72 stores The same contents A (i, j) are stored in the reference part memory 65 and the reference part memory 66, and A (i, j) = R (i, j) =
Since it is S (i, j), the contents of the register 72 are the horizontal contrast. It is. When the calculation for one block has been completed, the contents of the register 72 are transferred to the corresponding portion of the horizontal contrast memory 75 and stored.

同様にし、残りの全ブロックの横方向のコントラスト
が計算によって求められ、横コントラストメモリ75に記
憶される。
Similarly, the horizontal contrast of all the remaining blocks is calculated and stored in the horizontal contrast memory 75.

次に縦方向のコントラストが計算される。横方向のコ
ントラストが計算された場合と同様に、まずレジスタ72
がクリアされる。次に減算回路69の一方の入口にR(i,
j)、他方の入力にS(i,j+1){但しi=8(k−
1)+3、j=8(−1)+2、とする}が与えられ
るようにアドレス生成器67からアドレスが送出される。
減算回路69で減算されたデータは、絶対値回路70で絶対
値をとられ、加算回路71でレジスタ72の内容に加算され
てレジスタ72に記憶される。次にi=i+1となるべき
アドレスがアドレス生成器67から送出され、同様の計算
が行なわれる。このようにして、i=8(k−1)+3
〜8k+2、j=8(−1)+2〜8の範囲で処理が
行なわれる。その結果レジスタ72には、 が記憶されている。ここでA(i,j)=R(i,j)=S
(i,j)であるから、レジスタ72の内容は縦方向のコン
トラスト である。1ブロック分の計算が終了したところでレジス
タ72の内容が縦コントラストメモリ74のそのブロックに
対応するところへ転送されて記憶される。
Next, the vertical contrast is calculated. As in the case where the lateral contrast was calculated, first register 72
Is cleared. Next, R (i,
j), and the other input is S (i, j + 1) where i = 8 (k−
1) +3, j = 8 (−1) +2, and the address is sent from the address generator 67 so that} is given.
The data subtracted by the subtraction circuit 69 has an absolute value obtained by an absolute value circuit 70, is added to the contents of a register 72 by an addition circuit 71, and is stored in the register 72. Next, an address to be i = i + 1 is sent from the address generator 67, and the same calculation is performed. Thus, i = 8 (k-1) +3
The processing is performed in the range of 88k + 2, j = 8 (−1) +2 to 8. As a result, the register 72 contains Is stored. Where A (i, j) = R (i, j) = S
Since (i, j), the contents of register 72 are the vertical contrast. It is. When the calculation for one block is completed, the contents of the register 72 are transferred to a location of the vertical contrast memory 74 corresponding to the block and stored.

同様にして残りの全ブロックの縦方向のコントラスト
が計算され、縦コントラストメモリ74に記憶される。
Similarly, the vertical contrast of all the remaining blocks is calculated and stored in the vertical contrast memory 74.

コントロールCPUは、以上のようにして得られた各ブ
ロックの縦方向および横方向のコントラストの中から最
もコントラストの高いブロックを選び出す。次に残りの
ブロックの中から先に選んだコントラストの方向とは異
なる方向(たと4えば先に選んだのが縦方向なら横方
向)で最もコントラストの高いブロックを選び出す。以
下同様にコントラストの方向を変えながらコントラスト
の高いブロックの順に8個(縦、横各4個ずつ)のブロ
ックが選び出される。選ばれたブロックをB1〜B8とす
る。
The control CPU selects the block having the highest contrast from the vertical and horizontal contrasts of each block obtained as described above. Next, a block having the highest contrast is selected from the remaining blocks in a direction different from the previously selected contrast direction (for example, in the case of the vertical direction in the case of the vertical direction, the horizontal direction). In the same manner, eight blocks (four in each of the vertical and horizontal directions) are selected in the order of the blocks having the highest contrast while changing the direction of the contrast. The selected blocks are B1 to B8.

(2)相関計算の説明 基準部メモリ65の内容としては、コントラストの計算
を行なったデータが基準画像データとしてそのまま残さ
れる。CCD51からは次々と新しいデータが読出され、そ
のたびに参照画像として参照部メモリ66に書込まれる。
参照部メモリ66に新しくデータが書込まれるたびに、基
準画像と参照画像とが比較され、両者間の空間的ずれが
画像のブレとして検出される。画像のブレは以下で説明
する相関計算および内挿計算で求められる。
(2) Description of Correlation Calculation As the contents of the reference portion memory 65, data on which contrast has been calculated is left as it is as reference image data. New data is read from the CCD 51 one after another, and each time it is written into the reference memory 66 as a reference image.
Each time new data is written to the reference section memory 66, the reference image and the reference image are compared, and a spatial shift between the two is detected as image blur. Image blur is obtained by correlation calculation and interpolation calculation described below.

次式でブロックBk(k=1,2,…8)相関値を定義す
る。
The block Bk (k = 1, 2,... 8) correlation value is defined by the following equation.

(ik,jkはブロックBkで最も若い画素番号を表わす) =m=0の場合を考えると、 となる。この値は基準画像と参照画像の同じ画素のデー
タの差の絶対値を1ブロック分加算したものになる。
=m=0以外の場合について考えると、Ck(,m)は基
準画像の画素(i,j)のデータと参照画像の画素(i+
,j+m)のデータとの差の絶対値=1ブロック分加算
したものである。8ブロック分の相関値が加えられたも
のを相関値 とする。
(I k , j k represent the youngest pixel number in block Bk) = m = 0 Becomes This value is obtained by adding the absolute value of the difference between the data of the same pixel in the reference image and the reference image for one block.
= M = 0, Ck (, m) is the data of pixel (i, j) of the reference image and pixel (i +
, j + m) is obtained by adding the absolute value of the difference with the data of one block. The correlation value obtained by adding the correlation values for 8 blocks And

減算回路69の一方の入力は基準部メモリ65は接続さ
れ、他方の入力は参照部メモリ66が接続されている。し
たがって、レジスタ72をクリアした後減算回路69の一方
の入力にR(i,j)、他方の入力S(i+,j+m)が
入力され、i、jの所定の範囲のデータが処理されるよ
うにコントロールCPUにより決定されたアドレスがアド
レス生成器67から送出される。するとレジスタ72にはC
(,m)が得られる。これが相関結果メモリ73の所定の
アドレスのところへ転送されて記憶される。,mの値を
変えて上記の処理が繰返されることにより、C(,
m):(,m=−2,−1,0,1,2)がすべて求められる。
One input of the subtraction circuit 69 is connected to the reference unit memory 65, and the other input is connected to the reference unit memory 66. Therefore, after clearing the register 72, R (i, j) and S (i +, j + m) are input to one input of the subtraction circuit 69, and data in a predetermined range of i and j is processed. Then, the address determined by the control CPU is transmitted from the address generator 67. Then, register 72 contains C
(, M) is obtained. This is transferred to a predetermined address of the correlation result memory 73 and stored. , m is changed and the above processing is repeated to obtain C (,
m): (, m = -2, -1,0,1,2) are all obtained.

(3)内挿計算の説明 計算された相関値C(,m)をを横軸にmを縦軸に
並べてみると数のような配列になる。
(3) Description of Interpolation Calculation When the calculated correlation values C (, m) are arranged on the horizontal axis and m is arranged on the vertical axis, an array like a number is obtained.

C(−2,2) C(−1,2) C(0,2) C(1,2) C(2,2) C(−2,1) C(−1,1) C(0,1) C(1,1) C(2,1) C(−2,0) C(−1,0) C(0,0) C(1,0) C(2,0) C(−2,−1) C(−1,−1) C(0,−1) C(1,−1) C(2,−1) C(−2,−2) C(−1,−2) C(0,−2) C(1,−2) C(2,−2) 基準画像と参照画像の間に全くずれがない場合は、C
(0,0)が0になり、配列の外側に行きほど大きい値を
持つようになる。また、参照画像が基準画像に対して右
画素、上にm0画素ずれていたとすると、C(0,
m0)が0になり、これから遠ざかるほど大きい値を持
つ。しかしながら、像のずれは画素の整数倍とは限らな
い。また、像ブレの速度は一定ではないので、像ブレに
よる画像のボケが基準画像と参照画像で異なることもあ
る。こういう場合の相関値C(,m)の分布の様子を等
高線で表わすと第9図のようになる。第9図を参照し
て、実際に値が得られているのは図中の格子点上だけで
あるが、格子間の値を想定して等高線が引かれている。
等高線は中心ほど小さい値である。等高線の中心は座標
(x0,y0)のMP点であり、参照画像は基準画像に対し横
へx0、縦へy0だけずれていると考えられる。相関計算で
得られているのは格子点上の値だけであるから、MP点は
格子点のデータを用いて内挿して求める必要がある。ブ
レ検出光学系40の倍率、CCD51の画素サイズ、積分時間
は実際のブレの大きさを想定してMP点が−1.5<x0、y0
<1.5になるように設定される。
C (−2,2) C (−1,2) C (0,2) C (1,2) C (2,2) C (−2,1) C (−1,1) C (0,1) 1) C (1,1) C (2,1) C (−2,0) C (−1,0) C (0,0) C (1,0) C (2,0) C (−2 , -1) C (-1, -1) C (0, -1) C (1, -1) C (2, -1) C (-2, -2) C (-1, -2) C (0, -2) C (1, -2) C (2, -2) If there is no deviation between the reference image and the reference image,
(0,0) becomes 0, and the value becomes larger toward the outside of the array. Further, 0 pixels to the right with respect to the reference image in the reference image, when deviated m 0 pixels above, C (0,
m 0 ) becomes 0, and has a larger value as it goes away from it. However, the image shift is not always an integral multiple of the pixel. Further, since the speed of the image blur is not constant, the blur of the image due to the image blur may be different between the reference image and the reference image. FIG. 9 shows how the distribution of the correlation value C (, m) in such a case is represented by contour lines. Referring to FIG. 9, values are actually obtained only on grid points in the figure, but contour lines are drawn assuming values between grids.
The contour lines have smaller values toward the center. The center of the contour line is the MP point at the coordinates (x 0 , y 0 ), and the reference image is considered to be shifted by x 0 horizontally and y 0 vertically with respect to the reference image. Since only the values on the grid points are obtained by the correlation calculation, the MP points need to be obtained by interpolation using the data of the grid points. As for the magnification of the blur detection optical system 40, the pixel size of the CCD 51, and the integration time, the MP point is −1.5 <x 0 , y 0 assuming the actual magnitude of the blur.
It is set to be <1.5.

相関計算終了後の内挿計算について具体的に説明す
る。横方向の計算について説明する。まずC(,m)の
最小値C(0,m0)を見つける。の値およびC(
0-1,m0)とC(0+1,m0)との大小関係で第10図の
(a)〜(h)に示す場合に分けられる。
The interpolation calculation after the completion of the correlation calculation will be specifically described. The calculation in the horizontal direction will be described. First find C (, m) minimum value C of (0, m 0). The value of 0 and C (
0-1 , m 0 ) and C ( 0 + 1 , m 0 ) are classified into the cases shown in FIGS.

(a)条件の場合 0≦x0<1と判断する。(A) In the case of condition It is determined that 0 ≦ x 0 <1.

点(−1,C(−1,m0))と点(0,C(0,m0))を結ぶ直
線(i)と、点(1,C(1,m0))と、点(2,C(2,m0))
を結ぶ直線(ii)との交点の座標をx0とする。
A straight line (i) connecting the point (−1, C (−1, m 0 )) and the point (0, C (0, m 0 )), the point (1, C (1, m 0 )), and the point (2, C (2, m 0 ))
The coordinates of an intersection between a straight line (ii) connecting the x 0.

(b)条件の場合 1<x0<0と判断する。 (B) In the case of condition It is determined that 1 <x 0 <0.

点(−2,C(−2,m0))と、(−1,C(−1,m0))を結
ぶ直線(i)と、点(0,C(0,m0))と、点(1,C(1,
m0))を結ぶ直線(ii)との交点の座標をx0とする。
A straight line (i) connecting the point (−2, C (−2, m 0 )), (−1, C (−1, m 0 )), and the point (0, C (0, m 0 )) , Point (1, C (1,
m 0)) the coordinates of an intersection between a straight line (ii) and x 0 connecting.

(c)条件の場合 0<x0<1と判断する。 (C) In the case of condition It is determined that 0 <x 0 <1.

以下は(a)の場合と同様で、 (d)条件の場合 1≦x0<2と判断する。The following is the same as in the case of (a), (D) In case of condition It is determined that 1 ≦ x 0 <2.

点(0,C(0,m0))、(1,C(1,m0))を結ぶ直線
(i)と、(2,C(2,m0))を通り傾きが直線(i)と
逆符号の直線(ii)との交点の座標をx0とする。
A straight line (i) connecting the points (0, C (0, m 0 )) and (1, C (1, m 0 )), and a straight line (i, i) passing through (2, C (2, m 0 )) ) and the coordinates of an intersection of the opposite sign of the linear (ii) and x 0.

(e)条件の場合 −1≦x0<0と判断する。 (E) In the case of the condition: It is determined that −1 ≦ x 0 <0.

以下は(b)の場合と同様で、 (f)条件の場合 −2<x0<−1と判断する。The following is the same as in the case of (b), (F) In the case of the condition: It is determined that −2 <x 0 <−1.

点(−1,C(−1,m0))と点(0,C(10,m0))を通る
直線(ii)と線(−2,C(−2,m0))を通り、傾きが直
線(ii)と逆符号の直線(i)との交点の座標をx0
する。
Point (-1, C (-1, m 0)) through the point (0, C (10, m 0)) and linear (ii) through line (-2, C (-2, m 0)) , slope to the coordinates of the intersection of the straight line (ii) the opposite sign of the straight line (i) and x 0.

(g)および(h)条件の場合 想定している最大のブレを越えるブレが発生したとし
てブレ量検出不能と判断する。
In the case of the conditions (g) and (h), it is determined that a shake exceeding the assumed maximum shake has occurred and that the shake amount cannot be detected.

以上x0を求める手順を示したが、y0についても同様に
して求めることができる。
While illustrating a procedure for obtaining the above x 0, it can be obtained in the same for y 0.

次に第3A図に示した補正レンズ32の駆動方法について
説明する。第11図は補正レンズ32の駆動方法を説明する
ための図である。ここでは像ブレの横方向の成分だけを
考える。第11図において横軸tは時間を表わし、縦軸x
は像の位置を表わす、t-3、t-2、t-1、…はCCD51の積分
開始時刻を表わし、t-3″、t-2″、t-1″、…は積分完
了時刻を表わす。積分時間TIiはTIi=ti″−tiで表わさ
れる。被写体が交流光源で照明されている場合は、CCD5
1の露光量が一定になるように積分時間が変化される。
したがって、積分時間は一定ではない。積分開始時刻t
-3、t-2、t-1、…は等間隔でTsである。実線の曲線301
は像ブレがあるときのCCD51上の像の軌跡を示してい
る。補正レンズ32によるブレ補正が行なわれない場合
は、像はこの曲線上を動く。なお、ブレ補正はt=t0
ら開始されるため、曲線301は点(t0,0)を通るように
描かれる。折れ線302は補正レンズ32の軌跡である。破
線の折れ線303は補正レンズ32を動かして補正を行なっ
た場合のCCD51上の像の軌跡を表わす。点P-2、P-1
P0、…は積分期間t-3〜t-3″、t-2〜t-2″、t-1
t-1″、…における像の平均的な位置を表わす。ti
ti″の間に積分したCCDのデータは、ti+1〜ti+2の間に
読出され、計算処理が行なわれて像の位置Piが得られ
る。ti+2からは求められたデータにより補正レンズ32が
駆動される。
Next, a method of driving the correction lens 32 shown in FIG. 3A will be described. FIG. 11 is a diagram for explaining a method of driving the correction lens 32. Here, only the horizontal component of the image blur is considered. In FIG. 11, the horizontal axis t represents time, and the vertical axis x
Represents the position of the image, t -3 , t -2 , t -1 ,... Represent the CCD 51 integration start time, and t -3 ″, t −2 ″, t −1 ″,. The integration time TI i is represented by TI i = t i ″ −t i . If the subject is illuminated with an AC light source, CCD5
The integration time is changed so that the exposure amount of 1 becomes constant.
Therefore, the integration time is not constant. Integration start time t
-3 , t -2 , t -1 , ... are equally spaced T s . Solid curve 301
Indicates the locus of the image on the CCD 51 when there is image blurring. If the blur correction by the correction lens 32 is not performed, the image moves on this curve. Since the blur correction starts at t = t 0 , the curve 301 is drawn so as to pass through the point (t 0 , 0). A polygonal line 302 is a locus of the correction lens 32. A broken line 303 represents the locus of the image on the CCD 51 when the correction lens 32 is moved to perform the correction. Points P -2 , P -1 ,
P 0 ,... Are integration periods t −3 to t −3 ″, t −2 to t −2 ″, t −1 to
t -1 ", ... .t i ~ which represents the average position of the image in
CCD data obtained by integrating between t i "is read during t i + 1 ~t i + 2 , calculation processing is performed to seek from .t i + 2 position P i of the image are obtained The correction lens 32 is driven by the obtained data.

なお、以下の説明の中で、P-2、P-1、P0、…、X1
X2、X3、…、X1′、X2′、X3′、…、X0″、X1″、
X3″、…は点の名称であると同時にその点のx座標の値
としても用いられる。
In the following description, P -2 , P -1 , P 0 , ..., X 1 ,
X 2 , X 3 ,…, X 1 ′, X 2 ′, X 3 ′,…, X 0 ″, X 1 ″,
X 3 ″,... Are the names of the points and are also used as the x-coordinate values of the points.

時刻t=t0からの補正をするためには、t0からt1の間
のブレの速度を求める必要がある。最近の2点の像位置
の変化からブレの速度を求め、t0〜t1間のブレの速度も
それと同時であると予測する。t=t0の時点でわかって
いる最新の像位置はP-1である。P-2からP-1までの時間
がTS−(TI-3−TI-2)/2であるから、t0〜t1のブレの速
度の予測値Vx0である。したがって、t0〜t1の間、補正光学系はVx0
速度で駆動される。
In order to perform the correction from the time t = t 0, it is necessary to find the speed of the blur between t 0 and t 1 . Change obtain a speed of the motion from the image position of the last two points, predicts the rate of blur between t 0 ~t 1 is also simultaneously therewith. The latest image position known at time t = t 0 is P −1 . Since the time from P -2 to P -1 is TS- (TI -3 -TI -2) / 2, t 0 ~t 1 of the predicted value V x0 velocity of blurring It is. Thus, between t 0 ~t 1, the correction optical system is driven at a speed of V x0.

次に時刻t=t1の場合を考える。このとき補正レンズ
32はVX0で駆動されたため、X0″の位置まで移動され
る。この時点ではP0の位置がわっかているのでt1〜t2
ブレ速度の予測値Vx1が計算で次のように求められる。
Next, consider the case of time t = t 1. At this time the correction lens
Since 32 is driven by V X0 , it is moved to the position of X 0 ″. At this time, since the position of P 0 has been changed, the predicted value V x1 of the blurring speed from t 1 to t 2 is calculated as follows. Required.

速度Vx1は最近の像位置データに基づいて求められて
いるため、t0〜t1の間のブレ速度の予測値としては、V
x0より精度が高いと考えられる。そこで、予測誤差ERx1
を次のようにして計算する。
Since the speed V x1 is obtained based on the latest image position data, the predicted value of the blurring speed between t 0 and t 1 is V
It is considered to be more accurate than x0 . Therefore, the prediction error ER x1
Is calculated as follows.

ERx1=(Vx0−Vx1)・TS これらの値からt=t1での像の位置X1は次のようにし
て予測される。
ER x1 = (V x0 -V x1 ) · TS position X 1 of the image at t = t 1 from these values are predicted as follows.

X1=Vx0・TS−G・ERx1 ={Vx0−G(Vx0−Vx1)}・TS Gは予測係数と呼ばれ、第11図においては、予測係数
G=2の場合が示されている。ここで補正レンズ32が新
しく予測されたX1点へ駆動される必要があるが、駆動に
はt1〜t1′の時間が必要である。その間に像はX1′の位
置へ移動すると予測されるため、補正レンズ32は X1′=X1+Vx1×(t1′−t1) の位置へ駆動され、t1′〜t2の間はVx1の速度で駆動さ
れる。
X 1 = V x0 · TS−G · ER x1 = {V x0 −G (V x0 −V x1 )} · TS G is referred to as a prediction coefficient. In FIG. It is shown. Here the correction lens 32 needs to be driven to the newly predicted X 1 point, but the driving time is required for t 1 ~t 1 '. 'Because it is predicted to move to the position of the correction lens 32 X 1' statue X 1 between them 'is driven to a position (-t 1, t 1 = X 1 + V x1 × t 1)' ~t 2 Is driven at the speed of Vx1 .

次に時刻t=t2の場合を考える。このとき補正レンズ
はX1″=X1+Vx1・TSで表わされる位置まで移動されて
いる。この時点では、P1の位置がわかっているのでt2
t3の間のブレ速度の予測値Vx2が次のように計算でき
る。
Next, consider the case of time t = t 2. . In this case the correction lens is moved to a position represented by X 1 "= X 1 + V x1 · TS at this time, since the found position of P 1 t 2 -
The predicted value V x2 of the blur speed during t 3 can be calculated as follows.

Vx2はt1〜t2の間のブレ速度の予測値としてはVx1より
精度が高いと考えられる。そこで予測誤差ERx2を次のよ
うに計算する。
V x2 is considered to be more accurate than V x1 as the predicted value of the shake speed between t 1 ~t 2. Therefore, the prediction error ER x2 is calculated as follows.

ERx1=(Vx1−Vx2)・TS これらの値からt=t2での像の位置X2は次のように予
測される。
ER x1 = (V x1 −V x2 ) · TS From these values, the position X 2 of the image at t = t 2 is predicted as follows.

X2=X″G・ERx2 =X1+{Vx1−G(Vx1−Vx2)}・TS ここで補正レンズ32は新しく予測された位置X2へ駆動
される必要があるが、駆動にはt2〜t2′の時間が必要で
ある。その間に像はX2′の位置へ移動すると予測できる
ため補正レンズ32は X2′=X2+Vx2・(t2′−t2) の位置へ駆動され、t2′〜t3の間はVx2の速度で駆動さ
れる。
X 2 = X ″ G · ER x2 = X 1 + {V x1 −G (V x1 −V x2 )} · TS Here, the correction lens 32 needs to be driven to the newly predicted position X 2 , the driving 'is required time. during which the image is X 2' t 2 ~t 2 correction lens since it predicted to move to the position of the 32 X 2 '= X 2 + V x2 · (t 2' -t It is driven to a position of 2), between t 2 '~t 3 is driven at a speed of V x2.

次に時刻t=t3の場合を考える。このとき補正レンズ
X2″は X2″=X2+Vx2・TS で表わされる位置にある。この時点ではP2の位置がわか
っているためt3〜t4間のずれ速度の予測値Vx3が次のよ
うに計算できる。
Next, consider the case of time t = t 3. At this time the correction lens
X 2 ″ is at a position represented by X 2 ″ = X 2 + Vx2 · TS. Predicted value V x3 displacement speed between t 3 ~t 4 because you know the position of P 2 at this point can be calculated as follows.

(但しt=t1〜t=t1′の時間は無視する。) Vx3はt2〜t3間のブレ速度の予測値としてVx2よりは精
度が高いと考えられるため予測誤差ER3を次のように求
める。
(Where t = t 1 ~t = t 1 ' of time is ignored.) V x3 prediction order is considered to be more accurate than V x2 as the predicted value of the shake speed between t 2 ~t 3 error ER 3 Is determined as follows.

ER3=(Vx2−Vx3)・TS これらの値からt=t3での像の位置X3は X3=X2″−G・ERx3 =X2+{Vx2−G(Vx2−Vx3)}・TS と予測できる。ここで補正レンズ32は新しく予測された
位置X3へ駆動される必要があるが、駆動にはt3〜t3′間
の時間が必要である。その間に像はX3″の位置へ移動す
ると予測できるため、補正レンズ32は X3′=X3+Vx3・(t3′−t3) の位置へ駆動され、t3′〜t4間はVx3の速度で駆動され
る。
ER 3 = (V x2 -V x3 ) · TS position X 3 of the image at t = t 3 from those values X 3 = X 2 "-G · ER x3 = X 2 + {V x2 -G (V x2 -V x3)} · TS and can be predicted. where the correction lens 32 should be driven to a position X 3 newly predicted time is required between t 3 ~t 3 'to drive . since it can be predicted that the image during moving to the position of X 3 ", the correction lens 32 is driven to a position of X 3 '= X 3 + V x3 · (t 3' -t 3), t 3 '~t 4 It is driven at a speed of Vx3 .

以下、同様にして、X4、Vx4、X5、Vx5、…が求めら
れ、補正光学系が駆動される。
Hereinafter, similarly, X 4 , V x4 , X 5 , V x5 ,... Are obtained, and the correction optical system is driven.

なお、本実施例では、予測係数Gは一定とした。しか
しながら、ブレ検出の状況によっては補正シーケンスの
途中でGの値が変更されてもよい。数回のブレ補正が行
なわれても、予測誤差ERが小さくならない場合、あるい
は予測誤差ERiの符号が反転しない場合には、予測係数
Gが大きくされてもよい。また予測誤差ERiの符号が耐
えず反転を繰返す場合には、Gの値が小さくされてもよ
い。
In the present embodiment, the prediction coefficient G is fixed. However, the value of G may be changed during the correction sequence depending on the situation of blur detection. Even if the number of times of the motion compensation is performed, if the prediction error ER is not reduced, or when the sign of the prediction error ER i is not inverted, the prediction coefficient G may be large. Further, when repeated inversion not endure the sign of the prediction error ER i may the value of G is small.

第11図を参照して、時刻t0からtzまでの時間TRはカメ
ラの撮影露光時間である。第11図からわかるように、手
ブレ補正を行なうシーケンスは、この撮影露光時間TRの
時間内に何回も繰返される。したがって、1回や2回だ
け補正が行なわれるわけではなく、少なくとも数回補正
が行なわれる。したがって、実際の手ブレ量計算や補正
用計算時間は或る程度短い時間内に行なわれる必要があ
る。また手ブレを検出するセンサの積分時間TI3、TI2
…TI0…TInも短時間である必要がある。撮影露光時間TR
が数10ms〜1000msというオーダに対して、TInは数ms程
度である。この関係が保たれないと手ブレ補正の効果は
現われない。
With reference to FIG. 11, the time TR from time t 0 to t z is a photographic exposure time of the camera. As can be seen from FIG. 11, the sequence for performing the camera shake correction is repeated many times within the photographing exposure time TR. Therefore, the correction is not performed only once or twice, but is performed at least several times. Therefore, the actual camera shake amount calculation and correction calculation time need to be performed within a certain short time. In addition, the integration times TI 3 , TI 2 ,
… TI 0 … TI n must also be short. Exposure time TR
Is on the order of several tens to 1000 ms, TI n is on the order of several ms. If this relationship is not maintained, the effect of camera shake correction will not appear.

以上のようにこの発明においては、被写体像を検出す
るエリアセンサの出力を使ってブレ検出を行ない、検出
したブレ量を用いて上記のようなブレ補正が行なわれ
る。
As described above, in the present invention, blur detection is performed using the output of the area sensor that detects the subject image, and the above-described blur correction is performed using the detected blur amount.

次に交換レンズ3とカメラ本体12とのインタフェース
について説明する。交換レンズ3からはそのレンズ固有
の情報として 補正倍率KBLX、KBLY(ズーミングが行なわれた場合に
各焦点距離に対応する値): (フィルム面の像移動量)/(駆動パルス) が入力される。
Next, an interface between the interchangeable lens 3 and the camera body 12 will be described. From the interchangeable lens 3, correction magnifications KBLX and KBLY (values corresponding to respective focal lengths when zooming is performed): (amount of image movement on the film surface) / (driving pulse) are input as lens-specific information. .

そして駆動パルスxi=像移動量X0/補正倍率KBLXまた
はyi=像移動量Y0/補正倍率KBLYで求められる。次に上
述のレンズ駆動を行なうために必要なデータ 方向X:正、負 駆動スピードVxi、 駆動パルスXi 駆動パルスXi′ 方向Y:正、負 駆動スピードVyi、 駆動パルスY 駆動パルスYi′ 原点復帰 がレンズ側に出力される。ここで原点復帰信号は、レ
ンズが原点に復帰されるときにだけセットされ、レンズ
側はこの信号があるときのみ補正レンズ32を原点に復帰
させる。
Then, the driving pulse xi is calculated by the following formula: xi = image movement amount X 0 / correction magnification KBLX or yi = image movement amount Y 0 / correction magnification KBLY. Next, the data necessary for performing the above-described lens driving direction X: positive and negative driving speed V xi , driving pulse X i driving pulse X i ′ direction Y: positive and negative driving speed V yi , driving pulse Y driving pulse Y i ′ Origin return is output to the lens side. Here, the origin return signal is set only when the lens is returned to the origin, and the lens returns the correction lens 32 to the origin only when this signal is present.

なお、レンズ側での制御は入力したデータに基づき上
述のように補正レンズ32が駆動される。また検出不能デ
ータが出力されたときは、1つ前のデータと同一のデー
タが出力される。
In the control on the lens side, the correction lens 32 is driven based on the input data as described above. When undetectable data is output, the same data as the immediately preceding data is output.

次にCCD51の積分時間の制御について説明する。第12A
図はCCD51の積分時間を制御するための回路であり、照
度モニタ用SPDと測光回路を含む。測光回路は積分回路
およびリセット回路とを含む。照度モニタ用SPDはCCD51
の撮影領域近傍に形成される。照度モニタSPDの出力で
ある光電流は、積分回路によって積分される。積分回路
の出力は積分期間中照度モニタに入力した光量に比例す
る。照度モニタおよび測光回路を用いるのは、被写体が
螢光灯などの交流光源で照明されている場合でもCCD51
の出力を一定に保つためである。交流光源の照明下にあ
る被写体を撮像する場合に、CCD51の積分時間を一定に
していたのでは、毎回の読出出力が変動するためであ
る。これについては後述する。CCD51の読出出力を安定
させるためには、被写体の照度に合わせて積分時間が調
節される必要がある。この実施例においては、CCD51の
積分開始と同時に測光回路の積分も開始され、積分回路
の出力でCCD51の露光量がモニタされる。
Next, control of the integration time of the CCD 51 will be described. No. 12A
The figure shows a circuit for controlling the integration time of the CCD 51, and includes an illuminance monitor SPD and a photometric circuit. The photometric circuit includes an integrating circuit and a reset circuit. SPD for illuminance monitor is CCD51
Is formed in the vicinity of the photographing area. The photocurrent output from the illuminance monitor SPD is integrated by the integration circuit. The output of the integration circuit is proportional to the amount of light input to the illuminance monitor during the integration period. The illuminance monitor and photometric circuit are used even when the subject is illuminated by an AC light source such as a fluorescent lamp.
In order to keep the output of the constant. When the subject under the illumination of the AC light source is imaged, if the integration time of the CCD 51 is kept constant, the readout output fluctuates every time. This will be described later. In order to stabilize the read output of the CCD 51, it is necessary to adjust the integration time according to the illuminance of the subject. In this embodiment, the integration of the photometric circuit is started simultaneously with the start of the integration of the CCD 51, and the exposure amount of the CCD 51 is monitored by the output of the integrating circuit.

第12B図は第12A図の変形例である。 FIG. 12B is a modification of FIG. 12A.

次にCCD51をブレ検出用センサとして用いる場合の第1
2A図、第12B図に示した積分時間制御回路の動作につい
て説明する。リセット回路がONされ、積分回路がリセッ
トされる。CCDの蓄積部の電荷がクリアされる。CCD51の
積分が開始されるとリセット回路がOFFされ、測光回路
が積分を開始する。
Next, the first case of using the CCD 51 as a blur detection sensor
The operation of the integration time control circuit shown in FIGS. 2A and 12B will be described. The reset circuit is turned on, and the integration circuit is reset. The charge in the CCD storage section is cleared. When the integration of the CCD 51 is started, the reset circuit is turned off, and the photometric circuit starts the integration.

第13図は測光回路出力の時間的変化を表わす図であ
る。横軸tは積分時間を表わし、縦軸Iは測光回路の出
力の大きさを示す。被写体が交流光源によって照明され
ている場合、測光回路の出力は図に示すように曲線を描
いて上昇していく。測光出力を適当な基準値I0と比較し
て、測光出力IがI0になったときに積分回路がリセット
され、CCD51の積分が打切られる。CCD51の出力が読出さ
れ、露光量が適当であるかどうかが判断される。露光量
が適当である場合には、以後の露光には基準値I0が用い
られる。露光量が不適当であった場合は、たとえば露光
量がk倍されてI0×kが新しい基準値I0とされ、以後の
露光が行なわれる。
FIG. 13 is a diagram showing a temporal change in the output of the photometric circuit. The horizontal axis t indicates the integration time, and the vertical axis I indicates the magnitude of the output of the photometric circuit. When the subject is illuminated by the AC light source, the output of the photometric circuit rises in a curve as shown in the figure. By comparing the photometric output with the appropriate reference value I 0, the integrating circuit when the photometric output I becomes I 0 is reset, the integral of the CCD51 is aborted. The output of the CCD 51 is read, and it is determined whether the exposure amount is appropriate. If the exposure amount is appropriate, the reference value I 0 is used for the subsequent exposure. If the exposure amount is inappropriate, for example, the exposure amount is multiplied by k to make I 0 × k a new reference value I 0, and subsequent exposure is performed.

次にCCD51が電子ファインダ用撮像素子として用いら
れる場合の積分時間制御回路の動作について説明する。
測光回路31の出力信号、露光補正量入力手段22からの信
号およびフィルム感度設定手段23からの信号をもとに基
準値I0が設定される(この内容については第14図を参照
してメインCPUのシーケンスステップ#70で説明す
る)。
Next, the operation of the integration time control circuit when the CCD 51 is used as an image sensor for an electronic finder will be described.
The output signal of the photometric circuit 31, a reference value I 0 is set on the basis of a signal from the signal and film sensitivity setting means 23 from the exposure correction amount input unit 22 (for the contents of the main with reference to FIG. 14 This will be described in sequence step # 70 of the CPU).

以上説明したブレ検出、補正およびリモートファイン
ダ等を含めたカメラのシーケンスをメインCPUおよびブ
レ補正のコントロールCPUのフローチャートに基づいて
説明する。
The sequence of the camera including the above-described shake detection, correction, remote finder, and the like will be described based on the flowcharts of the main CPU and the shake correction control CPU.

まずメインCPU1のシーケンスについて説明する。第14
図を参照して、ステップ#5(以下ステップを略す)の
ループでメインCPUは待機状態にある。すなわち、#5
のループによって、レリーズボタンの第1ストロークで
スイッチS1がONになるのを待っている。スイッチS1がON
になると、AF完了フラグAFEFおよび信号がリセットされ
(#10)、測光回路31、AF検出モジュール14、手ブレ補
正コントローラ18等必要な回路の電源が投入される(#
15)。次に補正レンズ32の原点復帰信号が撮影レンズ3
へ出力され(#20)、タイマがリセットされた後、スタ
ートされ(#25)、撮影レンズ3のレンズデータが入力
され(#30)、開放測光が行なわれる(#35)。
First, the sequence of the main CPU 1 will be described. 14th
Referring to the figure, the main CPU is in a standby state in a loop of step # 5 (hereinafter, step is abbreviated). That is, # 5
Waiting for the switch S1 to be turned ON in the first stroke of the release button. Switch S1 is ON
, The AF completion flag AFEF and the signal are reset (# 10), and the necessary circuits such as the photometry circuit 31, the AF detection module 14, and the camera shake correction controller 18 are turned on (#
15). Next, the origin return signal of the correction lens 32 is transmitted to the photographing lens 3.
(# 20), and after the timer is reset, it is started (# 25), the lens data of the photographing lens 3 is input (# 30), and open metering is performed (# 35).

#40ではAF完了フラグAFEFが1かどうかが判断され、
1であればプログラムは#65へジャンプし、1でなけれ
ばプログラムは#45へ進む。#45ではAF検出が行なわれ
る。#50では、#45のAF検出の結果合焦しているかどう
かが判断される。合焦していればプログラムは#55へ行
き、合焦していなければ#60へ分岐する。#60ではピン
ト位置へ撮影レンズ3が駆動された後、#45へプログラ
ムはジャンプする。#55でAF完了フラグAFEFが1にされ
る。#65では#35で得られた測光値、フィルム感度およ
び#45のAFの結果得られた距離情報をもとにAE演算が行
なわれる。#70ではCCD51の露光量が設定される。
In # 40, it is determined whether the AF completion flag AFEF is 1 or not.
If it is 1, the program jumps to # 65. If it is not 1, the program goes to # 45. In # 45, AF detection is performed. In # 50, it is determined whether or not the camera is in focus as a result of the AF detection in # 45. If it is in focus, the program goes to # 55, and if not, it branches to # 60. In step # 60, after the photographing lens 3 is driven to the focus position, the program jumps to step # 45. At # 55, the AF completion flag AFEF is set to 1. In # 65, the AE calculation is performed based on the photometric value, the film sensitivity obtained in # 35, and the distance information obtained as a result of the AF in # 45. In # 70, the exposure amount of the CCD 51 is set.

#75でシャッタボタンの第2ストロークのスイッチS2
がONされているかどうかがチェックされる。スイッチS2
がONであれば、プログラムは#105へ行き、ONでなけれ
ば#80へ分岐する。#80ではスイッチS1がONかどうかを
判断する。スイッチS1がオンONであれば、プログラムは
#25へジャンプする。ONでなければシャッタボタンが全
く押されていないので、#85で一定時間経過しているか
どうかをタイマでチェックする。一定時間経過していれ
ば測光回路3、AF検出モジュール14、手ブレ補正コント
ローラ18等の回路の電源をOFF(#100)してから#5の
待機状態へプログラムはジャンプする。一定時間経過し
なければ、AF完了フラグAFEFが0に設定され(#90)、
プログラムは#80へ進む。
Switch S2 of the second stroke of the shutter button at # 75
It is checked whether is turned on. Switch S2
If is ON, the program goes to # 105; if not, the program branches to # 80. In # 80, it is determined whether the switch S1 is ON. If the switch S1 is ON, the program jumps to # 25. If it is not ON, since the shutter button has not been pressed at all, it is checked by a timer at # 85 whether a predetermined time has elapsed. If the predetermined time has elapsed, the program jumps to the standby state of # 5 after turning off the power of the circuits such as the photometry circuit 3, the AF detection module 14, and the camera shake correction controller 18 (# 100). If the fixed time has not elapsed, the AF completion flag AFEF is set to 0 (# 90),
The program proceeds to # 80.

#105では、シャッタボタンの第2ストロークが押さ
れているのでレリーズ信号がHレベルにされ、コントロ
ールCPUにその旨が知らされる。#110以降は撮影レンズ
3の絞りを#65のAE演算で求めた絞り値まで絞り込む
(#110)。電子ファインダ用撮像光学系41からブレ検
出光学系40へ光学系が切換えられ(#115)、ブレ検出
信号がHレベルにされ、コントロールCPUのブレ検出シ
ーケンスがスタートされる(#120)。AFミラー7が退
避され(#125)、絞り込み測光が行なわれ(#130)、
AE演算を行なったシャッタ速度が修正される(#13
5)。
In step # 105, since the second stroke of the shutter button has been pressed, the release signal is set to the H level, and the control CPU is notified of that. After # 110, the aperture of the taking lens 3 is reduced to the aperture value obtained by the AE calculation of # 65 (# 110). The optical system is switched from the electronic viewfinder imaging optical system 41 to the blur detection optical system 40 (# 115), the blur detection signal is set to the H level, and the blur detection sequence of the control CPU is started (# 120). The AF mirror 7 is retracted (# 125), aperture metering is performed (# 130),
The shutter speed for which AE calculation was performed is corrected (# 13
Five).

#140ではコントロールCPUからの露出許可信号がHレ
ベルになるのを待つ。露出許可信号がHレベルになれ
ば、シャッタ幕9が走行され、露出制御が行なわれる
(#145)。露光が終われば、原点復帰信号が撮影レン
ズ3に出力され(#150)、補正レンズ32が原点位置へ
戻され、ブレ検出信号がLレベルにされて露光が終了し
たことがコントロールCPUへ知らされる(#155)。
In step # 140, the flow waits for the exposure permission signal from the control CPU to go high. When the exposure permission signal becomes H level, the shutter curtain 9 is run and exposure control is performed (# 145). When the exposure is completed, an origin return signal is output to the photographing lens 3 (# 150), the correction lens 32 is returned to the origin position, the blur detection signal is set to L level, and the control CPU is notified that the exposure is completed. (# 155).

フィルムの巻上げを行ない(#160)、連写モードか
どうかが判断される(#165)。連写モードでなけれ
ば、#180へプログラムは分岐し連写モードであれば#1
70へ行き、スイッチS2がONかどうかが判断される。ここ
でスイッチS2がOFFであれば、連写モードではあるが連
写しないでのプログラムは#180へ分岐する。スイッチS
2がONであれば、連写を行なうので、ブレ検出信号がH
レベルにされ(#175)、プログラムは#130へジャンプ
する。
The film is wound up (# 160), and it is determined whether the mode is the continuous shooting mode (# 165). If not in continuous shooting mode, the program branches to # 180 and if in continuous shooting mode, # 1
Go to 70 to determine whether the switch S2 is ON. If the switch S2 is OFF, the program in the continuous shooting mode but without continuous shooting branches to # 180. Switch S
If 2 is ON, continuous shooting is performed, so the blur detection signal is H
Leveled (# 175), the program jumps to # 130.

#180以降は、AFミラー7が検出位置へ戻され(#18
0)、撮影レンズ3の絞りが開放され(#185)、レリー
ズ信号がLレベルにされて(#190)、コントロールCPU
1にその旨が知らされる。ブレ検出光学系40が電子ファ
インダ用撮像光学系41に切換えられ(#200)、S2がOFF
になるのを待ち(#205)、プログラムは#80へジャン
プして次の撮影に備えられる。
After # 180, the AF mirror 7 is returned to the detection position (# 18
0), the aperture of the photographing lens 3 is opened (# 185), the release signal is set to L level (# 190), and the control CPU
1 will be notified. The blur detection optical system 40 is switched to the electronic viewfinder imaging optical system 41 (# 200), and S2 is turned off.
(# 205), the program jumps to # 80 and prepares for the next shooting.

次にコントロールCPUの動作について第15図を参照し
て説明する。第14図の#15で手ブレ補正コントローラ18
の電源が投入され、シーケンスがスタートされる。フラ
グ、出力信号がリセットされ(#B5)、CCD51の積分が
リセットされた後積分が開始される(#10)。#B15で
積分が終了された場合、読出したデータが画像メモリ64
へダンプされる(#B20)。ダンプされたデータは順次
読出されてD/A変換され、映像信号処理回路62によりLCD
63で画像が表示される。#B25では、CCD51の積分がリセ
ットされた後、積分がスタートされ、プログラムは#B1
5へジャンプする。
Next, the operation of the control CPU will be described with reference to FIG. Image stabilizer controller 18 at # 15 in Fig. 14
Is turned on, and the sequence is started. The flag and the output signal are reset (# B5), and integration is started after the integration of the CCD 51 is reset (# 10). When the integration is completed in # B15, the read data is stored in the image memory 64.
(# B20). The dumped data is sequentially read and D / A converted, and the video signal processing circuit 62
The image is displayed at 63. In # B25, the integration is started after the integration of the CCD 51 is reset, and the program is executed in # B1.
Jump to 5.

#B15で積分が終了していないときは、プログラムは
#30へ分岐する。#B30ではメインCPUからのレリーズ信
号がチェックされ、Hレベルであればプログラムは#B3
5へ進み、Lレベルであればプログラムは#B15へ分岐す
る。#B35ではメインCPUからのブレ検出信号がHレベル
になってブレ検出が開始されるのを待つ。
If the integration is not completed in # B15, the program branches to # 30. In # B30, the release signal from the main CPU is checked.
The program proceeds to 5, and if it is at the L level, the program branches to # B15. In # B35, the process waits until the shake detection signal from the main CPU goes to H level and the shake detection is started.

ブレ検出信号がHレベルになれば、CCD51の積分リセ
ットの後、積分が開始される。(#B40)。このとき光
学系はメインCPUによって既にブレ検出光学系の方に切
換えられている。#B45でCCD51の積分終了が待たれる。
CCD51の積分終了後は、読出したデータが基準メモリ65
および参照メモリ66へダンプされる(#B50)。CCD51の
積分リセット後、積分が開始される(#B55)。
When the shake detection signal becomes H level, integration is started after the integration of the CCD 51 is reset. (# B40). At this time, the optical system has already been switched to the blur detection optical system by the main CPU. In # B45, the end of CCD51 integration is awaited.
After the CCD 51 integration is completed, the read data is stored in the reference memory 65.
And dumped to the reference memory 66 (# B50). After the integration of the CCD 51 is reset, the integration is started (# B55).

コントラスト演算が行なわれ(#B60)、ブレ検出に
用いられるブロックの選択が行なわれる(#B65)。CCD
51の積分終了が待たれる(#B70)。積分終了後は読出
したデータを参照メモリ66へダンプし(#B75)、CCD51
の積分リセットの後、積分が開始される。
A contrast calculation is performed (# B60), and a block used for blur detection is selected (# B65). CCD
The completion of integration of 51 is awaited (# B70). After the integration is completed, the read data is dumped to the reference memory 66 (# B75), and the CCD 51
After the integration is reset, integration is started.

相関演算(#B85)および内挿演算(#B90)が行なわ
れ、像ブレ量が検出される。撮影レンズ3のレンズデー
タを読出し(#B95)、補正レンズ32の補正量、方向が
演算される(#B100)。
The correlation calculation (# B85) and the interpolation calculation (# B90) are performed, and the image blur amount is detected. The lens data of the taking lens 3 is read out (# B95), and the correction amount and direction of the correction lens 32 are calculated (# B100).

#B105でメインCPUからのブレ検出信号がLレベルか
否かを判断し、Lレベルであればブレ検出が終了される
ためプログラムは#B130へ分岐する。#B105でブレ検出
信号がLレベルでなければ、ブレ検出を続けるのでプロ
グラムは#B110へ進む。露出許可信号がHレベルにされ
(#B110)、メインCPUに露出が開始されてもよいこと
を知らせ、レンズ補正データが撮影レンズ3に対して出
力され(#B120)、プログラムは#B70へジャンプす
る。
In # B105, it is determined whether or not the shake detection signal from the main CPU is at the L level. If the shake detection signal is at the L level, the shake detection ends, and the program branches to # B130. If the blur detection signal is not at the L level in # B105, the blur detection is continued, and the program proceeds to # B110. The exposure permission signal is set to the H level (# B110) to notify the main CPU that the exposure may be started, lens correction data is output to the photographing lens 3 (# B120), and the program jumps to # B70. I do.

#B130では、メインCPUからのレリーズ信号がLレベ
ルかどうかを判断する。Lレベルであれば、撮影が終わ
っているのでプログラムは#B10へジャンプする。Lレ
ベルでない場合は連続撮影なので、プログラムは#B135
へ進み、検出信号がHレベルになるのを待つ。検出信号
がHレベルになれば、プログラムは#B40へジャンプす
る。
In # B130, it is determined whether or not the release signal from the main CPU is at the L level. If it is at the L level, the program has jumped to # B10 since the shooting has been completed. If it is not L level, it is continuous shooting, so the program is # B135
To wait for the detection signal to go to the H level. When the detection signal becomes H level, the program jumps to # B40.

第16図はコントロールCPUの別の実施例である。レリ
ーズが始まってからも、#B247および#B275で画像メモ
リへデータがダンプされ、手ブレ検出の画像情報が表示
される。すなわち、露光寸前までは撮影領域の全域がLC
D63に表示されるのに対し、露光が始まると光学系が切
換わって手ブレ検出エリアの表示がLCD63に行なわれ
る。
FIG. 16 shows another embodiment of the control CPU. Even after the release is started, the data is dumped to the image memory at # B247 and # B275, and the image information of the camera shake detection is displayed. In other words, the entire shooting area is LC just before the exposure
On the other hand, when the exposure starts, the optical system is switched and the camera shake detection area is displayed on the LCD 63 while the exposure is started.

[発明の効果] 以上のようにこの発明によれば、フィルム撮影用の光
束を分割してエリアセンサで被写体像を撮像し、それを
用いて、撮影の開始指示前においては表示手段に被写体
像の表示を順次行なわせ、開始指示後においては、ブレ
検出手段によるブレの検出を行なわせるとともに表示手
段に被写体像の表示を行なわせる。その結果、撮影開始
指示前後の被写体像の表示が確認できるとともに、撮影
時のブレの有無が確認できるカメラを提供できる。
[Effects of the Invention] As described above, according to the present invention, a subject image is captured by an area sensor by dividing a light beam for film photography, and the subject image is displayed on the display means before the photographing start instruction is used. Are displayed in sequence, and after the start instruction, the blur is detected by the blur detecting means and the display means displays the subject image. As a result, it is possible to provide a camera capable of confirming the display of the subject image before and after the photographing start instruction and confirming the presence / absence of blur during photographing.

【図面の簡単な説明】[Brief description of the drawings]

第1図はこの発明に係る電子ファインダ付ブレ検出カメ
ラの中心部をなすメインCPUのブロック図であり、第2A
図〜第2D図は電子ファインダのカメラボディへの取付状
態を説明するための図であり、第3A図はこの発明に係る
電子ファインダ付ブレ検出カメラの光学系を示す図であ
り、第3B図はブレ検出光学系駆動手段まわりの詳細を示
す図であり、第4A図〜第4C図は電子ファインダのスクリ
ーンを示す図であり、第5図は第3A図に示した光学系の
変形例を示す図であり、第6A図、第6B図は第5図に示し
た実施例における電子ファインダのカメラボディへの取
付状態を示す図であり、第7図は手ブレ検出補正手段の
ブロック図であり、第8図はCCDの受光部の模式図であ
り、第9図は像ブレ量を求めるための相関値を説明する
ための図であり、第10図は内挿計算の方法を説明するた
めの図であり、第11図は補正レンズの駆動方法を説明す
るための図であり、第12A図、第12B図は、CCDの積分時
間を制御する回路を示す回路図であり、第13図は測光回
路出力の時間変化を表わす図であり、第14図〜第16図は
この発明に係る電子ファインダ付ブレ検出カメラのメイ
ンCPU、コントロールCPUの動作を説明するためのフロー
チャートである。 1はメインCPU、2はSPD、3は撮影レンズ、4は絞り駆
動手段、5は焦点調節駆動手段、6は撮影レンズ回路、
7はAF検出ミラー、31は測光回路、32は補正レンズ、40
はブレ検出光学系、41は電子ファインダ撮像光学系、42
は光学系切換手段である。 なお図中、同一符号は同一、または相当部分を示す。
FIG. 1 is a block diagram of a main CPU which is a central part of a camera for detecting a blur with an electronic finder according to the present invention.
FIGS. 2A to 2D are views for explaining a mounting state of the electronic finder to the camera body, and FIG. 3A is a view showing an optical system of the camera for detecting a blur detected by the electronic finder according to the present invention, and FIG. FIG. 4A is a diagram showing details around a shake detection optical system driving means, FIGS. 4A to 4C are diagrams showing a screen of an electronic finder, and FIG. 5 is a diagram showing a modification of the optical system shown in FIG. 3A. 6A and 6B are diagrams showing a state of attachment of the electronic finder to the camera body in the embodiment shown in FIG. 5, and FIG. 7 is a block diagram of a camera shake detection and correction means. FIG. 8 is a schematic diagram of a light receiving unit of a CCD, FIG. 9 is a diagram for explaining a correlation value for obtaining an image blurring amount, and FIG. 10 is a diagram for explaining a method of interpolation calculation. FIG. 11 is a diagram for explaining a method of driving the correction lens, and FIG. FIG. 12B is a circuit diagram showing a circuit for controlling the integration time of the CCD, FIG. 13 is a diagram showing a time change of the output of the photometric circuit, and FIGS. 14 to 16 are electronic viewfinders according to the present invention. 6 is a flowchart for explaining operations of a main CPU and a control CPU of the shake detection camera. 1 is a main CPU, 2 is an SPD, 3 is a photographing lens, 4 is an aperture driving unit, 5 is a focus adjustment driving unit, 6 is a photographing lens circuit,
7 is an AF detection mirror, 31 is a photometry circuit, 32 is a correction lens, 40
Is a blur detection optical system, 41 is an electronic viewfinder imaging optical system, 42
Denotes optical system switching means. In the drawings, the same reference numerals indicate the same or corresponding parts.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 大塚 博司 大阪府大阪市中央区安土町2丁目3番13 号 大阪国際ビル ミノルタカメラ株式 会社内 (56)参考文献 特開 昭54−55425(JP,A) 特開 平1−194580(JP,A) 特開 昭64−78581(JP,A) 特開 昭61−215538(JP,A) 特開 平2−239781(JP,A) 特開 昭59−202417(JP,A) 特開 平1−130126(JP,A) (58)調査した分野(Int.Cl.6,DB名) G03B 5/00 - 5/08 ──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Hiroshi Otsuka 2-3-113 Azuchicho, Chuo-ku, Osaka-shi, Osaka Inside the Osaka International Building Minolta Camera Co., Ltd. (56) References JP-A-54-55425 (JP, A) JP-A-1-194580 (JP, A) JP-A-64-78581 (JP, A) JP-A-61-215538 (JP, A) JP-A-2-239781 (JP, A) JP-A-59 -202417 (JP, A) JP-A-1-130126 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G03B 5/00-5/08

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】被写体からの光を導き入れて所定の面上に
その被写体像を結像させる撮影光学系を備えたカメラに
おいて、 前記被写体から前記所定の面までの光路中に設けられ、
前記被写体からの光を分割する半透過ミラーと、 前記半透過ミラーによって分割された前記被写体からの
光のうちの一方を受光し、電気信号に変換する2次元エ
リアセンサと、 前記2次元エリアセンサの出力信号に基づいて、ブレの
検出を行なうブレ検出手段と、 前記2次元エリアセンサの出力信号に基づいて、前記被
写体像を電気的に表示する表示手段と、 撮影の開始を指示する手段と、 撮影の開始指示前においては、前記エリアセンサから繰
返し出力される出力信号に基づいて前記表示手段に前記
被写体像の表示を順次行なわせ、撮影の開始指示後にお
いては、前記2次元エリアセンサの撮影中における出力
信号に基づいて前記ブレ検出手段によるブレ検出を行な
わせるとともに、前記表示手段に前記被写体像の表示を
行なわせる制御手段と を備えたことを特徴とするカメラ。
1. A camera provided with a photographing optical system for introducing light from a subject and forming an image of the subject on a predetermined surface, the camera being provided in an optical path from the subject to the predetermined surface,
A semi-transmissive mirror that divides light from the subject; a two-dimensional area sensor that receives one of the lights from the subject divided by the semi-transmissive mirror and converts the light into an electric signal; A shake detection means for detecting a shake based on the output signal of the above; a display means for electrically displaying the subject image based on an output signal of the two-dimensional area sensor; a means for instructing a start of photographing; Prior to the start of photographing, the display unit sequentially displays the subject image based on the output signal repeatedly output from the area sensor, and after the start of photographing, the display of the two-dimensional area sensor is started. A system which causes the blur detecting means to perform blur detection based on an output signal during shooting and causes the display means to display the subject image. Camera, characterized in that a means.
JP1333965A 1989-12-21 1989-12-21 camera Expired - Lifetime JP2973443B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP1333965A JP2973443B2 (en) 1989-12-21 1989-12-21 camera
US07/632,075 US5218442A (en) 1989-12-21 1990-12-21 Camera with camera-shake detection apparatus
US07/987,778 US5270767A (en) 1989-12-21 1992-12-09 Camera with camera-shake detection apparatus
US08/120,443 US5365304A (en) 1989-12-21 1993-09-14 Camera with camera-shake detection apparatus
US08/292,289 US5420661A (en) 1989-12-21 1994-08-18 Camera with camera-shake detection apparatus
US08/987,055 US6215960B1 (en) 1989-12-21 1997-12-09 Camera with camera-shake detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1333965A JP2973443B2 (en) 1989-12-21 1989-12-21 camera

Publications (2)

Publication Number Publication Date
JPH03192227A JPH03192227A (en) 1991-08-22
JP2973443B2 true JP2973443B2 (en) 1999-11-08

Family

ID=18271971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1333965A Expired - Lifetime JP2973443B2 (en) 1989-12-21 1989-12-21 camera

Country Status (1)

Country Link
JP (1) JP2973443B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3096828B2 (en) * 1992-09-04 2000-10-10 キヤノン株式会社 camera
JPH06222414A (en) * 1993-01-22 1994-08-12 Canon Inc Vibrationproofing system
JPH07191355A (en) 1993-12-27 1995-07-28 Canon Inc Controller for preventing image shaking
JP3757573B2 (en) * 1997-09-09 2006-03-22 コニカミノルタフォトイメージング株式会社 Camera with shake correction function

Also Published As

Publication number Publication date
JPH03192227A (en) 1991-08-22

Similar Documents

Publication Publication Date Title
US5218442A (en) Camera with camera-shake detection apparatus
JPH10311999A (en) Camera
JP3376012B2 (en) camera
JP6614853B2 (en) Imaging device, control method thereof, and control program
JP2005064699A (en) Camera
US5270767A (en) Camera with camera-shake detection apparatus
JP2973443B2 (en) camera
JP3254689B2 (en) Camera that can detect and correct blur
JPH1123955A (en) Automatic focusing camera
JPH11337814A (en) Optical device
JP2926812B2 (en) Image blur detection device
JP3780051B2 (en) Camera autofocus device
JPH0363634A (en) Real image type finder
JP2021182698A (en) Imaging apparatus and method for controlling the same
JP2010282107A (en) Imaging apparatus and control method therefor
JP2017021177A (en) Range-finding point upon lens vignetting, range-finding area transition method
JP3127605B2 (en) Camera with monitor
JP4474040B2 (en) Camera and camera system
JP3421993B2 (en) Camera with monitor
JP2007036983A (en) Digital camera with exchangeable lens
JPH04349440A (en) Blurring detecting device for camera
JP4282404B2 (en) camera
JPH06235952A (en) Image pickup device
JPH03192228A (en) Camera capable of blur detection and correction
JPH03192882A (en) Blur correction camera provided with electronic view finder

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100903

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100903

Year of fee payment: 11