JP2002131624A - Multipoint automatic focusing camera - Google Patents

Multipoint automatic focusing camera

Info

Publication number
JP2002131624A
JP2002131624A JP2000325851A JP2000325851A JP2002131624A JP 2002131624 A JP2002131624 A JP 2002131624A JP 2000325851 A JP2000325851 A JP 2000325851A JP 2000325851 A JP2000325851 A JP 2000325851A JP 2002131624 A JP2002131624 A JP 2002131624A
Authority
JP
Japan
Prior art keywords
focus detection
camera
area
moving
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000325851A
Other languages
Japanese (ja)
Other versions
JP2002131624A5 (en
Inventor
Toshiyuki Matsumoto
寿之 松本
Koichi Nakada
康一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2000325851A priority Critical patent/JP2002131624A/en
Publication of JP2002131624A publication Critical patent/JP2002131624A/en
Publication of JP2002131624A5 publication Critical patent/JP2002131624A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To overcome the problem of a prior art such that processing time gets long because a user does not know what range-finding point is prioritized to perform range-finding when an object is a moving body in a multipoint automatic focusing camera depending on the conventional technique. SOLUTION: This multipoint automatic focusing camera is equipped with an image moving arithmetic calculation part 3 calculating the moving speed and the moving direction of the moving object, a range-finding area selection part 4 selecting a range-finding area based on the maximum value and the minimum value of a moving amount and a posture detection part 43. By detecting the posture of the camera in the case of bringing the moving object into focus and shifting the range-finding area suitably in a lateral direction and in a longitudinal direction, the range-finding area along the posture of the camera is selected and the position of a subject image is detected, then estimation control is realized to perform accurate focusing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は焦点検出装置に関
し、より詳細には、複数の測距点を搭載する多点自動焦
点カメラに関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a focus detection device, and more particularly, to a multipoint autofocus camera equipped with a plurality of ranging points.

【0002】[0002]

【従来の技術】従来、複数の測距点を有するカメラの技
術は数多く提案されている。例えば、画面の中央部とそ
の左右の3点やその3点に中央上下2点を加えた5点の
多点測距するカメラが多いが、最近ではそれ以上の測距
点を有する所謂、マルチフォーカスカメラが製品化され
ており、測距点は増加する傾向にあり、将来的には、殆
ど全画面に測距点を配置する可能性もある。このような
多点自動焦点カメラで移動被写体を撮影する場合には、
被写体が移動していると判定された領域を測距点として
選択するのは一般的であり、多点自動焦点カメラで移動
被写体を撮影する場合の従来技術が知られている。例え
ば、特開平8−29670号公報には、前回選択した測
距点で動体予測が不能になると、その近傍の測距点を選
択する技術が開示されている。
2. Description of the Related Art Conventionally, many techniques for a camera having a plurality of distance measuring points have been proposed. For example, there are many cameras that perform multi-point ranging of five points obtained by adding the center part of the screen and three points on the left and right thereof and two points above and below the center, but recently, a so-called multi Focus cameras have been commercialized, and the number of ranging points tends to increase. In the future, the ranging points may be arranged on almost the entire screen. When shooting a moving subject with such a multipoint autofocus camera,
It is common to select an area in which the subject is determined to be moving as a distance measuring point, and a conventional technique in which a moving subject is photographed by a multipoint autofocus camera is known. For example, Japanese Patent Application Laid-Open No. Hei 8-29670 discloses a technique in which when a moving object cannot be predicted at a previously selected ranging point, a ranging point in the vicinity thereof is selected.

【0003】[0003]

【発明が解決しようとする課題】移動被写体を撮影する
ための前述した特開平8−29670号公報に開示され
た技術には以下のような問題点があった。測距点数が例
えば、3点のように少なければ問題ないが、測距点が非
常に多くなってくると「近傍の測距点」が多くなり、ど
の測距点を優先して測距すればいいのかがわからず、処
理時間が多くなるという問題点があり、その解決方法も
示唆されていない。通常、写真を統計的にみると、移動
被写体の場合には横方向に移動する被写体が縦方向に走
る被写体よりも断然多い。即ち、前回選択した測距点で
動体予測が不能になると、その左右の測距点を上下の測
距点よりも優先的に測距するようにすればタイムラグが
短くなる。
The technique disclosed in Japanese Patent Application Laid-Open No. Hei 8-29670 for photographing a moving subject has the following problems. There is no problem if the number of ranging points is small, for example, three points. However, if the number of ranging points becomes extremely large, the number of "neighboring ranging points" increases. There is a problem that the processing time is long because it is not known whether it is enough, and no solution is suggested. Normally, when a photograph is statistically viewed, in the case of a moving subject, there are far more subjects moving in the horizontal direction than subjects running in the vertical direction. In other words, if the moving object cannot be predicted at the previously selected ranging point, the time lag is shortened if the left and right ranging points are measured more preferentially than the upper and lower ranging points.

【0004】図17(a)は電車がカーブを曲がってい
るシーンを撮影した場合の写真の例であり、図17
(b)は測距点の配置を示した図、後述する実施の形態
では25点測距の例で示しているが、ここでは説明を分
かりやすくするため、15点測距の例で説明する。A〜
Hのラインは、測距点の対応が両図中でわかりやすいよ
うに示しており、例えば中央の測距点P3はBとDの交
点に位置し、周辺の測距点P15はCとHの交点に位置
する。ここで、中央横のラインBを例にとって説明す
る。
FIG. 17A is an example of a photograph when a scene in which a train is curving a curve is taken.
(B) is a diagram showing an arrangement of distance measuring points. In an embodiment described later, an example of 25-point distance measuring is shown, but here, an example of 15-point distance measuring will be described for easy understanding. . A ~
The H line indicates the correspondence between the ranging points in the figures so that the correspondence between the ranging points is easy to understand in both figures. For example, the center ranging point P3 is located at the intersection of B and D, and the surrounding ranging points P15 are between C and H. Located at the intersection. Here, the line B at the center side will be described as an example.

【0005】前回の測距では測距点P3で動体検出され
て動体予測測距がなされたが、今回の測距では測距点P
3で動体検出されなかった場合、上記従来技術の場合で
は、その周辺の測距点P2・P4・P7・P12・P8
・P13・P9・P14において測距がなされるが、横
に移動する被写体が多いことから測距点P2あるいはP
4を優先的に測距すればタイムラグが短くなる。図17
は、横位置の場合で説明したが、縦位置の場合でもP3
に対してP8あるいはP13を優先的に測距できる。こ
の場合には、カメラの姿勢を検出するスイッチを用いれ
ばよい。
In the previous distance measurement, the moving object was detected at the distance measuring point P3 and the moving object prediction distance measurement was performed.
3, when no moving object is detected, in the case of the above-described prior art, the surrounding distance measuring points P2, P4, P7, P12, and P8.
• Distance measurement is performed at P13, P9, and P14, but since there are many subjects that move sideways, the distance measurement point P2 or P
If the distance is measured preferentially, the time lag is reduced. FIG.
Has been described in the case of the horizontal position.
P8 or P13 can be preferentially measured. In this case, a switch for detecting the posture of the camera may be used.

【0006】そこで本発明は、複数の測距点を有するカ
メラで移動被写体を撮影した場合に、動体検出時のタイ
ムラグを短縮することにより、適正な被写体位置にピン
トを合わせることができる多点自動焦点カメラを提供す
ることを目的とする。
Accordingly, the present invention provides a multi-point automatic camera which can focus on a proper subject position by shortening a time lag when a moving object is detected when a moving subject is photographed by a camera having a plurality of distance measuring points. It is intended to provide a focus camera.

【0007】[0007]

【課題を解決するための手段】本発明は上記目的を達成
するために、2次元配置の複数の焦点検出領域を持つ多
点自動焦点カメラにおいて、上記複数の焦点検出領域の
中から焦点検出演算を行う領域を所定の順番に従って指
定する焦点検出領域決定手段を具備し、移動被写体に対
して焦点検出を行う場合には、上記焦点検出領域決定手
段が上記複数の焦点検出領域の内の縦方向に配置された
焦点検出領域よりも横方向に配置された焦点検出領域を
優先して指定する多点自動焦点カメラを提供する。
In order to achieve the above object, the present invention provides a multi-point automatic focus camera having a plurality of two-dimensionally arranged focus detection areas. And a focus detection area determining means for designating an area to be performed in a predetermined order. When focus detection is performed on a moving subject, the focus detection area determining means determines a vertical direction of the plurality of focus detection areas. The present invention provides a multi-point automatic focus camera that designates a focus detection area arranged in a lateral direction with priority over a focus detection area arranged in a multi-point automatic focus camera.

【0008】また、2次元配置の複数の焦点検出領域を
持つ多点自動焦点カメラにおいて、上記複数の焦点検出
領域の中から焦点検出演算を行う領域を所定の順番に従
って指定する焦点検出領域決定手段と、カメラが横位置
か縦位置といずれの位置に構えられているかを検出する
姿勢検出部とを具備し、移動被写体に対して焦点検出を
行う場合には、上記焦点検出領域決定手段が上記姿勢検
出部の出力に基づいてカメラが構えられている方向に対
して横方向に配置された焦点検出領域を縦方向よりも優
先して指定する多点自動焦点カメラを提供する。
Further, in a multi-point automatic focus camera having a plurality of focus detection areas in a two-dimensional arrangement, a focus detection area determining means for designating, in a predetermined order, an area in which focus detection calculation is to be performed from the plurality of focus detection areas. And a posture detection unit that detects whether the camera is held in a horizontal position or a vertical position, and when performing focus detection on a moving subject, the focus detection area determination unit includes Provided is a multi-point auto-focus camera that designates a focus detection area arranged in a horizontal direction with respect to a direction in which a camera is held based on an output of a posture detection unit in preference to a vertical direction.

【0009】以上のような構成の多点自動焦点カメラ
は、焦点検出領域決定手段による複数の焦点検出領域の
中から焦点検出演算を行う領域を順番の指定が、縦方向
に配置された焦点検出領域よりも横方向に配置された焦
点検出領域を優先して行われる。この際、姿勢検出部に
よりカメラの構える方向が検出され、カメラの横方向及
び縦方向に好適するように測距エリアをシフトさせてい
くことにより、カメラの姿勢に沿った測距エリアの選択
が実施される。
In the multi-point automatic focus camera having the above-described configuration, the order in which the regions for performing the focus detection calculation are selected from the plurality of focus detection regions by the focus detection region determining means is designated by the focus detection region arranged in the vertical direction. This is performed with priority given to the focus detection area arranged in the lateral direction over the area. At this time, the orientation of the camera is detected by the orientation detection unit, and the ranging area is shifted so as to be suitable in the horizontal and vertical directions of the camera, so that the selection of the ranging area according to the orientation of the camera can be performed. Will be implemented.

【0010】[0010]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態について詳細に説明する。図1には、本発明の多
点自動焦点カメラの測距装置における概念的なブロック
構成を示す図である。この多点自動焦点カメラは、焦点
検出信号を出力するAFセンサ例えば、エリアセンサか
らなる焦点検出部1と、出力された焦点検出信号に基づ
いて、焦点調節に必要な演算を行う焦点演算部2と、焦
点演算部2からの演算結果に基づいて、被写体の像移動
に関する量を演算する像移動量演算部3と、像移動量演
算部3の出力に基づいて、複数の測距エリアを順番で選
択してどの測距エリアで焦点を合わせるかを選択する測
距エリア選択部4と、これらの構成部位の焦点制御を司
るCPUからなる焦点制御部5と、この焦点制御部5か
らの制御信号に基づいて、図示しない撮影レンズを合焦
の位置に駆動して合焦状態を達成する焦点調節部6とで
構成される。上記像移動量演算部3が演算する被写体の
移動に関する量としては、被写体の移動速度やその移動
方向等が考えられる。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a diagram showing a conceptual block configuration of a distance measuring apparatus for a multipoint autofocus camera according to the present invention. The multi-point autofocus camera includes an AF sensor that outputs a focus detection signal, for example, a focus detection unit 1 including an area sensor, and a focus calculation unit 2 that performs calculations necessary for focus adjustment based on the output focus detection signal. An image movement amount calculator 3 for calculating an amount related to the image movement of the subject based on the calculation result from the focus calculator 2, and a plurality of ranging areas based on the output of the image movement amount calculator 3. A focus detection area selection unit 4 for selecting which focus detection area to focus on, a focus control unit 5 including a CPU for controlling focus of these components, and control from the focus control unit 5 A focus adjusting unit 6 drives a photographic lens (not shown) to a focused position based on a signal to achieve a focused state. The moving amount of the subject calculated by the image moving amount calculating unit 3 may be a moving speed of the subject or a moving direction of the subject.

【0011】図2は、本発明による多点自動焦点カメラ
として、一眼レフレックスカメラに適用した構成例の断
面図を示す。このカメラは、カメラボディ10の下部に
焦点を検出するための焦点検出部11を備えている。通
常時には、撮影レンズ12を通過した光束(被写体像)
は、メインミラー13により、一部上方のファインダ1
4側に反射し、残りの光束は透過して直進する。このメ
インミラー13で反射した光束は、ペンタプリズムを介
してファインダ14に導かれて、撮影画面として観察者
の眼に入る。一方、メインミラー13を透過した光束
は、メインミラー13に一体的に取り付けられたサブミ
ラー15により下方に反射されて焦点検出部11に導か
れる。
FIG. 2 is a sectional view of a configuration example applied to a single-lens reflex camera as a multipoint autofocus camera according to the present invention. This camera includes a focus detection unit 11 for detecting a focus at a lower portion of a camera body 10. Normally, the light flux (subject image) that has passed through the photographing lens 12
Is a viewfinder 1 partially above by the main mirror 13.
The light is reflected to the fourth side, and the remaining light flux is transmitted and travels straight. The light beam reflected by the main mirror 13 is guided to a finder 14 via a pentaprism, and enters a viewer's eye as a photographing screen. On the other hand, the light beam transmitted through the main mirror 13 is reflected downward by the sub-mirror 15 integrally attached to the main mirror 13 and guided to the focus detection unit 11.

【0012】この焦点検出部11は、撮影レンズ12を
通過した光束を絞り込む視野マスク17と、赤外光成分
をカットする赤外カットフィルタ18と、光束を集める
ためのコンデンサレンズ19と、光束を全反射する全反
射ミラー20と、光束の通過量を制限する瞳マスク21
と、光束をエリアセンサ23上の光電変換素子群26上
に再結像させる再結像レンズ22と、光電変換素子群2
6とその処理回路からなるエリアセンサ23とから構成
される。このようなカメラの撮影時には、メインミラー
13及びサブミラー15を点線の位置までミラーアップ
して退避させて、シャッタ24を所定時間だけ開き、撮
影レンズ12を通過した光束(被写体像)はフィルム2
5に露光される。
The focus detecting unit 11 includes a field mask 17 for narrowing a light beam passing through the photographing lens 12, an infrared cut filter 18 for cutting infrared light components, a condenser lens 19 for collecting the light beam, Total reflection mirror 20 for total reflection, and pupil mask 21 for restricting the amount of light beam passing
A re-imaging lens 22 for re-imaging a light beam on a photoelectric conversion element group 26 on an area sensor 23, and a photoelectric conversion element group 2
6 and an area sensor 23 comprising the processing circuit. At the time of photographing with such a camera, the main mirror 13 and the sub-mirror 15 are raised to the position indicated by the dotted line and retracted, the shutter 24 is opened for a predetermined time, and the light flux (subject image) passing through the photographing lens
5 is exposed.

【0013】図3(a)、(b)は、測距を含む光学系
を模式的に示している。図3(a)は、焦点検出部11
内のエリアセンサ23の光電変換素子群26上に光束
(被写体像)を導く焦点検出光学系(位相差検出光学
系)の構成を示し、同図(b)には、その斜視図を示し
ている。この焦点検出光学系は、光路中に、撮影レンズ
12と、視野範囲を規定する視野マスク17と、コンデ
ンサレンズ19と、撮影レンズ12の光軸に対して略対
称に配置された開口部21a,21bを有する瞳マスク
21とが設けられ、更に、これら開口部21a,21b
に対応した後方に、再結像レンズ22a,22bがそれ
ぞれ設けられている。なお、この図3(a)では前述し
た全反射ミラー20は省略している。
FIGS. 3A and 3B schematically show an optical system including distance measurement. FIG. 3A illustrates the focus detection unit 11.
1 shows a configuration of a focus detection optical system (a phase difference detection optical system) that guides a light beam (subject image) onto a photoelectric conversion element group 26 of an area sensor 23 in FIG. I have. This focus detection optical system includes a photographing lens 12, a field mask 17 for defining a field range, a condenser lens 19, and apertures 21a, 21a arranged substantially symmetrically with respect to the optical axis of the photographing lens 12 in the optical path. And a pupil mask 21 having an opening 21b.
The re-imaging lenses 22a and 22b are respectively provided at the rear corresponding to. In FIG. 3A, the above-described total reflection mirror 20 is omitted.

【0014】このような構成において、撮影レンズ12
の射出瞳Hの領域Ha,Hbを通過して入射した被写体
光束は、順に、視野マスク17、コンデンサレンズ1
9、瞳マスク21の開口部21a,21b及び再結像レ
ンズ22a,22bをそれぞれ通過していき、エリアセ
ンサ23内の多数の光電変換素子が配列された2つの各
領域23a,23bの光電変換素子群26上に再結像さ
れる。例えば、撮影レンズ12が「合焦」即ち結像面G
上に被写体像1が形成される場合、その被写体像1は、
コンデンサレンズ19及び再結像レンズ22a,22b
によって光軸Oに対し垂直な2次結像面であるエリアセ
ンサ23の光電変換素子群26上に再結像されて、図示
するような、第1の像I1、第2の像I2となる。
In such a configuration, the taking lens 12
Of the subject that has passed through the areas Ha and Hb of the exit pupil H of the field mask 17 and the condenser lens 1
9. The photoelectric conversion of two areas 23a and 23b in which a large number of photoelectric conversion elements are arranged in the area sensor 23 while passing through the openings 21a and 21b of the pupil mask 21 and the re-imaging lenses 22a and 22b, respectively. The image is re-imaged on the element group 26. For example, if the taking lens 12 is “focused”, that is,
When the subject image 1 is formed thereon, the subject image 1
Condenser lens 19 and re-imaging lenses 22a, 22b
As a result, the image is re-imaged on the photoelectric conversion element group 26 of the area sensor 23, which is a secondary image plane perpendicular to the optical axis O, and becomes a first image I1 and a second image I2 as shown in the figure. .

【0015】また、撮影レンズ12が「前ピン」即ち、
結像面Gの前方に被写体像Fが形成される場合、その被
写体像Fは互いにより光軸Oに近づいた形態で光軸Oに
対して垂直に再結像されて第1の像F1、第2の像F2
となる。さらに撮影レンズ12が後ピン即ち、結像面G
の後方に被写体像Rが形成された場合、その被写体像R
は、お互いにより光軸Oから離れた形態で光軸Oに対し
て垂直に再結像されて第1像のR1、第2の像R2とな
る。従って、これら第1の像と第2の像の間隔を検出測
定することにより、撮影レンズ12の合焦状態を前ピン
及び後ピンを含めて検出することができる。具体的に
は、第1の像と第2の像の光強度分布をエリアセンサ2
3(開口部23a,23b)に対応する被写体像データ
の出力により求めて、2像の間隔を測定できるように構
成されている。
Further, when the photographing lens 12 is a "front focus",
When the subject image F is formed in front of the imaging plane G, the subject images F are re-imaged perpendicularly to the optical axis O in a form closer to the optical axis O, and the first images F1, Second image F2
Becomes Further, the photographing lens 12 is shifted to the rear focus, that is, the image plane G
The subject image R is formed behind the subject image R
Are re-imaged perpendicularly to the optical axis O in a form away from the optical axis O by each other to become a first image R1 and a second image R2. Accordingly, by detecting and measuring the distance between the first image and the second image, the in-focus state of the photographing lens 12 can be detected including the front focus and the rear focus. Specifically, the light intensity distribution of the first image and the second image is
The distance between the two images can be measured by obtaining the subject image data corresponding to 3 (openings 23a and 23b).

【0016】図4には、図2において説明したカメラの
電気制御系を含む機能ブロックを示しており、その各部
の詳細構成と動作について説明する。この構成におい
て、制御部30は、カメラ全体の統括的な制御を行い、
この内部には、例えばCPUからなる演算・処理部31
と、ROM32と、RAM33と、A/Dコンバータ3
4とを備えている。
FIG. 4 shows functional blocks including the electric control system of the camera described in FIG. 2, and the detailed configuration and operation of each unit will be described. In this configuration, the control unit 30 performs overall control of the entire camera,
An arithmetic / processing unit 31 including, for example, a CPU is provided therein.
, ROM 32, RAM 33, A / D converter 3
4 is provided.

【0017】上記制御部30は、ROM32に格納され
たカメラシーケンス・プログラム(詳細後述)に従って
カメラの一連の動作を制御する。またEEPROM35
には、AF制御、測光等に関する補正データをそのカメ
ラボディ毎に固有の情報として記憶保持することができ
る。さらに制御部30には、エリアセンサ23、レンズ
駆動部33、エンコーダ37、測光部39、シャッタ駆
動部40、絞り駆動部41、及びフィルム駆動部42
が、この制御部30と相互通信可能に接続されている。
The control unit 30 controls a series of operations of the camera according to a camera sequence program (described in detail later) stored in the ROM 32. EEPROM35
Can store and hold correction data relating to AF control, photometry, etc., as information unique to each camera body. Further, the control unit 30 includes an area sensor 23, a lens driving unit 33, an encoder 37, a photometry unit 39, a shutter driving unit 40, an aperture driving unit 41, and a film driving unit 42.
Are connected to the control unit 30 so as to be able to communicate with each other.

【0018】このような構成において、レンズ駆動部3
6は、制御部30の制御に基づき、撮影レンズ12のフ
ォーカシングレンズ12aをモータML38で駆動す
る。この時、エンコーダ37は、フォーカシングレンズ
12aの移動量に応じたパルスを発生させて制御部30
に送り、レンズ駆動が適宜制御される。また測光部39
は、撮影領域に対応したSPD(シリコンフォトダイオ
ード)を有しており、被写体の輝度に応じた出力を発生
する。制御部30は、測光部39の測光結果をA/Dコ
ンバータ34によりデジタル信号化させて、その測光値
をRAM33に格納する。シャッタ駆動部40及び絞り
駆動部41は、制御部30からの所定の制御信号により
動作し、それぞれ不図示のシャッタ機構及び絞り機構を
駆動してフィルム面に露光を行なう。フィルム駆動部4
2は、制御部30からの所定の制御信号によりフィルム
のオートローディング、巻上げ及び巻戻し動作を行な
う。ファーストレリーズスイッチ(以下、1RSWと称
す)とセカンドレリーズスイッチ(以下、2RSWと称
す)は、レリーズボタンに連動したスイッチであり、レ
リーズボタンの第1段階の押下げ操作により最初に1R
SWがオンし、引き続いて第2段階の押下げ操作で2R
SWがオンする。制御部30は、1RSWオンで測光お
よびAF(自動焦点調節)処理を行い、2RSWオンで
露出動作とフィルム巻上げ動作を行なうように各部位を
適宜制御している。そして、姿勢差検出部43は、カメ
ラが横位置に構えられているか、縦位置に構えられてい
るかを検出するスイッチである。例えば、水銀を利用し
たスイッチ等がある。
In such a configuration, the lens driving unit 3
6 drives the focusing lens 12a of the taking lens 12 with the motor ML38 based on the control of the control unit 30. At this time, the encoder 37 generates a pulse corresponding to the moving amount of the focusing lens 12a, and
And the lens drive is appropriately controlled. The photometer 39
Has an SPD (silicon photodiode) corresponding to the shooting area, and generates an output according to the luminance of the subject. The control unit 30 converts the photometric result of the photometric unit 39 into a digital signal by the A / D converter 34 and stores the photometric value in the RAM 33. The shutter drive unit 40 and the aperture drive unit 41 operate according to predetermined control signals from the control unit 30, and drive a shutter mechanism and an aperture mechanism (not shown) to expose the film surface. Film drive unit 4
Reference numeral 2 denotes an automatic loading, winding and rewinding operation of the film according to a predetermined control signal from the control unit 30. A first release switch (hereinafter, referred to as 1RSW) and a second release switch (hereinafter, referred to as 2RSW) are switches interlocked with a release button.
SW is turned on, and then 2R is pressed by the second stage pressing operation.
SW turns on. The control unit 30 appropriately controls each part such that photometry and AF (automatic focus adjustment) processing is performed when 1RSW is turned on, and exposure operation and film winding operation are performed when 2RSW is turned on. The posture difference detection unit 43 is a switch that detects whether the camera is held in a horizontal position or a vertical position. For example, there is a switch using mercury.

【0019】図5には、前述したエリアセンサ23の具
体的な回路構成を示す。このエリアセンサ23における
画素部(即ち光電変換素子群26)は、マトリックス状
に規則正しく配列された多数の画素ユニット51により
構成されている。この構成において、蓄積制御部52は
制御部30からの制御信号に応じて、画素部の蓄積動作
を制御する。各画素ユニット51の出力V0 は垂直シフ
トレジスタ53と水平シフトレジスタ54とにより選択
されて、バッファ55に入力される。そしてこのバッフ
ァ55の出力SDATAは、制御部30内のA/Dコン
バータ34に入力され、A/D変換される。
FIG. 5 shows a specific circuit configuration of the area sensor 23 described above. The pixel portion (that is, the photoelectric conversion element group 26) of the area sensor 23 is composed of a large number of pixel units 51 arranged regularly in a matrix. In this configuration, the accumulation control unit 52 controls the accumulation operation of the pixel unit according to a control signal from the control unit 30. The output V0 of each pixel unit 51 is selected by a vertical shift register 53 and a horizontal shift register 54 and input to a buffer 55. Then, the output SDATA of the buffer 55 is input to the A / D converter 34 in the control unit 30 and A / D converted.

【0020】また各画素ユニット51の出力VM は、所
定の複数の画素ユニット51の出力VM を接続して、ス
イッチMSL1〜MSLnを介して、バッファ55に入
力される。そして、測距エリア56内において、これら
複数の画素ユニット51の出力VMnを接続した点Mの電
位は、複数の画素ユニット51内の出力VMnのうちのピ
ーク値に相当する電位を発生し、画素ユニット51は、
これらを出力するようなピーク検出回路を構成してい
る。従って、スイッチMSL1〜MSLnを順にオンさ
せていくと、各測距エリア56内のピーク値に相当する
電位をバッファ55を介してモニタすることができる。
このバッファ55の出力VP は、端子MDATAより制
御部30内のA/Dコンバータ34に入力されて、A/
D変換される。
The output VM of each pixel unit 51 is connected to the output VM of a predetermined plurality of pixel units 51 and is input to the buffer 55 via the switches MSL1 to MSLn. Then, in the distance measurement area 56, the potential of the point M to which the outputs VMn of the plurality of pixel units 51 are connected generates a potential corresponding to the peak value of the output VMn in the plurality of pixel units 51. Unit 51 is
A peak detection circuit that outputs these is configured. Therefore, when the switches MSL <b> 1 to MSLn are sequentially turned on, the potential corresponding to the peak value in each ranging area 56 can be monitored via the buffer 55.
The output VP of the buffer 55 is input to the A / D converter 34 in the control unit 30 from the terminal MDATA,
D conversion is performed.

【0021】次に図6には、前述した画素ユニット51
の具体的な回路構成を示す。この画素ユニット51は、
光電変換素子として機能するフォトダイオード61、キ
ャパシタ62、アンプ63、スイッチ64,65、およ
びNMOSトランジスタ66から構成されている。フォ
トダイオード61の出力側には、アンプ63が接続さ
れ、キャパシタ62がアンプ63の入出力端に接続さ
れ、フォトダイオード61で発生した電荷を蓄積する。
FIG. 6 shows the pixel unit 51 described above.
Is shown below. This pixel unit 51
It comprises a photodiode 61 functioning as a photoelectric conversion element, a capacitor 62, an amplifier 63, switches 64 and 65, and an NMOS transistor 66. An amplifier 63 is connected to an output side of the photodiode 61, and a capacitor 62 is connected to an input / output terminal of the amplifier 63, and accumulates charges generated by the photodiode 61.

【0022】このアンプ63の出力側は、垂直シフトレ
ジスタ53及び水平シフトレジスタ54からの信号X
n、Ynにより、それぞれオン・オフ切り換えを行う直
列接続されたスイッチ64,65を介して出力端(出力
V0)に接続される。さらに、アンプ63の出力側に
は、ドレインを固定電圧に接続されたNMOSトランジ
スタ66のゲートに接続され、NMOSトランジスタの
ソースは、モニタ出力端子(モニタ出力VM )に接続さ
れる。
The output side of the amplifier 63 receives the signal X from the vertical shift register 53 and the horizontal shift register 54.
n and Yn are connected to an output terminal (output V0) via switches 64 and 65 connected in series for switching on and off, respectively. Further, the output side of the amplifier 63 is connected to the gate of an NMOS transistor 66 whose drain is connected to a fixed voltage, and the source of the NMOS transistor is connected to a monitor output terminal (monitor output VM).

【0023】このような回路構成において、アンプ63
の出力は、キャパシタ62の蓄積量が増加するに従っ
て、電位が上昇する方向に変化するものとしている。こ
のモニタ出力VM は、複数の画素ユニット51の出力が
互いに接続されるので、そのうちの蓄積量のピーク値を
示す電位が発生することになる。このようにして各画素
ユニット51は、光電変換して、その測距エリアに対応
する素子としての出力を前述した像移動量演算部3に供
給する。
In such a circuit configuration, the amplifier 63
Is changed in a direction in which the potential increases as the storage amount of the capacitor 62 increases. Since the outputs of the plurality of pixel units 51 are connected to each other in the monitor output VM, a potential indicating the peak value of the accumulated amount is generated. In this way, each pixel unit 51 performs photoelectric conversion and supplies an output as an element corresponding to the distance measurement area to the above-described image movement amount calculation unit 3.

【0024】次に図7には、撮影画面内の焦点検出領域
を構成する各測距エリアP1〜Pnの配置例を示す。前
述したスイッチMSL1〜MSLnは、各測距エリアP
1〜Pnにそれぞれ対応して接続されているので、例え
ばスイッチMSL1〜MSLnのうちの1個のスイッチ
MSLmをオンすると、これに対応した測距エリアPm
内のピーク出力VM が選択されてモニタ端子MDATA
に出力する。また例えば、複数のスイッチをオンする
と、その複数の測距エリア内のピーク値をモニタするこ
とができる。例えば、全スイッチMSL1〜nをオンさ
せると、エリアセンサ23の全測距エリア内のピーク値
をMDATA端子の出力させてモニタすることができ
る。
Next, FIG. 7 shows an example of the arrangement of each of the distance measurement areas P1 to Pn constituting the focus detection area in the photographing screen. The above-described switches MSL1 to MSLn are connected to each of the distance measurement areas P
1 to Pn, respectively, for example, when one switch MSLm of the switches MSL1 to MSLn is turned on, the corresponding distance measurement area Pm
Is selected and the monitor terminal MDATA is selected.
Output to Further, for example, when a plurality of switches are turned on, peak values in the plurality of ranging areas can be monitored. For example, when all the switches MSL1 to MSLn are turned on, the peak value in the entire distance measurement area of the area sensor 23 can be output from the MDATA terminal and monitored.

【0025】図8に示すタイムチャートを参照して、前
述したエリアセンサ23の蓄積動作について説明する。
ここでは、撮影画面内の測距エリアP5,P6,P7を
例にとって説明する。制御部30は、エリアセンサ23
の蓄積動作を蓄積開始信号(INTS)により開始させ
た後、上記測距エリア毎に順にピーク値を参照してい
く。この時、最も速く適正な蓄積レベルに達する測距エ
リアを優先的に参照し、上記測距エリアのピーク値が適
切な蓄積レベルに達すると、蓄積終了信号(INTE)
により測距エリア毎に蓄積動作を終了させていく。
The accumulation operation of the area sensor 23 will be described with reference to a time chart shown in FIG.
Here, a description will be given by taking the distance measurement areas P5, P6, and P7 in the shooting screen as an example. The control unit 30 controls the area sensor 23
After the accumulation operation is started by the accumulation start signal (INTS), the peak value is sequentially referred to for each of the distance measurement areas. At this time, priority is given to the ranging area that reaches the appropriate accumulation level the fastest, and when the peak value of the ranging area reaches the appropriate accumulation level, the accumulation end signal (INTE)
To terminate the accumulation operation for each ranging area.

【0026】つまり、図9(a),(b)に示すよう
に、エリアセンサを構成する2つのエリアセンサ23
a,23bがそれぞれに対応する測距エリア、例えば測
距エリアP5に対応するa5,b5について同時に蓄積
動作を終了させる。つまり、ある測距エリアに対応した
am,bm、(1≦m≦n)の蓄積動作を順次、全測距
エリアに対して行う。なお、上記am,bmの1個の測
距エリアmに関して、図10(a),(b)には、これ
に対応するフォトダイオード61の配列を直線的に示し
ている。
That is, as shown in FIGS. 9 (a) and 9 (b), two area sensors 23 constituting an area sensor are provided.
The accumulation operation ends simultaneously for the distance measurement areas corresponding to a and 23b, for example, a5 and b5 corresponding to the distance measurement area P5. That is, accumulation operations of am, bm, (1 ≦ m ≦ n) corresponding to a certain ranging area are sequentially performed on all ranging areas. 10A and 10B linearly show the arrangement of the photodiodes 61 corresponding to one of the distance measurement areas m of am and bm.

【0027】右側のエリアセンサ23aを構成するフォ
トダイオード列amは、L(1),L(2),L(3),…,
L(64)と表わせ、その被写体像信号は順次、処理され
る。同様に、左側のエリアセンサ23bを構成するフォ
トダイオード列bmは、R(1),R(2),R(3),…,
R(64)と表わせ、その被写体像信号も順次、処理され
る。よって、制御部30は、次のように各部を制御して
被写体像をデータとして検出する。すなわち、制御部3
0は、エリアセンサ23に読み出しクロックCLKを入
力させると、そのエリアセンサ23の端子SDATAか
ら被写体像信号であるセンサデータが順次出力される。
そこで、制御部30内のA/Dコンバータ34により、
このセンサデータをA/D変換して、RAM32に順次
格納する。このようにして、制御部30は、例えばある
測距エリアを指定してその測距エリアに対応するセンサ
データだけを読み出すことができる。
The photodiode row am forming the right area sensor 23a has L (1), L (2), L (3),.
L (64), and the subject image signals are sequentially processed. Similarly, the photodiode array bm forming the left area sensor 23b has R (1), R (2), R (3),.
R (64), and the subject image signal is sequentially processed. Therefore, the control unit 30 controls each unit as follows to detect the subject image as data. That is, the control unit 3
When the read clock CLK is input to the area sensor 23, sensor data as a subject image signal is sequentially output from the terminal SDATA of the area sensor 23.
Therefore, the A / D converter 34 in the control unit 30
The sensor data is A / D converted and sequentially stored in the RAM 32. In this way, the control unit 30 can specify, for example, a certain ranging area and read out only the sensor data corresponding to the ranging area.

【0028】次に、前述したようにして得られた被写体
像データに基づくAF検出演算について説明するが、例
えばこの実施形態例では2種類の相関演算を行なう方法
がある。その1つの方法は、焦点検出光学系により分割
された第1被写体像と第2被写体像の間で相関演算を行
い、2像のずれ量(「像ずれ量」と称す)を求める方法
である。もう一方の方法は、時刻t0での被写体像と時
刻t1での被写体像の間で相関演算を行い、被写体像の
移動量を求めるという方法である。 (I) 像ずれ量を求めるための相関演算:最初に第1
被写体像と第2被写体像との間の像ずれ量を求める相関
演算について説明すると、被写体像データは一対のエリ
アセンサ23a,23bに対してそれぞれ一般的にL
(i,j)、R(i,j)という形式で表わすことがで
きる。
Next, the AF detection calculation based on the subject image data obtained as described above will be described. For example, in this embodiment, there is a method of performing two types of correlation calculations. One of the methods is a method in which a correlation operation is performed between the first subject image and the second subject image divided by the focus detection optical system, and a shift amount between the two images (referred to as “image shift amount”) is obtained. . The other method is a method in which a correlation operation is performed between the subject image at time t0 and the subject image at time t1 to obtain the movement amount of the subject image. (I) Correlation calculation for obtaining image shift amount: First, first
A description will be given of the correlation calculation for obtaining the image shift amount between the subject image and the second subject image. The subject image data is generally expressed by L for a pair of area sensors 23a and 23b.
(I, j) and R (i, j).

【0029】以下の説明ではわかりやすくするためにエ
リアセンサ23a,23bにそれぞれ対応する一対の測
距エリア、すなわち一次元の被写体像データをそれぞれ
L(I)、R(I)(I=1〜k)として説明する(図
10参照)。ここで本実施形態においては、k=64と
して、図11に示すフローチャートを参照して、「像ず
れ量検出」ルーチンに関する処理手順に基づいて説明す
る。
In the following description, for the sake of simplicity, a pair of ranging areas corresponding to the area sensors 23a and 23b, that is, one-dimensional subject image data are respectively represented by L (I) and R (I) (I = 1 to 1). k) (see FIG. 10). Here, in the present embodiment, assuming that k = 64, a description will be given based on the processing procedure relating to the “image shift amount detection” routine with reference to the flowchart shown in FIG.

【0030】まず、変数SL 、SR 及びFMIN のそれぞ
れの初期値を設定する(ステップS1)。ここでは、S
L ←5、SR ←37、FMIN =FMIN 0を設定してい
る。
First, initial values of variables SL, SR and FMIN are set (step S1). Here, S
L ← 5, SR ← 37, FMIN = FMIN 0 are set.

【0031】次に、ループ変数Jの初期値として8を入
力し(ステップS2)、相関値F(s)を求めるため式
(1)の相関計算を行なう(ステップS3)。 F(s)=Σ|L(SL +I)−R(SR +I)| …(1) (但し、s=SL −SR ,I=0〜26) 但し、変数SL ,SR は、それぞれ被写体像データL
(I),R(I)のうちの相関演算を行なうブロックの
先頭位置を示す変数、Jは被写体像データR(I)上で
のブロックのシフト回数を記憶する変数であり、ブロッ
クの被写体像データ数は27個とする。
Next, 8 is input as the initial value of the loop variable J (step S2), and the correlation calculation of equation (1) is performed to obtain the correlation value F (s) (step S3). F (s) = Σ | L (SL + I) −R (SR + I) | (1) (where s = SL−SR, I = 0 to 26) where the variables SL and SR are subject image data, respectively. L
A variable indicating the head position of the block for which the correlation operation is performed among (I) and R (I), and a variable J for storing the number of shifts of the block on the subject image data R (I), and The number of data is 27.

【0032】次に、相関値F(s)とFMIN (最初は初
期値FMIN 0、2回目以降は初期値または更新された
値)とを比較する(ステップS4)。この比較におい
て、F(s)の方が小さい場合(YES)、FMIN をF
(s)に更新し、SLM、SRMをSL SR に更新する(ス
テップS5)。一方、上記ステップS4の比較で、FMI
N の方が相関値F(s)より小さい場合(NO)、SR
,Jからそれぞれ1を減算して次のブロックを設定す
る(ステップS6)。そして、J=0か否かを判定し
(ステップS7)、まだ0でない場合(NO)、上記ス
テップS3に戻って同様な相関演算を繰り返す。このよ
うに被写体像データL(I)でのブロックを固定し被写
体像R(I)でのブロックを1素子分ずつシフトして相
関演算を行なう。
Next, the correlation value F (s) is compared with FMIN (initial value FMIN 0 at first, and initial or updated value after the second time) (step S4). In this comparison, if F (s) is smaller (YES), FMIN is changed to F
(S) is updated, and SLM and SRM are updated to SLSR (step S5). On the other hand, according to the comparison in step S4, FMI
If N is smaller than the correlation value F (s) (NO), SR
, J are subtracted from each other to set the next block (step S6). Then, it is determined whether or not J = 0 (step S7). If it is not 0 (NO), the process returns to step S3 to repeat the same correlation calculation. As described above, the block in the object image data L (I) is fixed, and the block in the object image R (I) is shifted by one element at a time to perform the correlation operation.

【0033】一方、上記ステップS7の判定において、
Jが0であった場合は(YES)、変数SL ,SR にそ
れぞれ4,3を加算して、次のブロックを対象として設
定する(ステップS8)。次に、SL =29であるか否
かを判定し(ステップS9)、29でなかった場合(N
O)、上記ステップS2に戻って前述の相関演算を続け
る。しかし、SL =29であった場合は(YES)、そ
の相関演算を終了する。このように被写体像データL
(I),R(I)上に相関演算を行なうブロックを設定
して繰り返し相関演算を行なう。これによって得られた
各ブロックの相関演算の結果は、被写体像データの相関
が最も高いシフト量s=xにおいて相関値F(s)が最
小になる。そしてこの時、SLM、SRMにはこの最小相関
値F(x)の時のSL 、SR が記憶されていることにな
る。
On the other hand, in the determination in step S7,
If J is 0 (YES), 4 and 3 are added to the variables SL and SR, respectively, and the next block is set (step S8). Next, it is determined whether or not SL = 29 (step S9).
O), the process returns to step S2 to continue the above-described correlation calculation. However, if SL = 29 (YES), the correlation calculation ends. Thus, the subject image data L
A block for performing the correlation operation is set on (I) and R (I), and the correlation operation is repeatedly performed. As a result of the correlation calculation of each block obtained as a result, the correlation value F (s) becomes the minimum at the shift amount s = x where the correlation of the subject image data is the highest. At this time, SL and SR at the time of the minimum correlation value F (x) are stored in SLM and SRM.

【0034】次に、後述する信頼性指数を算出する場合
に使用する最小相関値F(x)の前後のシフト位置での
下記相関値FM ,FP を求める(ステップS10)。
Next, the following correlation values FM and FP at shift positions before and after the minimum correlation value F (x) used for calculating a reliability index described later are obtained (step S10).

【0035】[0035]

【数1】 (Equation 1)

【0036】そして相関演算の信頼性を判定する為の信
頼性指数SKを計算する(ステップS11)。この信頼
性指数SKは最小相関値F(x)と2番目に小さい相関
値FP (またはFM )との和を被写体データのコントラ
スト相当の値(FM −F(x)又は、FP −F(x))
で規格化した数値であり式(4)又は式(5)により求
められる。
Then, a reliability index SK for determining the reliability of the correlation operation is calculated (step S11). This reliability index SK is calculated by adding the sum of the minimum correlation value F (x) and the second smallest correlation value FP (or FM) to a value (FM-F (x) or FP-F (x) corresponding to the contrast of the subject data. ))
This is a numerical value standardized by Equation (4) or Equation (5).

【0037】[0037]

【数2】 (Equation 2)

【0038】次に、信頼性指数SKが所定値α以上か否
かを判定し(ステップS12)、SKがα以上の場合は
(YES)、信頼性が低いと判定して、検出不能フラグ
をセットする(ステップS13)。一方、SKがαに満
たない場合は(NO)、信頼性があるものと判定して、
像ずれ量ΔZを計算する(ステップS14)。例えば3
点補間の手法を用いて連続的な相関量に対する最小値F
MIN =F(x0)を与えるシフト量x0を次式で求め
る。
Next, it is determined whether or not the reliability index SK is equal to or larger than a predetermined value α (step S12). If SK is equal to or larger than α (YES), it is determined that the reliability is low, and the detection impossible flag is set. Set (step S13). On the other hand, if SK is less than α (NO), it is determined that there is reliability, and
The image shift amount ΔZ is calculated (step S14). For example, 3
The minimum value F for continuous correlation using the point interpolation technique
The shift amount x0 that gives MIN = F (x0) is obtained by the following equation.

【数3】 (Equation 3)

【0039】なお、上記シフト量x0を用いて、像ずれ
量ΔZを式(8)により求めることができる。 ΔZ=x0−ΔZ0 …(8) (但し、ΔZ0は合焦時の像ずれ量)。また上式で求め
た像ずれ量ΔZから、被写体像面の予定焦点面に対する
デフォーカス量ΔDを式(9)で求めることができる。
It should be noted that the image shift amount ΔZ can be obtained by the equation (8) using the shift amount x0. ΔZ = x0−ΔZ0 (8) (However, ΔZ0 is an image shift amount during focusing). Further, from the image shift amount ΔZ obtained by the above equation, the defocus amount ΔD of the subject image plane with respect to the expected focal plane can be obtained by the equation (9).

【数4】 (Equation 4)

【0040】このようにして選択された複数の測距エリ
アについてそれぞれデフォーカス量を算出する。そし
て、例えば複数の測距エリアのうちから最も近距離を示
すデフォーカス量を選択する。さらに、選択されたデフ
ォーカス量ΔDからレンズ駆動量ΔLを式(10)によ
り求める。
The defocus amount is calculated for each of the plurality of ranging areas selected in this way. Then, for example, a defocus amount indicating the shortest distance is selected from a plurality of distance measurement areas. Further, the lens driving amount ΔL is obtained from the selected defocus amount ΔD by using the equation (10).

【0041】[0041]

【数5】 (Equation 5)

【0042】そして上記レンズ駆動量ΔLに基づいてフ
ォーカスレンズの駆動を行なうことにより合焦状態を得
ることができる。 (II) 被写体像位置を予測するための原理:図12
(a)〜(d)に示された移動する被写体に対する焦点
検出の原理を説明する。
By driving the focus lens based on the lens drive amount ΔL, a focused state can be obtained. (II) Principle for predicting subject image position: FIG.
The principle of focus detection for a moving subject shown in (a) to (d) will be described.

【0043】この図12において、被写体66、カメラ
10及びエリアセンサ23の関係をみると、例えば図1
2(a)に示すように、カメラ10に向かって被写体6
6が真っ直ぐに近づいてくる(矢印G3方向)場合、前
述した焦点検出の原理により、第1(L)及び第2セン
サ(R)上の第1及び第2の被写体像は、時刻t0から
時刻t1の間に互いに外側へ移動する。この場合、被写
体像の移動量ΔXL とΔXR は等しい。
Referring to FIG. 12, the relationship between the subject 66, the camera 10, and the area sensor 23 is shown in FIG.
As shown in FIG.
In the case where 6 approaches straight (in the direction of arrow G3), the first and second subject images on the first (L) and second sensors (R) are shifted from time t0 to time by the above-described principle of focus detection. They move outward from each other during t1. In this case, the movement amounts ΔXL and ΔXR of the subject image are equal.

【0044】また、図12(b)に示すように、カメラ
10に向かって被写体66が光軸と直交する横方向(矢
印G1方向)に平行移動する場合、2つの被写体像は同
じ向きに移動する。この場合、被写体像の移動量ΔXL
とΔXR は等しい。
As shown in FIG. 12B, when the subject 66 moves parallel to the camera 10 in the horizontal direction (the direction of arrow G1) perpendicular to the optical axis, the two subject images move in the same direction. I do. In this case, the moving amount ΔXL of the subject image
And ΔXR are equal.

【0045】さらに、図12(c)に示すように、カメ
ラ10に向かって被写体66が左手前に近づく(矢印G
4方向)場合、第1の被写体像(L)は近づいてくるこ
とによる外側への移動量と、左に平行移動することによ
る左側への移動量が相殺されて移動量は小さくなる。
Further, as shown in FIG. 12C, the subject 66 approaches the camera 10 toward the front left (arrow G).
In the case of four directions), the amount of movement of the first subject image (L) toward the outside due to approaching and the amount of movement to the left due to parallel movement to the left are offset, and the amount of movement is reduced.

【0046】同様に、図12(d)に示すようにカメラ
10に向かって被写体66が左後方に遠ざかる場合は、
第1の被写体像(L)は遠ざかることによる内側への移
動量と、左に平行移動することによる左側への移動量が
相殺されて移動量は小さくなる。一方、第2の被写体像
(R)は遠ざかることによる内側への移動量と、左に平
行移動することによる左側への移動量が加算されて移動
量は大きくなる。
Similarly, as shown in FIG. 12D, when the subject 66 moves to the rear left toward the camera 10,
The amount of movement of the first subject image (L) inward by moving away from the first object image (L) and the amount of movement leftward by moving in parallel to the left are offset, and the amount of movement is reduced. On the other hand, the amount of movement of the second subject image (R) toward the inside by moving away from it and the amount of movement to the left due to the parallel movement to the left are added to increase the amount of movement.

【0047】ここで、時刻t0から時刻t1の被写体像
を基に、後述する相関演算等を行う手段により第1及び
第2被写体像の移動量ΔXL 、ΔXR を検出して、右方
向への移動を+とする符号をつけると、光軸方向の被写
体像の移動量はΔXR −ΔXL 、横方向の被写体像の移
動量はΔXR +ΔXL で求めることができる。よって、
時刻t0から時刻t1までの被写体像の移動量ΔXR 、
ΔXL が求まれば、時刻t2での被写体像の位置を予測
することができる。
Here, based on the subject images from the time t0 to the time t1, the moving amounts .DELTA.XL and .DELTA.XR of the first and second subject images are detected by means for performing a correlation operation or the like, which will be described later, and the rightward moving When the sign of + is given, the moving amount of the subject image in the optical axis direction can be obtained by ΔXR−ΔXL, and the moving amount of the lateral subject image can be obtained by ΔXR + ΔXL. Therefore,
The movement amount ΔXR of the subject image from time t0 to time t1,
If ΔXL is obtained, the position of the subject image at time t2 can be predicted.

【0048】被写体が一定の速度で動いているとする
と、横方向の被写体像の移動速度は定速度となる。尚、
光軸方向への被写体像の移動速度は、厳密には定速度に
はならないが、微小な時間間隔では定速度と考えてよ
い。従って、時刻t0での第1被写体像の予測位置は、
時刻t1の被写体像位置より式(11)に示されるΔX
L′だけ移動している。すなわち、
Assuming that the subject is moving at a constant speed, the moving speed of the subject image in the horizontal direction is constant. still,
The moving speed of the subject image in the optical axis direction is not strictly a constant speed, but may be considered as a constant speed at a minute time interval. Therefore, the predicted position of the first subject image at time t0 is
ΔX shown in Expression (11) from the subject image position at time t1
L 'has moved. That is,

【数6】 (Equation 6)

【0049】同様に、第2被写体像の予測位置は式(1
2)に示されるΔXR′だけ移動する。
Similarly, the predicted position of the second subject image is given by the equation (1)
It moves by ΔXR ′ shown in 2).

【0050】[0050]

【数7】 (Equation 7)

【0051】また時刻t1での第1、第2被写体像の像
ずれ量をΔZとすると時刻t2での予測像ずれ量ΔZ′
は式(13)のように求められる。
If the image shift amount of the first and second subject images at time t1 is ΔZ, the predicted image shift amount ΔZ 'at time t2 is
Is obtained as in Expression (13).

【数8】 (Equation 8)

【0052】そしてこの予測像ずれ量ΔZ′に基づい
て、レンズ駆動量を求める。時刻t2を露光開始までの
時間とすることにより、移動する被写体に対してピント
の合った写真を得ることができる。この時、ΔXR −Δ
XL の符号によって、被写体が接近しているのか、遠ざ
かっているのかを判定しておく。ΔXR −ΔXL >0で
あれば、被写体は接近していることになる。次に、被写
体像の移動を求めるための相関演算と、その信頼性判定
について説明すると、時刻t0での被写体像L′
(I),R′(I)と前述した2像間の相関演算により
求められた相関ブロックSLM′,SRM′、相関性係数S
K′、像ずれ量ΔZ′はそれぞれ、制御部30内のRA
M42に記憶される。その後、時刻t1での被写体像信
号L(I),R(I)を検出する。
The lens drive amount is obtained based on the predicted image shift amount ΔZ '. By setting the time t2 to the time until the start of exposure, a photograph in focus on a moving subject can be obtained. At this time, ΔXR−Δ
It is determined in advance whether the subject is approaching or moving away based on the sign of XL. If ΔXR−ΔXL> 0, the subject is approaching. Next, the correlation operation for determining the movement of the subject image and the reliability determination thereof will be described. The subject image L ′ at time t0 is described.
(I), R '(I) and the correlation blocks SLM' and SRM 'obtained by the above-described correlation operation between the two images, and the correlation coefficient S
K ′ and the image shift amount ΔZ ′ are RA
It is stored in M42. Thereafter, subject image signals L (I) and R (I) at time t1 are detected.

【0053】次に、図13に示す被写体像の移動と、図
14に示すフローチャートを参照して、移動量検出につ
いて説明する。まず、第1の被写体像信号について、時
刻t0での被写体像信号L′(I)と時刻t1での被写
体像信号L(I)について相関演算を行なう。これは、
被写体像の移動を検出する「移動量検出」ルーチンにお
いては、まず変数SL にSLM′−10を代入する(ステ
ップS21)、また変数Jは相関範囲をカウントする変
数であり、初期値として、20を代入する(ステップS
22)。次に、式(14)の相関式により相関出力F
(s)を計算する(ステップS23)。
Next, the movement amount detection will be described with reference to the movement of the subject image shown in FIG. 13 and the flowchart shown in FIG. First, for the first subject image signal, a correlation operation is performed between the subject image signal L '(I) at time t0 and the subject image signal L (I) at time t1. this is,
In the "movement amount detection" routine for detecting the movement of the subject image, first, SLM'-10 is substituted for a variable SL (step S21). A variable J is a variable for counting the correlation range. (Step S
22). Next, the correlation output F is calculated by the correlation equation (14).
(S) is calculated (step S23).

【0054】[0054]

【数9】 (Equation 9)

【0055】続いて、前述した相関演算と同様に、F
(s)とFMIN を比較し(ステップS24)、この比較
で、F(s)がFMIN より小さければ(YES)、FMI
N にF(s)を代入し、且つSL をSLMに記憶する(ス
テップS25)。この場合、相関をとるブロックの素子
数は前述した像ずれ量を求める時のブロックの素子数と
同じ27である。しかし、F(s)がFMIN より大きけ
れば(NO)、次のステップS26に移行する。
Subsequently, similarly to the above-described correlation calculation, F
(S) is compared with FMIN (step S24). In this comparison, if F (s) is smaller than FMIN (YES), FMI
F (s) is substituted for N, and SL is stored in SLM (step S25). In this case, the number of elements in the block to be correlated is 27, which is the same as the number of elements in the block when the image shift amount is obtained. However, if F (s) is larger than FMIN (NO), the process moves to the next step S26.

【0056】次にSL に1を加算し、Jからは1を減算
する(ステップS26)。そしてJ=0か否かを判定
し、Jが0でなければ(NO)、J=0となるまで上記
ステップS23に戻り、相関式F(s)を繰り返す。こ
のように、±10素子まで相関範囲を変化させて相関を
とっていくが、この相関範囲は検出したい移動量範囲に
より決定される。ここで、J=0となった場合(YE
S)、信頼性の判定を行なう。すなわち、前述した第
1、第2被写体像の像ずれ量を求める時と同様に、最小
相関値F(X)の前後のシフト量での相関値FM 、FP
を式(15)及び式(16)により求める(ステップS
28)。
Next, 1 is added to SL, and 1 is subtracted from J (step S26). Then, it is determined whether or not J = 0. If J is not 0 (NO), the process returns to step S23 until J = 0, and the correlation equation F (s) is repeated. As described above, the correlation is obtained by changing the correlation range up to ± 10 elements. The correlation range is determined by the movement amount range to be detected. Here, when J = 0 (YE
S), the reliability is determined. That is, the correlation values FM and FP at the shift amounts before and after the minimum correlation value F (X) are obtained in the same manner as when the image shift amounts of the first and second subject images are obtained.
Is obtained by Expressions (15) and (16) (Step S)
28).

【0057】[0057]

【数10】 (Equation 10)

【0058】次に、信頼性指数SKを前述した式(4)
と式(5)により求める(ステップS29)。そして、
SK>βか否かを判定する(ステップS30)。この判
定でSK≦βの時は(NO)、信頼性ありと判定して、
移動量を求める(ステップS31)。但し、値βは、第
1、第2被写体像の像ずれ量を求める時の判定値αより
も大きな値とする。これは、被写体が移動していると波
形が変形する場合が多いので相関性が悪くなる可能性が
大きいためである。そして、被写体像の移動量ΔXL を
求める。前述した第1、第2被写体像の像ずれ量の計算
時と同様に3点補間の手法により、式(17)及び式
(18)により求める。
Next, the reliability index SK is calculated using the above-mentioned equation (4).
And equation (5) (step S29). And
It is determined whether or not SK> β (step S30). When SK ≦ β in this determination (NO), it is determined that there is reliability, and
The movement amount is obtained (step S31). However, the value β is set to a value larger than the determination value α when the image shift amounts of the first and second subject images are obtained. This is because when the subject is moving, the waveform is often deformed, so that there is a high possibility that the correlation is deteriorated. Then, the movement amount ΔXL of the subject image is obtained. Similar to the calculation of the image shift amounts of the first and second subject images, the three-point interpolation method is used to obtain the values by Expressions (17) and (18).

【0059】[0059]

【数11】 [Equation 11]

【0060】一方、上記ステップS30の判定におい
て、SK>βの関係であれば(YES)、信頼性がない
と判別して、検出不能フラグを設定する(ステップS3
2)。
On the other hand, if it is determined in step S30 that SK> β (YES), it is determined that there is no reliability, and an undetectable flag is set (step S3).
2).

【0061】第2被写体像R(I),R′(I)につい
ても、詳細は省略するが、同様の移動量検出ルーチンを
実行し、相関が最も高いブロック位置SRM、移動量ΔX
R を求める。第1、第2の被写体像の移動量ΔXL 、Δ
XR が求められると、時刻t1での像ずれ量ΔZ′は、
時刻t0の時の像ずれ量ΔZより式(19)のようにし
て求められる。
The details of the second subject images R (I) and R '(I) are also omitted, but a similar movement amount detection routine is executed, and the block position SRM and the movement amount ΔX having the highest correlation are executed.
Find R. The movement amounts ΔXL, Δ of the first and second object images
When XR is obtained, the image shift amount ΔZ 'at time t1 is
It is obtained from the image shift amount ΔZ at the time t0 as in Expression (19).

【0062】[0062]

【数12】 (Equation 12)

【0063】時刻t0の像ずれ量ΔZに基づく、時刻t
2での像ずれ量ΔZ″の予測式は式(20)のようにな
る。
At time t based on the image shift amount ΔZ at time t0
The prediction formula of the image shift amount ΔZ ″ in Equation (2) is as shown in Expression (20).

【0064】[0064]

【数13】 (Equation 13)

【0065】時刻t2を後述する方法で求めて、ΔZ″
に基づいた量だけレンズ駆動することにより、時刻t2
において、移動している被写体にピントを合わせること
ができる。尚、被写体像の移動速度v=(ΔXR −ΔX
L )/(t1−t0)が大きすぎる場合は、検出値に信
頼性がないものとして像ずれ量の予測はしない。また被
写体像の移動速度が小さく検出誤差と見なされる場合
は、移動速度を0にする。(III) 像ずれ量予測時刻
t2の予測式:ここで、像ずれ量を予測する時刻t2を
求める方法について述べる。前述したように、時刻t2
の像ずれ量ΔZ″は時刻t1の像ずれ量ΔZ、時刻t0
から時刻t1の被写体像の移動量ΔXR 、ΔXL を用い
て式(20)により求められる。いま、露出時に合焦状
態になるような時刻t2を式(21)で求める。
The time t2 is obtained by a method described later, and ΔZ ″
At the time t2 by driving the lens by the amount based on
In, it is possible to focus on a moving subject. Note that the moving speed of the subject image v = (ΔXR−ΔX
If (L) / (t1−t0) is too large, the detection value is considered unreliable, and the image shift amount is not predicted. When the moving speed of the subject image is small and regarded as a detection error, the moving speed is set to zero. (III) Prediction formula of image shift amount prediction time t2: Here, a method of obtaining the time t2 at which the image shift amount is predicted will be described. As described above, at time t2
Is the image shift amount ΔZ at time t1, and the image shift amount ΔZ at time t0.
Is obtained from Equation (20) using the movement amounts .DELTA.XR and .DELTA.XL of the subject image at time t1. Now, a time t2 at which a focused state is obtained at the time of exposure is obtained by Expression (21).

【0066】[0066]

【数14】 [Equation 14]

【0067】この式において、tdは、時刻t1からレ
ンズ駆動を開始するまでの時間であり、この値には前述
した相関演算時間等のカメラ内部での処理時間が含まれ
る。ここで、keは、像ずれ量ΔZ″に比例したレンズ
駆動時間を求める変換係数である。レンズ駆動量ΔL
は、像ずれ量ΔZ″に基づいて式(9)及び式(10)
により求められるが、像ずれ量ΔZ″が充分に小さい領
域においてはデフォーカス量ΔD、レンズ駆動量ΔLは
像ずれ量ΔZ″に比例すると近似するので、精度的に問
題はない。teは、レンズ駆動終了からシャッタ幕が開
放されて露出が開始されるまでの時間であり、カメラの
露出演算、絞り制御、ミラーアップ等の時間を含む。上
記式(20)と式(21)を解くことで、予測像ずれ量
を求める式(22)が次のように導かれる。
In this equation, td is the time from the time t1 to the start of lens driving, and this value includes the processing time inside the camera such as the above-described correlation operation time. Here, ke is a conversion coefficient for obtaining a lens driving time proportional to the image shift amount ΔZ ″. The lens driving amount ΔL
Are given by the equations (9) and (10) based on the image shift amount ΔZ ″.
In a region where the image shift amount ΔZ ″ is sufficiently small, the defocus amount ΔD and the lens drive amount ΔL are approximately proportional to the image shift amount ΔZ ″, so there is no problem in accuracy. te is the time from the end of lens driving to the start of exposure after the shutter curtain is opened, and includes the time for camera exposure calculation, aperture control, mirror up, and the like. By solving the equations (20) and (21), the equation (22) for obtaining the predicted image shift amount is derived as follows.

【0068】[0068]

【数15】 (Equation 15)

【0069】このΔZ″から、式(9)及び式(10)
にてレンズ駆動量ΔLを求めてレンズ駆動を行なうこと
により、移動している被写体に対して露出時に合焦状態
とすることができる。次にレンズ駆動終了時の合焦とな
るような時刻t2は式(23)で求まる。 t2=t1+td+ke・ΔZ″ …(23) 同様に式(20)及び式(23)を解いて、次のような
式(24)が導かれる。
From this ΔZ ″, equations (9) and (10)
By obtaining the lens drive amount ΔL and driving the lens, the moving subject can be brought into a focused state at the time of exposure. Next, a time t2 at which the lens is brought into focus at the end of driving the lens is obtained by Expression (23). t2 = t1 + td + ke · ΔZ ″ (23) Similarly, by solving the equations (20) and (23), the following equation (24) is derived.

【0070】[0070]

【数16】 (Equation 16)

【0071】このΔZ″から、式(9)及び式(10)
にてレンズ駆動量ΔLを求めてレンズ駆動を行なうこと
により、移動している被写体に対してレンズ駆動終了時
に合焦状態とすることができる。
From this ΔZ ″, equations (9) and (10)
By calculating the lens drive amount ΔL and driving the lens, the moving object can be brought into a focused state at the end of the lens drive.

【0072】次に、図15に示すフローチャートを参照
して、この実施形態における具体的な動作プログラムに
ついて説明する。なお、「AF検出」ルーチンは、カメ
ラの電源がオン状態の期間は繰り返し実行されているも
のとする。まず、エリアセンサ23の積分動作を実行
し、積分が終了するとエリアセンサ23より被写体像デ
ータ(以下、センサデータと称する)を読み出す(ステ
ップS41)。
Next, a specific operation program in this embodiment will be described with reference to the flowchart shown in FIG. Note that the “AF detection” routine is repeatedly executed while the power of the camera is on. First, the integration operation of the area sensor 23 is performed, and when the integration is completed, subject image data (hereinafter, referred to as sensor data) is read from the area sensor 23 (step S41).

【0073】次に、被写体像ずれ量(以下像ずれ量)が
検出されたか否かを判定する(ステップS42)。この
判定で検出されていない場合は(NO)、前述した「像
ずれ量検出」ルーチン(図11参照)により像ずれ量を
求める(ステップS43)。ここでは、エリアセンサ2
3a,23b上の予め設定されている所定の測距エリア
について、像ずれ量を検出する。但し、予め設定されて
いる測距エリアは、例えば撮影者により選択された1個
の測距エリア若しくは、全測距エリアであってもよい。
Next, it is determined whether or not the object image shift amount (hereinafter, image shift amount) has been detected (step S42). If it is not detected in this determination (NO), the image shift amount is obtained by the above-described "image shift amount detection" routine (see FIG. 11) (step S43). Here, the area sensor 2
An image shift amount is detected for a predetermined distance measuring area set in advance on 3a and 23b. However, the preset ranging area may be, for example, one ranging area selected by the photographer or all ranging areas.

【0074】次に、上記所定の測距エリアに対して、全
て像ずれ量検出を終了したか否かを判定し(ステップS
44)、まだ終了していない場合は(NO)、上記ステ
ップS43に戻り、次の測距エリアの像ずれ量検出を行
なう。一方、全所定の測距エリアの像ずれ量検出が終了
した場合は(YES)、所定のアルゴリズム、例えば最
至近選択に基づいて測距エリアの選択を行なう(ステッ
プS45)。以下、選択された測距エリアam,bmと
しての説明を行なう。
Next, it is determined whether or not the detection of the image shift amount has been completed for all the predetermined distance measurement areas (step S).
44) If not completed yet (NO), the flow returns to step S43 to detect the amount of image shift in the next ranging area. On the other hand, when the image shift amount detection for all the predetermined distance measurement areas is completed (YES), the distance measurement area is selected based on a predetermined algorithm, for example, the closest selection (step S45). Hereinafter, the description will be given assuming that the selected distance measurement areas am and bm are used.

【0075】次に、像ずれ量が検出不能、すなわち所定
測距エリアについて全て検出不能であるか否かを判定す
る(ステップS46)。この判定において、検出可能な
場合は(YES)、像ずれ量検出可能フラグがセットさ
れ(ステップS47)、更に像ずれ量検出済フラグがセ
ットされる(ステップS48)。一方、上記ステップS
46において、全て検出不能であると判定された場合は
(NO)、像ずれ量検出不能フラグをセットし(ステッ
プS49)、像ずれ量検出済フラグをクリアする(ステ
ップS50)。そして、上記像ずれ量検出済フラグをセ
ット若しくはクリアした後、像移動量検出済フラグをク
リアし(ステップS51)、図18にて後述するメイン
ルーチンにリターンする。
Next, it is determined whether or not the image shift amount cannot be detected, that is, whether or not all the predetermined distance measurement areas cannot be detected (step S46). In this determination, if the image can be detected (YES), the image shift amount detectable flag is set (step S47), and the image shift amount detected flag is set (step S48). On the other hand, step S
If it is determined in step 46 that all the images cannot be detected (NO), the image shift amount undetectable flag is set (step S49), and the image shift amount detected flag is cleared (step S50). After setting or clearing the image shift amount detection completed flag, the image movement amount detected flag is cleared (step S51), and the process returns to the main routine described later with reference to FIG.

【0076】また上記ステップS42の判定において、
既に像ずれ量が検出していた場合は(YES)、以下の
ように第1、第2の被写体像毎に被写体像の時間に対す
る移動量を検出する。まず、上記ステップS45で選択
された測距エリアamを初期測距エリアとして設定する
(ステップS52)。次に、測距エリアamの第1被写
体像について前回(時刻t0)の像ずれ量検出で記憶し
ておいたセンサデータと、今回(時刻t1)のセンサデ
ータとの相関演算を行い、移動量を検出する(ステップ
S53)。これは、図14に示した移動量検出ルーチン
による。
In the determination in step S42,
If the image shift amount has already been detected (YES), the movement amount of the subject image with respect to time is detected for each of the first and second subject images as described below. First, the distance measuring area am selected in step S45 is set as an initial distance measuring area (step S52). Next, a correlation calculation is performed between the sensor data stored in the previous (time t0) image shift amount detection and the sensor data of the current time (time t1) for the first subject image in the distance measurement area am, and the movement amount is calculated. Is detected (step S53). This is based on the movement amount detection routine shown in FIG.

【0077】そして、第1被写体像の移動量が検出でき
たか否かを判定する(ステップS54)。この判定で、
移動量が検出できなかった場合は(NO)、第1及び第
2被写体像間の像ずれ量は、”0”であるとされ、測距
エリアam近傍の測距エリアについて、すべての測距エ
リアが設定されているか否かを判別する(ステップS5
5)。この判定で、近傍の全測距エリアについてのシフ
トが終了していない場合は(NO)、今回(時刻t1)
における測距エリアを所定の順序に従ってシフトし、次
の測距エリアにシフトして設定する(ステップS5
6)。尚、ここで言う所定の順序とは、図16(a)〜
(i)に順に示すように、エリアセンサ23a上の初期
測距エリアanを中心にして矢印が示すように(b)〜
(i)の順番で、anの近傍の水平方向と垂直方向に測
距エリアをシフトしていくことである。
Then, it is determined whether or not the amount of movement of the first subject image has been detected (step S54). In this judgment,
If the movement amount cannot be detected (NO), the image shift amount between the first and second subject images is determined to be “0”, and all the distance measurement areas near the distance measurement area am are measured. It is determined whether an area has been set (step S5).
5). If it is determined in this determination that the shift has not been completed for all nearby distance measurement areas (NO), this time (time t1)
Is shifted in accordance with a predetermined order, and is shifted and set to the next ranging area (step S5).
6). It should be noted that the predetermined order mentioned here refers to FIGS.
As shown in (i) in order, as shown by the arrows around the initial distance measurement area an on the area sensor 23a, (b)-
In the order of (i), the ranging area is shifted in the horizontal and vertical directions near an.

【0078】初期測距エリアanは、1RSWオン後、
1回目の測距であれば、予め設定している所定の測距エ
リア(例えば、中央)を設定し、1RSWオン後2回目
以後の測距であれば、前回の測距で選択したエリアを設
定する。この場合、前回の測距でも動体が検出できる可
能性が高い。
The initial distance measurement area an is set after the 1RSW is turned on.
For the first distance measurement, a predetermined distance measurement area (for example, the center) is set in advance. For the second and subsequent distance measurement after the 1RSW is turned on, the area selected by the previous distance measurement is set. Set. In this case, there is a high possibility that the moving object can be detected even in the previous distance measurement.

【0079】また図16(b)〜(e)は、anを中心
として横方向に測距エリアをシフトし、同図(f)〜
(i)は、anを中心として縦方向に測距エリアをシフ
トする。即ち、anを中心として横の測距エリアを縦の
測距エリアよりも優先的に、選択する。これは、前にも
説明したが、図17に例示したように、カメラの縦方向
に移動する被写体よりも横方向に移動する被写体の方が
多いことに起因する。その後、上記ステップS53に戻
り、設定された新しい測距エリアについて、再度第1被
写体像移動量を検出する。このようにして第1被写体像
の位置を探索していく。
FIGS. 16 (b) to 16 (e) show a case where the distance measurement area is shifted in the horizontal direction with an as the center, and FIGS.
(I) shifts the distance measurement area in the vertical direction around an. That is, the horizontal ranging area around an is preferentially selected over the vertical ranging area. As described above, this is because, as illustrated in FIG. 17, there are more subjects moving in the horizontal direction than subjects moving in the vertical direction of the camera. Thereafter, the process returns to step S53, and the first subject image movement amount is detected again for the new distance measurement area that has been set. Thus, the position of the first subject image is searched.

【0080】しかし、上記ステップS55の判定におい
て、近傍の全ての測距エリアにて設定が終了したならば
(YES)、後述するステップ59に移行する。また上
記ステップS54の判定において、第1被写体像の位置
が検出でき、さらに時刻t0からt1の移動量が検出で
きた場合は(YES)、第1被写体移動量が検出できた
測距エリアakに対応するエリアセンサ23bの測距エ
リアbkについて第2被写体像に対する移動量を検出す
る(ステップS57)。これは、図14の「移動量検
出」ルーチンを参照する。尚、このとき、第1被写体像
の移動量が検出できた時刻t1における測距エリアをa
kとする。ここで測距エリアのシフトが発生した場合に
は、像移動量として測距エリア間のシフト量(例えば、
中心間距離の画素数換算値)がΔXL 、ΔXR に加算さ
れる。このようにして第1、第2の被写体像の両方の移
動量が検出できたときには、被写体像の光軸方向の移動
速度vが次式から計算される(ステップS58)。
However, if it is determined in step S55 that the setting has been completed in all the neighboring distance measurement areas (YES), the process proceeds to step 59 described later. In the determination in step S54, if the position of the first object image can be detected and the movement amount from time t0 to time t1 can be detected (YES), the distance measurement area ak in which the first object movement amount can be detected is set. The movement amount of the corresponding distance measurement area bk of the area sensor 23b with respect to the second subject image is detected (step S57). This refers to the “movement amount detection” routine of FIG. At this time, the distance measurement area at time t1 when the movement amount of the first subject image can be detected is represented by a
k. Here, when a shift of the ranging area occurs, the shift amount between the ranging areas (for example,
The pixel number conversion value of the center-to-center distance) is added to ΔXL and ΔXR. When the amounts of movement of both the first and second subject images have been detected in this way, the moving speed v of the subject image in the optical axis direction is calculated from the following equation (step S58).

【0081】[0081]

【数17】 [Equation 17]

【0082】次に、演算した移動量が前回演算した移動
量と連続的であるか否かを判定する(ステップS5
9)。即ち、被写体が前回検出した測距エリアを外れて
いないか、或いは速すぎて合焦できないかを判定する。
但し、1RSWオン後1回目の測距であれば、前回のデ
ータが存在しないので連続的であるか否かの判定を行わ
なずにステップS61へ移行する。この判定で、連続的
であると判定されたならば(YES)、ステップS61
へ移行する。一方、不連続と判定されたならば(N
O)、すべての測距エリアで不連続であったか否かを判
定する(ステップS60)。すべて不連続ではなければ
(NO)、ステップS56に戻り、次の測距エリアへシ
フトする。しかし、すべての測距エリアで不連続であっ
た場合には(YES)、最新の測距エリアの測距結果に
基づいて合焦するために、ステップS61に移行する。
Next, it is determined whether the calculated moving amount is continuous with the previously calculated moving amount (step S5).
9). That is, it is determined whether or not the subject has deviated from the distance measurement area detected last time, or is too fast to focus.
However, if it is the first distance measurement after the 1RSW is turned on, since there is no previous data, the process proceeds to step S61 without determining whether or not the distance is continuous. If it is determined that the data is continuous (YES), the process proceeds to step S61.
Move to. On the other hand, if it is determined that the
O), it is determined whether or not all the distance measurement areas are discontinuous (step S60). If they are not all discontinuous (NO), the process returns to step S56 and shifts to the next ranging area. However, if all the distance measurement areas are discontinuous (YES), the process proceeds to step S61 in order to focus on the latest distance measurement area.

【0083】このステップS61において、計算された
この移動速度vを所定速度vthと比較して、被写体が光
軸方向に移動しているか否かを判定する。この判定で、
光軸方向に移動していると判定[動体判定]できる場合
は(YES)、被写体移動中フラグをセットする(ステ
ップS62)。しかし、移動していないと判定された場
合は(NO)、被写体移動中フラグをクリアして(ステ
ップS63)、上記ステップS43に戻り、再び像ずれ
量の検出処理からやり直す。
In step S61, the calculated moving speed v is compared with a predetermined speed vth to determine whether or not the subject is moving in the optical axis direction. In this judgment,
If it is determined that the object is moving in the optical axis direction (moving object determination) (YES), the subject moving flag is set (step S62). However, if it is determined that the object is not moving (NO), the subject moving flag is cleared (step S63), the process returns to step S43, and the process for detecting the image shift amount is performed again.

【0084】そして、上記被写体移動中フラグをセット
した後、像移動検出済みフラグをセットして(ステップ
S64)、メインルーチンにリターンする。
Then, after setting the above-described subject moving flag, an image movement detected flag is set (step S64), and the process returns to the main routine.

【0085】次に、図4に示す構成及び図18に示すフ
ローチャートを参照して、本発明の多点自動焦点カメラ
を適用したカメラのメインルーチンについて説明する。
このメイン動作は、制御部30によって起動されるプロ
グラムの制御手順を示すルーチンであり、制御部30の
動作開始により実行される。
Next, the main routine of the camera to which the multipoint autofocus camera of the present invention is applied will be described with reference to the configuration shown in FIG. 4 and the flowchart shown in FIG.
This main operation is a routine showing a control procedure of a program started by the control unit 30, and is executed when the operation of the control unit 30 starts.

【0086】まず、EEPROM35から予め記憶され
ている測距、測光処理において使用する各種補正データ
を読み出し、RAM33に展開する(ステップS7
1)。そして、1RSWがオンされているか否かを判定
し(ステップS72)、オン状態でなければ(NO)、
1RSW及び2RSW以外の他のスイッチが操作されて
いるか否かを判定し(ステップS73)、操作されたス
イッチがあれば(YES)、そのスイッチに応じた処理
を実行し(ステップS74)、その後、上記ステップS
72に戻る。
First, various kinds of correction data used in the distance measurement and photometry processing stored in advance from the EEPROM 35 are read out and loaded into the RAM 33 (step S7).
1). Then, it is determined whether or not 1RSW is turned on (step S72), and if it is not on (NO),
It is determined whether a switch other than 1RSW and 2RSW is operated (step S73). If there is an operated switch (YES), a process corresponding to the operated switch is executed (step S74). Step S above
Return to 72.

【0087】一方、上記ステップS72において、1R
SWがオン状態であれば(YES)、測光済みか否かを
判定し(ステップS75)、測光済みでなければ露出量
を決定するために測光部39を動作させて被写体輝度を
測定する測光動作を行なう(ステップS76)。
On the other hand, in step S72, 1R
If the switch is on (YES), it is determined whether or not the photometry has been completed (step S75). If the photometry has not been completed, the photometry section 39 is operated to determine the amount of exposure to measure the luminance of the subject. Is performed (step S76).

【0088】次に、前述したサブルーチン「AF検出」
が実行される(ステップS77)。このAF動作の結
果、前述した検出不能フラグを参照して像ずれ検出不能
か否かを判別する(ステップS78)。この判別で、像
ずれ検出可能の場合は(NO)、被写体像の移動量が検
出済みか否かを判定する(ステップS79)。一方、像
ずれ検出不能の場合は(YES)、フォーカスレンズ1
2aを駆動しながらAF検出可能なレンズ位置を探すス
キャン動作を行ない(ステップS80)、上記ステップ
S72に戻る。このスキャンが行なわれた場合は、全て
のフラグがクリアされてAF検出が再び最初からやり直
される。
Next, the aforementioned subroutine "AF detection"
Is executed (step S77). As a result of this AF operation, it is determined whether or not the image shift cannot be detected by referring to the above-described detection impossible flag (step S78). If it is determined that the image shift can be detected (NO), it is determined whether the movement amount of the subject image has been detected (step S79). On the other hand, when the image shift cannot be detected (YES), the focus lens 1
A scanning operation for searching for a lens position where AF detection is possible is performed while driving 2a (step S80), and the process returns to step S72. When this scan is performed, all flags are cleared and AF detection is restarted from the beginning.

【0089】また、上記ステップS79において、被写
体像の移動量が検出済みの場合は(YES)、像ずれ量
の予測が行われる。まず、2RSWがオンされているか
否かを判定し(ステップS81)、2RSWがオンされ
ていた場合は(YES)、露光開始時の像ずれ量が予測
される(ステップS82)。一方、2RSWがオフして
いた場合は(NO)、AF動作を行なうだけなので、レ
ンズ駆動終了時の像ずれ量が予測され(ステップS8
3)、後述するステップS85の合焦判定に移行する。
In step S79, if the moving amount of the subject image has been detected (YES), the image shift amount is predicted. First, it is determined whether or not the 2RSW is turned on (step S81). If the 2RSW is turned on (YES), an image shift amount at the start of exposure is predicted (step S82). On the other hand, if the 2RSW is off (NO), only the AF operation is performed, so that the image shift amount at the end of the lens driving is predicted (step S8).
3) The process proceeds to the in-focus determination in step S85 described below.

【0090】また上記ステップS79において、被写体
像の移動量が検出済みでない場合は(NO)、被写体が
移動中であるか否かを判定する(ステップS84)。こ
の時点で、像移動検出済みフラグは後述するように、レ
ンズ駆動された後、クリアされ、レンズ駆動後は像移動
検出されていなくても被写体移動中フラグがセットされ
ているので、ステップS72に戻り、被写体像移動を再
度検出し直す。
If it is determined in step S79 that the moving amount of the subject image has not been detected (NO), it is determined whether the subject is moving (step S84). At this point, the image movement detected flag is cleared after the lens is driven, as will be described later. Since the subject moving flag is set after the lens is driven even if the image movement is not detected, the process proceeds to step S72. Then, the subject image movement is detected again.

【0091】一方、移動中ではない場合は(NO)、検
出された像ずれ量、または予測された像ずれ量をデフォ
ーカス量に変換して、合焦許容範囲に像が入っているか
否かを判定する(ステップS85)。この判定で、合焦
していると判定されなかった場合は、必要なレンズ駆動
量が求められ、フォーカスレンズが駆動される(ステッ
プS86)。レンズ駆動ルーチン内では、そのレンズ駆
動後に像ずれ検出済みフラグ、像ずれ検出不能フラグお
よび像移動検出済みフラグをそれぞれクリアする。この
クリア処理は、一度フォーカスレンズを駆動した後に
は、被写体像が大きく変化すると考えられるので、AF
検出を最初からやり直すためである。尚、前述したよう
に、被写体像移動中フラグだけは、ここではクリアしな
い。この理由は、レンズ駆動後に最初のAF検出で合焦
判定してしまわないようにして、引き続き被写体の移動
を検出するようにするためである。
On the other hand, if the image is not moving (NO), the detected image shift amount or the predicted image shift amount is converted into a defocus amount, and whether or not the image is within the focus allowable range is determined. Is determined (step S85). If it is not determined that the lens is in focus, a necessary lens drive amount is obtained, and the focus lens is driven (step S86). In the lens driving routine, the image shift detection completed flag, the image shift undetectable flag, and the image movement detected flag are cleared after the lens is driven. In this clearing process, it is considered that the subject image greatly changes after the focus lens is once driven.
This is to restart the detection from the beginning. Note that, as described above, only the subject image moving flag is not cleared here. The reason for this is to prevent the in-focus determination by the first AF detection after driving the lens and to continuously detect the movement of the subject.

【0092】上記ステップS85において、合焦状態で
ある判定の場合は(YES)、2RSWのオン・オフ状
態を判別する(ステップS87)。ここで、2RSWが
オンされていれば(YES)、上記RAM33に格納さ
れている測光値に基づいて絞りとシャッタを制御して露
出動作を行なう(ステップS88)。そして撮影したフ
ィルムを巻き上げて、次のコマの位置に給送し(ステッ
プS89)、一連の撮影動作を終了する。以上説明した
ように、第1の実施形態では、エリアセンサ上におい
て、像分割方向及び、その像分割方向に対して垂直方向
の両方向について被写体像の位置を検出しているため、
上下方向の移動及び左右方向の移動のある移動被写体で
あっても、その被写体像位置を検出することができ、予
測制御が可能となり正確にピントを合わせることができ
る。
If it is determined in step S85 that the camera is in focus (YES), the on / off state of the 2RSW is determined (step S87). If the 2RSW is turned on (YES), the exposure operation is performed by controlling the aperture and the shutter based on the photometric value stored in the RAM 33 (step S88). Then, the photographed film is wound up and fed to the position of the next frame (step S89), and a series of photographing operations ends. As described above, in the first embodiment, the position of the subject image is detected on the area sensor in both the image division direction and the direction perpendicular to the image division direction.
Even for a moving subject that moves vertically and horizontally, the subject image position can be detected, predictive control can be performed, and accurate focusing can be achieved.

【0093】次に本発明の多点自動焦点カメラに係る第
2の実施形態について説明する。この第2の実施形態
は、図4で説明した姿勢検出部43によってカメラが横
方向に構えられているのか、あるいは縦方向に構えられ
ているのかを検出し、横方向に構えられている場合と縦
方向に構えられている場合とで測距エリアの選択優先順
番を変更する。まず、姿勢検出部43によってカメラが
横方向に構えられていると検出された場合には、図16
で説明したような順番で測距エリアをシフトしていく。
すなわち、第1の実施形態と同様である。次に、姿勢検
出部43によってカメラが縦方向に構えられていると検
出された場合の測距エリアの選択優先順番を図19に示
す。
Next, a second embodiment of the multipoint autofocus camera according to the present invention will be described. In the second embodiment, the posture detection unit 43 described with reference to FIG. 4 detects whether the camera is held in the horizontal direction or the vertical direction, and the camera is held in the horizontal direction. The priority order of selecting the ranging areas is changed between the case where the camera is held vertically and the case where the camera is held vertically. First, when the posture detection unit 43 detects that the camera is held in the horizontal direction, FIG.
The ranging areas are shifted in the order described in the section.
That is, it is the same as the first embodiment. Next, FIG. 19 shows the priority order of selecting the ranging areas when the posture detection unit 43 detects that the camera is held in the vertical direction.

【0094】この図19に示す測距エリアの選択優先順
番は、前述した図16における選択優先順番と同じであ
り、単に横方向を縦方向にしたものである。従って、図
19(a)〜(i)に順に示すように、エリアセンサ2
3a上の初期測距エリアanを中心にして矢印が示すよ
うに(b)〜(i)の順番で、anの近傍の水平方向と
垂直方向に測距エリアをシフトさせる。初期測距エリア
anは、1RSWオン後、1回目の測距であれば、予め
設定している所定の測距エリア(例えば、中央)を設定
し、1RSWオン後2回目以後の測距であれば、前回の
測距で選択したエリアを設定する。この場合、前回の測
距でも動体が検出できる可能性が高い。図19(b)〜
(e)は、anを中心として横方向に広がるように測距
エリアをシフトし、同図(f)〜(i)は、anを中心
として縦方向に測距エリアをシフトする。
The priority order of selection of the distance measurement areas shown in FIG. 19 is the same as the priority order of selection in FIG. 16 described above, and the horizontal direction is simply the vertical direction. Therefore, as shown in FIG. 19A to FIG.
The distance measuring area is shifted in the order of (b) to (i) in the order of (b) to (i) in the horizontal and vertical directions near an as shown by the arrows around the initial distance measuring area an on 3a. If the first distance measurement is performed after the 1RSW is turned on, the initial distance measurement area an is set to a predetermined distance measurement area (for example, the center) that is set in advance. For example, the area selected in the previous distance measurement is set. In this case, there is a high possibility that the moving object can be detected even in the previous distance measurement. FIG. 19B-
(E) shifts the ranging area so as to spread in the horizontal direction with an as the center, and (f) to (i) shifts the ranging area in the vertical direction with an as the center.

【0095】図20は、第2の実施形態のメインルーチ
ンを示したフローチャートである。このメインルーチン
は、前述した第1の実施形態における図18のルーチン
に相当するものであり、同等の工程(作動、処理、判断
等)については、同じステップ番号を付して、詳細な説
明は省略する。尚、AF検出におけるルーチンも第1の
実施形態における図15と同等であり、説明を省略す
る。この第2の実施形態のメインルーチンは、図18
に、姿勢検出部43を動作させてカメラの姿勢を検出す
るステップS90を追加したものである。この姿勢検出
を行うことにより、カメラが横方向に構えられていると
検出された場合には、ステップS77のAF検出におい
て、図15のステップ56で行われる測距エリアのシフ
トが図16で説明したような順番で行われる。一方、カ
メラが縦方向に構えられていると検出された場合には、
ステップS77のAF検出において、ステップ56で行
われる測距エリアのシフトが図19で説明したような順
番で行われる。この工程以外は、図18のルーチンと同
等に処理される。
FIG. 20 is a flowchart showing the main routine of the second embodiment. This main routine corresponds to the routine of FIG. 18 in the first embodiment described above, and the same steps (operation, processing, judgment, etc.) are assigned the same step numbers, and detailed description thereof will be omitted. Omitted. Note that the routine for AF detection is the same as that in FIG. 15 in the first embodiment, and a description thereof will be omitted. The main routine of the second embodiment is shown in FIG.
And a step S90 of operating the attitude detection unit 43 to detect the attitude of the camera. If it is detected that the camera is held in the horizontal direction by performing this posture detection, the shift of the ranging area performed in step 56 in FIG. 15 in the AF detection in step S77 will be described with reference to FIG. It is performed in the order as described. On the other hand, if it is detected that the camera is held vertically,
In the AF detection in step S77, the shift of the distance measurement area performed in step 56 is performed in the order described with reference to FIG. Except for this step, processing is performed in the same manner as the routine in FIG.

【0096】以上説明した第2の実施形態によれば、A
F検出を行う前にカメラの姿勢を検出するため、姿勢に
忠実な測距エリアの選択が実施できる。尚、前述した図
16及び図19で説明したシフト順番は、あくまでも一
例であって、一方の方向の測距エリアを他方の測距エリ
アに優先できる順番であればよい。その他、本発明の趣
旨に逸脱しない範囲で変形でき、本実施形態では、TT
L一眼レフカメラ等に適用した例で説明したが、これに
限定されるものではなく、多点測距を実施するカメラに
容易に適用できる。さらに、エリアセンサで焦点検出す
る例で説明したが、この限りではない。
According to the second embodiment described above, A
Since the posture of the camera is detected before the F detection is performed, it is possible to select a ranging area that is faithful to the posture. The shift order described with reference to FIGS. 16 and 19 is merely an example, and any order may be used as long as the distance measurement area in one direction can be prioritized over the other distance measurement area. In addition, modifications can be made without departing from the spirit of the present invention.
The description has been given of the example in which the present invention is applied to an L single-lens reflex camera or the like. Furthermore, although an example in which focus detection is performed by the area sensor has been described, the present invention is not limited to this.

【0097】以上の実施形態について説明したが、本明
細書には以下のような発明も含まれている。 (1)撮影画面を多数に分割し、分割された領域を焦点
検出領域として、それぞれ測距を行う多点自動焦点カメ
ラの測距方法において、移動被写体の撮影に際して、撮
影画面の中央にある焦点検出領域を基準位置として、構
えられたカメラの方向と同じ方向にある焦点検出領域を
優先して測距し、上記移動被写体に合焦しなければ、上
記中央にある焦点検出領域を基準位置として、カメラの
方向と直交する方向にある焦点検出領域を測距して、上
記移動被写体に合焦させることを特徴とする多点自動焦
点カメラの測距方法。
Although the above embodiments have been described, the present invention includes the following inventions. (1) In a distance measuring method of a multi-point autofocus camera that divides a photographing screen into a number of areas and uses the divided areas as focus detection areas, a focus at a center of the photographing screen when photographing a moving subject is measured. With the detection area as a reference position, the focus detection area in the same direction as the direction of the held camera is measured with priority, and if the moving subject is not focused, the focus detection area at the center is used as the reference position. A focus detection area in a direction orthogonal to the direction of the camera, and focusing on the moving subject.

【0098】(2)前記(1)項記載の多点自動焦点カ
メラの測距方法において、上記焦点検出動作により上記
撮影画面における上記移動被写体の移動方向を想定し、
最終的に決定された焦点検出領域に対して、その移動方
向で隣接する焦点検出領域を最優先して測距することを
特徴とする多点自動焦点カメラの測距方法。
(2) In the distance measuring method for a multi-point automatic focus camera described in (1), the moving direction of the moving subject on the photographing screen is assumed by the focus detecting operation.
A ranging method for a multi-point automatic focus camera, wherein a focus detection area adjacent to the finally determined focus detection area in a moving direction is measured with the highest priority.

【0099】[0099]

【発明の効果】以上詳述したように本発明によれば、複
数の測距点を有するカメラで移動被写体を撮影した場合
に、動体検出のタイムラグを短縮できる多点自動焦点カ
メラを提供することができる。
As described above in detail, according to the present invention, when a moving object is photographed by a camera having a plurality of distance measuring points, a multi-point automatic focusing camera capable of shortening a time lag for detecting a moving object is provided. Can be.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の多点自動焦点カメラの焦点検出機能に
おける概念的なブロック構成を示す図である。
FIG. 1 is a diagram showing a conceptual block configuration in a focus detection function of a multipoint autofocus camera of the present invention.

【図2】本発明による多点自動焦点カメラとして、一眼
レフレックスカメラに適用した構成例の断面を示す図で
ある。
FIG. 2 is a diagram showing a cross section of a configuration example applied to a single-lens reflex camera as a multipoint autofocus camera according to the present invention.

【図3】測距を含む光学系を模式的に示す図である。FIG. 3 is a diagram schematically showing an optical system including a distance measurement.

【図4】図2において説明したカメラの電気制御系を含
む機能ブロックを示す図である。
FIG. 4 is a diagram showing functional blocks including an electric control system of the camera described in FIG. 2;

【図5】図4に示したエリアセンサの具体的な回路構成
を示す図である。
5 is a diagram showing a specific circuit configuration of the area sensor shown in FIG.

【図6】エリアセンサの画素ユニットの具体的な回路構
成を示す図である。
FIG. 6 is a diagram showing a specific circuit configuration of a pixel unit of the area sensor.

【図7】撮影画面内の検出領域を構成する各測距エリア
の配置例を示す図である。
FIG. 7 is a diagram showing an example of the arrangement of each distance measurement area forming a detection area in a shooting screen.

【図8】エリアセンサの蓄積動作について説明するため
のタイムチャートである。
FIG. 8 is a time chart for explaining an accumulation operation of the area sensor.

【図9】2つのエリアセンサを構成する測距エリアの配
置例を示す図である。
FIG. 9 is a diagram illustrating an example of an arrangement of distance measurement areas forming two area sensors.

【図10】エリア対応するフォトダイオードの配列を直
線的に示す図である。
FIG. 10 is a diagram linearly showing an array of photodiodes corresponding to an area.

【図11】像ずれ量検出ルーチンに関する処理手順に基
づいて説明するためのフローチャートである。
FIG. 11 is a flowchart for explaining based on a processing procedure relating to an image shift amount detection routine.

【図12】移動する被写体に対する焦点検出の原理を説
明するための図である。
FIG. 12 is a diagram for explaining the principle of focus detection for a moving subject.

【図13】被写体像の移動について説明するための図で
ある。
FIG. 13 is a diagram for explaining movement of a subject image.

【図14】移動量検出ルーチンについて説明するための
フローチャートである。
FIG. 14 is a flowchart illustrating a movement amount detection routine.

【図15】AF検出ルーチンについて説明するためのフ
ローチャートである。
FIG. 15 is a flowchart illustrating an AF detection routine.

【図16】第1の実施形態において被写体像移動量を検
出のためのシフト(横方向)について説明するための図
である。
FIG. 16 is a diagram for explaining a shift (lateral direction) for detecting a moving amount of a subject image in the first embodiment.

【図17】撮影画像の構図として、電車がカーブに差し
掛かったシーンを例として示す図である。
FIG. 17 is a diagram illustrating, as an example, a scene in which a train approaches a curve as a composition of a captured image.

【図18】第1の実施形態におけるカメラのメインルー
チンについて説明するためのフローチャートである。
FIG. 18 is a flowchart illustrating a main routine of the camera according to the first embodiment.

【図19】第2の実施形態において被写体像移動量を検
出のためのシフト(縦方向)について説明するための図
である。
FIG. 19 is a diagram for describing a shift (vertical direction) for detecting a moving amount of a subject image in the second embodiment.

【図20】第2の実施形態におけるカメラのメインルー
チンについて説明するためのフローチャートである。
FIG. 20 is a flowchart illustrating a main routine of the camera according to the second embodiment.

【符号の説明】[Explanation of symbols]

1…焦点検出部(エリアセンサ) 2…焦点演算部 3…像移動量演算部 4…測距エリア選択部 5…焦点制御部 6…焦点調節部 REFERENCE SIGNS LIST 1 focus detection unit (area sensor) 2 focus calculation unit 3 image movement amount calculation unit 4 ranging area selection unit 5 focus control unit 6 focus adjustment unit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 2次元配置の複数の焦点検出領域を持つ
多点自動焦点カメラにおいて、 上記複数の焦点検出領域の中から焦点検出演算を行う領
域を所定の順番に従って指定する焦点検出領域決定手段
を具備し、 移動被写体に対して焦点検出を行う場合には、上記焦点
検出領域決定手段が上記複数の焦点検出領域の内の縦方
向に配置された焦点検出領域よりも横方向に配置された
焦点検出領域を優先して指定することを特徴とする多点
自動焦点カメラ。
1. A multi-point automatic focus camera having a plurality of focus detection areas in a two-dimensional arrangement, wherein a focus detection area determining means for designating, in a predetermined order, an area for performing focus detection calculation from the plurality of focus detection areas. When performing focus detection on a moving subject, the focus detection area determination means is arranged in a lateral direction than a focus detection area arranged in a vertical direction among the plurality of focus detection areas. A multipoint autofocus camera, wherein a focus detection area is designated with priority.
【請求項2】 移動被写体に対して焦点検出を行う場合
には、上記焦点検出領域決定手段は、 前回の焦点検出動作で最終的に決定された焦点検出領域
の横に配置される焦点検出領域を最優先して指定するこ
とを特徴とする請求項1に記載の多点自動焦点カメラ。
2. When performing focus detection on a moving subject, the focus detection area determining means includes a focus detection area arranged beside a focus detection area finally determined in a previous focus detection operation. 2. The multi-point autofocus camera according to claim 1, wherein is designated with the highest priority.
【請求項3】 2次元配置の複数の焦点検出領域を持つ
多点自動焦点カメラにおいて、 上記複数の焦点検出領域の中から焦点検出演算を行う領
域を所定の順番に従って指定する焦点検出領域決定手段
と、 カメラが横位置か縦位置といずれの位置に構えられてい
るかを検出する姿勢検出部と、を具備し、移動被写体に
対して焦点検出を行う場合には、上記焦点検出領域決定
手段が上記姿勢検出部の出力に基づいてカメラが構えら
れている方向に対して横方向に配置された焦点検出領域
を縦方向よりも優先して指定することを特徴とする多点
自動焦点カメラ。
3. A multi-point automatic focus camera having a plurality of two-dimensionally arranged focus detection areas, a focus detection area determining means for designating, in a predetermined order, an area for performing a focus detection calculation from among the plurality of focus detection areas. And a posture detection unit that detects whether the camera is held in a horizontal position or a vertical position. When performing focus detection on a moving subject, the focus detection area determination unit A multi-point automatic focus camera, wherein a focus detection area arranged in a horizontal direction with respect to a direction in which the camera is held is designated with a higher priority than a vertical direction based on an output of the attitude detection unit.
JP2000325851A 2000-10-25 2000-10-25 Multipoint automatic focusing camera Pending JP2002131624A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000325851A JP2002131624A (en) 2000-10-25 2000-10-25 Multipoint automatic focusing camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000325851A JP2002131624A (en) 2000-10-25 2000-10-25 Multipoint automatic focusing camera

Publications (2)

Publication Number Publication Date
JP2002131624A true JP2002131624A (en) 2002-05-09
JP2002131624A5 JP2002131624A5 (en) 2007-12-06

Family

ID=18803150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000325851A Pending JP2002131624A (en) 2000-10-25 2000-10-25 Multipoint automatic focusing camera

Country Status (1)

Country Link
JP (1) JP2002131624A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005164669A (en) * 2003-11-28 2005-06-23 Konica Minolta Photo Imaging Inc Digital camera
JP2009213165A (en) * 2009-06-15 2009-09-17 Canon Inc Display device, control method of display device, program, and computer-readable recording medium
US7616247B2 (en) 2003-02-25 2009-11-10 Canon Kabushiki Kaisha Reproducing apparatus, image data reproducing method, program, and storage medium
KR101336235B1 (en) 2007-02-05 2013-12-03 삼성전자주식회사 Method and apparatus of detecting attitude of digital image processing device using automatic focusing
JP2014174282A (en) * 2013-03-07 2014-09-22 Canon Inc Device and method for detecting focus, and image capturing device
JP2014174283A (en) * 2013-03-07 2014-09-22 Canon Inc Device and method for detecting focus
KR20150086401A (en) * 2011-08-19 2015-07-28 텍트로닉스 인코포레이티드 Apparatus and method for providing frequency domain display with visual indication of fft window shape
KR20160091246A (en) * 2014-12-26 2016-08-02 시아오미 아이엔씨. Auto-focusing method and auto-focusing device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02293615A (en) * 1989-05-09 1990-12-04 Asahi Optical Co Ltd Range finder
JPH04175739A (en) * 1990-11-09 1992-06-23 Nikon Corp Automatic focal point camera
JPH04296175A (en) * 1991-03-25 1992-10-20 Sony Corp Camera apparatus
JPH0829672A (en) * 1994-07-19 1996-02-02 Canon Inc Automatic focusing device and camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02293615A (en) * 1989-05-09 1990-12-04 Asahi Optical Co Ltd Range finder
JPH04175739A (en) * 1990-11-09 1992-06-23 Nikon Corp Automatic focal point camera
JPH04296175A (en) * 1991-03-25 1992-10-20 Sony Corp Camera apparatus
JPH0829672A (en) * 1994-07-19 1996-02-02 Canon Inc Automatic focusing device and camera

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7616247B2 (en) 2003-02-25 2009-11-10 Canon Kabushiki Kaisha Reproducing apparatus, image data reproducing method, program, and storage medium
JP2005164669A (en) * 2003-11-28 2005-06-23 Konica Minolta Photo Imaging Inc Digital camera
KR101336235B1 (en) 2007-02-05 2013-12-03 삼성전자주식회사 Method and apparatus of detecting attitude of digital image processing device using automatic focusing
JP2009213165A (en) * 2009-06-15 2009-09-17 Canon Inc Display device, control method of display device, program, and computer-readable recording medium
KR20150086401A (en) * 2011-08-19 2015-07-28 텍트로닉스 인코포레이티드 Apparatus and method for providing frequency domain display with visual indication of fft window shape
KR101941980B1 (en) 2011-08-19 2019-01-24 텍트로닉스 인코포레이티드 Apparatus and method for providing frequency domain display with visual indication of fft window shape
JP2014174282A (en) * 2013-03-07 2014-09-22 Canon Inc Device and method for detecting focus, and image capturing device
JP2014174283A (en) * 2013-03-07 2014-09-22 Canon Inc Device and method for detecting focus
KR20160091246A (en) * 2014-12-26 2016-08-02 시아오미 아이엔씨. Auto-focusing method and auto-focusing device
KR101678483B1 (en) 2014-12-26 2016-11-23 시아오미 아이엔씨. Auto-focusing method, auto-focusing device, program and recording medium
US9729775B2 (en) 2014-12-26 2017-08-08 Xiaomi Inc. Auto-focusing method and auto-focusing device

Similar Documents

Publication Publication Date Title
EP1617652B1 (en) Hybrid autofocus system for a camera
EP0349736B1 (en) Automatic focusing apparatus of a camera
KR101395015B1 (en) Camera, focus detection method and control method
JP2597961B2 (en) Automatic focusing device
US6311019B1 (en) Automatic focus adjusting system capable of adjusting focus of moving subject
JP4687291B2 (en) Focus adjustment device and imaging device
JP4821506B2 (en) Focus adjustment device and camera
JP2002131624A (en) Multipoint automatic focusing camera
JP2009042370A (en) Focus detecting device and its control method
JP4610714B2 (en) Multi-point autofocus camera
JP4398020B2 (en) Multi-point autofocus camera
JP3518891B2 (en) Camera distance measuring device, camera moving object detection method, and camera
JP3979881B2 (en) Multi-point autofocus camera
JP2009251164A (en) Exposure calculating device and imaging apparatus
JP2007052206A (en) Focus detector and its control method
JP2004361809A (en) Autofocus camera
JP2006010756A (en) Imaging apparatus, its control method, program and storage medium
JPH05346536A (en) Focal point detecting device
JPH11295587A (en) Focusing device
JP4182546B2 (en) Focus detection device
JP2014102298A (en) Imaging apparatus, control program for imaging apparatus, and method for controlling imaging apparatus
JP4773769B2 (en) Focus detection device
JP5789937B2 (en) Image tracking device and imaging device
JPH11337813A (en) Autofocus camera
JP2016102979A (en) Imaging device and control method of imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071023

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101102