JPH11258490A - Focus detecting device and its method and storage medium readable through computer - Google Patents

Focus detecting device and its method and storage medium readable through computer

Info

Publication number
JPH11258490A
JPH11258490A JP5783798A JP5783798A JPH11258490A JP H11258490 A JPH11258490 A JP H11258490A JP 5783798 A JP5783798 A JP 5783798A JP 5783798 A JP5783798 A JP 5783798A JP H11258490 A JPH11258490 A JP H11258490A
Authority
JP
Japan
Prior art keywords
image
imaging
phase difference
focus detection
output signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5783798A
Other languages
Japanese (ja)
Inventor
Masato Ikeda
政人 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP5783798A priority Critical patent/JPH11258490A/en
Publication of JPH11258490A publication Critical patent/JPH11258490A/en
Priority to US10/842,444 priority patent/US7358999B2/en
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

PROBLEM TO BE SOLVED: To carry out a highly accurate detection even if the S/D of CCD output is bad, in the case where a defocused quantity is detected from the phase difference of a plurality of images respectively image picked up through a plurality of different pupils by CCD (solid image picking up element). SOLUTION: In a focus detecting method, three or more output images are picked up through CCD 9 as right and left pupils are mutually shielded with a shading plate 5, and these output images are correlation-computed to obtain a plurality of phase differences, and the defocused quantity of a focus lens 1a is obtained on each phase difference. In this case, the S/N of the above output image is judged to alter an operation expression for the above relation computation when S/N is bad.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタルカメラな
どの撮像素子を用いた撮像装置の焦点検出装置、方法及
びコンピュータ読み取り可能な記憶媒体に関するもので
ある。
[0001] 1. Field of the Invention [0002] The present invention relates to a focus detection apparatus and method for an image pickup apparatus using an image pickup device such as a digital camera, and a computer-readable storage medium.

【0002】[0002]

【従来の技術】従来、一眼レフ方式の銀塩カメラなどに
用いられている自動焦点装置には、位相差検出方式の焦
点検出装置が数多く用いられている。図13は、従来の
位相差検出方式の焦点検出装置を有する一眼レフカメラ
の断面図であり、撮影レンズ100から射出してきた光
束109aはハーフミラーでできた主ミラー102にて
反射する光束109bと透過する光束109eとに分け
られる。反射した光束109bはピント板103の拡散
面上に被写体を結像し、撮影者は接眼レンズ105a、
105bおよびペンタプリズム104を介してピント板
103上の被写体像を観察するように構成されている。
2. Description of the Related Art Conventionally, a large number of phase difference detection type focus detection devices have been used as automatic focus devices used in single-lens reflex type silver halide cameras and the like. FIG. 13 is a cross-sectional view of a single-lens reflex camera having a conventional phase difference detection type focus detection device. A light beam 109a emitted from a photographing lens 100 is reflected by a light beam 109b reflected by a main mirror 102 made of a half mirror. It is divided into a transmitted light flux 109e. The reflected light flux 109b forms an image of the subject on the diffusion surface of the focus plate 103, and the photographer can use the eyepiece 105a,
It is configured to observe a subject image on the focus plate 103 via the 105b and the pentaprism 104.

【0003】一方、主ミラー102を透過した光束10
9eはサブミラー106によって反射し、焦点検出装置
107へと導かれ、焦点検出装置107は撮影レンズ1
00からの光束109fによって、撮影レンズ100の
銀塩フィルム108に対する焦点状態(デフォーカス
量)を検出するようになっている。検出されたデフォー
カス量が所定の合焦幅より大きく、非合焦状態であると
判定されると、検出されたデフォーカス量を解消するよ
うに撮影レンズ100のフォーカス調整用レンズを駆動
し焦点調節を行う。
On the other hand, the light beam 10 transmitted through the main mirror 102
9e is reflected by the sub-mirror 106 and guided to the focus detection device 107. The focus detection device 107
The focus state (defocus amount) of the photographing lens 100 with respect to the silver halide film 108 is detected by the light flux 109f from 00. If it is determined that the detected defocus amount is larger than the predetermined focusing width and the camera is out of focus, the focus adjusting lens of the photographing lens 100 is driven so that the detected defocus amount is canceled. Make adjustments.

【0004】次に図14、図15を使って従来の焦点検
出装置の焦点検出原理について説明する。図14(a)
はピントの合った状態すなわち合焦状態であり、撮影レ
ンズ100の異なる2つの瞳を通過してきた光束116
a、116bは1次結像面114で結像し、1次結像面
上の被写体像は2次結像レンズ112a、112bによ
って各々2つのラインセンサ113a、113bが配置
されるセンサ面上に再結像する。ここで、フィールドレ
ンズ111は撮影レンズ100の1次結像面114の近
傍に配置され、所定の像高の光束を効率よくセンサ面に
導き、像高の増加に伴って発生する光量低下を防止す
る。一般に、撮影レンズ100の異なる瞳を通過してく
る2つの光束116a、116bを規定するのは2次結
像レンズ112a、112bの直前あるいは直後に配置
される不図示の絞りであり、撮影レンズ100に瞳分割
するような部材は持たない。
Next, the principle of focus detection of a conventional focus detection device will be described with reference to FIGS. FIG. 14 (a)
Is a focused state, that is, a focused state, and a light beam 116 that has passed through two different pupils of the photographing lens 100.
a and 116b form an image on a primary image forming surface 114, and a subject image on the primary image forming surface is placed on a sensor surface on which two line sensors 113a and 113b are arranged by secondary image forming lenses 112a and 112b, respectively. Re-image. Here, the field lens 111 is disposed near the primary image forming surface 114 of the photographing lens 100, efficiently guides a light beam having a predetermined image height to the sensor surface, and prevents a decrease in the amount of light generated as the image height increases. I do. Generally, the two light beams 116a and 116b passing through different pupils of the photographing lens 100 are defined by apertures (not shown) disposed immediately before or immediately after the secondary imaging lenses 112a and 112b. No pupil-dividing member is provided.

【0005】ラインセンサ113a、113b上に結像
される2つの像は、異なる瞳を通過した光束のため、レ
ンズの繰り出し量により、像の相対位置が図14、図1
5のように、合焦、前ピン、後ピンの各状態で異なる。
図14(a)、図15(a)は、合焦状態の時でライン
センサ113a、113b上に結像される2つの像の間
隔は、2つのラインセンサの相対的な距離e0と等し
く、合焦の時は常に一定である。
The two images formed on the line sensors 113a and 113b are luminous fluxes that have passed through different pupils, and the relative positions of the images depend on the amount of extension of the lens.
As shown in FIG. 5, the state differs between the in-focus, front focus, and rear focus states.
FIGS. 14A and 15A show that the distance between two images formed on the line sensors 113a and 113b in the focused state is equal to the relative distance e0 between the two line sensors. It is always constant at the time of focusing.

【0006】図14(b)、図15(B)は、デフォー
カス量d1だけ前ピン状態の時で、2つの像の間隔e1
は、e0より小さくなり、デフォーカス量d1が大きく
なればe0とe1の差δ1も大きくなる。図14
(c)、図15(c)は、デフォーカス量d2だけ後ピ
ン状態の時で、2つの像の間隔e2は、e0より大きく
なる。そして、デフォーカス量d2が大きくなるとe2
とe0の差δ2も大きくなる。
FIGS. 14 (b) and 15 (B) show a state in which the front focus state is set by the defocus amount d1 and the distance e1 between the two images.
Is smaller than e0, and the difference δ1 between e0 and e1 increases as the defocus amount d1 increases. FIG.
(C) and FIG. 15 (c) show a state in which the back focus state is set by the defocus amount d2, and the interval e2 between the two images is larger than e0. When the defocus amount d2 increases, e2
The difference δ2 between と and e0 also increases.

【0007】このように、2つの像の間隔から、その時
のデフォーカス量の大きさと方向が分かる。そこで、現
在のデフォーカス状態での2つの像の間隔eと、合焦の
時の基準像間隔e0との差、つまり、2つの像の相対的
なずれ量(位相差)δ=e−e0を、2つのラインセン
サ113a、113bの出力信号の相関をとることによ
り計算し、この位相差から光学系のデフォーカス量とそ
の方向を求め、フォーカスレンズを制御して合焦を行っ
ている。
As described above, the magnitude and direction of the defocus amount at that time can be determined from the distance between the two images. Therefore, the difference between the distance e between the two images in the current defocus state and the reference image distance e0 at the time of focusing, that is, the relative shift amount (phase difference) δ = e−e0 between the two images. Is calculated by correlating the output signals of the two line sensors 113a and 113b, the defocus amount and the direction of the optical system are obtained from the phase difference, and the focusing is controlled by controlling the focus lens.

【0008】しかしながら、従来の一眼レフカメラで
は、焦点検出用の受光素子(センサ)に光束を導くため
の光学部材(主ミラー、サブミラーなど)や焦点検出装
置を配置するためのスペースを確保するために、大型化
し、その分コストもアップしてしまう。また、温度変化
あるいは主ミラーやサブミラーの耐久変化によって、撮
影用のフィルムと焦点検出装置との相対的な位置関係が
変化するために、ピント精度が低下してしまうという問
題点がある。
However, in a conventional single-lens reflex camera, an optical member (main mirror, sub-mirror, etc.) for guiding a light beam to a light receiving element (sensor) for focus detection and a space for disposing a focus detection device are secured. In addition, the size increases, and the cost increases accordingly. Another problem is that the relative positional relationship between the film for photography and the focus detection device changes due to a change in temperature or a change in durability of the main mirror or the sub-mirror.

【0009】これに対してビデオカメラやデジタルカメ
ラなどの撮像装置では、画像を得るために固体撮像素子
(CCD)を使用しており、この撮像素子を焦点検出用
センサとして兼用することにより、上記問題点を解決す
ることができる。また、ビデオカメラではCCD上の被
写体像のコントラストを検出することによって焦点検出
するもの(山登り方式)が主流となっているが、この方
式では正確なデフォーカス量を検知することができない
ので、高速、高精度な焦点検出ができないという問題点
がある。
On the other hand, in an image pickup apparatus such as a video camera and a digital camera, a solid-state image pickup device (CCD) is used to obtain an image, and this image pickup device is also used as a focus detection sensor. The problem can be solved. Also, video cameras that detect focus by detecting the contrast of a subject image on a CCD (a hill-climbing method) are mainly used. However, this method cannot detect an accurate defocus amount, so that a high-speed method is used. However, there is a problem that high-precision focus detection cannot be performed.

【0010】そこで、山登り方式より高速、高精度で、
かつ、前述した従来の位相差方式の問題点を解消するも
のとして、撮影用の光学系に移動可能な瞳を挿入し、こ
の瞳を移動して、瞳領域の異なる光束よりなる光学像
を、撮影用の撮像素子に結像させ、これにより得られる
瞳領域の異なる複数の像の位相差を検出し、撮影レンズ
のデフォーカス量を検知する位相差方式(瞳時分割位相
差AF)が提案されている。
[0010] Therefore, with higher speed and higher accuracy than the hill climbing method,
In addition, as a solution to the above-described problem of the conventional phase difference method, a movable pupil is inserted into a photographing optical system, and the pupil is moved to form an optical image including light beams having different pupil regions. A phase difference method (pupil time division phase difference AF) in which an image is formed on an image pickup element for photographing, a phase difference between a plurality of images having different pupil regions obtained thereby, and a defocus amount of the photographing lens is detected. Have been.

【0011】[0011]

【発明が解決しようとする課題】上記のように従来で
は、撮影用の撮像素子と焦点検出用のセンサとを兼用す
るため、瞳位置移動手段を用いて時系列的に画像の取り
込みを行い、異なる瞳よりなる画像を得ている。このた
め、カメラと被写体との相対運動があると、その画像よ
り求めた位相差には、デフォーカスによる位相ずれ成分
と、カメラと被写体との相対運動による位相ずれ成分と
が含まれる。そこで、カメラと被写体との相対移動(手
振れや被写体の移動など)による焦点検出誤差を小さく
するために、3つ以上の位相差検出用信号を用いて複数
の位相差を求め、その複数の位相差から位相検出誤差を
補正することにより、デフォーカスによる位相差を求め
ている。
As described above, conventionally, in order to use both an image pickup device for photographing and a sensor for focus detection, images are taken in time series using pupil position moving means. Images with different pupils are obtained. Therefore, if there is a relative motion between the camera and the subject, the phase difference obtained from the image includes a phase shift component due to defocus and a phase shift component due to the relative motion between the camera and the subject. Therefore, in order to reduce a focus detection error due to relative movement between the camera and the subject (such as camera shake or movement of the subject), a plurality of phase differences are obtained using three or more phase difference detection signals, and a plurality of phase differences are obtained. The phase difference due to defocus is obtained by correcting the phase detection error from the phase difference.

【0012】しかしながら、撮像素子の出力信号のS/
Nが悪い場合は、補正演算をするのに用いる複数の位相
差のバラツキが大きくなるため、焦点検出精度が低下す
るという問題があった。
However, the S / S of the output signal of the image sensor is
When N is bad, there is a problem that the dispersion of a plurality of phase differences used for performing the correction operation becomes large, so that the focus detection accuracy is reduced.

【0013】本発明の目的は、撮像素子の出力信号のS
/Nが悪い場合は、複数の位相差からデフォーカスによ
る位相差を求めるための補正式を変えることにより、焦
点検出精度の低下を抑えることにある。
An object of the present invention is to provide an output signal S of an image sensor.
When / N is poor, the focus detection accuracy is reduced by changing a correction formula for obtaining a phase difference due to defocus from a plurality of phase differences.

【0014】[0014]

【課題を解決するための手段】本発明による焦点検出装
置においては、撮像面に結像された被写体の光学像を撮
像して画像信号を出力する撮像手段と、上記光学像を瞳
領域を通じて上記撮像面に結像する光学系手段と、上記
瞳領域を複数の位置に移動させる移動手段と、上記複数
の位置においてそれぞれ撮像して得られる3つ以上の画
像信号の相関演算により複数の位相差を求め、上記位相
差に基づいて上記光学系手段のデフォーカス量を求める
演算手段と、上記撮像手段の出力信号に応じて上記位相
差を求める演算式を変更する制御手段とをとを設けてい
る。
According to the present invention, there is provided a focus detection apparatus, comprising: an image pickup means for picking up an optical image of a subject formed on an image pickup surface and outputting an image signal; Optical system means for forming an image on an imaging surface; moving means for moving the pupil region to a plurality of positions; and a plurality of phase differences by correlating three or more image signals obtained by imaging at the plurality of positions. Calculating means for obtaining a defocus amount of the optical system means based on the phase difference, and control means for changing an arithmetic expression for obtaining the phase difference according to an output signal of the imaging means. I have.

【0015】本発明による焦点検出方法においては、撮
像面に結像された被写体の光学像を撮像して画像信号を
出力する撮像手順と、上記光学像を上記撮像面に結像す
る光学系における瞳領域を複数の位置に移動させる移動
手順と、上記複数の位置においてそれぞれ撮像して得ら
れる3つ以上の画像信号の相関演算により複数の位相差
を求め、上記位相差に基づいて上記光学系のデフォーカ
ス量を求める演算手順と、上記撮像手順による出力信号
に応じて上記位相差を求める演算式を変更する制御手順
とを設けている。
In the focus detection method according to the present invention, an image pickup procedure for picking up an optical image of an object formed on an image pickup surface and outputting an image signal, and an optical system for forming the optical image on the image pickup surface A plurality of phase differences are obtained by a moving procedure for moving the pupil region to a plurality of positions and a correlation operation of three or more image signals obtained by imaging at the plurality of positions, respectively, and the optical system is determined based on the phase differences. And a control procedure for changing an arithmetic expression for calculating the phase difference in accordance with an output signal from the imaging procedure.

【0016】本発明による記憶媒体においては、撮像面
に結像された被写体の光学像を撮像して画像信号を出力
する撮像処理と、上記光学像を上記撮像面に結像する光
学系における瞳領域を複数の位置に移動させる移動処理
と、上記複数の位置においてそれぞれ撮像して得られる
3つ以上の画像信号の位相差を相関演算により求め、上
記位相差に基づいて上記光学系のデフォーカス量を求め
る演算処理と、上記撮像処理による出力信号に応じて上
記位相差を求める演算式を変更する制御処理とを実行す
るためのプログラムを記憶している。
In the storage medium according to the present invention, an image pickup process for picking up an optical image of a subject formed on an image pickup surface and outputting an image signal, and a pupil in an optical system for forming the optical image on the image pickup surface A moving process of moving an area to a plurality of positions, a phase difference between three or more image signals obtained by imaging at each of the plurality of positions is obtained by a correlation operation, and defocusing of the optical system is performed based on the phase difference. A program for executing a calculation process for obtaining an amount and a control process for changing a calculation formula for obtaining the phase difference according to an output signal from the imaging process is stored.

【0017】[0017]

【発明の実施の形態】図1は、本発明による焦点検出装
置およびそれを用いたカメラの実施の形態を示す図であ
り、1bは撮影レンズのフォーカス用レンズ群、1aは
撮影レンズのフォーカス用レンズ群1b以外のレンズ
群、2はフォーカス用レンズ群1bを繰り出すためのレ
ンズ繰り出し機構で、レンズの移動を行うモータを含ん
でいる。3は焦点検出用絞り、4は焦点検出用絞り3を
光路中に入れるためのモータ、5は焦点検出用絞り3に
ある2つの開口部3a、3bのうちいずれか一方を遮光
するための遮光板、6は遮光板5を移動させるためのモ
ータである。7は光学ローパスフィルタ、8は赤外カッ
トフィルタ、9は撮像面に結像された光学像を光電変換
して電気信号にする撮像素子としてのCCDである。こ
のCCD9の撮像面には、後述する図6(a)に示す色
フィルタが設けられている。
FIG. 1 is a view showing an embodiment of a focus detecting device and a camera using the same according to the present invention, wherein 1b is a focusing lens group of a photographing lens, and 1a is a focusing lens group of the photographing lens. The lens group 2 other than the lens group 1b is a lens extension mechanism for extending the focus lens group 1b, and includes a motor for moving the lens. Reference numeral 3 denotes a focus detection aperture, 4 denotes a motor for inserting the focus detection aperture 3 into an optical path, and 5 denotes a light shield for shielding one of the two openings 3a and 3b in the focus detection aperture 3. Reference numeral 6 denotes a motor for moving the light shielding plate 5. Reference numeral 7 denotes an optical low-pass filter, reference numeral 8 denotes an infrared cut filter, and reference numeral 9 denotes a CCD as an image pickup device which photoelectrically converts an optical image formed on an image pickup surface into an electric signal. The imaging surface of the CCD 9 is provided with a color filter shown in FIG.

【0018】10はCCD9からの出力を増幅するため
のアンプ、11はアンプ10より所定のゲインで増幅さ
れたアナログ信号をデジタル化するA/D変換器、12
はA/D変換されたデジタル信号の様々なデジタル信号
処理を行うデジタル信号処理部、13はカメラ全体の制
御を行うシステムコントロール部、14はCCD9の駆
動制御およびアンプ10の増幅率の設定を行うためのC
CDドライバ、15はフォーカス用レンズ群1bの繰り
出し制御を行うレンズコントロール部である。
Reference numeral 10 denotes an amplifier for amplifying the output from the CCD 9, reference numeral 11 denotes an A / D converter for digitizing an analog signal amplified by the amplifier 10 with a predetermined gain, and reference numeral 12
Is a digital signal processing unit that performs various digital signal processing of the A / D converted digital signal, 13 is a system control unit that controls the entire camera, and 14 is a drive control of the CCD 9 and a setting of an amplification factor of the amplifier 10. C for
A CD driver 15 is a lens control unit for controlling the extension of the focusing lens group 1b.

【0019】16はデジタル信号を一時記憶しておく場
合等に使われる例えばDRAMなどのバッファメモリ、
17は記録媒体やファンクションカード等と接続される
カードスロットとそのコントロール部、18は電子ビュ
ーファインダー(EVF)、19はそのLCDのドライ
バ部、20はドライバ部19へアナログ信号を送るため
のD/A変換器、21はEVF18に表示する画像を保
持し、D/A変換器20へデジタル信号を出力するVR
AM、22はカメラの設定等の表示をする外部白黒液晶
(LCD)、23はそのLCDの表示のためのLCDド
ライバ、24はカメラの撮影モードの設定やレリーズ操
作を検知するための操作スイッチである。
Reference numeral 16 denotes a buffer memory such as a DRAM used for temporarily storing digital signals, for example.
Reference numeral 17 denotes a card slot connected to a recording medium or a function card or the like and its control unit, 18 denotes an electronic viewfinder (EVF), 19 denotes a driver unit of the LCD, and 20 denotes a D / D for sending an analog signal to a driver unit 19. An A converter 21 holds an image to be displayed on the EVF 18 and outputs a digital signal to the D / A converter 20.
AM and 22 are external black and white liquid crystals (LCD) for displaying the settings of the camera, etc., 23 is an LCD driver for displaying the LCD, and 24 is an operation switch for detecting the setting of the shooting mode of the camera and the release operation. is there.

【0020】次に、図1を用いて本発明に直接関係する
焦点検出方法と焦点検出装置を中心に説明する。今、カ
メラの電源が投入されており、撮影可能状態であるとす
る。焦点検出用絞り3は、瞳時分割位相差AFを行うた
めに、水平方向に同じ形状の二つの開口部(以下、CC
D9の側から見て、左側の開口部を左側瞳3a、右側の
開口部を右側瞳3bと呼ぶ)を持っており、焦点検出時
には、モータにより撮影レンズの光路中に挿入され、モ
ータ6で遮光板5を動かし、上記左側瞳3aまたは右側
瞳3bのいずれかを遮光して、異なる瞳領域を通過した
光束によりなる光学像をCCD9上に結像することがで
きる。
Next, a focus detection method and a focus detection device directly related to the present invention will be described with reference to FIG. Now, it is assumed that the power of the camera is turned on and the camera is in a photographable state. In order to perform pupil time division phase difference AF, the focus detection diaphragm 3 has two openings (hereinafter, referred to as CCs) having the same shape in the horizontal direction.
When viewed from the side of D9, the left opening has a left pupil 3a and the right opening has a right pupil 3b), and is inserted into the optical path of the photographing lens by a motor at the time of focus detection. By moving the light-shielding plate 5 to shield either the left pupil 3a or the right pupil 3b, an optical image composed of light beams passing through different pupil regions can be formed on the CCD 9.

【0021】瞳時分割位相差AFを行うために、システ
ムコントロール部13の指示により、光路中に焦点検出
用絞り3を挿入する。図2は焦点検出用絞り3と遮光板
5の位置関係を示す図である。図2(a)は、撮影時の
状態で、焦点検出用絞り3および遮光板5は撮影レンズ
の光路外に退避した位置にある。25は撮影レンズの撮
影用絞りを開放にしたときの瞳形状を示している。
In order to perform the pupil time-division phase difference AF, the focus detection diaphragm 3 is inserted into the optical path in accordance with an instruction from the system control unit 13. FIG. 2 is a diagram showing a positional relationship between the focus detection diaphragm 3 and the light shielding plate 5. FIG. 2A shows a state at the time of photographing, in which the focus detection diaphragm 3 and the light shielding plate 5 are at positions retracted outside the optical path of the photographing lens. Reference numeral 25 denotes a pupil shape when the taking aperture of the taking lens is opened.

【0022】まず、図2(b)のように、焦点検出用絞
りの右側瞳3bを、遮光板5で塞ぎ、撮影レンズの左側
瞳3aを開放して、これを通過する光束よりなる光学像
をCCD9上に結像して画像を取り込む。このとき左側
瞳3aを通過した光束よりなる焦点検出用画像データを
左画像1とする。次に、異なる瞳領域を通過する光束よ
りなる焦点検出用画像データを得るため、モータ6を駆
動して遮光板5を図2(c)のように移動し、撮影光学
系の右側瞳3bを開放しこれを通過した光束よりなる光
学像をCCD9上に結像して画像を取り込む。このとき
右側瞳3bを通過した光束よりなる焦点検出用画像デー
タを右画像2とする。
First, as shown in FIG. 2 (b), the right pupil 3b of the focus detection aperture is closed with a light shielding plate 5, the left pupil 3a of the taking lens is opened, and an optical image composed of a light beam passing therethrough. Is imaged on the CCD 9 to capture an image. At this time, the image data for focus detection composed of the light beam that has passed through the left pupil 3a is referred to as a left image 1. Next, in order to obtain focus detection image data composed of light beams passing through different pupil regions, the motor 6 is driven to move the light shielding plate 5 as shown in FIG. 2C, and the right pupil 3b of the photographing optical system is moved. The optical image composed of the light beam that has been released and passed through the image is formed on the CCD 9 to capture the image. At this time, the image data for focus detection composed of the light beam that has passed through the right pupil 3b is defined as the right image 2.

【0023】さらに、左画像1と同じ左側瞳3aを通過
した光束よりなる焦点検出用画像データを取り込むため
に、遮光板5を再び図2(b)のように移動し、このと
き、CCD9上に結像する画像を取り込む。このときの
左側瞳3aを通過した光束よりなる焦点検出用画像デー
タを左画像3とする。同様にして、右画像4、左画像5
を取り込む。なお、焦点検出用画像データを取り込む際
の露出は、電子シャッタ、図示しないメカシャッタ、ア
ンプ10のゲイン調整、後述するCCD9内での加算読
み出し、場合によっては、補助光を用意しておき、それ
らを用いて調整することにより行う。
Further, the light shielding plate 5 is moved again as shown in FIG. 2 (b) in order to take in focus detection image data composed of a light beam having passed through the same left pupil 3a as the left image 1, and at this time, the CCD 9 An image to be imaged is captured. At this time, the image data for focus detection composed of the light beam that has passed through the left pupil 3a is referred to as a left image 3. Similarly, right image 4, left image 5
Take in. Exposure when capturing image data for focus detection is performed by an electronic shutter, a mechanical shutter (not shown), gain adjustment of the amplifier 10, addition reading in the CCD 9 described later, and in some cases, auxiliary light is prepared. The adjustment is performed using the above.

【0024】ところで、焦点検出用画像データである左
画像1、右画像2、左画像3、右画像4、左画像5を取
り込み焦点検出を行うが、これらの画像データは時系列
的に画像の取り込みを行っており、カメラと被写体の相
対移動(手振れや被写体の移動など)による焦点検出誤
差を小さくするため、各画像の取り込み間隔はできるだ
け短い時間で行われることが望ましい。そこで、焦点検
出用画像データの読み出しは、撮影用の画像を読み出す
時のように、CCD9の全画面を読み出すと、読み出し
に時間がかかるので、焦点検出用に必要な画像の一部分
だけを、通常の本撮影の場合より高速に読み出す。
By the way, the left image 1, right image 2, left image 3, right image 4, and left image 5, which are image data for focus detection, are taken in and focus detection is performed. In order to reduce the focus detection error due to relative movement between the camera and the subject (such as camera shake or movement of the subject), it is desirable that the capture interval of each image be as short as possible. Therefore, reading out the image data for focus detection requires a long time to read out the entire screen of the CCD 9 as in the case of reading out an image for photographing. Therefore, only a part of the image necessary for focus detection is usually read. Is read out faster than in the case of the main shooting.

【0025】上記のような読み出し方を以下に説明す
る。図3にインターライン型CCDの概略図を示す。3
1は画素、32は垂直電荷転送素子、33は水平電荷転
送素子、34は出力部となっている。各画素31で光電
変換された信号電荷は、垂直電荷転送素子32に送ら
れ、4相駆動パルスφV1、φV2、φV3およびφV
4により水平電荷転送素子33の方向へ順に転送され
る。水平電荷転送素子33は、垂直電荷転送素子32か
ら転送されてきた水平一列分の信号電荷を2相駆動パル
スφH1およびφH2により出力部4に転送し、そこで
電圧に変換されて出力される。
The above reading method will be described below. FIG. 3 shows a schematic view of an interline CCD. 3
1 is a pixel, 32 is a vertical charge transfer element, 33 is a horizontal charge transfer element, and 34 is an output unit. The signal charge photoelectrically converted by each pixel 31 is sent to the vertical charge transfer element 32, and the four-phase drive pulses φV1, φV2, φV3 and φV
4 sequentially transfers in the direction of the horizontal charge transfer element 33. The horizontal charge transfer element 33 transfers the signal charges for one horizontal line transferred from the vertical charge transfer element 32 to the output unit 4 by the two-phase driving pulses φH1 and φH2, where the signal charges are converted into voltages and output.

【0026】図4にCCDの撮像領域の概略図を示す。
本実施の形態では、読み出し動作の高速化のため、焦点
検出に必要な読み出し領域のみ通常の速さで読み出し、
それ以外は高速に読み出す掃き出し転送を行う。図4に
おいて、41は焦点検出に用いる通常の速さで読み出す
領域、42および43は、それぞれ前半および後半の高
速掃き出し転送領域となっている。
FIG. 4 is a schematic view of an image pickup area of a CCD.
In the present embodiment, in order to speed up the read operation, only the read area necessary for focus detection is read at a normal speed,
Otherwise, high-speed sweep transfer is performed. In FIG. 4, reference numeral 41 denotes an area for reading at a normal speed used for focus detection, and reference numerals 42 and 43 denote high-speed sweep transfer areas in the first half and the second half, respectively.

【0027】図5はCCDの垂直電荷転送素子32を4
相駆動とした場合の一垂直同期期間分のタイミングチャ
ートを示している。VDは垂直同期信号で、垂直ブラン
キング期間をLOW電位で示し、HDは水平同期信号
で、水平ブランキング期間をLOW電位で示す。φV
1、φV2、φV3およびφV4は、垂直電荷転送素子
32の4相駆動パルス、51および52は、画素31で
光電変換された信号電荷を水平電荷転送素子33に転送
する読み出しパルスを示している。4相駆動パルスのう
ち53および54は、それぞれ、図4の42および43
の領域部分の垂直電荷転送素子32に読み出された信号
電荷を高速に転送する高速掃き出し転送パルスを示して
いる。このようにして必要な読み出し領域以外を高速に
掃き出すことで、部分読み出し動作の高速化を行うこと
ができる。
FIG. 5 shows that the vertical charge transfer device 32 of the CCD is
A timing chart for one vertical synchronization period in the case of phase driving is shown. VD is a vertical synchronization signal, a vertical blanking period is indicated by a LOW potential, and HD is a horizontal synchronization signal, and a horizontal blanking period is indicated by a LOW potential. φV
1, φV2, φV3 and φV4 denote four-phase driving pulses of the vertical charge transfer element 32, and 51 and 52 denote readout pulses for transferring the signal charges photoelectrically converted by the pixels 31 to the horizontal charge transfer element 33. 53 and 54 of the four-phase drive pulses are 42 and 43 in FIG. 4, respectively.
A high-speed sweeping transfer pulse for transferring the signal charges read out to the vertical charge transfer elements 32 in the area of the area at a high speed. By sweeping out the area other than the necessary read area at high speed in this manner, the partial read operation can be speeded up.

【0028】なお、焦点検出用信号の読み出し時には、
複数ラインの信号電荷を水平電荷転送素子33を用いて
加算し、複数ラインを加算読み出しすることが可能とな
っている。これは、本撮影時の撮影用絞りを開放にした
ときより、焦点検出用絞り3の瞳3a、3bが小さいた
め、焦点検出時に起こる光量不足を補うためのもので、
アンプ3のゲインアップとともに感度を上げるために用
いる。
When reading out the focus detection signal,
The signal charges of a plurality of lines are added using the horizontal charge transfer element 33, and the addition and reading of the plurality of lines can be performed. This is to compensate for the light quantity shortage that occurs at the time of focus detection because the pupils 3a and 3b of the focus detection aperture 3 are smaller than when the shooting aperture is opened at the time of actual shooting.
It is used to increase the sensitivity together with the gain of the amplifier 3.

【0029】このようにして高速読み出しをした、焦点
検出用画像データである左画像1、右画像2、左画像
3、右画像4、左画像5を用いて、各画像間の相関演算
を行い、各画像間の位相差を求めることにより、焦点検
出を行うわけであるが、一眼レフ方式の銀塩カメラで用
いられているような焦点検出専用のモノクロセンサと異
なり、撮影用の撮像素子と焦点検出用のセンサとを兼用
している場合、撮影用の撮像素子である単板のカラーセ
ンサ上に色フィルタが作り込まれているため、CCDか
らの出力信号を、位相差検出用信号として用いるために
は、信号処理を施さなければならない。
Using the focus detection image data left image 1, right image 2, left image 3, right image 4, and left image 5 thus read out at high speed, a correlation operation between the images is performed. By detecting the phase difference between the images, focus detection is performed.However, unlike a monochrome sensor dedicated to focus detection such as that used in a single-lens reflex type silver halide camera, an image sensor for photographing is used. When the sensor also serves as a focus detection sensor, since a color filter is built in a single-plate color sensor that is an imaging element for photographing, an output signal from the CCD is used as a phase difference detection signal. In order to use it, signal processing must be performed.

【0030】前述したように、撮影用の輝度信号処理回
路を用いて作られた輝度信号を、位相差検出用信号とし
て用いることは可能であるが、撮影用の輝度信号は所定
のマトリクス演算が用いられており、焦点検出に要する
時間のことを考えると、撮像素子の出力信号から位相差
検出用信号を作る演算処理の時間は短い方が良いが、撮
影用の輝度信号処理回路を用いて位相差検出用信号を演
算するには時間がかかりすぎて問題がある。
As described above, it is possible to use a luminance signal generated by using a luminance signal processing circuit for photographing as a signal for detecting a phase difference, but the luminance signal for photographing is subjected to a predetermined matrix operation. Considering the time required for focus detection, the shorter the time for the arithmetic processing for generating the phase difference detection signal from the output signal of the image sensor, the better, but using a luminance signal processing circuit for photography. There is a problem that it takes too much time to calculate the phase difference detection signal.

【0031】以下、CCDの出力信号から焦点検出用の
位相差検出用信号を求める演算処理について説明する。
図6(a)は、CCD上に作り込まれた色フィルタ配列
を示す図である。色フィルタを構成するYe、Cy、M
g、G(イエロー、シアン、マゼンタ、グリーン)の4
色を各1画素ずつ加算すると、Ye+Cy+Mg+G=
2B+3G+2Rとなるので、隣接した2×2画素の1
ブロックの出力の加算平均を位相差検出用信号として用
いる。
A description will now be given of an arithmetic process for obtaining a phase difference detection signal for focus detection from the output signal of the CCD.
FIG. 6A is a diagram showing a color filter array formed on a CCD. Ye, Cy, M constituting color filter
g, G (yellow, cyan, magenta, green) 4
When the colors are added one pixel at a time, Ye + Cy + Mg + G =
Since 2B + 3G + 2R, 1 of adjacent 2 × 2 pixels
The average of the outputs of the blocks is used as a phase difference detection signal.

【0032】実際には、前述したようにCCD9から読
み出し時にライン加算読み出しが可能なので、2ライン
加算読み出しを行うことで、CCD内で縦2画素の加算
を行い(図6b)、このアナログ信号をA/D変換器1
1でデジタル信号に変換し、デジタル信号処理部12内
で横方向2画素の演算を行う(図6(c))ことで、2
×2画素の1ブロックの出力を加算平均した位相差検出
用信号を求める。
Actually, as described above, line addition reading is possible when reading from the CCD 9, so by performing two-line addition reading, two vertical pixels are added in the CCD (FIG. 6B), and this analog signal is output. A / D converter 1
The digital signal is converted into a digital signal by 1 and the operation of two pixels in the horizontal direction is performed in the digital signal processing unit 12 (FIG. 6C).
A phase difference detection signal is obtained by averaging the outputs of one block of × 2 pixels.

【0033】なお、図6では、CCDの画素ピッチpに
対して、位相差検出用信号のピッチはpとなっている。
また、本実施の形態では、S/Nをよくするため、縦加
算についてはCCD内で行ったが、ライン加算は行わず
読み出しを行い、縦加算もデジタル信号処理で行っても
よい。
In FIG. 6, the pitch of the phase difference detection signal is p with respect to the pixel pitch p of the CCD.
Further, in this embodiment, the vertical addition is performed in the CCD in order to improve the S / N. However, the readout may be performed without performing the line addition, and the vertical addition may also be performed by digital signal processing.

【0034】次に、上述のように求めた位相差検出用信
号を用いて、相関演算を行い位相差を求める。図7、
8、9は本発明に関する瞳時分割位相差AFの焦点検出
原理を説明するための図である。図7はピントの合った
状態すなわち合焦状態の時であり、図7(c)の撮影状
態では、撮影レンズ1を透過してきた光束27は、CC
D9の受光面上に焦点を結び、デフォーカス量はゼロで
ある。
Next, a phase difference is obtained by performing a correlation operation using the phase difference detection signal obtained as described above. FIG.
8 and 9 are views for explaining the focus detection principle of the pupil time division phase difference AF according to the present invention. FIG. 7 shows a focused state, that is, a focused state. In the photographing state of FIG. 7C, the light flux 27 transmitted through the photographing lens 1 is CC.
Focus is on the light receiving surface of D9, and the defocus amount is zero.

【0035】図7(a)は、撮影レンズの光路上に焦点
検出用絞り3を挿入し、遮光板5により右側瞳3bを遮
光し、左側瞳3aを開けた状態で、左側瞳3aを通過し
た光束27aは、CCD9の受光面上で光軸26からゼ
ロ離れた位置に結像する。図7(b)は、遮光板5によ
り左側瞳3aを遮光し、右側瞳3bを開けた状態で、右
側瞳3bを通過した光束27aは、CCD9の受光面上
で光軸26からゼロ離れた位置に結像する。このよう
に、合焦状態では、異なる二つの瞳3a、3bを通過し
てきた光束よりなる光学像は、CCD9の受光面上で共
に光軸26からゼロの同じ位置に入射するので、2つの
像の位相差はゼロとなる。
FIG. 7A shows a state in which the focus detecting diaphragm 3 is inserted on the optical path of the photographing lens, the right pupil 3b is shielded by the light shielding plate 5, and the left pupil 3a is opened with the left pupil 3a opened. The luminous flux 27a forms an image at a position zero away from the optical axis 26 on the light receiving surface of the CCD 9. FIG. 7B shows a state in which the left pupil 3 a is shielded by the light shielding plate 5 and the right pupil 3 b is opened, and the light beam 27 a passing through the right pupil 3 b is separated from the optical axis 26 by zero on the light receiving surface of the CCD 9. Image at the position. As described above, in the focused state, the optical images composed of the light beams that have passed through the two different pupils 3a and 3b are both incident on the light receiving surface of the CCD 9 from the optical axis 26 at the same zero position. Is zero.

【0036】図8はデフォーカス量がdだけ前ピン状態
の時であり、図8(c)の撮影状態では、撮影レンズ1
を透過してきた光束27は、CCD9の受光面よりdだ
け手前に焦点を結ぶ。図8(a)は、撮影レンズ1の光
路上に焦点検出用絞り3を挿入し、左側瞳3aを開けた
状態で、左側瞳3aを通過した光束27aは、CCD9
の受光面上で光軸26から+δ/2だけ離れた位置に結
像する。図8(b)は、右側瞳3bを開けた状態で、右
側瞳3bを通過した光束27aは、CCD9の受光面上
で光軸26から−δ/2だけ離れた位置に結像する。こ
のように、前ピン状態では、異なる二つの瞳3a、3b
を通過してきた光束よりなる2つの像の位相差は(+δ
/2)−(−δ/2)=δとなる。
FIG. 8 shows a state in which the defocus amount is in the front focus state by d, and in the photographing state of FIG.
The light flux 27 passing through is focused before the light receiving surface of the CCD 9 by d. FIG. 8A shows a state in which the focus detection diaphragm 3 is inserted on the optical path of the photographing lens 1 and the left pupil 3a is opened.
Is formed at a position + δ / 2 away from the optical axis 26 on the light receiving surface of. FIG. 8B shows a state in which the right pupil 3b is opened, and the light beam 27a passing through the right pupil 3b forms an image on the light receiving surface of the CCD 9 at a position separated by -δ / 2 from the optical axis 26. Thus, in the front focus state, two different pupils 3a, 3b
The phase difference between the two images composed of the luminous flux passing through is (+ δ
/ 2)-(-δ / 2) = δ.

【0037】図9はデフォーカス量がdだけ後ピン状態
の時であり、図9(c)の撮影状態では、撮影レンズ1
を透過してきた光束27は、CCD9の受光面よりdだ
け後ろに焦点を結ぶ。図9(a)は、撮影レンズ1の光
路上に焦点検出用絞り3を挿入し、左側瞳3aを開けた
状態で、左側瞳3aを通過した光束27aは、CCD9
の受光面上で光軸26から−δ/2だけ離れた位置に結
像する。図9(b)は、右側瞳3bを開けた状態で、右
側瞳3bを通過した光束27aは、CCD9の受光面上
で光軸26から+δ/2だけ離れた位置に結像する。こ
のように、前ピン状態では、異なる二つの瞳3a、3b
を通過してきた光束よりなる2つの像の位相差は(−δ
/2)−(+δ/2)=−δとなる。上述のようにし
て、左側瞳3a、右側瞳3bを通過した光束よりなる2
つの像の位相差検出用信号の位相差を求めることにより
焦点状態を検出することができる。
FIG. 9 shows a state in which the defocus amount is in the back focus state by d. In the photographing state shown in FIG.
The light flux 27 passing through is focused behind the light receiving surface of the CCD 9 by d. FIG. 9A shows a state in which the focus detection diaphragm 3 is inserted into the optical path of the photographing lens 1 and the left pupil 3a is opened.
Is formed at a position -δ / 2 away from the optical axis 26 on the light-receiving surface of the light-emitting device. 9B, with the right pupil 3b opened, the light beam 27a passing through the right pupil 3b forms an image on the light receiving surface of the CCD 9 at a position away from the optical axis 26 by + δ / 2. Thus, in the front focus state, two different pupils 3a, 3b
The phase difference between the two images composed of the luminous flux passing through is (−δ
/ 2)-(+ δ / 2) =-δ. As described above, 2 composed of the light beam that has passed through the left pupil 3a and the right pupil 3b
The focus state can be detected by calculating the phase difference between the phase difference detection signals of the two images.

【0038】次に、位相差の計算アルゴリズムについて
説明する。初めに、説明を簡単にするために、被写体と
撮影光学系との相対位置が移動していない場合を例にあ
げて説明する。左の瞳領域を通過した光束よりなる位相
差検出用信号(左画像)と右の瞳領域を通過した光束よ
りなる位相差検出用信号(右画像)との位相差を、相関
演算により求める。今、位相差検出用信号は、図10に
示すように、それぞれ横M個×縦N個からなり、この中
からm×n個を切り出して相関演算を行う。
Next, the algorithm for calculating the phase difference will be described. First, for simplicity of explanation, a case where the relative position between the subject and the photographing optical system has not moved will be described as an example. A phase difference between a phase difference detection signal (left image) composed of a light beam having passed through the left pupil region and a phase difference detection signal (right image) composed of a light beam having passed through the right pupil region is obtained by a correlation operation. Now, as shown in FIG. 10, the phase difference detection signal is composed of M (horizontal) × N (vertical) signals, and m × n signals are cut out of these signals to perform a correlation operation.

【0039】相関のとりかたは、次式(1)に示すよう
に、左画像:aの切り出し位置は固定し、右画像:b
は、左画像に対して順次位相(τx,τy)をずらしつ
つaとbの積の積分値C(τx,τy)[τx,τyは
整変数とする]を演算し、各位相(τx,τy)毎に求
まる値C(τx,τy)を、2つの像の相関量とする。
As shown in the following equation (1), the position of the left image: a is fixed, and the right image: b
Calculates the integral value C (τx, τy) of the product of a and b (τx, τy are integer variables) while sequentially shifting the phase (τx, τy) with respect to the left image, and calculates each phase (τx, τy). A value C (τx, τy) obtained for each τy) is defined as a correlation amount between the two images.

【0040】[0040]

【数1】 (Equation 1)

【0041】この相関量C(τx,τy)は最小値をと
り、このときの位相(τx,τy)が、左画像のデータ
aと右画像のデータbとの位相差(δx,δy)に相当
する。さらに、位相差の検出精度を高める位相(τx,
τy)を整数の値(図6のように、位相差検出用信号の
信号ピッチは、CCDの画素ピッチと同じ)ではなく、
小数点以下の値まで求めるためには、相関量の最小値と
その前後の値を用いて、補間計算により、位相差を計算
すればよい。
The correlation amount C (τx, τy) takes a minimum value, and the phase (τx, τy) at this time is the phase difference (δx, δy) between the data a of the left image and the data b of the right image. Equivalent to. Further, the phase (τx,
τy) is not an integer value (the signal pitch of the phase difference detection signal is the same as the pixel pitch of the CCD as shown in FIG. 6).
In order to obtain the value below the decimal point, the phase difference may be calculated by interpolation using the minimum value of the correlation amount and values before and after the minimum value.

【0042】なお、被写体と撮影光学系との相対位置が
移動していない場合は、ノイズなどの影響がなければ、
δyは原理的にゼロとなる。また、被写体の模様、コン
トラスト等による影響、撮影条件の違いによる影響、固
体撮像素子に作り込まれている色フィルタアレイの影
響、ノイズによる影響などを軽減するため、位相差検出
用信号にフィルタ処理を施した後、相関演算を行っても
よい。
When the relative position between the subject and the photographing optical system has not moved, if there is no influence of noise or the like,
δy becomes zero in principle. In addition, to reduce the effects of subject pattern, contrast, etc., the effects of differences in shooting conditions, the effects of the color filter array built into the solid-state image sensor, and the effects of noise, the filter processing is performed on the phase difference detection signal. , A correlation operation may be performed.

【0043】光学系によって、位相差と像面移動量、デ
フォーカス量との関係は決まっているので、その位相差
からデフォーカス量を求め、合焦に必要な繰り出し量を
求めて、光学系のフォーカス制御を行い、合焦させる。
ここまでは、被写体と光学系の相対移動がない場合に、
異なる瞳領域を通過した光束よりなる2つの画像を用い
て、焦点検出を行う方法について述べた。
Since the relationship between the phase difference and the amount of movement of the image plane and the amount of defocus are determined by the optical system, the amount of defocus is obtained from the phase difference, and the amount of extension necessary for focusing is obtained. Is performed, and focus is achieved.
Up to this point, if there is no relative movement between the subject and the optical system,
The method of performing focus detection using two images composed of light beams that have passed through different pupil regions has been described.

【0044】次に、被写体と光学系の相対移動がある場
合について、位相差の計算アルゴリズムを述べる。位相
差は、異なる瞳領域の光束よりなる2つの像(左画像と
右画像)から求めることができるが、本実施の形態で
は、左画像と右画像を時系列的に取り込んでおり、被写
体と光学系の相対運動(手振れや被写体の移動)などが
あると、その影響で焦点検出誤差を含んでしまう。
Next, a description will be given of a phase difference calculation algorithm in the case where there is a relative movement between the subject and the optical system. The phase difference can be obtained from two images (left image and right image) composed of light beams of different pupil regions. In the present embodiment, the left image and the right image are chronologically captured, and the subject If there is a relative movement of the optical system (such as camera shake or movement of a subject), a focus detection error is included due to the influence.

【0045】そのため、前述したように、焦点検出用画
像データの読み出しは、撮影用の画像を読み出す時のよ
うに、CCDの全画面を読み出さず、焦点検出用に必要
な画像の一部分だけを、通常の本撮影の場合より高速に
読み出し、像の取り込み間隔をできるだけ短くする工夫
を行っている。しかし、左画像と右画像の信号取り込み
は、動作が時間的に異なっており、この間にカメラと被
写体の相対移動があると位相差検出に誤差が生じること
は避けられない。
Therefore, as described above, the readout of the focus detection image data does not involve reading out the entire screen of the CCD as in the case of reading out the image for photographing, but only a part of the image necessary for focus detection. The reading is performed at a higher speed than in the case of the normal main photographing, and the image capturing interval is devised as short as possible. However, the operation of capturing the signals of the left image and the right image is temporally different, and if there is a relative movement between the camera and the subject during this time, it is inevitable that an error occurs in the phase difference detection.

【0046】そこで、本実施の形態では、前述したよう
に、位相差検出用信号として、左画像1、右画像2、左
画像3、右画像4、左画像5と、時系列的に5つの画像
の取り込み、各画像間より求めた複数の位相差を用い
て、カメラと被写体の相対移動(手振れや被写体の移動
など)による検出誤差の補正を行うようにしている。カ
メラと被写体が相対的に移動すると、その影響は2つの
画像の位相差(δx,δy)に表れる。ここで、δyは
画像の縦方向の位相差であり、光学的のデフォーカス量
に応じて生じる位相ずれ方向とは垂直な方向なので、デ
フォーカスによる位相ずれ成分は含まれず、カメラと被
写体の相対移動による位相ずれ成分のみである。そのた
め、カメラと被写体の相対移動による縦方向の像移動の
補正量として、δyの値はそのまま用いる。
Therefore, in the present embodiment, as described above, the left image 1, the right image 2, the left image 3, the right image 4, the left image 5, and the five Using a plurality of phase differences obtained from the captured images and between the images, detection errors due to relative movement between the camera and the subject (such as camera shake or subject movement) are corrected. When the camera and the subject move relatively, the effect appears in the phase difference (δx, δy) between the two images. Here, δy is the phase difference in the vertical direction of the image and is a direction perpendicular to the phase shift direction generated in accordance with the optical defocus amount, so that the phase shift component due to defocus is not included, and the relative position between the camera and the subject is not included. There is only a phase shift component due to movement. Therefore, the value of δy is used as it is as the correction amount of the vertical image movement due to the relative movement between the camera and the subject.

【0047】δxは画像の横方向の位相差であり、光学
的のデフォーカス量に応じて生じる位相ずれ方向にあた
るので、カメラと被写体の相対移動を含む2つの画像よ
り求めた値δxには、デフォーカスによる位相ずれ成分
と、カメラと被写体の相対移動による位相ずれ成分が含
まれている。
Δx is the phase difference in the horizontal direction of the image, which corresponds to the phase shift direction generated in accordance with the optical defocus amount. Therefore, the value δx obtained from the two images including the relative movement of the camera and the subject includes: A phase shift component due to defocus and a phase shift component due to relative movement between the camera and the subject are included.

【0048】図11は、縦方向のカメラと被写体の相対
移動による像移動を補正した後の、カメラと被写体の相
対移動による画像の横方向(x方向)の位置と、各画像
間の位相差との関係を示している。実線のL1、R2、
L3、R4、L5は、位相差検出を行うために、時系列
的に瞳を切り替えて取り込んだ、左画像1、右画像2、
左画像3、右画像4、左画像5であり、t=t1、t
2、t3、t4、t5は各画像の取り込み時刻で、各画
像の取り込み時間間隔は等しくなっている。破線のR
1′、L2′、R3′、L4′、R5′は、実線のL
1、R2、L3、R4、L5に対して、仮に同じ時刻で
取り込みを行った場合の、異なる瞳を通過した光束より
なる像の位置を示したもの、実際には取り込みを行うこ
とができない信号である。
FIG. 11 shows the position of the image in the horizontal direction (x direction) due to the relative movement of the camera and the subject after correcting the image movement due to the relative movement of the camera and the subject in the vertical direction, and the phase difference between the images. The relationship is shown. Solid lines L1, R2,
L3, R4, and L5 are left images 1, right images 2,
A left image 3, a right image 4, and a left image 5, where t = t1, t
2, t3, t4, and t5 are capture times of the respective images, and the capture time intervals of the respective images are equal. Dashed line R
1 ', L2', R3 ', L4', R5 'are L
1, R2, L3, R4, and L5 indicate the position of an image composed of light fluxes that have passed through different pupils when the capturing is performed at the same time. A signal that cannot be captured in practice. It is.

【0049】m1、m2、m3、m4は、各画像取り込
み時刻の間に、カメラと被写体の相対移動による画像上
での移動量であり、δは、光学系のデフォーカスによる
位相ずれ成分で、焦点検出として求めたい位相差であ
る。
M1, m2, m3, and m4 are the amounts of movement on the image due to the relative movement of the camera and the subject during each image capturing time, and δ is a phase shift component due to defocus of the optical system. This is the phase difference to be obtained as focus detection.

【0050】まず、異なる瞳よりなる画像L1とR2、
R2とL3、L3とR4、R4とL5のそれぞれの位相
差δ1、δ2、δ3、δ4を、左画像を基準に求める。
図15から判るように、ここで求めた各位相差は、デフ
ォーカスによる位相ずれ成分と、カメラと被写体の相対
運動による位相ずれ成分が含まれている。
First, images L1 and R2 composed of different pupils,
The respective phase differences δ1, δ2, δ3, δ4 of R2 and L3, L3 and R4, and R4 and L5 are determined based on the left image.
As can be seen from FIG. 15, each phase difference obtained here includes a phase shift component due to defocus and a phase shift component due to relative movement between the camera and the subject.

【0051】図12は、位相差検出誤差を補正する方法
を説明するための図であり、横軸は時間軸t、縦軸は横
方向の被写体像の位置xである。L1、R2、L3、R
4、L5は、時系列に取り込んだ被写体像の位置で、こ
の信号を取り込む間の、カメラと被写体の相対運動によ
る被写体像の移動を2次関数近似することにより、時刻
t2、t4における左画像の被写体の位置L2′、L
4′の位置を求める。そして、L2′とR2の位相差δ
2′と、L4とR4′の位相差δ4′の平均値を最終的
に求める位相差δとする。
FIG. 12 is a diagram for explaining a method of correcting a phase difference detection error. The horizontal axis is the time axis t, and the vertical axis is the horizontal position x of the subject image. L1, R2, L3, R
4. L5 is the position of the subject image captured in time series, and while capturing this signal, the movement of the subject image due to the relative motion between the camera and the subject is approximated by a quadratic function, so that the left image at times t2 and t4 is obtained. Subject position L2 ', L
Find the position of 4 '. And the phase difference δ between L2 ′ and R2.
The average value of 2 ′ and the phase difference δ4 ′ between L4 and R4 ′ is defined as the finally obtained phase difference δ.

【0052】(t1,x1)、(t3,x3)、(t
5,x5)を通る2次関数y=At2+Btを、t1=
0、x1=0として求め、最終的に求める位相差δをδ
2′とδ4′の平均値から求めると、今、各画像の取り
込み間隔が等しいことから、補正後の位相差δは、次式
(2)になる。 δ=(δ1+3×δ2+3×δ3+δ4)/8 ………(2)
(T1, x1), (t3, x3), (t
5, x5), the quadratic function y = At 2 + Bt is calculated as t1 =
0, x1 = 0, and the finally obtained phase difference δ is δ
When obtained from the average value of 2 ′ and δ4 ′, since the capture interval of each image is now equal, the corrected phase difference δ is given by the following equation (2). δ = (δ1 + 3 × δ2 + 3 × δ3 + δ4) / 8 (2)

【0053】次に、撮像素子(図1ではCCD9)の出
力信号のS/Nが悪い場合について述べる。撮像素子の
出力信号のS/Nが悪い場合、補正後の位相差δを求め
るのに用いる複数の位相差δ1、δ2、δ3、δ4のバ
ラツキが大きくなる。このバラツキが、カメラと被写体
とを相対運動による位相ずれ成分に比べて大きい場合、
補正後の位相差δを求めるための補正演算式(2)を用
いたのでは、δ2とδ3の重みづけだけが大きいため適
切ではない。
Next, the case where the S / N of the output signal of the image pickup device (CCD 9 in FIG. 1) is poor will be described. When the S / N of the output signal of the image sensor is poor, the dispersion of the plurality of phase differences δ1, δ2, δ3, and δ4 used for obtaining the corrected phase difference δ increases. If this variation is greater than the phase shift component between the camera and the subject due to relative motion,
It is not appropriate to use the correction operation expression (2) for obtaining the corrected phase difference δ because only the weights of δ2 and δ3 are large.

【0054】そこで、本発明の第1の実施の形態では、
S/Nが所定の値を超えた場合、補正演算式(2)を次
式(3)のように、複数の位相差δ1、δ2、δ3、δ
4の相加平均を、補正後の位相差δとする。 δ=(δ1+δ2+δ3+δ4)/4 ………(3)
Therefore, in the first embodiment of the present invention,
When the S / N exceeds a predetermined value, the correction operation equation (2) is converted into a plurality of phase differences δ1, δ2, δ3, δ as shown in the following equation (3).
The arithmetic mean of No. 4 is the corrected phase difference δ. δ = (δ1 + δ2 + δ3 + δ4) / 4 (3)

【0055】撮像素子の出力信号のS/Nの判定手段と
しては、AF用のAEの結果を用いる。AF用のAE
は、位相差検出用信号の左画像1を取り込む前、つま
り、撮影レンズの光路中に焦点検出用絞り3を挿入し、
撮影レンズの右側瞳3bを遮光板5で塞ぎ、撮影レンズ
の左側瞳3aを通過した光束よりなる光学像をCCD上
に結像し、位相差検出用信号を取り込むのと同じ光学状
態で、焦点検出に用いるのと同じエリアの信号を用いて
行う。CCDからの出力信号には、位相差検出用信号を
求める演算処理と同様の処理を施し、この信号より求め
た露出レベルが所定の値より暗い場合は、露光条件の変
更を行う。
As the means for determining the S / N of the output signal of the image sensor, the result of AF AE is used. AE for AF
Before inserting the left image 1 of the phase difference detection signal, that is, inserting the focus detection diaphragm 3 in the optical path of the photographing lens,
The right pupil 3b of the photographing lens is closed by the light shielding plate 5, an optical image composed of a light beam passing through the left pupil 3a of the photographing lens is formed on the CCD, and the focus is set in the same optical state as that for taking in the phase difference detection signal. This is performed using signals in the same area as used for detection. The output signal from the CCD is subjected to the same processing as that for calculating the phase difference detection signal. If the exposure level obtained from this signal is darker than a predetermined value, the exposure conditions are changed.

【0056】瞳時分割位相差AFでは、焦点検出用絞り
3を撮影レンズの光路中に挿入しているため、位相差検
出用信号の取り込み中は、絞り値は固定で変えることが
できない。このため、露出調整は、CCDへの蓄積時間
とCCDの出力ゲインを調整することによって行う。し
かし、調整時間を所定の時間より長くすると、式(2)
によってカメラと被写体との相対運動による位相差検出
誤差の補正を行っても、焦点検出に悪影響がでる場合が
あるため、CCDの出力ゲインを調整して行う場合があ
る。
In the pupil time-division phase difference AF, since the focus detection diaphragm 3 is inserted in the optical path of the photographing lens, the diaphragm value is fixed and cannot be changed while the phase difference detection signal is being captured. Therefore, the exposure is adjusted by adjusting the accumulation time in the CCD and the output gain of the CCD. However, if the adjustment time is longer than the predetermined time, the equation (2)
Even if the correction of the phase difference detection error due to the relative motion between the camera and the subject is performed, the focus detection may be adversely affected, and therefore, the correction may be performed by adjusting the output gain of the CCD.

【0057】このようにCCDの出力ゲインによって露
出調整を行う場合、ゲインアップを行うと画像のS/N
が悪くなる。そこで、適正露出に対して、AF用AEの
結果が所定の値より暗い場合は、S/Nが悪い画像とな
るので、S/Nが悪い画像と判定する。すなわち、適正
露出に対して、位相差検出用信号の露出が低くなる場合
は、CCDで得られる画像が暗くS/Nが悪い画像とな
るので、所定の値より暗い条件で位相差検出用信号の取
り込みを行う場合は、S/Nが悪い場合と判定し、補正
演算式を式(2)から式(3)に切り替える。
As described above, when the exposure is adjusted by the output gain of the CCD, when the gain is increased, the S / N of the image is increased.
Gets worse. Therefore, if the result of the AF AE is darker than a predetermined value with respect to the proper exposure, an image having a poor S / N is obtained, and thus an image having a poor S / N is determined. That is, if the exposure of the phase difference detection signal is lower than the proper exposure, the image obtained by the CCD is dark and the S / N is poor, so the phase difference detection signal is darker than a predetermined value. In the case of performing the capture, the determination is made that the S / N ratio is poor, and the correction operation expression is switched from Expression (2) to Expression (3).

【0058】このようにして求めた、カメラと被写体の
相対移動を補正した位相差δから合焦に必要な繰り出し
量を求め、光学系のフォーカス制御を行い、所定の許容
デフォーカス量以下になるまで、焦点検出を繰り返して
合焦させた後、撮影を行う。1回目の焦点検出、光学系
のフォーカス制御で、所定の許容デフォーカス量以内に
納まるカメラシステムの場合は、確認のための2回目の
焦点検出を行わず(見切り合焦)、撮影に入ってもよ
い。
From the thus obtained phase difference δ corrected for the relative movement between the camera and the subject, the amount of extension necessary for focusing is obtained, and the focus control of the optical system is performed. Until the focus detection is repeated until focusing is performed, shooting is performed. In the case of a camera system that falls within a predetermined allowable defocus amount in the first focus detection and focus control of the optical system, the second focus detection for confirmation is not performed (close-out focusing), and shooting starts. Is also good.

【0059】このようにして、合焦を行った後、焦点検
出用絞り3を撮影レンズの光路中から退避させ、撮影を
行う。そして記録のためにCCD9のデータを読み出
し、デジタル信号処理部12で画像信号処理を施し、必
要であれば画像データ圧縮などの処理をして、カードス
ロット13を介して記録媒体に記録する。なお、この時
画像データはデジタル信号処理部12でファインダ表示
のためのビデオ処理が施され、VRAM21を経てEV
F18に表示される。これにより撮影者は被写体像を確
認することができる。
After focusing has been performed in this manner, the focus detection diaphragm 3 is retracted from the optical path of the photographing lens, and photographing is performed. Then, the data of the CCD 9 is read for recording, subjected to image signal processing by the digital signal processing unit 12, subjected to processing such as image data compression if necessary, and recorded on a recording medium via the card slot 13. At this time, the image data is subjected to video processing for finder display in the digital signal processing unit 12,
Displayed in F18. This allows the photographer to check the subject image.

【0060】尚、本実施の形態では、撮像素子の出力信
号にS/Nを判定する方法として、AF用のAEの結果
を用いる方法について述べたが、前回までの焦点検出結
果を用いて、S/Nを判定してもよい。この場合は、前
回の複数の位相差δ1、δ2、δ3、δ4のバラツキが
所定の値を超えた場合、S/Nが悪いと判断し、補正演
算式を式(2)から式(3)に切り替える。
In this embodiment, the method of using the AE result for AF has been described as a method of determining the S / N for the output signal of the image sensor. S / N may be determined. In this case, if the previous variation of the plurality of phase differences δ1, δ2, δ3, δ4 exceeds a predetermined value, it is determined that the S / N is poor, and the correction calculation equation is calculated from Equation (2) to Equation (3). Switch to

【0061】また、前回までの焦点検出結果である補正
後の位相差δの変化の様子から、S/Nを判定してもよ
い。所定の回数以上、焦点検出を繰り返しているにも拘
わらず、焦点検出結果が許容デフォーカス量以内に収束
しない場合は、S/Nが悪いことが原因になっているこ
とがあるので、この場合は、補正演算式を式(2)から
式(3)に切り替える。
Further, the S / N may be determined based on the change in the phase difference δ after correction, which is the focus detection result up to the previous time. If the focus detection result does not converge within the allowable defocus amount despite the focus detection being repeated a predetermined number of times or more, this may be due to poor S / N. Switches the correction operation expression from Expression (2) to Expression (3).

【0062】次に、第2の実施の形態を説明する。第2
の実施の形態は、撮像素子の出力信号のS/Nが悪い場
合、位相差δを求めるために用いる位相差検出用信号の
取り込み回数を増やすというものである。以下、第1の
実施の形態と異なるところのみを述べ、第1の実施の形
態と同じ部分についての説明は省略する。撮像素子の出
力信号のS/Nが悪い場合、補正演算をするのに用いる
複数の位相差δ1、δ2、δ3、δ4のバラツキが大き
くなるため、焦点検出精度が低下する。そこで、複数の
位相差を求めるのに必要な位相差検出用信号の取り込み
回数を多くし、複数の位相差の数を増やして、その平均
値を補正後の位相差δとして求めれば、バラツキが大き
いことによる焦点検出精度の低下を抑えることが可能に
なる。
Next, a second embodiment will be described. Second
In the embodiment, when the S / N of the output signal of the image sensor is poor, the number of times of taking in the phase difference detection signal used for obtaining the phase difference δ is increased. Hereinafter, only different points from the first embodiment will be described, and the description of the same portions as the first embodiment will be omitted. When the S / N of the output signal of the image sensor is poor, the dispersion of the plurality of phase differences δ1, δ2, δ3, and δ4 used for the correction operation increases, and the focus detection accuracy decreases. Therefore, if the number of acquisitions of the phase difference detection signal necessary for obtaining the plurality of phase differences is increased, the number of the plurality of phase differences is increased, and the average value thereof is obtained as the corrected phase difference δ, the variation is reduced. It is possible to suppress a decrease in focus detection accuracy due to a large value.

【0063】そこで、AF用のAEの結果、または、前
回までの焦点検出結果から、S/Nが悪いと判定した場
合は、位相差検出用信号の取り込み回数を通常の5回か
ら10回に増やし、時系列的に瞳を切り替えた画像L
1、R2、L3、R4、L5、R6、L7、R8、L
9、R10を取り込み、L1とR2、R2とL3、L3
とR4、R4とL5、R5とL6、L6とR7、R7と
L8、R8とL9、L9とR10のそれぞれの位相差δ
1〜δ9を求める。そして、補正演算式を次式(4)の
ように、複数の位相差の相加平均を、補正後の位相差δ
とする。 δ=(δ1+δ2+δ3+δ4+δ5+δ6+δ7+δ8+δ9)/9 ………(4)
Therefore, if it is determined that the S / N is poor based on the result of the AF AE or the focus detection result up to the previous time, the number of times of taking in the phase difference detection signal is increased from 5 times to 10 times. Image L with pupil switched in time series
1, R2, L3, R4, L5, R6, L7, R8, L
9, taking R10, L1 and R2, R2 and L3, L3
, R4 and L5, R5 and L6, L6 and R7, R7 and L8, R8 and L9, L9 and R10, respectively.
1 to δ9 are obtained. Then, the arithmetic expression of the correction is calculated by calculating the arithmetic mean of the plurality of phase differences as shown in the following equation (4).
And δ = (δ1 + δ2 + δ3 + δ4 + δ5 + δ6 + δ7 + δ8 + δ9) / 9 (4)

【0064】尚、取り込み回数を5回から10回に増や
す場合について述べたが、取り込み回数はこれに限定さ
れるものではない。
The case where the number of captures is increased from five to ten has been described, but the number of captures is not limited to this.

【0065】尚、図1の各機能ブロックによるシステム
は、ハード的に構成してもよく、また、CPUやメモリ
等から成るマイクロコンピュータシステムに構成しても
よい。マイクロコンピュータシステムに構成する場合、
上記メモリは本発明による記憶媒体を構成する。この記
憶媒体には、前述した各処理を実行するためのプログラ
ムが記憶されている。またこの記憶媒体としてはRO
M、RAM等の半導体メモリ、光ディスク、光磁気ディ
スク、磁気媒体等を用いてもよく。これらをCD−RO
M、フロッピーディスク、磁気テープ、不揮発性のメモ
リカード等として用いてよい。
The system using the functional blocks shown in FIG. 1 may be configured as hardware, or may be configured as a microcomputer system including a CPU, a memory, and the like. When configured in a microcomputer system,
The memory constitutes a storage medium according to the present invention. The storage medium stores a program for executing each of the above-described processes. The storage medium is RO
A semiconductor memory such as M or RAM, an optical disk, a magneto-optical disk, a magnetic medium, or the like may be used. These are CD-RO
M, a floppy disk, a magnetic tape, a nonvolatile memory card, or the like.

【0066】[0066]

【発明の効果】以上説明したように、本発明によれば、
複数の位相差よりデフォーカス量を求める演算式を、撮
像出力に応じて変更することにより、例えば、S/Nが
悪い場合に複数の位相差の相加平均に変えること等によ
り、焦点検出精度の低下を抑えることができる。また、
位相差を求めるための画像の取り込み回数を増やすこと
により、S/Nが悪いことによる、複数の位相差のバラ
ツキの影響を抑え、焦点検出精度の低下を抑えることが
できる。
As described above, according to the present invention,
By changing an arithmetic expression for obtaining the defocus amount from a plurality of phase differences according to the imaging output, for example, by changing to an arithmetic average of a plurality of phase differences when the S / N is poor, focus detection accuracy can be improved. Can be suppressed. Also,
By increasing the number of times of capturing images for obtaining the phase difference, it is possible to suppress the influence of variations in a plurality of phase differences due to poor S / N, and to suppress a decrease in focus detection accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の焦点検出装置およびそれを用いたカメ
ラの実施の形態を示す構成図である。
FIG. 1 is a configuration diagram showing an embodiment of a focus detection device and a camera using the same according to the present invention.

【図2】焦点検出用絞りと遮光板との位置関係を示す構
成図である。
FIG. 2 is a configuration diagram illustrating a positional relationship between a focus detection diaphragm and a light shielding plate.

【図3】インターライン型CCDの構成図である。FIG. 3 is a configuration diagram of an interline CCD.

【図4】CCDの撮像領域の構成図である。FIG. 4 is a configuration diagram of an imaging area of a CCD.

【図5】CCDの垂直電荷転送素子を4相駆動とした場
合の一垂直同期期間分のタイミングチャートである。
FIG. 5 is a timing chart for one vertical synchronization period when a vertical charge transfer element of a CCD is driven in four phases.

【図6】位相差検出用信号を求めるときの演算処理につ
いて説明するための構成図である。
FIG. 6 is a configuration diagram for explaining arithmetic processing when a phase difference detection signal is obtained.

【図7】焦点検出原理を説明するための図である。FIG. 7 is a diagram for explaining the principle of focus detection.

【図8】焦点検出原理を説明するための図である。FIG. 8 is a diagram for explaining the principle of focus detection.

【図9】焦点検出原理を説明するための図である。FIG. 9 is a diagram for explaining the principle of focus detection.

【図10】位相差を相関演算により求める時の相関の取
り方を説明するための構成図である。
FIG. 10 is a configuration diagram for explaining how to take a correlation when a phase difference is obtained by a correlation operation.

【図11】カメラと被写体の相対移動による画像の横方
向の位置と各画像間の位相差との関係を示す波形図であ
る。
FIG. 11 is a waveform diagram showing a relationship between a horizontal position of an image due to a relative movement between a camera and a subject and a phase difference between the images.

【図12】位相差検出誤差を補正する方法を説明するた
めの特性図である。
FIG. 12 is a characteristic diagram for explaining a method of correcting a phase difference detection error.

【図13】従来の位相差検出方式の焦点検出装置を有す
る一眼レフカメラの構成図である。
FIG. 13 is a configuration diagram of a single-lens reflex camera having a conventional phase difference detection type focus detection device.

【図14】従来の焦点検出原理を説明するための構成図
である。
FIG. 14 is a configuration diagram for explaining a conventional focus detection principle.

【図15】従来の焦点検出原理を説明するための波形図
である。
FIG. 15 is a waveform chart for explaining a conventional focus detection principle.

【符号の説明】[Explanation of symbols]

1a 撮影レンズのフォーカス用レンズ群 1b 撮影レンズのフォーカス用レンズ群1b以外のレ
ンズ群 2 レンズ繰り出し機構 3 焦点検出用絞り 4 モータ 5 遮光板 6 モータ 9 CCD 12 デジタル信号処理部 13 システムコントロール部 14 CCDドライバ 24 操作スイッチ
1a Focusing lens group of photographing lens 1b Lens group other than focusing lens group 1b of photographing lens 2 Lens extension mechanism 3 Focus detection aperture 4 Motor 5 Shield plate 6 Motor 9 CCD 12 Digital signal processing unit 13 System control unit 14 CCD Driver 24 Operation switch

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 撮像面に結像された被写体の光学像を撮
像して画像信号を出力する撮像手段と、 上記光学像を瞳領域を通じて上記撮像面に結像する光学
系手段と、 上記瞳領域を複数の位置に移動させる移動手段と、 上記複数の位置においてそれぞれ撮像して得られる3つ
以上の画像信号の相関演算により複数の位相差を求め、
上記位相差に基づいて上記光学系手段のデフォーカス量
を求める演算手段と、 上記撮像手段の出力信号に応じて上記位相差を求める演
算式を変更する制御手段とを備えた焦点検出装置。
An imaging unit configured to capture an optical image of a subject formed on an imaging surface and output an image signal; an optical system configured to form the optical image on the imaging surface through a pupil region; Moving means for moving the region to a plurality of positions; and calculating a plurality of phase differences by correlation calculation of three or more image signals obtained by imaging at the plurality of positions,
A focus detection device, comprising: a calculation unit that calculates a defocus amount of the optical system unit based on the phase difference; and a control unit that changes a calculation formula that calculates the phase difference according to an output signal of the imaging unit.
【請求項2】 上記撮像手段の出力信号のS/Nを判定
する判定手段を設け、上記制御手段は、上記撮像手段の
出力信号のS/Nが悪いと判定されたとき、上記位相差
を求めるための画像信号の取り込み回数を増やすことを
特徴とする請求項1記載の焦点検出装置。
2. An apparatus according to claim 1, further comprising: a determination unit configured to determine an S / N of an output signal of the imaging unit, wherein the control unit determines the phase difference when the S / N of the output signal of the imaging unit is determined to be bad. 2. The focus detection device according to claim 1, wherein the number of times of acquiring the image signal to be obtained is increased.
【請求項3】 上記制御手段は、上記演算式を、上記撮
像手段の出力信号のS/Nにより変更することを特徴と
する請求項1記載の焦点検出装置。
3. The focus detection apparatus according to claim 1, wherein said control means changes said arithmetic expression according to S / N of an output signal of said imaging means.
【請求項4】 上記制御手段は、上記演算式を、撮像手
段の出力信号のS/Nが悪いときは、上記複数の位相差
の相加平均にすることを特徴とする請求項1記載の焦点
検出装置。
4. The apparatus according to claim 1, wherein said control means sets said arithmetic expression to an arithmetic mean of said plurality of phase differences when the S / N of an output signal of said imaging means is poor. Focus detection device.
【請求項5】 撮像面に結像された被写体の光学像を撮
像して画像信号を出力する撮像手順と、 上記光学像を上記撮像面に結像する光学系における瞳領
域を複数の位置に移動させる移動手順と、 上記複数の位置においてそれぞれ撮像して得られる3つ
以上の画像信号の相関演算により複数の位相差を求め、
上記位相差に基づいて上記光学系のデフォーカス量を求
める演算手順と、 上記撮像手順による出力信号に応じて上記位相差を求め
る演算式を変更する制御手順とを備えた焦点検出方法。
5. An imaging procedure for capturing an optical image of a subject formed on an imaging surface and outputting an image signal, and a pupil region in an optical system for forming the optical image on the imaging surface at a plurality of positions. A moving procedure for moving, and a plurality of phase differences are calculated by a correlation operation of three or more image signals obtained by imaging at the plurality of positions,
A focus detection method comprising: a calculation procedure for obtaining a defocus amount of the optical system based on the phase difference; and a control procedure for changing a calculation formula for obtaining the phase difference in accordance with an output signal from the imaging procedure.
【請求項6】 上記撮像手順による出力信号のS/Nを
判定する判定手順を設け、上記制御手順により上記撮像
手順による出力信号のS/Nが悪いと判定されたとき、
上記位相差を求めるための画像信号の取り込み回数を増
やすことを特徴とする請求項5記載の焦点検出方法。
6. A determination procedure for determining the S / N of an output signal according to the imaging procedure is provided, and when the S / N of the output signal according to the imaging procedure is determined to be poor by the control procedure,
6. The focus detection method according to claim 5, wherein the number of times of acquiring the image signal for obtaining the phase difference is increased.
【請求項7】 上記制御手順により上記演算式を、上記
撮像手順による出力信号のS/Nに応じて変更すること
を特徴とする請求項5記載の焦点検出方法。
7. The focus detection method according to claim 5, wherein the arithmetic expression is changed in accordance with the S / N of an output signal in the imaging procedure according to the control procedure.
【請求項8】 上記制御手順により上記演算式を、上記
撮像手順による出力信号のS/Nが悪いときは、上記複
数の位相差の相加平均にすることを特徴とする請求項5
記載の焦点検出方法。
8. The arithmetic procedure according to claim 5, wherein the arithmetic expression is an arithmetic average of the plurality of phase differences when the S / N of an output signal obtained by the imaging procedure is poor.
The focus detection method as described above.
【請求項9】 撮像面に結像された被写体の光学像を撮
像して画像信号を出力する撮像処理と、 上記光学像を上記撮像面に結像する光学系における瞳領
域を複数の位置に移動させる移動処理と、 上記複数の位置においてそれぞれ撮像して得られる3つ
以上の画像信号の位相差を相関演算により求め、上記位
相差に基づいて上記光学系のデフォーカス量を求める演
算処理と、 上記撮像処理による出力信号に応じて上記位相差を求め
る演算式を変更する制御処理とを実行するためのプログ
ラムを記憶したコンピュータ読み取り可能な記憶媒体。
9. An image pickup process for picking up an optical image of a subject formed on an image pickup surface and outputting an image signal, and pupil regions in an optical system for forming the optical image on the image pickup surface at a plurality of positions. A moving process of moving, and a calculating process of obtaining a phase difference between three or more image signals obtained by imaging at the plurality of positions by a correlation calculation, and calculating a defocus amount of the optical system based on the phase difference. A computer-readable storage medium storing a program for executing a control process of changing an arithmetic expression for obtaining the phase difference according to an output signal from the imaging process.
【請求項10】 上記撮像処理による出力信号のS/N
を判定する判定処理を設け、上記制御処理により上記撮
像処理による出力信号のS/Nが悪いと判定されたと
き、上記位相差を求めるための画像信号の取り込み回数
を増やすことを特徴とする請求項9記載のコンピュータ
読み取り可能な記憶媒体。
10. An S / N ratio of an output signal obtained by the imaging process.
A determination process for determining the phase difference, and when the control process determines that the S / N of the output signal by the imaging process is poor, increasing the number of times of acquiring the image signal for obtaining the phase difference. Item 10. A computer-readable storage medium according to item 9.
【請求項11】 上記制御処理により上記演算式を、上
記撮像処理による出力信号のS/Nに応じて変更するこ
とを特徴とする請求項9記載のコンピュータ読み取り可
能な記憶媒体。
11. The computer-readable storage medium according to claim 9, wherein the arithmetic expression is changed according to the S / N of an output signal by the imaging process by the control process.
【請求項12】 上記制御処理により上記演算式を、撮
像処理による出力信号のS/Nが悪いときは、上記複数
の位相差の相加平均にすることを特徴とする請求項9記
載のコンピュータ読み取り可能な記憶媒体。
12. The computer according to claim 9, wherein the arithmetic expression is set to an arithmetic mean of the plurality of phase differences when the S / N of an output signal obtained by the imaging process is poor due to the control process. A readable storage medium.
JP5783798A 1998-03-10 1998-03-10 Focus detecting device and its method and storage medium readable through computer Pending JPH11258490A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP5783798A JPH11258490A (en) 1998-03-10 1998-03-10 Focus detecting device and its method and storage medium readable through computer
US10/842,444 US7358999B2 (en) 1998-03-10 2004-05-11 Focus sensing apparatus, focus sensing method using phase-differential detection and computer-readable storage medium therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5783798A JPH11258490A (en) 1998-03-10 1998-03-10 Focus detecting device and its method and storage medium readable through computer

Publications (1)

Publication Number Publication Date
JPH11258490A true JPH11258490A (en) 1999-09-24

Family

ID=13067083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5783798A Pending JPH11258490A (en) 1998-03-10 1998-03-10 Focus detecting device and its method and storage medium readable through computer

Country Status (1)

Country Link
JP (1) JPH11258490A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271523A (en) * 2008-04-11 2009-11-19 Nikon Corp Focus detection device and image-capturing apparatus
JP2009543124A (en) * 2006-06-29 2009-12-03 イーストマン コダック カンパニー Autofocusing of still images and video images
JP2014146019A (en) * 2013-01-07 2014-08-14 Canon Inc Imaging apparatus and method for controlling imaging apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009543124A (en) * 2006-06-29 2009-12-03 イーストマン コダック カンパニー Autofocusing of still images and video images
JP2009271523A (en) * 2008-04-11 2009-11-19 Nikon Corp Focus detection device and image-capturing apparatus
JP2014146019A (en) * 2013-01-07 2014-08-14 Canon Inc Imaging apparatus and method for controlling imaging apparatus

Similar Documents

Publication Publication Date Title
JP4007716B2 (en) Imaging device
JP6263035B2 (en) Imaging device
US10419694B2 (en) Method and apparatus for imaging an object
EP2181349B1 (en) Image sensing apparatus
US7358999B2 (en) Focus sensing apparatus, focus sensing method using phase-differential detection and computer-readable storage medium therefor
US6819360B1 (en) Image pickup element and apparatus for focusing
US8259215B2 (en) Image pickup apparatus having focus control using phase difference detection
JP4323002B2 (en) Imaging device
EP2212731B1 (en) Image sensing apparatus
US8497919B2 (en) Imaging apparatus and control method thereof for controlling a display of an image and an imaging condition
JP2005092085A (en) Focus detecting method and focusing method, and focus detecting device and focusing device
JP5169541B2 (en) Imaging device
US9019389B2 (en) Image pickup apparatus that performs exposure calculation for close-up shooting, method of controlling the same, and storage medium
JPH11258492A (en) Focus detecting device and its method and storage medium readable through computer
JPH0943507A (en) Electric still camera and focusing control method thereof
JP2011087050A (en) Digital camera
JPH11258491A (en) Focus detecting device and its method and storage medium readable through computer
JPH11258489A (en) Focus detecting device and its method and storage medium readable through computer
JPH11142723A (en) Image pickup device
JP7145048B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM
JPH09181954A (en) Electronic still camera and method for focus-controlling the same
JPH11258490A (en) Focus detecting device and its method and storage medium readable through computer
JP4095630B2 (en) Imaging device
JP4086337B2 (en) Imaging device
JP3658063B2 (en) Imaging device