JPH0540036A - Focus detecting device - Google Patents

Focus detecting device

Info

Publication number
JPH0540036A
JPH0540036A JP3136859A JP13685991A JPH0540036A JP H0540036 A JPH0540036 A JP H0540036A JP 3136859 A JP3136859 A JP 3136859A JP 13685991 A JP13685991 A JP 13685991A JP H0540036 A JPH0540036 A JP H0540036A
Authority
JP
Japan
Prior art keywords
image
amount
image shift
correction
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3136859A
Other languages
Japanese (ja)
Other versions
JPH06100465B2 (en
Inventor
Takeshi Utagawa
健 歌川
Yosuke Kusaka
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP3136859A priority Critical patent/JPH06100465B2/en
Publication of JPH0540036A publication Critical patent/JPH0540036A/en
Publication of JPH06100465B2 publication Critical patent/JPH06100465B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To obtain a highly accurate focus detecting device, the optical adjustment of which can be performed easily and which is high in mass-productivity. CONSTITUTION:Photoelectron arrays 105 and 106 are arranged in parallel in a photoelectric conversion section 201. Images of the same object are formed on the arrays 105 and 106 by means of a focus detecting optical system. The image outputs of the arrays 105 and 106 are stored in a data memory means 203 in a microcomputer 203 after A/D conversion. An image deviation computing means 205 computes the relative deviation between both image outputs. A correction data storing means 207 stores correction data for correcting the output of the computing means 205. A correction computing means 206 corrects the correction data stored in the storing means 207, converts the corrected data into a defocusing amount (deviation between the object and a prescribed image formation of a photographing lens), and sends the defocusing amount to a display driving means 208. The driving means 208 displays the focus adjusted state based on the defocusing amount and drives the photographing lens to a focused position.

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、一対の光電素子アレイ
上にそれぞれ結像されたほぼ同一物体の光像の相対的変
位を検出する焦点検出装置に係わり、特に、カメラ等の
焦点検出装置や測距装置に使用される。 【0002】 【従来の技術】図1(a)は一般のカメラ等の焦点検出
装置の光学系を示すもので被写体100は撮影レンズ1
01によりフィールドレンズ102の近傍に結像され
る。この被写体100の一次像は第1、第2の再結像レ
ンズ103、104によりそれぞれ第1、第2の光電素
子アレイ105、106上に2次像として結像される。
このアレイ105、106上の2次像の相対的位置関係
がアレイのイメージ出力から検出される。 【0003】このような焦点検出を高精度に行う為に
は、光電素子アレイ105上に分布する光像の各点と光
電素子アレイ106上に分布する光像の対応する各点と
が、合焦時には互に相対的に完全に一致し、非合焦時に
は各対応する点とも非合焦量に応ずる同量だけずれてい
ることが必要である。もちろん、合焦時に対応する各点
が一定量ずれるように定めることもできる。 【0004】 【発明が解決しようとする課題】ところが、フィールド
レンズ102や再結像レンズ103、104等から成る
焦点検出光学系の収差や調整不足等の原因により、上記
条件が満たされず、例えば合焦時に図1(b)に示すよ
うに被写体100の中心点100aの像点107a、1
08aは、各アレイ105、106の同一位置(例えば
中心)に結像するが、周辺の点100bの像点107
b、108bは相対的にずれて結像される。 【0005】この為、点像107aと108aとに基づ
く焦点検出結果と点像107bと108bとに基づく焦
点検出結果とでは差異が生じ正しい焦点検出が不可能と
なる。このような各アレイとその上の光像との相対位置
の、アレイの場所に応じた差異(以下これを位置ずれと
称する。)を除去するには、収差の極めて少ない焦点検
出光学系を採用しかつ光学的調整を極めて入念に行なわ
なければならず、これは焦点検出光学系のコストの上昇
及び量産性の著しい低下を招来する。 【0006】以上のような問題は図1の瞳分割式焦点検
出装置に限らず、同一物体に関する一対の光像を光電検
出しその相対位置から測距又は焦点検出する装置におい
て、光電的像変位検出を行う際に共通するものである。
本発明の目的は奥行きのある被写体に対しても信頼性の
ある焦点調節が可能な焦点検出装置(測距装置)を提供
することである。 【0007】 【実施例】以下、本発明の一実施例を図面を参照して説
明する。図2において、光電変換部201にはそれぞれ
CCD等のイメージセンサーから成る一対の光電素子ア
レイ105、106が並置されている。この各光電素子
アレイには図1と同様の焦点検出光学系により同一被写
体の像が結像される。アレイ105からのイメージ出力
a1…aNは順次時系列的にA/Dコンバータ202に
よりA/D変換され、マイクロコンピュータ203内の
データメモリ手段204に記憶され、全く同様にアレイ
106からのイメージ出力b1…bNもA/Dコンバー
タ202を介してデータメモリ手段204に記憶され
る。 【0008】像ずれ演算手段205は前記一対のイメー
ジ出力a1…aN、b1…bNに基づき両イメージ出力
の相対的ずれ量、即ち、一対のアレイ上の光像の相対的
ずれ量を演算する。もちろん、像ずれ演算に用いるデー
タは必ずしもアレイの直接のイメージ出力である必要は
なく,これらの出力を適当にフィルタリング処理したり
サンプリングしたイメージ出力であってもよい。 【0009】補正データ記憶手段207は、上記像ずれ
演算手段205の出力を補正する補正データを記憶して
いる。この補正データは以下のように定められている。
即ち、焦点検出装置の製造の際に焦点検出光学系の一応
の調整が済んだ後に、合焦状態時におけるアレイ10
5、106上の光像の対応する各像点毎の相対的位置ず
れ量を測定しこのアレイ上の各像点毎の相対的位置ずれ
量を上記補正量として記憶手段207に記憶する。 【0010】具体的な一例を述べると、図1(b)に示
すようにアレイ105、106の光電素子の配列方向の
位置をxとし、各アレイ105、106の中心xoとし
た時、アレイ105、106上の光像の対応する像点が
アレイの中心xoにおいて合焦時に合致するように調整
することは比較的容易である。そこでこの様に調整する
と各点の相対的位置ずれ量は、例えば図3に示すように
合焦点には実線に示す特性S(x)を、非合焦時には特
性Z(x)をそれぞれ持つ。 【0011】ここで合焦時の特性S(x)は上記調整に
よりアレイ中心xoで相対的位置ずれ量が零でありここ
からアレイ周辺に向かって一次関数的に大きくなること
を示し、非合焦点の特性Z(x)はその非合焦の程度に
応じた量ZTだけ、特性S(x)から平行移動されたも
のとなっている。この合焦点の位置ずれS(x)が補正
データ記憶手段207に記憶される。 【0012】この記憶の仕方としてアレイの場所x毎の
S(x)の値をすべて記憶することは記憶データの数が
多くなり好ましくない。このため、図3のように位置ず
れ量S(x)がほぼ原点xoを通る直線で近似できる時
には、この直線の傾きのみによりこの位置ずれ量S
(x)を特定出来るので、記憶手段207にはこの傾き
を表すデータを記憶すればよい。この場合、補正データ
記憶手段207は極めて簡単化でき、図4(a)に示す
ようにポテンショメータ401の値を前記特性直線S
(x)の傾きを表すように調整し、このポテンショメー
タ401の出力をA/Dコンバータ402を介してマイ
コン203に入力する構成とすることができる。 【0013】また補正データ記憶手段207として図4
(a)の如き上記傾きを記憶したROMを用いてもよ
い。このROMは、出力端子P1〜P8の各々も電源ラ
インVccとアースラインEtとに夫々接続していたも
のと、記憶すべきデータに応じて各出力端子P1〜P8
が電源ラインとアースラインとの一方のみに接続するよ
うに処理したものである。また、補正データ記憶手段2
07としてマイコン203内のROMを用いることもで
きる。 【0014】補正データS(x)が直線でなく図5に示
すように曲線となる場合にはこの曲線をn次式で近似し
て、これを(n+1)個の数値で特定するようにすれば
よい。あるいは、数個の所定の位置xiに関する補正デ
ータを記憶しておき、その中間の位置の補正データが必
要であれば、例えばラグランジエ補間を使用してもよ
い。 【0015】再び図2に戻って、補正演算手段206は
像ずれ演算手段205の出力Z(x)を補正データ記憶
手段207の補正データS(x)で補正し、具体的には
Z(x)−S(x)の演算を行って、補正された像ずれ
量ZTを算出する。この補正済像ずれ量ZTは、補正演
算手段206でデフォーカス量(被写体像と撮影レンズ
の所定結像間との間のずれ量)に換算され、表示駆動手
段208に送られる。この手段208はデフォーカス量
に基づき焦点調節状態を表示しまた撮影レンズを合焦位
置に駆動する。 【0016】この作用を以下に述べる。一対のアレイ1
05、106からのイメージ出力a1…aN、b1…b
NはA/D変換後にデータメモリ手段204に記憶され
る。データメモリ手段204に記憶されたイメージ出力
a1…aNを図6(a)に例示する。像ずれ演算手段2
05は、このイメージ出力を図6(b)又は(c)に示
すように例えば5個の領域X−2、X−1、X0、X
1、X2に分割し、全く同様にイメージ出力b1…bN
をも5個の領域X−2、X−1、X0、X1、X2に分
割し、各部分領域X1のイメージ出力から部分領域Xi
の中心xiに関する部分像ずれ量Z(xi)を個々に演
算する。 【0017】補正演算手段206は補正データ記憶手段
207の内容から場所xiの部分補正量S(xi)を算
出する。この部分補正量S(xi)は図3に示すように
関数S(x)にx=xiを代入したものである。この
後、補正演算手段206は部分像ずれ量Z(xi)から
部分補正量S(xi)を減じて、補正済部分像ずれ量Z
T(xi)を得る。即ち、ZT(xi)=Z(xi)−
S(xi)を得る。 【0018】こうして、補正演算手段206は各部分領
域Xiに関する補正済部分像ずれ量ZT(xi)を求
め、例えば、これらの値の単純平均ΣZT(xi)/5
を最終像ずれ量として算出して、これをデフォーカス量
に換算し表示駆動手段208に送出する。尚、各部分領
域Xiに関する部分像ずれ量ZT(xi)から最終像ず
れ量ZTを求める方法はその目的に応じて種々考えられ
るが、以下にいくつかの例を示す。 (A1) 上述の如く補正済部分像ずれ量ZT(xi)
の平均値を最終像ずれ量ZTとする。 (A2) 補正済部分像ずれ量ZT(xi)の最大と最
小のものを除いた残りの補正済部分像ずれ量の平均値を
最終像ずれ量ZTとする。 (A3) 補正済部分像ずれ量ZT(xi)を大きい順
にならべた時の中央のものを最終像ずれ量ZTとする。 (A4) 後述する情報量E(x)が最大の部分領域に
関する補正済部分像ずれ量ZTを最終像ずれ量ZTとす
る。 (A5) 上記情報量が相対的に大きい複数の部分領域
に関する補正済部分像ずれ量ZT(xi)の平均値を又
は情報量に応じて加重加算した平均値を最終像ずれ量Z
Tとする。 【0019】尚、各部分領域Xiのデータから部分像ず
れ演算を行うアルゴリズムとしては、例えばイメージ出
力をフーリエ変換し位相を比較する手段(特開昭54−
104859号公報)や相関演算を行い最大相関を与え
るシフト量を求める手段(特開昭57−45510号公
報)を用いることが可能である。部分領域Xiに含まれ
る光電変換素子数の少ない時は上記フーリエ変換法を用
いる方が精度がよい。 【0020】アレイ上に奥行きのある被写体が結像され
ている場合、アレイの全領域のイメージ出力を用いて像
ずれ量を算出すると、奥行き被写体のどの部分に自動合
焦されるかは全く不明となる。このような奥行き被写体
に関する問題は、上述のように部分領域Xi毎の部分像
ずれ量Z(xi)を演算することにより以下の如く解決
できる。 (B1) 複数の部分像ずれ量Z(xi)のうちから最
も像ずれ量の小さいものを選択し、これに基づき最終像
ずれ量ZTを求めれば、奥行き被写体の最も近い部分に
ついてのデフォーカス量を得ることができ、逆に部分像
ずれ量の最も大きいものの選択により遠方部分について
のデフォーカス量を、更に中間のものの選択により中間
距離の部分についてのデフォーカス量を得ることができ
る。 (B2) 複数の部分像ずれ量Z(xi)のうちでほぼ
等しい値をとるものがあれば、その値を選択しこれに基
づき最終像ずれ量ZTを求めれば、比較的広い領域を占
める被写体についてのデフォーカス量を得ることができ
る。 (B3) 後述する情報量の最も大きい部分領域Xiで
の部分像ずれ量を選択しこれに基づき最終像ずれ量ZT
を求めれば、焦点検出の為の情報が最も多い被写体、一
般的にはコントラストの最も良い被写体についてのデフ
ォーカス量を得ることができる。 【0021】次に上述のように部分像ずれ量を算出する
場合の具体例をフローチャートを用いて説明する。図7
においてステップで各部分領域Xiにおける部分像ず
れ量Z(xi)と情報量E(xi)とを像ずれ演算手段
205によって算出する。ここで情報量E(xi)とは
対応する部分像ずれ量Z(xi)の信頼度を表すもの
で、この情報量の値が大きい程、対応する部分像ずれ量
の精度が高くなる。具体的には、情報量としては像ずれ
演算がフーリエ変換後の位相比較により行われるのであ
るならば、フーリエ変換後の振幅に関連した値(特開昭
55−98710号公報のr1、r1' 、r2、r2'
が該当する。)を用いることができ、また像ずれ演算が
相関法である場合には後述の自己相関値Wmを用いるこ
とができる。 【0022】ステップにおいて、上記各部分領域Xi
の情報量E(xi)を所定閾値Ethと比較し、この閾
値よりも大きい値の情報量E(xj)の部分領域Xiを
選択する。ステップにおいて、補正データ記憶手段2
07の内容S(x)から上記選択された部分領域xjに
おける部分補正量S(xj)を算出すると共に、選択部
分領域Xjでの部分像ずれ量Z(xj)を部分像ずれ量
Z(xi)から選択する。 【0023】ステップにおいて選択領域Xjに関する
補正された部分像ずれ量ZT(xj)をZT(xj)=
Z(xj)−S(xj)から求める。ステップにおい
て、ステップで求めた補正済部分像ずれ量ZT(x
j)のバラツキが所定値ΔZより小さいか否か、具体的
には、補正済部分像ずれ量ZT(xj)のうちの最大値
と最小値との差が所定値より小さいか否かを判別し、小
である時、被写体に奥行きがないとしてステップへ移
り、小でない時、奥行きある被写体と判定しステップ
へ移る。 【0024】ステップでは、例えば前記(A1)〜
(A5)のいずれかの処理により最終ずれ量ZTを求め
る。ステップでは、例えば上述の(B1)〜(B3)
のいずれかの処理で最終像ずれ量ZTを求める。以上の
実施例では、一対のイメージ出力から複数の部分像ずれ
量を算出する例であったが、次に単一の像ずれ量を算出
する第2実施例を説明する。 【0025】図8(a)は図2のデータメモリ手段20
4に記憶される一対のデータ列A1…AN、B1…BN
の一方を示す。このデータ列としては、前述の如く光電
素子アレイのイメージ出力そのものでも、またそれをフ
ィルタリングやサンプリング処理したイメージ出力であ
ってもよい。図2において、像ずれ演算手段205はデ
ータメモリ手段204に記憶された一対のデータ列A1
…AN、B1…BNを用い、一方のデータ列A1…AN
を他方のデータ列B1…BNに対して所定量ずつシフト
しながら、各シフト量L毎の相関量C(L)を求める。 【0026】即ち、 【0027】 【数1】 【0028】この関数C(L)が最小となるシフト量L
mを像ずれ量として求める。このように相関演算により
求めた像ずれ量Lmは上述のような光学系の調整不足等
に起因する誤差を含んでいるので、この像ずれ量Lmを
補正データS(x)で補正しなければならない。しかし
ながら、この像ずれ量はデータ列A1…AN、B1…B
Nの全領域から算出しているので、補正量として補正デ
ータS(x)のどの領域を用いるかが問題となる。 【0029】この問題は、次のように解決される。デー
タ列A1…AN、B1…BNは、そのどの部分も上記相
関量C(L)に等しく寄与しているのでなく、図8
(a)に示した如くデータ列の変化の激しい部分Yが大
きく寄与し変化のゆるやかな部分は寄与が小さい。即ち
各部分のコントラストの大小に依存している。従ってデ
ータ列A1…AN、B1…BNの場所x毎の上記寄与の
程度(以下寄与度と称する。)を求め、この場所に応じ
た寄与度補正データS(x)とから補正量を求めればよ
い。この寄与度Wmは、例えばデータ列の隣接するデー
タの差分から求め得る。 【0030】 即ち、Wm=|Am−Am+1|又は|Bm−Bm+1|。
この値Wmを図8(b)に示す。もちろんWmとして|
Am−Am+1|+|Bm−Bm+1|を用いることもでき
る。補正量STは、 【0031】 【数2】 【0032】ここでSmは、x=mとしたときのs
(x)である。従って、補正済像ずれ量ZTは次式より
求まる。ZT=Lm−ST尚、第1光電素子アレイとそ
れ上の光像との相対位置と、第2光電素子アレイとそれ
上の光像との相対位置との間の場所に応じた位置ずれ量
が著しく大きい場合には、補正データS(x)により像
ずれ量を高精度で補正することは困難となることがあ
る。そこで、第1及び第2光電素子アレイの光電素子の
ピッチを場所に応じて変化させることにより上記位置ず
れ量を予め或る程度補正し、それでも残存した位置ずれ
量を補正データとして記憶するようにすることが望まし
い。 【0033】 【発明の効果】以上の説明から明らかなように、本発明
によると、光学系の調整不足等の原因により第1光電素
子アレイとそれ上の光像との相対位置と、第2光電素子
アレイとそれ上の光像との相対位置との場所に応じて生
じた位置ずれに関連した補正データを記憶しておき、こ
の補正データにより像ずれ量を補正するようにしたの
で、光電的像変位装置の光学系の入念な微調整が不要と
なり量座性を大幅に向上できる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a focus detecting device for detecting relative displacement of optical images of substantially the same object formed on a pair of photoelectric element arrays. In particular, it is used for focus detection devices such as cameras and distance measuring devices. 2. Description of the Related Art FIG. 1A shows an optical system of a focus detecting device such as a general camera. A subject 100 is a taking lens 1
By 01, an image is formed in the vicinity of the field lens 102. The primary image of the subject 100 is formed as a secondary image on the first and second photoelectric element arrays 105 and 106 by the first and second re-imaging lenses 103 and 104, respectively.
The relative positional relationship of the secondary images on the arrays 105 and 106 is detected from the image output of the arrays. In order to perform such focus detection with high accuracy, each point of the light image distributed on the photoelectric element array 105 and each corresponding point of the light image distributed on the photoelectric element array 106 are combined. It is necessary that they are relatively completely coincident with each other at the time of focusing and that the corresponding points are deviated by the same amount according to the amount of non-focusing when they are out of focus. Of course, it is also possible to determine that the corresponding points at the time of focusing deviate by a certain amount. However, the above condition is not satisfied due to aberrations or insufficient adjustment of the focus detection optical system including the field lens 102 and the re-imaging lenses 103 and 104. When focused, as shown in FIG. 1B, the image points 107a, 1a of the center point 100a of the subject 100
08a forms an image at the same position (for example, the center) of each of the arrays 105 and 106, but the image point 107 of the peripheral point 100b.
b and 108b are imaged relatively displaced. Therefore, there is a difference between the focus detection result based on the point images 107a and 108a and the focus detection result based on the point images 107b and 108b, and correct focus detection cannot be performed. In order to remove such a difference in the relative position between each array and the optical image on it (hereinafter referred to as a position shift) depending on the position of the array, a focus detection optical system with extremely small aberration is adopted. In addition, the optical adjustment must be performed very carefully, which leads to an increase in the cost of the focus detection optical system and a significant decrease in mass productivity. The above-mentioned problems are not limited to the pupil division type focus detection device of FIG. 1, but in a device for photoelectrically detecting a pair of optical images of the same object and performing distance measurement or focus detection from their relative positions, photoelectric image displacement. This is common when performing detection.
An object of the present invention is to provide a focus detection device (distance measuring device) capable of reliable focus adjustment even for a subject having a depth. An embodiment of the present invention will be described below with reference to the drawings. In FIG. 2, a pair of photoelectric element arrays 105 and 106 each composed of an image sensor such as a CCD are juxtaposed in the photoelectric conversion unit 201. An image of the same subject is formed on each photoelectric element array by the same focus detection optical system as in FIG. The image outputs a1 ... aN from the array 105 are A / D converted sequentially by the A / D converter 202 in time series and stored in the data memory means 204 in the microcomputer 203. Similarly, the image outputs b1 from the array 106 are exactly the same. ... bN is also stored in the data memory means 204 via the A / D converter 202. The image shift calculation means 205 calculates the relative shift amount between both image outputs, that is, the relative shift amount between the light images on the pair of arrays, based on the pair of image outputs a1 ... aN, b1 ... bN. Of course, the data used for the image shift calculation need not necessarily be the direct image output of the array, but may be the image output obtained by appropriately filtering or sampling these outputs. The correction data storage means 207 stores correction data for correcting the output of the image shift calculation means 205. This correction data is defined as follows.
That is, after the focus detection optical system is temporarily adjusted during the manufacture of the focus detection apparatus, the array 10 in the focused state is obtained.
5, the relative positional deviation amount of each corresponding image point of the optical image on the optical images 5 and 106 is measured, and the relative positional deviation amount of each image point on this array is stored in the storage means 207 as the correction amount. As a specific example, as shown in FIG. 1B, when the position in the array direction of the photoelectric elements of the arrays 105 and 106 is x and the center xo of each array 105 and 106 is the array xo, the array 105 is , 106, it is relatively easy to adjust so that the corresponding image points of the light image at the center xo of the array will coincide when in focus. Therefore, when adjusted in this way, the relative positional deviation amount of each point has the characteristic S (x) indicated by the solid line at the in-focus point and the characteristic Z (x) at the out-of-focus point as shown in FIG. 3, for example. Here, the characteristic S (x) at the time of focusing shows that the relative displacement amount is zero at the array center xo by the above adjustment and increases linearly from here to the periphery of the array. The characteristic Z (x) of the focus is translated from the characteristic S (x) by an amount ZT according to the degree of out-of-focus. The position shift S (x) of the in-focus point is stored in the correction data storage unit 207. It is not preferable to store all the values of S (x) for each location x of the array as a method of this storage because the number of stored data increases. Therefore, when the positional shift amount S (x) can be approximated by a straight line passing through the origin xo as shown in FIG. 3, the positional shift amount S (x) can be obtained only by the inclination of the straight line.
Since (x) can be specified, the storage unit 207 may store data indicating this inclination. In this case, the correction data storage means 207 can be extremely simplified, and the value of the potentiometer 401 can be changed to the characteristic straight line S as shown in FIG.
The output of the potentiometer 401 can be input to the microcomputer 203 via the A / D converter 402 by adjusting the inclination of (x). The correction data storage means 207 shown in FIG.
You may use ROM like the above (a) which memorize | stored the said inclination. In this ROM, the output terminals P1 to P8 are also connected to the power supply line Vcc and the ground line Et, respectively, and the output terminals P1 to P8 are set according to the data to be stored.
Is processed so that it is connected to only one of the power supply line and the ground line. Further, the correction data storage means 2
A ROM in the microcomputer 203 can be used as 07. When the correction data S (x) is not a straight line but a curved line as shown in FIG. 5, this curved line is approximated by an n-order equation and specified by (n + 1) numerical values. Good. Alternatively, for example, Lagrangian interpolation may be used if correction data for several predetermined positions xi are stored and correction data for intermediate positions are required. Returning to FIG. 2 again, the correction calculation unit 206 corrects the output Z (x) of the image shift calculation unit 205 with the correction data S (x) of the correction data storage unit 207, and specifically, Z (x ) -S (x) is calculated to calculate the corrected image shift amount ZT. The corrected image shift amount ZT is converted to a defocus amount (a shift amount between the subject image and a predetermined image formation of the photographing lens) by the correction calculation unit 206 and sent to the display drive unit 208. This means 208 displays the focus adjustment state based on the defocus amount and drives the taking lens to the in-focus position. This operation will be described below. A pair of arrays 1
Image output from 05 and 106 a1 ... aN, b1 ... b
N is stored in the data memory means 204 after A / D conversion. Image outputs a1 ... aN stored in the data memory means 204 are illustrated in FIG. 6 (a). Image shift calculation means 2
Reference numeral 05 designates this image output as shown in FIG. 6 (b) or (c), for example, five areas X-2, X-1, X0, X.
1 and X2, and image output b1 ... bN in exactly the same way
Is also divided into five regions X-2, X-1, X0, X1, and X2, and the partial output Xi is obtained from the image output of each partial region X1.
The partial image shift amount Z (xi) with respect to the center xi of is calculated individually. The correction calculation means 206 calculates the partial correction amount S (xi) at the location xi from the contents of the correction data storage means 207. This partial correction amount S (xi) is obtained by substituting x = xi into the function S (x) as shown in FIG. Thereafter, the correction calculation unit 206 subtracts the partial correction amount S (xi) from the partial image shift amount Z (xi) to obtain the corrected partial image shift amount Z.
Get T (xi). That is, ZT (xi) = Z (xi)-
Get S (xi). In this way, the correction calculation means 206 obtains the corrected partial image shift amount ZT (xi) for each partial region Xi, and, for example, the simple average ΣZT (xi) / 5 of these values.
Is calculated as the final image shift amount, converted into a defocus amount, and sent to the display drive unit 208. There are various methods of obtaining the final image shift amount ZT from the partial image shift amount ZT (xi) for each partial region Xi, depending on the purpose, but some examples will be shown below. (A1) Corrected partial image shift amount ZT (xi) as described above
The average value of is the final image shift amount ZT. (A2) The average value of the remaining corrected partial image shift amounts excluding the maximum and minimum corrected partial image shift amounts ZT (xi) is set as the final image shift amount ZT. (A3) When the corrected partial image shift amounts ZT (xi) are arranged in descending order, the central one is set as the final image shift amount ZT. (A4) The corrected partial image shift amount ZT related to the partial region having the maximum information amount E (x) described later is set as the final image shift amount ZT. (A5) The final image shift amount Z is obtained by adding the average value of the corrected partial image shift amounts ZT (xi) regarding a plurality of partial regions having a relatively large amount of information or an average value obtained by weighted addition according to the information amount.
Let T. As an algorithm for calculating the partial image shift from the data of each partial region Xi, for example, means for performing Fourier transform on the image output and comparing the phases (Japanese Patent Laid-Open No. 54-54).
(JP-A-57-45510) or a means for calculating a shift amount that gives a maximum correlation by performing a correlation calculation can be used. When the number of photoelectric conversion elements included in the partial region Xi is small, it is more accurate to use the Fourier transform method. When a deep subject is imaged on the array and the image shift amount is calculated using the image output of the entire area of the array, it is completely unknown which part of the depth subject is automatically focused. Becomes The problem regarding such a depth subject can be solved as follows by calculating the partial image shift amount Z (xi) for each partial region Xi as described above. (B1) If the smallest image shift amount is selected from the plurality of partial image shift amounts Z (xi) and the final image shift amount ZT is obtained based on this, the defocus amount for the closest portion of the depth subject is calculated. On the contrary, by selecting the one having the largest partial image shift amount, the defocus amount for the distant portion can be obtained, and by selecting the intermediate one, the defocus amount for the intermediate distance portion can be obtained. (B2) If some of the plurality of partial image shift amounts Z (xi) have almost the same value, the value is selected, and if the final image shift amount ZT is obtained based on this value, a subject occupying a relatively wide area can be obtained. Can be obtained. (B3) The partial image shift amount in the partial area Xi having the largest information amount described later is selected, and the final image shift amount ZT is selected based on this.
Is obtained, it is possible to obtain the defocus amount for the subject having the most information for focus detection, generally, the subject having the highest contrast. Next, a specific example of calculating the partial image shift amount as described above will be described with reference to a flowchart. Figure 7
In step, the image shift calculation means 205 calculates the partial image shift amount Z (xi) and the information amount E (xi) in each partial region Xi. Here, the information amount E (xi) represents the reliability of the corresponding partial image shift amount Z (xi). The larger the value of this information amount, the higher the accuracy of the corresponding partial image shift amount. Specifically, if the image shift calculation is performed by the phase comparison after the Fourier transform as the information amount, the values related to the amplitude after the Fourier transform (r1, r1 ′ in JP-A-55-98710). , R2, r2 '
Is applicable. ) Can be used, and when the image shift calculation is a correlation method, an autocorrelation value Wm described later can be used. In the step, each of the partial areas Xi
Of the information amount E (xi) is compared with a predetermined threshold value Eth, and the partial area Xi of the information amount E (xj) having a value larger than the threshold value is selected. In step, correction data storage means 2
The partial correction amount S (xj) in the selected partial area xj is calculated from the content S (x) of 07, and the partial image deviation amount Z (xj) in the selected partial area Xj is calculated as the partial image deviation amount Z (xi. ) To choose from. In step, the corrected partial image shift amount ZT (xj) for the selected area Xj is set to ZT (xj) =
It is calculated from Z (xj) -S (xj). In step, the corrected partial image shift amount ZT (x
j) whether the variation is smaller than a predetermined value ΔZ, specifically, whether the difference between the maximum value and the minimum value of the corrected partial image displacement amount ZT (xj) is smaller than a predetermined value. If it is small, the process proceeds to the step because the subject has no depth, and if it is not small, the subject is determined to have the depth and the process proceeds to step. In the step, for example, the above (A1)-
The final displacement amount ZT is obtained by any of the processes in (A5). In the step, for example, the above (B1) to (B3)
The final image shift amount ZT is obtained by any one of the processes. In the above embodiments, a plurality of partial image shift amounts are calculated from a pair of image outputs, but a second embodiment for calculating a single image shift amount will be described next. FIG. 8A shows the data memory means 20 of FIG.
A pair of data strings A1 ... AN, B1 ... BN stored in No. 4
Shows one of. This data string may be the image output itself of the photoelectric element array as described above, or the image output obtained by filtering or sampling it. In FIG. 2, the image shift calculation unit 205 includes a pair of data strings A1 stored in the data memory unit 204.
... AN, B1 ... BN, and one data string A1 ... AN
While shifting the other data string B1 ... BN by a predetermined amount, the correlation amount C (L) for each shift amount L is obtained. That is, ## EQU1 ## The shift amount L that minimizes this function C (L)
m is obtained as the image shift amount. Since the image shift amount Lm thus obtained by the correlation calculation includes an error caused by insufficient adjustment of the optical system as described above, the image shift amount Lm must be corrected by the correction data S (x). I won't. However, this image shift amount is determined by the data strings A1 ... AN, B1 ... B.
Since the calculation is performed from all N areas, there is a problem in which area of the correction data S (x) is used as the correction amount. This problem is solved as follows. The data strings A1 ... AN, B1 ... BN do not all contribute equally to the above-mentioned correlation amount C (L), and FIG.
As shown in (a), the portion Y in which the data string changes drastically contributes greatly, and the portion in which the change changes gradually makes little contribution. That is, it depends on the magnitude of the contrast of each part. Therefore, if the degree of the above contribution (hereinafter referred to as contribution degree) for each location x of the data strings A1 ... AN, B1 ... BN is obtained, and the correction amount is obtained from the contribution degree correction data S (x) corresponding to this location. Good. The contribution Wm can be obtained, for example, from the difference between adjacent data in the data string. That is, Wm = | Am−Am + 1 | or | Bm−Bm + 1 |.
This value Wm is shown in FIG. Of course as Wm |
It is also possible to use Am-Am + 1 | + | Bm-Bm + 1 |. The correction amount ST is as follows: Here, Sm is s when x = m
(X). Therefore, the corrected image shift amount ZT is obtained from the following equation. ZT = Lm-ST It should be noted that the amount of positional deviation according to the location between the relative position of the first photoelectric element array and the optical image on it and the relative position of the second photoelectric element array and the optical image on it. When is extremely large, it may be difficult to correct the image shift amount with high accuracy using the correction data S (x). Therefore, the positional deviation amount is corrected to some extent in advance by changing the pitch of the photoelectric elements of the first and second photoelectric element arrays depending on the location, and the remaining positional deviation amount is stored as correction data. It is desirable to do. As is apparent from the above description, according to the present invention, the relative position between the first photoelectric element array and the optical image thereon due to insufficient adjustment of the optical system and the like, Since the correction data relating to the positional deviation caused according to the position of the relative position between the photoelectric element array and the optical image on the photoelectric element array is stored, and the image deviation amount is corrected by this correction data, the photoelectric deviation is corrected. The fine adjustment of the optical system of the dynamic image displacing device is not necessary, and the volume balance can be greatly improved.

【図面の簡単な説明】 【図1】(a)は一般的な焦点検出光学系と光電素子ア
レイとの関係を示す光学図。 (b)は光電素子上の光像位置を示す正面図。 【図2】本発明の一実施例を示すブロック図。 【図3】相対的位置ずれ量の一例を示すグラフ。 【図4】(a)及び(b)は補正データ記憶手段の具体
的構成例を示す回路図。 【図5】相対的位置ずれ量の別の例を示すグラフ。 【図6】(a)はイメージ出力の一例を示すグラフ。 (b)及び(c)はイメージ出力を複数の領域に分割す
る様子を示す図。 【図7】第1実施例の具体的な作用を示すフローチャー
ト。 【図8】(a)はイメージ出力の別の例を示すグラフ。 (b)はイメージ出力の変化の激しさを示すグラフであ
る。 【主要部分の符号の説明】 105、106…光電素子アレイ 205…像ずれ演算手段 206…補正演算手段 207…補正データ記憶手段
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1A is an optical diagram showing a relationship between a general focus detection optical system and a photoelectric element array. FIG. 3B is a front view showing an optical image position on the photoelectric element. FIG. 2 is a block diagram showing an embodiment of the present invention. FIG. 3 is a graph showing an example of a relative positional deviation amount. 4A and 4B are circuit diagrams showing a specific configuration example of a correction data storage unit. FIG. 5 is a graph showing another example of the relative positional deviation amount. FIG. 6A is a graph showing an example of image output. FIGS. 9B and 9C are diagrams showing how the image output is divided into a plurality of areas. FIG. 7 is a flowchart showing a specific operation of the first embodiment. FIG. 8A is a graph showing another example of image output. (B) is a graph showing the intensity of change in image output. [Explanation of Symbols of Main Parts] 105, 106 ... Photoelectric element array 205 ... Image shift calculating means 206 ... Correction calculating means 207 ... Correction data storing means

─────────────────────────────────────────────────────
【手続補正書】 【提出日】平成3年7月3日 【手続補正1】 【補正対象書類名】明細書 【補正対象項目名】特許請求の範囲 【補正方法】変更 【補正内容】 【特許請求の範囲】 (1) 被写体の複数の異なる領域についてそれぞれ視差
を有する2像を形成し、それぞれの2像に関する光電出
力から該複数の領域に関する複数の像ずれ量を算出する
焦点検出装置において、 前記被写体の奥行きを判定する判定手段を有し、 前記奥行き判定手段は、前記被写体における前記複数の
異なる領域に関する前記複数の像ずれ量に関する量に基
づいて前記被写体の奥行きの有無を判定すると共に、該
奥行きの判定結果に基づいて前記複数の像ずれ量に関す
る量から1つの焦点検出出力を作成することを特徴とす
る焦点検出装置。 (2) 前記奥行き判定手段は、前記複数の像ずれ量に関
する量の大きさの差が所定値より大きいか小さいかを比
較して奥行きの有無を判定することを特徴とする特許請
求の範囲第(1)項記載の焦点検出装置。 (3) 前記奥行き判定手段は、奥行きの無い場合には前
記複数の像ずれ量に関する量から一つの焦点検出出力を
作成する第一処理部と、奥行きの有る場合には前記複数
の像ずれ量に関する量から前記第一処理部とことなる処
理により1つの焦点検出出力を作成する第二処理部とを
含むことを特徴とする特許請求の範囲第(1)項記載の焦
点検出装置。 【手続補正2】 【補正対象書類名】明細書 【補正対象項目名】0003 【補正方法】変更 【補正内容】 【0003】この検出された2次像の相対的位置関係か
ら焦点検出を行う。 【手続補正3】 【補正対象書類名】明細書 【補正対象項目名】0004 【補正方法】変更 【補正内容】 【0004】 【発明が解決しようとする課題】このようにして焦点検
出を行う場合、前記第1、第2の光電素子アレイ上に形
成された光像が奥行きを持つ被写体であった場合には、
相対的位置関係の演算が不能になるもしくは誤った結果
を導くことになり、焦点検出が不能もしくは誤動作をす
るという問題を生じていた。 【手続補正4】 【補正対象書類名】明細書 【補正対象項目名】0005 【補正方法】削除 【手続補正5】 【補正対象書類名】明細書 【補正対象項目名】0006 【補正方法】変更 【補正内容】 【0006】以上のような問題は図1の瞳分割式焦点検
出装置に限らず、同一物体に関する一対の光像を光電検
出しその相対位置から測距又は焦点検出する装置におい
て、光電的像変位検出を行う際に共通するものである。
本発明の目的は奥行きのある被写体に対しても信頼性の
ある焦点調節が可能な焦点検出装置(測距装置)を提供
することである。この目的を達成するために本発明で
は、光電素子アレイ上の光像に関して相対的位置関係を
演算する領域を複数の領域に分割し、こうして分割され
た各領域の光像に対してそれぞれ前記相対的位置関係を
求める演算を行って複数の像ずれ量(部分像ずれ量)に
関する量を算出し、この複数の像ずれ量に関する量から
被写体の奥行きを検出して奥行きの有無を判断し、この
奥行き判定の結果に基づいて1つの焦点検出出力を作成
するようにしている。なお、この奥行き判定は像ずれ量
算出の段階で行うことも出来るが、複数の部分像ずれ量
をそれぞれ複数のデフォーカス量に換算してから奥行き
判定をするようにしてもよい。 【手続補正6】 【補正対象書類名】明細書 【補正対象項目名】0015 【補正方法】変更 【補正内容】 【0015】再び図2に戻って、補正演算手段206は
像ずれ演算手段205の出力Z(x)を補正データ記憶
手段207の補正データS(x)で補正し、具体的には
Z(x)−S(x)の演算を行って、補正された像ずれ
量ZTを算出する。この補正済像ずれ量ZTは、補正演
算手段206でデフォーカス量(被写体像と撮影レンズ
の所定結像面との間のずれ量)に換算され、表示駆動手
段208に送られる。この手段208はデフォーカス量
に基づき焦点調節状態を表示しまた撮影レンズを合焦位
置に駆動する。 【手続補正7】 【補正対象書類名】明細書 【補正対象項目名】0024 【補正方法】変更 【補正内容】 【0024】ステップでは、例えば前記(A1)〜
(A5)のいずれかの処理により最終ずれ量ZTを求め
る。ステップでは、例えば上述の(B1)〜(B3)
のいずれかの処理で最終像ずれ量ZTを求める。この最
終像ずれ量をデフォーカス量に換算して表示、レンズ駆
動が行われる。なお、像ずれ量とデフォーカス量とは比
例関係にあるので、複数の像ずれ量を複数のデフォーカ
ス量に変換してから奥行き判定以後の処理を行うように
しても良い。次に一つの検出領域内において前記補正量
S(x)が大きく変わる場合の補正の方法について説明
する。 【手続補正8】 【補正対象書類名】明細書 【補正対象項目名】0027 【補正方法】変更 【補正内容】 【0027】 【数1】 【手続補正9】 【補正対象書類名】明細書 【補正対象項目名】0028 【補正方法】変更 【補正内容】 【0028】この関数C(L)が最小となるシフト量L
m を像ずれ量として求める。このように相関演算により
求めた像ずれ量Lm は上述のような光学系の調整不足等
に起因する誤差を含んでいるので、この像ずれ量Lm
補正データS(x)で補正しなければならない。しかし
ながら、この像ずれ量はデータ列A1…AN、B1…B
Nの全領域から算出しているので、補正量として補正デ
ータS(x)のどの領域を用いるかが問題となる。 【手続補正10】 【補正対象書類名】明細書 【補正対象項目名】0029 【補正方法】変更 【補正内容】 【0029】この問題は、次のように解決される。デー
タ列A1…AN、B1…BNは、そのどの部分も上記相
関量C(L)に等しく寄与しているのでなく、図8
(a)に示した如くデータ列の変化の激しい部分Yが大
きく寄与し変化のゆるやかな部分は寄与が小さい。即ち
各部分のコントラストの大小に依存している。従ってデ
ータ列A1…AN、B1…BNの場所x毎の上記寄与の
程度(以下寄与度と称する。)を求め、この場所に応じ
た寄与度補正データS(x)とから補正量を求めればよ
い。この寄与度Wm は、例えばデータ列の隣接するデー
タの差分から求め得る。 【手続補正11】 【補正対象書類名】明細書 【補正対象項目名】0030 【補正方法】変更 【補正内容】 【0030】 即ち、Wm =|Am −Am+1 |又は|Bm −Bm+1 |。 この値Wm を図8(b)に示す。もちろんWm として|
m −Am+1 |+|Bm −Bm+1 |を用いることもでき
る。補正量STは、 【手続補正12】 【補正対象書類名】明細書 【補正対象項目名】0031 【補正方法】変更 【補正内容】 【0031】 【数2】 【手続補正13】 【補正対象書類名】明細書 【補正対象項目名】0032 【補正方法】変更 【補正内容】 【0032】ここでSm は、x=mとしたときのs
(x)である。従って、補正済像ずれ量ZTは次式より
求まる。ZT=Lm −ST尚、第1光電素子アレイとそ
れ上の光像との相対位置と、第2光電素子アレイとそれ
上の光像との相対位置との間の場所に応じた位置ずれ量
が著しく大きい場合には、補正データS(x)により像
ずれ量を高精度で補正することは困難となることがあ
る。そこで、第1及び第2光電素子アレイの光電素子の
ピッチを場所に応じて変化させることにより上記位置ず
れ量を予め或る程度補正し、それでも残存した位置ずれ
量を補正データとして記憶するようにすることが望まし
い。 【手続補正14】 【補正対象書類名】明細書 【補正対象項目名】0033 【補正方法】変更 【補正内容】 【0033】 【発明の効果】以上のように本発明によれば、奥行きの
ある被写体を複数の領域に分割し、各領域の光像に対し
てそれぞれ像ずれ量(部分像ずれ量)に関する量を算出
し、この複数の像ずれ量に関する量から被写体の奥行き
を検出して奥行きの有無を判定し、この奥行き判定の結
果に基づいて1つの焦点検出出力を作成するようにしい
てるので、奥行きのある被写体に対しても適正な焦点検
出が可能となる。 【図面の簡単な説明】 【図1】(a)は一般的な焦点検出光学系と光電素子ア
レイとの関係を示す光学図。 (b)は光電素子上の光像位置を示す正面図。 【図2】本発明の一実施例を示すブロック図。 【図3】相対的位置ずれ量の一例を示すグラフ。 【図4】(a)及び(b)は補正データ記憶手段の具体
的構成例を示す回路図。 【図5】相対的位置ずれ量の別の例を示すグラフ。 【図6】(a)はイメージ出力の一例を示すグラフ。 (b)及び(c)はイメージ出力を複数の領域に分割す
る様子を示す図。 【図7】第1実施例の具体的な作用を示すフローチャー
ト。 【図8】(a)はイメージ出力の別の例を示すグラフ。 (b)はイメージ出力の変化の激しさを示すグラフであ
る。 【主要部分の符号の説明】 105、106…光電素子アレイ 205…像ずれ演算手段 206…補正演算手段 207…補正データ記憶手段 ─────────────────────────────────────────────────────
【手続補正書】 【提出日】平成4年7月20日 【手続補正14】 【補正対象書類名】明細書 【補正対象項目名】0033 【補正方法】変更 【補正内容】 【0033】 【発明の効果】以上のように本発明によれば、奥行きの
ある被写体を複数の領域に分割し、各領域の光像に対し
てそれぞれ像ずれ量(部分像ずれ量)に関する量を算出
し、この複数の像ずれ量に関する量から被写体の奥行き
を検出して奥行きの有無を判定し、この奥行き判定の結
果に基づいて1つの焦点検出出力を作成するようにしい
てるので、奥行きのある被写体に対しても適正な焦点検
出が可能となる。 【手続補正15】 【補正対象書類名】明細書 【補正対象項目名】図面の簡単な説明 【補正方法】変更 【補正内容】 【図面の簡単な説明】 【図1】(a)は一般的な焦点検出光学系と光電素子ア
レイとの関係を示す光学図。 (b)は光電素子上の光像位置を示す正面図。 【図2】本発明の一実施例を示すブロック図。 【図3】相対的位置ずれ量の一例を示すグラフ。 【図4】(a)及び(b)は補正データ記憶手段の具体
的構成例を示す回路図。 【図5】相対的位置ずれ量の別の例を示すグラフ。 【図6】(a)はイメージ出力の一例を示すグラフ。 (b)及び(c)はイメージ出力を複数の領域に分割す
る様子を示す図。 【図7】第1実施例の具体的な作用を示すフローチャー
ト。 【図8】(a)はイメージ出力の別の例を示すグラフ。 (b)はイメージ出力の変化の激しさを示すグラフであ
る。 【主要部分の符号の説明】 105、106…光電素子アレイ 205…像ずれ演算手段 206…補正演算手段 207…補正データ記憶手段
─────────────────────────────────────────────────── ───
[Procedure Amendment] [Date of Submission] July 3, 1991 [Procedure Amendment 1] [Document Name for Amendment] Specification [Item Name for Amendment] Claims [Amendment Method] Change [Amendment Content] [Patent] Claims: (1) In a focus detection apparatus, which forms two images having parallax for a plurality of different regions of a subject, and calculates a plurality of image shift amounts for the plurality of regions from photoelectric outputs of the two images, And a determination unit that determines the depth of the subject, wherein the depth determination unit determines the presence or absence of the depth of the subject based on the amounts related to the plurality of image shift amounts regarding the plurality of different regions in the subject, A focus detection apparatus, wherein one focus detection output is created from the plurality of image shift amount-based amounts based on the depth determination result. (2) The depth determining means determines the presence or absence of depth by comparing whether a difference in magnitude between the plurality of image shift amounts is larger or smaller than a predetermined value. The focus detection device according to item (1). (3) The depth determination means, when there is no depth, a first processing unit that creates one focus detection output from the amounts related to the plurality of image shift amounts; and when there is depth, the plurality of image shift amounts. The focus detecting apparatus according to claim 1, further comprising a second processing unit that creates one focus detection output by a different process from the amount related to the first processing unit. [Procedure correction 2] [Name of document to be corrected] Specification [Name of item to be corrected] 0003 [Correction method] Change [Details of correction] Focus detection is performed from the relative positional relationship of the detected secondary image. [Procedure Amendment 3] [Name of Document to be Amended] Specification [Name of Item to Amend] [Correction Method] Change [Content of Amendment] [Problem to be Solved by the Invention] In the case of performing focus detection in this way , When the light image formed on the first and second photoelectric element arrays is a subject having a depth,
The calculation of the relative positional relationship becomes impossible or leads to an erroneous result, which causes a problem that focus detection becomes impossible or malfunctions. [Procedure Amendment 4] [Document name to be amended] Specification [Correction target item name] 0005 [Correction method] Deleted [Procedure Amendment 5] [Correction target document name] Specification [Correction target item name] 0006 [Correction method] Change [Details of correction] The above problem is not limited to the pupil division type focus detection device of FIG. 1, but in a device for photoelectrically detecting a pair of optical images of the same object and performing distance measurement or focus detection from their relative positions. This is common when performing photoelectric image displacement detection.
An object of the present invention is to provide a focus detection device (distance measuring device) capable of reliable focus adjustment even for a subject having a depth. In order to achieve this object, in the present invention, a region for calculating a relative positional relationship with respect to a light image on a photoelectric element array is divided into a plurality of regions, and the above-mentioned relative images are respectively obtained with respect to the light images of the respective regions thus divided. Calculation is performed to obtain a physical positional relationship, and an amount relating to a plurality of image displacement amounts (partial image displacement amount) is calculated. The depth of the subject is detected from the amount relating to the plurality of image displacement amounts to determine whether or not there is a depth. One focus detection output is created based on the result of the depth determination. This depth determination can be performed at the stage of calculating the image shift amount, but the depth determination may be performed after converting each of the plurality of partial image shift amounts into a plurality of defocus amounts. [Procedure correction 6] [Name of document to be corrected] Specification [Name of item to be corrected] [Correction method] Change [Details of correction] Returning to FIG. 2 again, the correction calculation unit 206 is the image shift calculation unit 205. The output Z (x) is corrected by the correction data S (x) of the correction data storage unit 207, and specifically, the calculation Z (x) -S (x) is performed to calculate the corrected image shift amount ZT. To do. The corrected image shift amount ZT is converted into a defocus amount (a shift amount between the subject image and a predetermined image plane of the photographing lens) by the correction calculation unit 206 and sent to the display drive unit 208. This means 208 displays the focus adjustment state based on the defocus amount and drives the taking lens to the in-focus position. [Procedure Amendment 7] [Name of Document to be Amended] Specification [Name of Item to Amend] 0024 [Correction Method] Change [Content of Amendment] In the step, for example, (A1)-
The final displacement amount ZT is obtained by any of the processes in (A5). In the step, for example, the above (B1) to (B3)
The final image shift amount ZT is obtained by any one of the processes. This final image shift amount is converted into a defocus amount, and display and lens driving are performed. Since the image shift amount and the defocus amount are in a proportional relationship, a plurality of image shift amounts may be converted into a plurality of defocus amounts and then the processing after the depth determination may be performed. Next, a correction method in the case where the correction amount S (x) greatly changes in one detection area will be described. [Procedure Amendment 8] [Name of Documents to Amend] Specification [Name of Items to Amend] 0027 [Correction Method] Change [Contents of Amendment] [0027] [Equation 1] [Procedure Amendment 9] [Name of document to be amended] Specification [Name of item to be amended] [Correction method] Change [Content of amendment] [Shift amount L that minimizes this function C (L)]
Obtain m as the image shift amount. Since the image shift amount L m thus obtained by the correlation calculation includes an error caused by insufficient adjustment of the optical system as described above, the image shift amount L m is corrected by the correction data S (x). There must be. However, this image shift amount is determined by the data strings A1 ... AN, B1 ... B.
Since the calculation is performed from all N areas, there is a problem in which area of the correction data S (x) is used as the correction amount. [Procedure Amendment 10] [Name of Document to Amend] Specification [Name of Item to Amend] 0029 [Method of Amendment] Change [Content of Amendment] [0029] This problem is solved as follows. The data strings A1 ... AN, B1 ... BN do not all contribute equally to the above-mentioned correlation amount C (L), and FIG.
As shown in (a), the portion Y in which the data string changes drastically contributes greatly, and the portion in which the change changes gradually makes little contribution. That is, it depends on the magnitude of the contrast of each part. Therefore, if the degree of the above contribution (hereinafter referred to as contribution degree) for each location x of the data strings A1 ... AN, B1 ... BN is obtained, and the correction amount is obtained from the contribution degree correction data S (x) corresponding to this location. Good. The contribution W m can be obtained, for example, from the difference between adjacent data in the data string. [Procedure Amendment 11] [Name of Document to Amend] Specification [Name of Item to Amend] 0030 [Correction Method] Change [Details of Correction] That is, W m = | A m −A m + 1 | or | B m -B m + 1 |. This value W m is shown in FIG. Of course as W m |
It is also possible to use A m −A m + 1 | + | B m −B m + 1 |. The correction amount ST is [procedure correction 12] [correction target document name] specification [correction target item name] 0031 [correction method] change [correction content] [0031] [Equation 2] [Procedure amendment 13] [Document name for amendment] Specification [Item name for amendment] [Correction method] Change [Content of amendment] Here, S m is s when x = m
(X). Therefore, the corrected image shift amount ZT is obtained from the following equation. ZT = L m −ST In addition, a positional deviation corresponding to a position between the relative position of the first photoelectric element array and the optical image on it and the relative position of the second photoelectric element array and the optical image on it. When the amount is extremely large, it may be difficult to correct the image shift amount with high accuracy using the correction data S (x). Therefore, the positional deviation amount is corrected in advance to some extent by changing the pitch of the photoelectric elements of the first and second photoelectric element arrays according to the location, and the remaining positional deviation amount is stored as correction data. It is desirable to do. [Procedure Amendment 14] [Name of Document to Amend] Specification [Name of Item to Amend] [Correction Method] Change [Details of Amendment] [Effect of the Invention] As described above, according to the present invention, there is a depth. The subject is divided into multiple areas, and the amount of image shift (partial image shift) is calculated for each optical image in each region. The depth of the subject is detected from the amount of multiple image shifts to determine the depth. Since it is designed to determine the presence or absence of the image and create one focus detection output based on the result of the depth determination, proper focus detection can be performed even for a subject having a depth. BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1A is an optical diagram showing a relationship between a general focus detection optical system and a photoelectric element array. FIG. 3B is a front view showing an optical image position on the photoelectric element. FIG. 2 is a block diagram showing an embodiment of the present invention. FIG. 3 is a graph showing an example of a relative positional deviation amount. 4A and 4B are circuit diagrams showing a specific configuration example of a correction data storage unit. FIG. 5 is a graph showing another example of the relative positional deviation amount. FIG. 6A is a graph showing an example of image output. FIGS. 9B and 9C are diagrams showing how the image output is divided into a plurality of areas. FIG. 7 is a flowchart showing a specific operation of the first embodiment. FIG. 8A is a graph showing another example of image output. (B) is a graph showing the intensity of change in image output. [Explanation of Signs of Main Parts] 105, 106 ... Photoelectric element array 205 ... Image shift calculating means 206 ... Correction calculating means 207 ... Correction data storing means ─────────────────── ───────────────────────────────────
[Procedure amendment] [Date of submission] July 20, 1992 [Procedure amendment 14] [Document name for amendment] Specification [Item name for amendment] 0033 [Correction method] Change [Correction content] [0033] [Invention As described above, according to the present invention, a subject having a depth is divided into a plurality of regions, and an amount relating to an image shift amount (a partial image shift amount) is calculated for each of the optical images in each region. Since the depth of a subject is detected from the amounts relating to a plurality of image shift amounts to determine the presence or absence of the depth, and one focus detection output is created based on the result of the depth determination, it is possible to detect a subject with depth. Also enables proper focus detection. [Procedure Amendment 15] [Document Name for Amendment] Description [Item Name for Amendment] Brief Description of Drawing [Correction Method] Change [Details of Amendment] [Simple Description of Drawing] [Fig. 1] (a) is General FIG. 6 is an optical diagram showing the relationship between a focus detection optical system and a photoelectric element array. FIG. 3B is a front view showing an optical image position on the photoelectric element. FIG. 2 is a block diagram showing an embodiment of the present invention. FIG. 3 is a graph showing an example of a relative positional deviation amount. 4A and 4B are circuit diagrams showing a specific configuration example of a correction data storage unit. FIG. 5 is a graph showing another example of the relative positional deviation amount. FIG. 6A is a graph showing an example of image output. FIGS. 9B and 9C are diagrams showing how the image output is divided into a plurality of areas. FIG. 7 is a flowchart showing a specific operation of the first embodiment. FIG. 8A is a graph showing another example of image output. (B) is a graph showing the intensity of change in image output. [Explanation of Symbols of Main Parts] 105, 106 ... Photoelectric element array 205 ... Image shift calculating means 206 ... Correction calculating means 207 ... Correction data storing means

Claims (1)

【特許請求の範囲】 (1) 被写体の複数の異なる領域についてそれぞれ視差
を有する2像を形成し、それぞれの2像に関する光電出
力から該複数の領域に関する複数の像ずれ量を算出する
焦点検出装置において、 前記被写体の奥行きを判定する判定手段を有し、 前記奥行き判定手段は、前記被写体における前記複数の
異なる領域に関する前記複数の像ずれ量に基づいて前記
被写体の奥行きの有無を判定すると共に、該奥行きの判
定結果に基づいて前記複数の像ずれ量から1つの焦点検
出出力を作成することを特徴とする焦点検出装置。 (2) 前記奥行き判定手段は、前記複数の像ずれ量の大
きさの差が所定値より大きいか小さいかを比較して奥行
きの有無を判定することを特徴とする特許請求の範囲第
1項記載の焦点検出装置。 (3) 前記奥行き判定手段は、奥行きの無い場合には前
記複数の像ずれ量から一つの焦点検出出力を作成する第
一処理部と、奥行きの有る場合には前記複数の像ずれ量
から統計的処理を行い1つの焦点検出出力を作成する第
二処理部とを含むことを特徴とする特許請求の範囲第1
項記載の焦点検出装置。
Claims: (1) A focus detection device that forms two images having parallax for a plurality of different regions of a subject and calculates a plurality of image shift amounts for the plurality of regions from photoelectric outputs of the two images. In, including a determination means for determining the depth of the subject, the depth determination means determines the presence or absence of the depth of the subject based on the plurality of image shift amounts of the plurality of different regions in the subject, A focus detection device, wherein one focus detection output is created from the plurality of image shift amounts based on the depth determination result. (2) The depth determining means determines presence / absence of depth by comparing whether a difference in magnitude of the plurality of image shift amounts is larger or smaller than a predetermined value. The focus detection device described. (3) the depth determining means, when there is no depth, a first processing unit that creates one focus detection output from the plurality of image shift amounts, and when there is depth, statistics from the plurality of image shift amounts. A second processing unit that performs a dynamic process to generate one focus detection output is included.
The focus detection device according to the item.
JP3136859A 1991-06-07 1991-06-07 Focus detection device Expired - Fee Related JPH06100465B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3136859A JPH06100465B2 (en) 1991-06-07 1991-06-07 Focus detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3136859A JPH06100465B2 (en) 1991-06-07 1991-06-07 Focus detection device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP11946284A Division JPH0684890B2 (en) 1984-06-11 1984-06-11 Focus detection device

Publications (2)

Publication Number Publication Date
JPH0540036A true JPH0540036A (en) 1993-02-19
JPH06100465B2 JPH06100465B2 (en) 1994-12-12

Family

ID=15185186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3136859A Expired - Fee Related JPH06100465B2 (en) 1991-06-07 1991-06-07 Focus detection device

Country Status (1)

Country Link
JP (1) JPH06100465B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1545122A1 (en) * 2003-12-15 2005-06-22 Canon Kabushiki Kaisha Camera, camera system and lens apparatus
EP2894845A1 (en) * 2003-12-15 2015-07-15 Canon Kabushiki Kaisha Camera, camera system and lens apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5678811A (en) * 1979-12-03 1981-06-29 Ricoh Co Ltd Automatic focus controlling device
JPS56101128A (en) * 1980-01-14 1981-08-13 Minolta Camera Co Ltd Automatic focus adjusting camera
JPS58135411A (en) * 1982-02-05 1983-08-12 Canon Inc Distance measuring device
JPS58209704A (en) * 1982-05-31 1983-12-06 Koshina:Kk Focusing point detector
JPS58219505A (en) * 1982-06-14 1983-12-21 Nippon Seimitsu Kogyo Kk Automatic focusing device capable of varying area for detecting focus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5678811A (en) * 1979-12-03 1981-06-29 Ricoh Co Ltd Automatic focus controlling device
JPS56101128A (en) * 1980-01-14 1981-08-13 Minolta Camera Co Ltd Automatic focus adjusting camera
JPS58135411A (en) * 1982-02-05 1983-08-12 Canon Inc Distance measuring device
JPS58209704A (en) * 1982-05-31 1983-12-06 Koshina:Kk Focusing point detector
JPS58219505A (en) * 1982-06-14 1983-12-21 Nippon Seimitsu Kogyo Kk Automatic focusing device capable of varying area for detecting focus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1545122A1 (en) * 2003-12-15 2005-06-22 Canon Kabushiki Kaisha Camera, camera system and lens apparatus
US7872684B2 (en) 2003-12-15 2011-01-18 Canon Kabushiki Kaisha Camera capable of correcting information for focusing control, using information stored in storage section of mounted lens apparatus
US8395690B2 (en) 2003-12-15 2013-03-12 Canon Kabushiki Kaisha Camera, camera system and lens apparatus
US8531585B2 (en) 2003-12-15 2013-09-10 Canon Kabushiki Kaisha Camera, camera system and lens apparatus
US8723985B2 (en) 2003-12-15 2014-05-13 Canon Kabushiki Kaisha Camera, camera system and lens apparatus
EP2894845A1 (en) * 2003-12-15 2015-07-15 Canon Kabushiki Kaisha Camera, camera system and lens apparatus

Also Published As

Publication number Publication date
JPH06100465B2 (en) 1994-12-12

Similar Documents

Publication Publication Date Title
JP6021780B2 (en) Image data processing device, distance calculation device, imaging device, and image data processing method
JPS6036905A (en) Distance measuring apparatus
JPS60262004A (en) Apparatus for photoelectrical detection of image displacement
JP2013037166A (en) Focus detector, and lens device and imaging device having the same
JP2003247823A (en) Method and device for detecting phase difference, range finder, and image pickup device
JPH0666007B2 (en) Camera focus detector
JPH0328691B2 (en)
JP3444551B2 (en) Camera focus detection device
JP2012147281A (en) Image processing apparatus
JP2009180778A (en) Focal point detecting device and imaging device
JP6173549B2 (en) Image data processing device, distance calculation device, imaging device, and image data processing method
JP2753544B2 (en) Focus detection device
CN104949659B (en) Distance detection device and method, imaging device and parallax amount detecting device
JPH0875986A (en) Focus detector
JPH0540036A (en) Focus detecting device
JPH06103182B2 (en) Focus detection device
JPH06250078A (en) Detecting device for focused state or distance of object
JP2545758B2 (en) Focus detection device
JPH0540037A (en) Focus detecting device
JPH0762732B2 (en) Focus detection device
JP4120703B2 (en) Camera with focus detection device
JP4817552B2 (en) Phase difference detection method, phase difference detection device, distance measuring device, and imaging device
JP2762463B2 (en) Focus detection device
JPH0693059B2 (en) Focus detection device
JP3230759B2 (en) Distance measuring device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees