JPH08211284A - Focus detector - Google Patents

Focus detector

Info

Publication number
JPH08211284A
JPH08211284A JP3136862A JP13686291A JPH08211284A JP H08211284 A JPH08211284 A JP H08211284A JP 3136862 A JP3136862 A JP 3136862A JP 13686291 A JP13686291 A JP 13686291A JP H08211284 A JPH08211284 A JP H08211284A
Authority
JP
Japan
Prior art keywords
image
image shift
amount
focus detection
shift amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3136862A
Other languages
Japanese (ja)
Other versions
JP2753544B2 (en
Inventor
Takeshi Utagawa
健 歌川
Yosuke Kusaka
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP3136862A priority Critical patent/JP2753544B2/en
Publication of JPH08211284A publication Critical patent/JPH08211284A/en
Application granted granted Critical
Publication of JP2753544B2 publication Critical patent/JP2753544B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)

Abstract

PURPOSE: To obtain a focus detector capable of detecting the relative displacement of the optical images of nearly identical object respectively formed on a pair of photoelectric element arrays. CONSTITUTION: A pair of photoelectric element arrays 105 and 106 consisting of an image sensor such as a CCD is juxtaposed in a photoelectric conversion part 201. The identical subject image is formed on each photoelectric element array by a focus detecting optical system. An image deviation arithmetic means 205 calculates the relative deviation of the optical images on a pair of arrays based on a pair of image output. A correction data storage means 207 stores correction data for correcting the output from the arithmetic means 205. The relative positional deviation of every corresponding image point of the optical images on the arrays 105 and 106 in a focusing state is measured and stored in the storage means 207 as the relative positional deviation of every image point on the array.

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、一対の光電素子アレイ
上にそれぞれ結像されたほぼ同一物体の光像の相対的変
位を検出する焦点検出装置に係わり、特に、カメラ等の
焦点検出装置や測距装置に使用される。 【0002】 【従来の技術】図1(a)は一般のカメラ等の焦点検出
装置の光学系を示すもので被写体100は撮影レンズ1
01によりフィールドレンズ102の近傍に結像され
る。この被写体100の一次像は第1、第2の再結像レ
ンズ103、104によりそれぞれ第1、第2の光電素
子アレイ105、106上に2次像として結像される。
このアレイ105、106上の2次像の相対的位置関係
がアレイのイメージ出力から検出される。 【0003】このような焦点検出を高精度に行う為に
は、光電素子アレイ105上に分布する光像の各点と光
電素子アレイ106上に分布する光像の対応する各点と
が、合焦時には互に相対的に完全に一致し、非合焦時に
は各対応する点とも非合焦量に応ずる同量だけずれてい
ることが必要である。もちろん、合焦時に対応する各点
が一定量ずれるように定めることもできる。 【0004】 【発明が解決しようとする課題】ところが、フィールド
レンズ102や再結像レンズ103、104等から成る
焦点検出光学系の収差や調整不足等の原因により、上記
条件が満たされず、例えば合焦時に図1(b)に示すよ
うに被写体100の中心点100aの像点107a、1
08aは、各アレイ105、106の同一位置(例えば
中心)に結像するが、周辺の点100bの像点107
b、108bは相対的にずれて結像される。 【0005】この為、点像107aと108aとに基づ
く焦点検出結果と点像107bと108bとに基づく焦
点検出結果とでは差異が生じ正しい焦点検出が不可能と
なる。このような各アレイとその上の光像との相対位置
の、アレイの場所に応じた差異(以下これを位置ずれと
称する。)を除去するには、収差の極めて少ない焦点検
出光学系を採用しかつ光学的調整を極めて入念に行なわ
なければならず、これは焦点検出光学系のコストの上昇
及び量産性の著しい低下を招来する。 【0006】以上のような問題は図1の瞳分割式焦点検
出装置に限らず、同一物体に関する一対の光像を光電検
出しその相対位置から測距又は焦点検出する装置におい
て、光電的像変位検出を行う際に共通するものである。
本発明の目的は光学的調整が容易でかつ量産性が高い高
精度な焦点検出装置(測距装置)を提供することであ
る。 【0007】 【実施例】以下、本発明の一実施例を図面を参照して説
明する。図2において、光電変換部201にはそれぞれ
CCD等のイメージセンサーから成る一対の光電素子ア
レイ105、106が並置されている。この各光電素子
アレイには図1と同様の焦点検出光学系により同一被写
体の像が結像される。アレイ105からのイメージ出力
a1…aNは順次時系列的にA/Dコンバータ202に
よりA/D変換され、マイクロコンピュータ203内の
データメモリ手段204に記憶され、全く同様にアレイ
106からのイメージ出力b1…bNもA/Dコンバー
タ202を介してデータメモリ手段204に記憶され
る。 【0008】像ずれ演算手段205は前記一対のイメー
ジ出力a1…aN、b1…bNに基づき両イメージ出力
の相対的ずれ量、即ち、一対のアレイ上の光像の相対的
ずれ量を演算する。もちろん、像ずれ演算に用いるデー
タは必ずしもアレイの直接のイメージ出力である必要は
なく,これらの出力を適当にフィルタリング処理したり
サンプリングしたイメージ出力であってもよい。 【0009】補正データ記憶手段207は、上記像ずれ
演算手段205の出力を補正する補正データを記憶して
いる。この補正データは以下のように定められている。
即ち、焦点検出装置の製造の際に焦点検出光学系の一応
の調整が済んだ後に、合焦状態時におけるアレイ10
5、106上の光像の対応する各像点毎の相対的位置ず
れ量を測定しこのアレイ上の各像点毎の相対的位置ずれ
量を上記補正量として記憶手段207に記憶する。 【0010】具体的な一例を述べると、図1(b)に示
すようにアレイ105、106の光電素子の配列方向の
位置をxとし、各アレイ105、106の中心xoとし
た時、アレイ105、106上の光像の対応する像点が
アレイの中心xoにおいて合焦時に合致するように調整
することは比較的容易である。そこでこの様に調整する
と各点の相対的位置ずれ量は、例えば図3に示すように
合焦点には実線に示す特性S(x)を、非合焦時には特
性Z(x)をそれぞれ持つ。 【0011】ここで合焦時の特性S(x)は上記調整に
よりアレイ中心xoで相対的位置ずれ量が零でありここ
からアレイ周辺に向かって一次関数的に大きくなること
を示し、非合焦点の特性Z(x)はその非合焦の程度に
応じた量ZTだけ、特性S(x)から平行移動されたも
のとなっている。この合焦点の位置ずれS(x)が補正
データ記憶手段207に記憶される。 【0012】この記憶の仕方としてアレイの場所x毎の
S(x)の値をすべて記憶することは記憶データの数が
多くなり好ましくない。このため、図3のように位置ず
れ量S(x)がほぼ原点xoを通る直線で近似できる時
には、この直線の傾きのみによりこの位置ずれ量S
(x)を特定出来るので、記憶手段207にはこの傾き
を表すデータを記憶すればよい。この場合、補正データ
記憶手段207は極めて簡単化でき、図4(a)に示す
ようにポテンショメータ401の値を前記特性直線S
(x)の傾きを表すように調整し、このポテンショメー
タ401の出力をA/Dコンバータ402を介してマイ
コン203に入力する構成とすることができる。 【0013】また補正データ記憶手段207として図4
(a)の如き上記傾きを記憶したROMを用いてもよ
い。このROMは、出力端子P1〜P8の各々も電源ラ
インVccとアースラインEtとに夫々接続していたも
のと、記憶すべきデータに応じて各出力端子P1〜P8
が電源ラインとアースラインとの一方のみに接続するよ
うに処理したものである。また、補正データ記憶手段2
07としてマイコン203内のROMを用いることもで
きる。 【0014】補正データS(x)が直線でなく図5に示
すように曲線となる場合にはこの曲線をn次式で近似し
て、これを(n+1)個の数値で特定するようにすれば
よい。あるいは、数個の所定の位置xiに関する補正デ
ータを記憶しておき、その中間の位置の補正データが必
要であれば、例えばラグランジエ補間を使用してもよ
い。 【0015】再び図2に戻って、補正演算手段206は
像ずれ演算手段205の出力Z(x)を補正データ記憶
手段207の補正データS(x)で補正し、具体的には
Z(x)−S(x)の演算を行って、補正された像ずれ
量ZTを算出する。この補正済像ずれ量ZTは、補正演
算手段206でデフォーカス量(被写体像と撮影レンズ
の所定結像間との間のずれ量)に換算され、表示駆動手
段208に送られる。この手段208はデフォーカス量
に基づき焦点調節状態を表示しまた撮影レンズを合焦位
置に駆動する。 【0016】この作用を以下に述べる。一対のアレイ1
05、106からのイメージ出力a1…aN、b1…b
NはA/D変換後にデータメモリ手段204に記憶され
る。データメモリ手段204に記憶されたイメージ出力
a1…aNを図6(a)に例示する。像ずれ演算手段2
05は、このイメージ出力を図6(b)又は(c)に示
すように例えば5個の領域X−2、X−1、X0、X
1、X2に分割し、全く同様にイメージ出力b1…bN
をも5個の領域X−2、X−1、X0、X1、X2に分
割し、各部分領域X1のイメージ出力から部分領域Xi
の中心xiに関する部分像ずれ量Z(xi)を個々に演
算する。 【0017】補正演算手段206は補正データ記憶手段
207の内容から場所xiの部分補正量S(xi)を算
出する。この部分補正量S(xi)は図3に示すように
関数S(x)にx=xiを代入したものである。この
後、補正演算手段206は部分像ずれ量Z(xi)から
部分補正量S(xi)を減じて、補正済部分像ずれ量Z
T(xi)を得る。即ち、ZT(xi)=Z(xi)−
S(xi)を得る。 【0018】こうして、補正演算手段206は各部分領
域Xiに関する補正済部分像ずれ量ZT(xi)を求
め、例えば、これらの値の単純平均ΣZT(xi)/5
を最終像ずれ量として算出して、これをデフォーカス量
に換算し表示駆動手段208に送出する。尚、各部分領
域Xiに関する部分像ずれ量ZT(xi)から最終像ず
れ量ZTを求める方法はその目的に応じて種々考えられ
るが、以下にいくつかの例を示す。 (A1) 上述の如く補正済部分像ずれ量ZT(xi)
の平均値を最終像ずれ量ZTとする。 (A2) 補正済部分像ずれ量ZT(xi)の最大と最
小のものを除いた残りの補正済部分像ずれ量の平均値を
最終像ずれ量ZTとする。 (A3) 補正済部分像ずれ量ZT(xi)を大きい順
にならべた時の中央のものを最終像ずれ量ZTとする。 (A4) 後述する情報量E(x)が最大の部分領域に
関する補正済部分像ずれ量ZTを最終像ずれ量ZTとす
る。 (A5) 上記情報量が相対的に大きい複数の部分領域
に関する補正済部分像ずれ量ZT(xi)の平均値を又
は情報量に応じて加重加算した平均値を最終像ずれ量Z
Tとする。 【0019】尚、各部分領域Xiのデータから部分像ず
れ演算を行うアルゴリズムとしては、例えばイメージ出
力をフーリエ変換し位相を比較する手段(特開昭54−
104859号公報)や相関演算を行い最大相関を与え
るシフト量を求める手段(特開昭57−45510号公
報)を用いることが可能である。部分領域Xiに含まれ
る光電変換素子数の少ない時は上記フーリエ変換法を用
いる方が精度がよい。 【0020】アレイ上に奥行きのある被写体が結像され
ている場合、アレイの全領域のイメージ出力を用いて像
ずれ量を算出すると、奥行き被写体のどの部分に自動合
焦されるかは全く不明となる。このような奥行き被写体
に関する問題は、上述のように部分領域Xi毎の部分像
ずれ量Z(xi)を演算することにより以下の如く解決
できる。 (B1) 複数の部分像ずれ量Z(xi)のうちから最
も像ずれ量の小さいものを選択し、これに基づき最終像
ずれ量ZTを求めれば、奥行き被写体の最も近い部分に
ついてのデフォーカス量を得ることができ、逆に部分像
ずれ量の最も大きいものの選択により遠方部分について
のデフォーカス量を、更に中間のものの選択により中間
距離の部分についてのデフォーカス量を得ることができ
る。 (B2) 複数の部分像ずれ量Z(xi)のうちでほぼ
等しい値をとるものがあれば、その値を選択しこれに基
づき最終像ずれ量ZTを求めれば、比較的広い領域を占
める被写体についてのデフォーカス量を得ることができ
る。 (B3) 後述する情報量の最も大きい部分領域Xiで
の部分像ずれ量を選択しこれに基づき最終像ずれ量ZT
を求めれば、焦点検出の為の情報が最も多い被写体、一
般的にはコントラストの最も良い被写体についてのデフ
ォーカス量を得ることができる。 【0021】次に上述のように部分像ずれ量を算出する
場合の具体例をフローチャートを用いて説明する。図7
においてステップで各部分領域Xiにおける部分像ず
れ量Z(xi)と情報量E(xi)とを像ずれ演算手段
205によって算出する。ここで情報量E(xi)とは
対応する部分像ずれ量Z(xi)の信頼度を表すもの
で、この情報量の値が大きい程、対応する部分像ずれ量
の精度が高くなる。具体的には、情報量としては像ずれ
演算がフーリエ変換後の位相比較により行われるのであ
るならば、フーリエ変換後の振幅に関連した値(特開昭
55−98710号公報のr1、r1' 、r2、r2'
が該当する。)を用いることができ、また像ずれ演算が
相関法である場合には後述の自己相関値Wmを用いるこ
とができる。 【0022】ステップにおいて、上記各部分領域Xi
の情報量E(xi)を所定閾値Ethと比較し、この閾
値よりも大きい値の情報量E(xj)の部分領域Xiを
選択する。ステップにおいて、補正データ記憶手段2
07の内容S(x)から上記選択された部分領域xjに
おける部分補正量S(xj)を算出すると共に、選択部
分領域Xjでの部分像ずれ量Z(xj)を部分像ずれ量
Z(xi)から選択する。 【0023】ステップにおいて選択領域Xjに関する
補正された部分像ずれ量ZT(xj)をZT(xj)=
Z(xj)−S(xj)から求める。ステップにおい
て、ステップで求めた補正済部分像ずれ量ZT(x
j)のバラツキが所定値ΔZより小さいか否か、具体的
には、補正済部分像ずれ量ZT(xj)のうちの最大値
と最小値との差が所定値より小さいか否かを判別し、小
である時、被写体に奥行きがないとしてステップへ移
り、小でない時、奥行きある被写体と判定しステップ
へ移る。 【0024】ステップでは、例えば前記(A1)〜
(A5)のいずれかの処理により最終ずれ量ZTを求め
る。ステップでは、例えば上述の(B1)〜(B3)
のいずれかの処理で最終像ずれ量ZTを求める。以上の
実施例では、一対のイメージ出力から複数の部分像ずれ
量を算出する例であったが、次に単一の像ずれ量を算出
する第2実施例を説明する。 【0025】図8(a)は図2のデータメモリ手段20
4に記憶される一対のデータ列A1…AN、B1…BN
の一方を示す。このデータ列としては、前述の如く光電
素子アレイのイメージ出力そのものでも、またそれをフ
ィルタリングやサンプリング処理したイメージ出力であ
ってもよい。図2において、像ずれ演算手段205はデ
ータメモリ手段204に記憶された一対のデータ列A1
…AN、B1…BNを用い、一方のデータ列A1…AN
を他方のデータ列B1…BNに対して所定量ずつシフト
しながら、各シフト量L毎の相関量C(L)を求める。 【0026】即ち、 【0027】 【数1】 【0028】この関数C(L)が最小となるシフト量L
mを像ずれ量として求める。このように相関演算により
求めた像ずれ量Lmは上述のような光学系の調整不足等
に起因する誤差を含んでいるので、この像ずれ量Lmを
補正データS(x)で補正しなければならない。しかし
ながら、この像ずれ量はデータ列A1…AN、B1…B
Nの全領域から算出しているので、補正量として補正デ
ータS(x)のどの領域を用いるかが問題となる。 【0029】この問題は、次のように解決される。デー
タ列A1…AN、B1…BNは、そのどの部分も上記相
関量C(L)に等しく寄与しているのでなく、図8
(a)に示した如くデータ列の変化の激しい部分Yが大
きく寄与し変化のゆるやかな部分は寄与が小さい。即ち
各部分のコントラストの大小に依存している。従ってデ
ータ列A1…AN、B1…BNの場所x毎の上記寄与の
程度(以下寄与度と称する。)を求め、この場所に応じ
た寄与度補正データS(x)とから補正量を求めればよ
い。この寄与度Wmは、例えばデータ列の隣接するデー
タの差分から求め得る。 【0030】即ち、Wm=|Am−Am+1|又は|Bm
−Bm+1|。この値Wmを図8(b)に示す。もちろん
Wmとして|Am−Am+1|+|Bm−Bm+1|を用い
ることもできる。補正量STは、 【0031】 【数2】 【0032】ここでSmは、x=mとしたときのs
(x)である。従って、補正済像ずれ量ZTは次式より
求まる。ZT=Lm−ST 尚、第1光電素子アレイとそれ上の光像との相対位置
と、第2光電素子アレイとそれ上の光像との相対位置と
の間の場所に応じた位置ずれ量が著しく大きい場合に
は、補正データS(x)により像ずれ量を高精度で補正
することは困難となることがある。そこで、第1及び第
2光電素子アレイの光電素子のピッチを場所に応じて変
化させることにより上記位置ずれ量を予め或る程度補正
し、それでも残存した位置ずれ量を補正データとして記
憶するようにすることが望ましい。 【0033】 【発明の効果】以上の説明から明らかなように、本発明
によると、光学系の調整不足等の原因により第1光電素
子アレイとそれ上の光像との相対位置と、第2光電素子
アレイとそれ上の光像との相対位置との場所に応じて生
じた位置ずれに関連した補正データを記憶しておき、こ
の補正データにより像ずれ量を補正するようにしたの
で、光電的像変位装置の光学系の入念な微調整が不要と
なり量座性を大幅に向上できる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a focus detecting device for detecting relative displacement of light images of substantially the same object formed on a pair of photoelectric element arrays. In particular, it is used for focus detection devices such as cameras and distance measuring devices. 2. Description of the Related Art FIG. 1A shows an optical system of a focus detecting device such as a general camera.
By 01, an image is formed in the vicinity of the field lens 102. The primary image of the subject 100 is formed as a secondary image on the first and second photoelectric element arrays 105 and 106 by the first and second re-imaging lenses 103 and 104, respectively.
The relative positional relationship of the secondary images on the arrays 105 and 106 is detected from the image output of the arrays. In order to perform such focus detection with high accuracy, each point of the light image distributed on the photoelectric element array 105 and each corresponding point of the light image distributed on the photoelectric element array 106 are combined. It is necessary that they are relatively completely coincident with each other at the time of focusing, and are deviated by the same amount corresponding to the amount of non-focusing from each corresponding point at the time of non-focusing. Of course, it is also possible to determine that the corresponding points at the time of focusing deviate by a certain amount. However, the above conditions are not satisfied due to aberrations or insufficient adjustment of the focus detection optical system including the field lens 102 and the re-imaging lenses 103 and 104. When focused, the image points 107a, 1a of the center point 100a of the subject 100 as shown in FIG.
08a forms an image at the same position (for example, the center) of each array 105 and 106, but the image point 107 of the peripheral point 100b.
b and 108b are imaged relatively displaced. Therefore, there is a difference between the focus detection result based on the point images 107a and 108a and the focus detection result based on the point images 107b and 108b, and correct focus detection cannot be performed. In order to eliminate such a difference in the relative position between each array and the light image on the array depending on the position of the array (hereinafter, referred to as position shift), a focus detection optical system with extremely small aberration is adopted. In addition, the optical adjustment must be performed very carefully, which leads to an increase in the cost of the focus detection optical system and a significant decrease in mass productivity. The above problem is not limited to the pupil division type focus detection device of FIG. 1, but in a device for photoelectrically detecting a pair of optical images of the same object and performing distance measurement or focus detection from the relative position thereof, photoelectric image displacement. This is common when performing detection.
An object of the present invention is to provide a highly accurate focus detection device (distance measuring device) that is easy to optically adjust and has high mass productivity. An embodiment of the present invention will be described below with reference to the drawings. In FIG. 2, a pair of photoelectric element arrays 105 and 106 each including an image sensor such as a CCD are arranged in parallel in the photoelectric conversion unit 201. An image of the same subject is formed on each photoelectric element array by the focus detection optical system similar to that shown in FIG. The image outputs a1 ... aN from the array 105 are A / D converted by the A / D converter 202 sequentially in time series, stored in the data memory means 204 in the microcomputer 203, and just like the image output b1 from the array 106. ... bN is also stored in the data memory means 204 via the A / D converter 202. The image shift calculating means 205 calculates the relative shift amount of both image outputs, that is, the relative shift amount of the optical image on the pair of arrays, based on the pair of image outputs a1 ... aN, b1 ... bN. Of course, the data used for the image shift calculation need not necessarily be the direct image output of the array, but may be the image output obtained by appropriately filtering or sampling these outputs. The correction data storage means 207 stores correction data for correcting the output of the image shift calculation means 205. This correction data is defined as follows.
That is, after the focus detection optical system is temporarily adjusted during the manufacture of the focus detection apparatus, the array 10 in the focused state is obtained.
5, the relative displacement amount of each corresponding image point of the optical image on 5, 106 is measured, and the relative displacement amount of each image point on this array is stored in the storage means 207 as the correction amount. As a concrete example, as shown in FIG. 1B, when the position in the array direction of the photoelectric elements of the arrays 105 and 106 is x and the center xo of each array 105 and 106 is the array 105, the array 105 is arranged. , 106, it is relatively easy to adjust so that the corresponding image points of the light image on the focus at the center xo of the array. Therefore, when adjusted in this way, the relative positional deviation amount of each point has the characteristic S (x) shown by the solid line at the in-focus point and the characteristic Z (x) at the out-of-focus point as shown in FIG. Here, the characteristic S (x) at the time of focusing indicates that the relative displacement amount is zero at the array center xo by the above adjustment and increases linearly from here to the array periphery. The focus characteristic Z (x) is translated from the characteristic S (x) by an amount ZT according to the degree of out-of-focus. The position shift S (x) of the in-focus point is stored in the correction data storage unit 207. It is not preferable to store all the values of S (x) for each position x of the array as the way of storing because the number of stored data increases. Therefore, when the positional shift amount S (x) can be approximated by a straight line passing through the origin xo as shown in FIG. 3, the positional shift amount S (x) is obtained only by the inclination of this straight line.
Since (x) can be specified, the storage unit 207 may store data indicating this inclination. In this case, the correction data storage means 207 can be extremely simplified, and the value of the potentiometer 401 can be changed to the characteristic straight line S as shown in FIG.
The output of the potentiometer 401 can be input to the microcomputer 203 via the A / D converter 402 by adjusting the inclination of (x). The correction data storage means 207 shown in FIG.
You may use ROM which memorize | stored the said inclination like (a). In this ROM, the output terminals P1 to P8 are also connected to the power supply line Vcc and the ground line Et, respectively, and the output terminals P1 to P8 are set according to the data to be stored.
Is processed so that it is connected to only one of the power supply line and the ground line. Further, the correction data storage means 2
A ROM in the microcomputer 203 can be used as 07. When the correction data S (x) is not a straight line but a curved line as shown in FIG. 5, this curved line is approximated by an n-th order equation and specified by (n + 1) numerical values. Good. Alternatively, correction data for several predetermined positions xi may be stored, and if correction data for intermediate positions are required, for example, Lagrangian interpolation may be used. Returning to FIG. 2 again, the correction calculation means 206 corrects the output Z (x) of the image shift calculation means 205 with the correction data S (x) of the correction data storage means 207, and specifically, Z (x ) -S (x) is calculated to calculate the corrected image shift amount ZT. The corrected image shift amount ZT is converted into a defocus amount (a shift amount between the subject image and a predetermined image formation of the photographing lens) by the correction calculation unit 206 and sent to the display drive unit 208. This means 208 displays the focus adjustment state based on the defocus amount and drives the taking lens to the in-focus position. This operation will be described below. A pair of arrays 1
Image output from 05 and 106 a1 ... aN, b1 ... b
N is stored in the data memory means 204 after A / D conversion. Image outputs a1 ... aN stored in the data memory means 204 are illustrated in FIG. 6 (a). Image shift calculation means 2
Reference numeral 05 designates this image output as shown in FIG. 6B or 6C, for example, five areas X-2, X-1, X0, X.
1 and X2, and image output b1 ... bN in exactly the same way
Is divided into five regions X-2, X-1, X0, X1, and X2, and the partial region Xi is output from the image output of each partial region X1.
The partial image shift amount Z (xi) with respect to the center xi of is calculated individually. The correction calculation means 206 calculates the partial correction amount S (xi) at the location xi from the contents of the correction data storage means 207. This partial correction amount S (xi) is obtained by substituting x = xi into the function S (x) as shown in FIG. Thereafter, the correction calculation unit 206 subtracts the partial correction amount S (xi) from the partial image shift amount Z (xi) to obtain the corrected partial image shift amount Z.
Get T (xi). That is, ZT (xi) = Z (xi)-
Get S (xi). In this way, the correction calculation means 206 obtains the corrected partial image shift amount ZT (xi) for each partial area Xi, and, for example, the simple average ΣZT (xi) / 5 of these values.
Is calculated as the final image shift amount, converted into a defocus amount, and sent to the display drive unit 208. There are various methods for obtaining the final image shift amount ZT from the partial image shift amount ZT (xi) for each partial region Xi, depending on the purpose, but some examples will be shown below. (A1) Corrected partial image shift amount ZT (xi) as described above
The average value of is the final image shift amount ZT. (A2) An average value of the remaining corrected partial image shift amounts excluding the maximum and minimum corrected partial image shift amounts ZT (xi) is set as the final image shift amount ZT. (A3) When the corrected partial image shift amounts ZT (xi) are arranged in descending order, the central one is set as the final image shift amount ZT. (A4) The corrected partial image shift amount ZT related to the partial area having the maximum information amount E (x) described later is set as the final image shift amount ZT. (A5) The final image shift amount Z is obtained by adding the average value of the corrected partial image shift amounts ZT (xi) relating to the plurality of partial regions having a relatively large amount of information or the weighted addition of the average value according to the information amount
Let T. As an algorithm for calculating the partial image shift from the data of each partial region Xi, for example, means for performing Fourier transform on the image output and comparing the phases (Japanese Patent Laid-Open No. 54-54).
No. 104859) or a means for calculating a shift amount that gives a maximum correlation by performing a correlation calculation (Japanese Patent Laid-Open No. 57-45510). When the number of photoelectric conversion elements included in the partial region Xi is small, it is more accurate to use the Fourier transform method. When a deep subject is imaged on the array, if the image shift amount is calculated using the image output of the entire area of the array, it is completely unknown which part of the depth subject is automatically focused. Becomes The problem regarding such a depth subject can be solved as follows by calculating the partial image shift amount Z (xi) for each partial region Xi as described above. (B1) If the image shift amount having the smallest image shift amount is selected from the plurality of partial image shift amounts Z (xi) and the final image shift amount ZT is obtained based on this, the defocus amount for the portion closest to the depth subject is calculated. On the contrary, by selecting the one having the largest partial image shift amount, the defocus amount for the distant portion can be obtained, and by selecting the intermediate one, the defocus amount for the intermediate distance portion can be obtained. (B2) If a plurality of partial image shift amounts Z (xi) have almost the same value, the value is selected and the final image shift amount ZT is calculated based on the selected value. Can be obtained. (B3) A partial image shift amount in the partial area Xi having the largest amount of information, which will be described later, is selected and the final image shift amount ZT
Is obtained, it is possible to obtain the defocus amount for the subject having the most information for focus detection, generally, the subject having the best contrast. Next, a specific example of calculating the partial image shift amount as described above will be described with reference to a flowchart. Figure 7
In step (2), the image shift calculating unit 205 calculates the partial image shift amount Z (xi) and the information amount E (xi) in each partial region Xi. Here, the information amount E (xi) represents the reliability of the corresponding partial image shift amount Z (xi). The larger the value of this information amount, the higher the accuracy of the corresponding partial image shift amount. Specifically, if the image shift calculation is performed by the phase comparison after the Fourier transform as the information amount, the values related to the amplitude after the Fourier transform (r1, r1 ′ in JP-A-55-98710). , R2, r2 '
Is applicable. ) Can be used, and when the image shift calculation is a correlation method, an autocorrelation value Wm described later can be used. In the step, each of the partial areas Xi
The information amount E (xi) of is compared with a predetermined threshold Eth, and the partial area Xi having the information amount E (xj) having a value larger than this threshold is selected. In the step, the correction data storage means 2
The partial correction amount S (xj) in the selected partial area xj is calculated from the content S (x) of 07, and the partial image deviation amount Z (xj) in the selected partial area Xj is calculated as the partial image deviation amount Z (xi. ) To choose from. In step, the corrected partial image shift amount ZT (xj) for the selected area Xj is ZT (xj) =
It is calculated from Z (xj) -S (xj). In step, the corrected partial image shift amount ZT (x
j) whether the variation is smaller than a predetermined value ΔZ, specifically, whether the difference between the maximum value and the minimum value of the corrected partial image displacement amount ZT (xj) is smaller than a predetermined value. If it is small, the process proceeds to the step because the subject has no depth, and if it is not small, the subject is determined to have the depth and the process proceeds to step. In the step, for example, the above (A1)-
The final shift amount ZT is obtained by any of the processes in (A5). In the step, for example, the above (B1) to (B3)
The final image shift amount ZT is obtained by any one of the processes. In the above embodiments, a plurality of partial image shift amounts are calculated from a pair of image outputs, but a second embodiment for calculating a single image shift amount will be described next. FIG. 8A shows the data memory means 20 of FIG.
A pair of data strings A1 ... AN, B1 ... BN stored in No. 4
Shows one of. This data string may be the image output itself of the photoelectric element array as described above, or the image output obtained by filtering or sampling it. In FIG. 2, the image shift calculation means 205 is a pair of data strings A1 stored in the data memory means 204.
... AN, B1 ... BN, and one data string A1 ... AN
While shifting the other data string B1 ... BN by a predetermined amount, the correlation amount C (L) for each shift amount L is obtained. That is, ## EQU1 ## The shift amount L that minimizes this function C (L)
m is obtained as the image shift amount. Since the image shift amount Lm thus obtained by the correlation calculation includes an error caused by insufficient adjustment of the optical system as described above, the image shift amount Lm must be corrected by the correction data S (x). I won't. However, this image shift amount is determined by the data strings A1 ... AN, B1 ... B.
Since the calculation is made from all N areas, it becomes a problem which area of the correction data S (x) is used as the correction amount. This problem is solved as follows. The data strings A1 ... AN, B1 ... BN do not all contribute equally to the correlation amount C (L), and
As shown in (a), the portion Y in which the data string changes drastically contributes greatly, and the portion in which the change changes gently contributes little. That is, it depends on the size of the contrast of each part. Therefore, if the degree of the above contribution (hereinafter referred to as the degree of contribution) for each place x of the data strings A1 ... AN, B1 ... BN is obtained, and the correction amount is obtained from the contribution correction data S (x) corresponding to this place Good. The contribution Wm can be obtained, for example, from the difference between adjacent data in the data string. That is, Wm = | Am-Am + 1 | or | Bm
-Bm + 1 |. This value Wm is shown in FIG. Of course, | Am-Am + 1 | + | Bm-Bm + 1 | can be used as Wm. The correction amount ST is as follows: Here, Sm is s when x = m
(X). Therefore, the corrected image shift amount ZT is obtained from the following equation. ZT = Lm-ST It should be noted that the positional deviation amount according to the location between the relative position between the first photoelectric element array and the optical image on it and the relative position between the second photoelectric element array and the optical image on it. When is extremely large, it may be difficult to correct the image shift amount with high accuracy using the correction data S (x). Therefore, the positional deviation amount is corrected in advance to some extent by changing the pitch of the photoelectric elements of the first and second photoelectric element arrays according to the location, and the remaining positional deviation amount is stored as correction data. It is desirable to do. As is apparent from the above description, according to the present invention, the relative position between the first photoelectric element array and the optical image thereon due to the insufficient adjustment of the optical system and the like, Since the correction data relating to the positional deviation generated according to the position of the relative position between the photoelectric element array and the optical image on the photoelectric element array is stored, and the image deviation amount is corrected by this correction data, the photoelectric deviation is corrected. The fine adjustment of the optical system of the dynamic image displacing device is not required, and the volume balance can be greatly improved.

【図面の簡単な説明】 【図1】(a)は一般的な焦点検出光学系と光電素子ア
レイとの関係を示す光学図。(b)は光電素子上の光像
位置を示す正面図。 【図2】本発明の一実施例を示すブロック図。 【図3】相対的位置ずれ量の一例を示すグラフ。 【図4】(a)及び(b)は補正データ記憶手段の具体
的構成例を示す回路図。 【図5】相対的位置ずれ量の別の例を示すグラフ。 【図6】(a)はイメージ出力の一例を示すグラフ。
(b)及び(c)はイメージ出力を複数の領域に分割す
る様子を示す図。 【図7】第1実施例の具体的な作用を示すフローチャー
ト。 【図8】(a)はイメージ出力の別の例を示すグラフ。
(b)はイメージ出力の変化の激しさを示すグラフであ
る。 【主要部分の符号の説明】 105、106…光電素子アレイ 205…像ずれ演算手段 206…補正演算手段 207…補正データ記憶手段
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1A is an optical diagram showing a relationship between a general focus detection optical system and a photoelectric element array. FIG. 3B is a front view showing the position of an optical image on the photoelectric element. FIG. 2 is a block diagram showing an embodiment of the present invention. FIG. 3 is a graph showing an example of a relative positional deviation amount. 4A and 4B are circuit diagrams showing a specific configuration example of a correction data storage unit. FIG. 5 is a graph showing another example of the relative positional deviation amount. FIG. 6A is a graph showing an example of image output.
FIGS. 9B and 9C are diagrams showing how the image output is divided into a plurality of areas. FIG. 7 is a flowchart showing a specific operation of the first embodiment. FIG. 8A is a graph showing another example of image output.
(B) is a graph showing the intensity of change in image output. [Description of Signs of Main Parts] 105, 106 ... Photoelectric element array 205 ... Image shift calculation means 206 ... Correction calculation means 207 ... Correction data storage means

─────────────────────────────────────────────────────
【手続補正書】 【提出日】平成3年7月3日 【手続補正1】 【補正対象書類名】明細書 【補正対象項目名】特許請求の範囲 【補正方法】変更 【補正内容】 【特許請求の範囲】 (1) 被写界の複数の異なる領域についてそれぞれ視差
を有する2像を形成する焦点検出光学系と、 前記それぞれの2像に関する光電出力から前記複数の領
域に関する複数の像ずれ量を算出する演算手段と、 前記複数の像ずれ量のうち、最も近距離に対応する像ず
れ量に基づいて表示、もしくはレンズ駆動をすることを
特徴とする焦点検出装置。 (2) 被写界の複数の異なる領域についてそれぞれ視差
を有する2像を形成する焦点検出光学系と、 前記それぞれの2像に関する光電出力から前記複数の領
域に関する複数の像ずれ量を算出する演算手段と、 前記複数の像ずれ量について広い領域を占める被写体に
対応する像ずれ量に基づいて表示もしくはレンズ駆動を
することを特徴とする焦点検出装置。 (3) 前記焦点検出光学系は、前記被写界のほぼ連続し
た所定領域について視差を有する2像を形成し、 前記演算手段は、該2像に関する光電出力を複数部分に
分割することにより前記領域に関する複数の像ずれ量を
算出することを特徴とする特許請求の範囲第(1)項及び
(2)項記載の焦点検出装置。 【手続補正2】 【補正対象書類名】明細書 【補正対象項目名】0003 【補正方法】変更 【補正内容】 【0003】この検出された2次像の相対的位置関係か
ら焦点検出を行う。 【手続補正3】 【補正対象書類名】明細書 【補正対象項目名】0004 【補正方法】変更 【補正内容】 【0004】 【発明が解決しようとする課題】このようにして焦点検
出を行う場合、従来は被写体の一つの部分のみについて
焦点検出を行っていたために焦点検出可能な場所が限定
されていた。また、その検出領域に検出可能な被写体が
無い場合には焦点検出が不能であった。このようなこと
を避けるために焦点検出領域を広く取ると奥行きのある
被写体が一つの焦点検出領域の中に存在する場合が増え
て焦点検出が不能となってしまうと言う問題が生じてい
た。 【手続補正4】 【補正対象書類名】明細書 【補正対象項目名】0005 【補正方法】削除 【手続補正5】 【補正対象書類名】明細書 【補正対象項目名】0006 【補正方法】変更 【補正内容】 【0006】以上のような問題は図1の瞳分割式焦点検
出装置に限らず、同一物体に関する一対の光像を光電検
出しその相対位置から測距又は焦点検出する装置におい
て、光電的像変位検出を行う際に共通するものである。
本発明の目的は被写体の複数の部分について焦点検出を
可能とし、求められた複数の像ずれ量検出結果から被写
体の奥行きの存在を配慮して、最も撮影者の意図を反映
していると考えられる被写体に焦点を合わせるようにす
ることにある。この目的を達成するために本発明では、
第一の方法として複数の像ずれ量の検出結果からカメラ
に最も近い被写体を選択して、該被写体に焦点合わせを
行うようにしている。また、第二の方法として複数の像
ずれ量の検出結果からほぼ等しい値を取る領域すなわち
広い範囲を占める被写体に焦点を合わせるようにしてい
る。 【手続補正6】 【補正対象書類名】明細書 【補正対象項目名】0015 【補正方法】変更 【補正内容】 【0015】再び図2に戻って、補正演算手段206は
像ずれ演算手段205の出力Z(x)を補正データ記憶
手段207の補正データS(x)で補正し、具体的には
Z(x)−S(x)の演算を行って、補正された像ずれ
量ZTを算出する。この補正済像ずれ量ZTは、補正演
算手段206でデフォーカス量(被写体像と撮影レンズ
の所定結像面との間のずれ量)に換算され、表示駆動手
段208に送られる。この手段208はデフォーカス量
に基づき焦点調節状態を表示しまた撮影レンズを合焦位
置に駆動する。 【手続補正7】 【補正対象書類名】明細書 【補正対象項目名】0024 【補正方法】変更 【補正内容】 【0024】ステップでは、例えば前記(A1)〜
(A5)のいずれかの処理により最終ずれ量ZTを求め
る。ステップでは、例えば上述の(B1)〜(B3)
のいずれかの処理で最終像ずれ量ZTを求める。この最
終像ずれ量をデフォーカス量に換算して表示、駆動が行
われる。なお、像ずれ量とデフォーカス量とは比例関係
にあるので、複数の像ずれ量を複数のデフォーカス量に
変換してから前記の比較、選択を行いこの結果に基づい
て表示、駆動を行うようにしても良い。次に一つの検出
領域内において前記補正量S(x)が大きく変わる場合
の補正の方法について説明する。 【手続補正8】 【補正対象書類名】明細書 【補正対象項目名】0027 【補正方法】変更 【補正内容】 【0027】 【数1】 【手続補正9】 【補正対象書類名】明細書 【補正対象項目名】0028 【補正方法】変更 【補正内容】 【0028】この関数C(L)が最小となるシフト量L
m を像ずれ量として求める。このように相関演算により
求めた像ずれ量Lm は上述のような光学系の調整不足等
に起因する誤差を含んでいるので、この像ずれ量Lm
補正データS(x)で補正しなければならない。しかし
ながら、この像ずれ量はデータ列A1…AN、B1…B
Nの全領域から算出しているので、補正量として補正デ
ータS(x)のどの領域を用いるかが問題となる。 【手続補正10】 【補正対象書類名】明細書 【補正対象項目名】0029 【補正方法】変更 【補正内容】 【0029】この問題は、次のように解決される。デー
タ列A1…AN、B1…BNは、そのどの部分も上記相
関量C(L)に等しく寄与しているのでなく、図8
(a)に示した如くデータ列の変化の激しい部分Yが大
きく寄与し変化のゆるやかな部分は寄与が小さい。即ち
各部分のコントラストの大小に依存している。従ってデ
ータ列A1…AN、B1…BNの場所x毎の上記寄与の
程度(以下寄与度と称する。)を求め、この場所に応じ
た寄与度補正データS(x)とから補正量を求めればよ
い。この寄与度Wm は、例えばデータ列の隣接するデー
タの差分から求め得る。 【手続補正11】 【補正対象書類名】明細書 【補正対象項目名】0030 【補正方法】変更 【補正内容】 【0030】即ち、Wm =|Am −Am+1 |又は|Bm
−Bm+1 |。この値Wm を図8(b)に示す。もちろん
m として|Am −Am+1 |+|Bm −Bm+1 |を用い
ることもできる。補正量STは、 【手続補正12】 【補正対象書類名】明細書 【補正対象項目名】0031 【補正方法】変更 【補正内容】 【0031】 【数2】 【手続補正13】 【補正対象書類名】明細書 【補正対象項目名】0032 【補正方法】変更 【補正内容】 【0032】ここでSm は、x=mとしたときのs
(x)である。従って、補正済像ずれ量ZTは次式より
求まる。ZT=Lm −ST 尚、第1光電素子アレイとそれ上の光像との相対位置
と、第2光電素子アレイとそれ上の光像との相対位置と
の間の場所に応じた位置ずれ量が著しく大きい場合に
は、補正データS(x)により像ずれ量を高精度で補正
することは困難となることがある。そこで、第1及び第
2光電素子アレイの光電素子のピッチを場所に応じて変
化させることにより上記位置ずれ量を予め或る程度補正
し、それでも残存した位置ずれ量を補正データとして記
憶するようにすることが望ましい。 【手続補正14】 【補正対象書類名】明細書 【補正対象項目名】0033 【補正方法】変更 【補正内容】 【0033】 【発明の効果】以上のように本発明によれば、被写体の
複数の部分について焦点検出を行い、求められた複数の
像ずれ量の検出結果から被写体の奥行きの存在を配慮し
て、最も撮影者に近いものもしくは広い範囲を占めるも
のを選択して、これにより焦点検出結果の表示もしくは
撮影レンズの駆動を行うので、撮影者の意図を反映して
いると考えられる被写体に焦点を合わせることが出来
る。 【手続補正15】 【補正対象書類名】明細書 【補正対象項目名】図面の簡単な説明 【補正方法】変更 【補正内容】 【図面の簡単な説明】 【図1】(a)は一般的な焦点検出光学系と光電素子ア
レイとの関係を示す光学図。(b)は光電素子上の光像
位置を示す正面図。 【図2】本発明の一実施例を示すブロック図。 【図3】相対的位置ずれ量の一例を示すグラフ。 【図4】(a)及び(b)は補正データ記憶手段の具体
的構成例を示す回路図。 【図5】相対的位置ずれ量の別の例を示すグラフ。 【図6】(a)はイメージ出力の一例を示すグラフ。
(b)及び(c)はイメージ出力を複数の領域に分割す
る様子を示す図。 【図7】第1実施例の具体的な作用を示すフローチャー
ト。 【図8】(a)はイメージ出力の別の例を示すグラフ。
(b)はイメージ出力の変化の激しさを示すグラフであ
る。 【主要部分の符号の説明】 105、106…光電素子アレイ 205…像ずれ演算手段 206…補正演算手段 207…補正データ記憶手段
─────────────────────────────────────────────────── ───
[Procedure Amendment] [Date of submission] July 3, 1991 [Procedure Amendment 1] [Document name for amendment] Specification [Item name for amendment] Claims [Amendment method] Change [Amendment content] [Patent] (1) A focus detection optical system that forms two images having parallax for a plurality of different regions of the object field, and a plurality of image shift amounts for the plurality of regions from the photoelectric output for each of the two images. And a focus detection device that performs display or lens drive based on the image shift amount corresponding to the shortest distance among the plurality of image shift amounts. (2) A focus detection optical system that forms two images having parallax for a plurality of different regions of the object field, and a calculation that calculates a plurality of image shift amounts for the plurality of regions from photoelectric outputs of the two images. And a focus detection device that performs display or lens drive based on an image shift amount corresponding to a subject occupying a wide area with respect to the plurality of image shift amounts. (3) The focus detection optical system forms two images having a parallax with respect to a substantially continuous predetermined area of the object scene, and the computing means divides the photoelectric output of the two images into a plurality of parts to obtain the two images. Claim (1) characterized in that it calculates a plurality of image shift amount related to the area and
The focus detection device according to item (2). [Procedure correction 2] [Document name to be corrected] Specification [Item name to be corrected] 0003 [Correction method] Change [Details of correction] Focus detection is performed from the relative positional relationship of the detected secondary image. [Procedure Amendment 3] [Name of Document to be Amended] Specification [Name of Item to Amend] [Correction Method] Change [Content of Amendment] [Problem to be Solved by the Invention] In the case of performing focus detection in this way In the past, focus detection was performed only on one part of the subject, so the places where focus detection was possible were limited. Further, if there is no detectable subject in the detection area, focus detection is impossible. If the focus detection area is widened in order to avoid such a situation, there is a problem that focus detection becomes impossible because the subject with a depth is often present in one focus detection area. [Procedure Amendment 4] [Document Name for Amendment] Specification [Correction Target Item Name] 0005 [Correction Method] Deleted [Procedure Amendment 5] [Correction Target Document Name] Specification [Correction Target Item Name] 0006 [Correction Method] Change [Details of correction] The above problem is not limited to the pupil division type focus detection device of FIG. 1, but in a device for photoelectrically detecting a pair of optical images of the same object and performing distance measurement or focus detection from their relative positions, This is common when performing photoelectric image displacement detection.
It is considered that the object of the present invention enables focus detection for a plurality of parts of a subject, and considers the presence of the depth of the subject from the obtained plurality of image shift amount detection results, and reflects the intention of the photographer most. The focus is on the subject. To achieve this object, in the present invention,
As a first method, a subject closest to the camera is selected from the detection results of a plurality of image shift amounts, and the subject is focused. Further, as a second method, an object having a substantially equal value from the detection results of a plurality of image shift amounts, that is, an object occupying a wide range is focused. [Procedure Amendment 6] [Name of Document to be Amended] Specification [Name of Item to Amend] [Method of Amendment] Change [Content of Amendment] Returning again to FIG. The output Z (x) is corrected by the correction data S (x) of the correction data storage unit 207, and specifically, the calculation Z (x) -S (x) is performed to calculate the corrected image shift amount ZT. To do. The corrected image shift amount ZT is converted into a defocus amount (a shift amount between the subject image and a predetermined image forming surface of the photographing lens) by the correction calculation unit 206 and sent to the display drive unit 208. This means 208 displays the focus adjustment state based on the defocus amount and drives the taking lens to the in-focus position. [Procedure Amendment 7] [Name of Document to Amend] Specification [Name of Item to Amend] 0024 [Correction Method] Change [Content of Amendment] In the step, for example, (A1)-
The final shift amount ZT is obtained by any of the processes in (A5). In the step, for example, the above (B1) to (B3)
The final image shift amount ZT is obtained by any one of the processes. This final image shift amount is converted into a defocus amount, and display and drive are performed. Since the image shift amount and the defocus amount are in a proportional relationship, a plurality of image shift amounts are converted into a plurality of defocus amounts, the above comparison and selection are performed, and display and driving are performed based on the result. You may do it. Next, a correction method in the case where the correction amount S (x) greatly changes in one detection area will be described. [Procedure Amendment 8] [Name of Documents to Amend] Specification [Name of Items to Amend] 0027 [Method of Amendment] Change [Content of Amendment] [0027] [Equation 1] [Procedure Amendment 9] [Name of Document to be Amended] Specification [Name of Item to Amend] 0028 [Correction Method] Change [Content of Amendment] [Shift amount L that minimizes this function C (L)]
Obtain m as the image shift amount. Since the image shift amount L m thus obtained by the correlation calculation includes an error due to insufficient adjustment of the optical system as described above, the image shift amount L m is corrected by the correction data S (x). There must be. However, this image shift amount is determined by the data strings A1 ... AN, B1 ... B.
Since the calculation is made from all N areas, it becomes a problem which area of the correction data S (x) is used as the correction amount. [Procedure Amendment 10] [Name of Document to Amend] Specification [Name of Item to Amend] 0029 [Method of Amendment] Change [Content of Amendment] [0029] This problem is solved as follows. The data strings A1 ... AN, B1 ... BN do not all contribute equally to the correlation amount C (L), and
As shown in (a), the portion Y in which the data string changes drastically contributes greatly, and the portion in which the change changes gently contributes little. That is, it depends on the size of the contrast of each part. Therefore, if the degree of the above contribution (hereinafter referred to as the degree of contribution) for each place x of the data strings A1 ... AN, B1 ... BN is obtained, and the correction amount is obtained from the contribution correction data S (x) corresponding to this place Good. The contribution W m can be obtained, for example, from the difference between adjacent data in the data string. [Procedure Amendment 11] [Name of Document to Amend] Specification [Name of Item to Amend] 0030 [Correction Method] Change [Details of Amendment] That is, W m = | A m −A m + 1 | or | B m
-B m + 1 |. This value W m is shown in FIG. Of course, it is also possible to use | A m −A m + 1 | + | B m −B m + 1 | as W m . The correction amount ST is [procedure correction 12] [correction target document name] specification [correction target item name] 0031 [correction method] change [correction content] [0031] [Equation 2] [Procedure amendment 13] [Document name for amendment] Specification [Item name for amendment] [Correction method] Change [Correction content] Here, S m is s when x = m
(X). Therefore, the corrected image shift amount ZT is obtained from the following equation. ZT = L m −ST In addition, a positional shift corresponding to a position between the relative position between the first photoelectric element array and the optical image on it and the relative position between the second photoelectric element array and the optical image on it. If the amount is extremely large, it may be difficult to correct the image shift amount with high accuracy using the correction data S (x). Therefore, the positional deviation amount is corrected in advance to some extent by changing the pitch of the photoelectric elements of the first and second photoelectric element arrays according to the location, and the remaining positional deviation amount is stored as correction data. It is desirable to do. [Procedure Amendment 14] [Name of Document to Amend] Specification [Name of Item to Amend] [Correction Method] Change [Details of Amendment] [Effect of the Invention] As described above, according to the present invention, a plurality of subjects Focus detection is performed on the part of the image, and in consideration of the depth of the subject from the obtained detection results of multiple image shift amounts, the one closest to the photographer or the one occupying a wide range is selected, and Since the detection result is displayed or the photographing lens is driven, it is possible to focus on the subject that is considered to reflect the intention of the photographer. [Procedure Amendment 15] [Document Name for Amendment] Description [Item Name for Amendment] Brief Description of Drawing [Correction Method] Change [Details of Amendment] [Simple Description of Drawing] [Fig. 1] (a) is general FIG. 6 is an optical diagram showing the relationship between a focus detection optical system and a photoelectric element array. FIG. 3B is a front view showing the position of an optical image on the photoelectric element. FIG. 2 is a block diagram showing an embodiment of the present invention. FIG. 3 is a graph showing an example of a relative positional deviation amount. 4A and 4B are circuit diagrams showing a specific configuration example of a correction data storage unit. FIG. 5 is a graph showing another example of the relative positional deviation amount. FIG. 6A is a graph showing an example of image output.
FIGS. 9B and 9C are diagrams showing how the image output is divided into a plurality of areas. FIG. 7 is a flowchart showing a specific operation of the first embodiment. FIG. 8A is a graph showing another example of image output.
(B) is a graph showing the intensity of change in image output. [Description of Signs of Main Parts] 105, 106 ... Photoelectric element array 205 ... Image shift calculation means 206 ... Correction calculation means 207 ... Correction data storage means

Claims (1)

【特許請求の範囲】 (1) 被写界の複数の異なる領域についてそれぞれ視差
を有する2像を形成する焦点検出光学系と、前記それぞ
れの2像に関する光電出力から前記複数の領域に関する
複数の像ずれ量を算出する演算手段と、前記複数の像ず
れ量のうち、最も近距離を示す像ずれ量を焦点検出出力
とすることを特徴とする焦点検出装置。 (2) 被写界の複数の異なる領域についてそれぞれ視差
を有する2像を形成する焦点検出光学系と、前記それぞ
れの2像に関する光電出力から前記複数の領域に関する
複数の像ずれ量を算出する演算手段と、前記複数の像ず
れ量について最も広い領域を占める被写体に対応する像
ずれ量を焦点検出出力とすることを特徴とする焦点検出
装置。 (3) 前記焦点検出光学系は、前記被写界のほぼ連続し
た所定領域について視差を有する2像を形成し、前記演
算手段は、該2像に関する光電出力を複数部分に分割す
ることにより前記領域に関する複数の像ずれ量を算出す
ることを特徴とする特許請求の範囲第1項及び第2項記
載の焦点検出装置。
What is claimed is: (1) A focus detection optical system that forms two images having parallaxes in a plurality of different regions of the object field, and a plurality of images of the plurality of regions from photoelectric output of the two images. A focus detection device, characterized in that a calculation means for calculating a shift amount and an image shift amount indicating the shortest distance among the plurality of image shift amounts are used as focus detection outputs. (2) A focus detection optical system that forms two images having parallaxes in a plurality of different regions of the object field, and a calculation that calculates a plurality of image shift amounts of the plurality of regions from photoelectric outputs of the two images. And a focus detection device that outputs an image shift amount corresponding to a subject occupying the widest area among the plurality of image shift amounts as focus detection output. (3) The focus detection optical system forms two images having a parallax with respect to a substantially continuous predetermined region of the object field, and the computing means divides the photoelectric output of the two images into a plurality of parts to obtain the two images. The focus detection device according to claim 1 or 2, wherein a plurality of image shift amounts regarding the area are calculated.
JP3136862A 1991-06-07 1991-06-07 Focus detection device Expired - Lifetime JP2753544B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3136862A JP2753544B2 (en) 1991-06-07 1991-06-07 Focus detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3136862A JP2753544B2 (en) 1991-06-07 1991-06-07 Focus detection device

Publications (2)

Publication Number Publication Date
JPH08211284A true JPH08211284A (en) 1996-08-20
JP2753544B2 JP2753544B2 (en) 1998-05-20

Family

ID=15185259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3136862A Expired - Lifetime JP2753544B2 (en) 1991-06-07 1991-06-07 Focus detection device

Country Status (1)

Country Link
JP (1) JP2753544B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100473436B1 (en) * 1996-09-26 2005-06-29 후지 덴키 가부시끼가이샤 Distance detection value correction method
JP2006133515A (en) * 2004-11-05 2006-05-25 Olympus Corp Camera having focus detector
JP2006145862A (en) * 2004-11-19 2006-06-08 Olympus Corp Camera with range finder, and range-finding method for camera
JP2007333720A (en) * 2006-05-17 2007-12-27 Nikon Corp Correlation calculation method, correlation calculation device, focus detecting device, and imaging device
US9344621B2 (en) 2014-10-14 2016-05-17 Olympus Corporation Imaging device and control method for imaging device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5678811A (en) * 1979-12-03 1981-06-29 Ricoh Co Ltd Automatic focus controlling device
JPS5931933A (en) * 1982-07-26 1984-02-21 ポラロイド・コ−ポレ−シヨン Photographic exposure controller
JPS6036906A (en) * 1983-08-09 1985-02-26 Konishiroku Photo Ind Co Ltd Photoelectric type distance measuring apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5678811A (en) * 1979-12-03 1981-06-29 Ricoh Co Ltd Automatic focus controlling device
JPS5931933A (en) * 1982-07-26 1984-02-21 ポラロイド・コ−ポレ−シヨン Photographic exposure controller
JPS6036906A (en) * 1983-08-09 1985-02-26 Konishiroku Photo Ind Co Ltd Photoelectric type distance measuring apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100473436B1 (en) * 1996-09-26 2005-06-29 후지 덴키 가부시끼가이샤 Distance detection value correction method
JP2006133515A (en) * 2004-11-05 2006-05-25 Olympus Corp Camera having focus detector
JP2006145862A (en) * 2004-11-19 2006-06-08 Olympus Corp Camera with range finder, and range-finding method for camera
JP2007333720A (en) * 2006-05-17 2007-12-27 Nikon Corp Correlation calculation method, correlation calculation device, focus detecting device, and imaging device
US9344621B2 (en) 2014-10-14 2016-05-17 Olympus Corporation Imaging device and control method for imaging device

Also Published As

Publication number Publication date
JP2753544B2 (en) 1998-05-20

Similar Documents

Publication Publication Date Title
JP6053347B2 (en) Imaging apparatus, control method therefor, and program
JPS60262004A (en) Apparatus for photoelectrical detection of image displacement
JP2013037166A (en) Focus detector, and lens device and imaging device having the same
JPH0666007B2 (en) Camera focus detector
JPH0328691B2 (en)
JP6485116B2 (en) Focus position detection device, focus position detection method, and computer program for focus position detection
JPH08211284A (en) Focus detector
US10339665B2 (en) Positional shift amount calculation apparatus and imaging apparatus
CN104949659B (en) Distance detection device and method, imaging device and parallax amount detecting device
JPH06103182B2 (en) Focus detection device
JPH0762732B2 (en) Focus detection device
JP2545758B2 (en) Focus detection device
JPH0540037A (en) Focus detecting device
JPH0540036A (en) Focus detecting device
JP2013247435A (en) Imaging device
JPS626206B2 (en)
JP4817552B2 (en) Phase difference detection method, phase difference detection device, distance measuring device, and imaging device
JP3230759B2 (en) Distance measuring device
JPH0693059B2 (en) Focus detection device
WO2016042721A1 (en) Positional shift amount calculation apparatus and imaging apparatus
JP2005147959A (en) Distance-measuring method and distance-measuring device
JPH07110432A (en) Range-finder
JP3427215B2 (en) Camera TTL metering device
JPH0527161A (en) Focus detecting device
JP2019004312A (en) Image processing apparatus, imaging apparatus, lens apparatus, image processing method, program, and storage medium

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term