JPH06288767A - Focus detecting device - Google Patents

Focus detecting device

Info

Publication number
JPH06288767A
JPH06288767A JP3136858A JP13685891A JPH06288767A JP H06288767 A JPH06288767 A JP H06288767A JP 3136858 A JP3136858 A JP 3136858A JP 13685891 A JP13685891 A JP 13685891A JP H06288767 A JPH06288767 A JP H06288767A
Authority
JP
Japan
Prior art keywords
image
amount
correction
shift amount
image shift
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3136858A
Other languages
Japanese (ja)
Other versions
JP2545758B2 (en
Inventor
Takeshi Utagawa
健 歌川
Yosuke Kusaka
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP3136858A priority Critical patent/JP2545758B2/en
Publication of JPH06288767A publication Critical patent/JPH06288767A/en
Application granted granted Critical
Publication of JP2545758B2 publication Critical patent/JP2545758B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To provide a highly precise focus detecting device where the optical adjustment is easy and the mass productivity is high. CONSTITUTION:Photoelectron arrays 105, 106 are continuously arranged in a photoelectron conversion part 201. The image of the same subject is formed on these devices by a focus detecting optical system. The image output of the photoelectron arrays 105, 106 is A/D converted, and stored in a data memory means 204 within a microcomputer 203. An image deviation computing means 205 computes the relative deviation of the representative image outputs. A correction data storing means 207 stores the correction data to correct the output of the image deviation computing means 205. A correction computing means 206 computes the correction by the correction data of the correction data storing means 207, and the correction is converted into the de-focus amount (the deviation between the image of the subject and the specified image formed by a photographing lens), and received by a display driving means 208. The display driving means 208 displays the focus adjustment condition based on the de-focus amount, and drives the photographing lens to the focusing position.

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、一対の光電素子アレイ
上にそれぞれ結像されたほぼ同一物体の光像の相対的変
位を検出する焦点検出装置に係わり、特に、カメラ等の
焦点検出装置や測距装置に使用される。 【0002】 【従来の技術】図1(a)は一般のカメラ等の焦点検出
装置の光学系を示すもので被写体100は撮影レンズ1
01によりフィールドレンズ102の近傍に結像され
る。この被写体100の一次像は第1、第2の再結像レ
ンズ103、104によりそれぞれ第1、第2の光電素
子アレイ105、106上に2次像として結像される。
このアレイ105、106上の2次像の相対的位置関係
がアレイのイメージ出力から検出される。 【0003】このような焦点検出を高精度に行う為に
は、光電素子アレイ105上に分布する光像の各点と光
電素子アレイ106上に分布する光像の対応する各点と
が、合焦時には互に相対的に完全に一致し、非合焦時に
は各対応する点とも非合焦量に応ずる同量だけずれてい
ることが必要である。もちろん、合焦時に対応する各点
が一定量ずれるように定めることもできる。 【0004】 【発明が解決しようとする課題】ところが、フィールド
レンズ102や再結像レンズ103、104等から成る
焦点検出光学系の収差や調整不足等の原因により、上記
条件が満たされず、例えば合焦時に図1(b)に示すよ
うに被写体100の中心点100aの像点107a、1
08aは、各アレイ105、106の同一位置(例えば
中心)に結像するが、周辺の点100bの像点107
b、108bは相対的にずれて結像される。 【0005】この為、点像107aと108aとに基づ
く焦点検出結果と点像107bと108bとに基づく焦
点検出結果とでは差異が生じ正しい焦点検出が不可能と
なる。このような各アレイとその上の光像との相対位置
の、アレイの場所に応じた差異(以下これを位置ずれと
称する。)を除去するには、収差の極めて少ない焦点検
出光学系を採用しかつ光学的調整を極めて入念に行なわ
なければならず、これは焦点検出光学系のコストの上昇
及び量産性の著しい低下を招来する。 【0006】以上のような問題は図1の瞳分割式焦点検
出装置に限らず、同一物体に関する一対の光像を光電検
出しその相対位置から測距又は焦点検出する装置におい
て、光電的像変位検出を行う際に共通するものである。
本発明の目的は光学的調整が容易でかつ量産性が高い高
精度な焦点検出装置(測距装置)を提供することであ
る。 【0007】 【実施例】以下、本発明の一実施例を図面を参照して説
明する。図2において、光電変換部201にはそれぞれ
CCD等のイメージセンサーから成る一対の光電素子ア
レイ105、106が並置されている。この各光電素子
アレイには図1と同様の焦点検出光学系により同一被写
体の像が結像される。アレイ105からのイメージ出力
a1…aNは順次時系列的にA/Dコンバータ202に
よりA/D変換され、マイクロコンピュータ203内の
データメモリ手段204に記憶され、全く同様にアレイ
106からのイメージ出力b1…bNもA/Dコンバー
タ202を介してデータメモリ手段204に記憶され
る。 【0008】像ずれ演算手段205は前記一対のイメー
ジ出力a1…aN、b1…bNに基づき両イメージ出力
の相対的ずれ量、即ち、一対のアレイ上の光像の相対的
ずれ量を演算する。もちろん、像ずれ演算に用いるデー
タは必ずしもアレイの直接のイメージ出力である必要は
なく,これらの出力を適当にフィルタリング処理したり
サンプリングしたイメージ出力であってもよい。 【0009】補正データ記憶手段207は、上記像ずれ
演算手段205の出力を補正する補正データを記憶して
いる。この補正データは以下のように定められている。
即ち、焦点検出装置の製造の際に焦点検出光学系の一応
の調整が済んだ後に、合焦状態時におけるアレイ10
5、106上の光像の対応する各像点毎の相対的位置ず
れ量を測定しこのアレイ上の各像点毎の相対的位置ずれ
量を上記補正量として記憶手段207に記憶する。 【0010】具体的な一例を述べると、図1(b)に示
すようにアレイ105、106の光電素子の配列方向の
位置をxとし、各アレイ105、106の中心xoとし
た時、アレイ105、106上の光像の対応する像点が
アレイの中心xoにおいて合焦時に合致するように調整
することは比較的容易である。そこでこの様に調整する
と各点の相対的位置ずれ量は、例えば図3に示すように
合焦点には実線に示す特性S(x)を、非合焦時には特
性Z(x)をそれぞれ持つ。 【0011】ここで合焦時の特性S(x)は上記調整に
よりアレイ中心xoで相対的位置ずれ量が零でありここ
からアレイ周辺に向かって一次関数的に大きくなること
を示し、非合焦点の特性Z(x)はその非合焦の程度に
応じた量ZTだけ、特性S(x)から平行移動されたも
のとなっている。この合焦点の位置ずれS(x)が補正
データ記憶手段207に記憶される。 【0012】この記憶の仕方としてアレイの場所x毎の
S(x)の値をすべて記憶することは記憶データの数が
多くなり好ましくない。このため、図3のように位置ず
れ量S(x)がほぼ原点xoを通る直線で近似できる時
には、この直線の傾きのみによりこの位置ずれ量S
(x)を特定出来るので、記憶手段207にはこの傾き
を表すデータを記憶すればよい。この場合、補正データ
記憶手段207は極めて簡単化でき、図4(a)に示す
ようにポテンショメータ401の値を前記特性直線S
(x)の傾きを表すように調整し、このポテンショメー
タ401の出力をA/Dコンバータ402を介してマイ
コン203に入力する構成とすることができる。 【0013】また補正データ記憶手段207として図4
(a)の如き上記傾きを記憶したROMを用いてもよ
い。このROMは、出力端子P1〜P8の各々も電源ラ
インVccとアースラインEtとに夫々接続していたも
のと、記憶すべきデータに応じて各出力端子P1〜P8
が電源ラインとアースラインとの一方のみに接続するよ
うに処理したものである。また、補正データ記憶手段2
07としてマイコン203内のROMを用いることもで
きる。 【0014】補正データS(x)が直線でなく図5に示
すように曲線となる場合にはこの曲線をn次式で近似し
て、これを(n+1)個の数値で特定するようにすれば
よい。あるいは、数個の所定の位置xiに関する補正デ
ータを記憶しておき、その中間の位置の補正データが必
要であれば、例えばラグランジエ補間を使用してもよ
い。 【0015】再び図2に戻って、補正演算手段206は
像ずれ演算手段205の出力Z(x)を補正データ記憶
手段207の補正データS(x)で補正し、具体的には
Z(x)−S(x)の演算を行って、補正された像ずれ
量ZTを算出する。この補正済像ずれ量ZTは、補正演
算手段206でデフォーカス量(被写体像と撮影レンズ
の所定結像間との間のずれ量)に換算され、表示駆動手
段208に送られる。この手段208はデフォーカス量
に基づき焦点調節状態を表示しまた撮影レンズを合焦位
置に駆動する。 【0016】この作用を以下に述べる。一対のアレイ1
05、106からのイメージ出力a1…aN、b1…b
NはA/D変換後にデータメモリ手段204に記憶され
る。データメモリ手段204に記憶されたイメージ出力
a1…aNを図6(a)に例示する。像ずれ演算手段2
05は、このイメージ出力を図6(b)又は(c)に示
すように例えば5個の領域X−2、X−1、X0、X
1、X2に分割し、全く同様にイメージ出力b1…bN
をも5個の領域X−2、X−1、X0、X1、X2に分
割し、各部分領域X1のイメージ出力から部分領域Xi
の中心xiに関する部分像ずれ量Z(xi)を個々に演
算する。 【0017】補正演算手段206は補正データ記憶手段
207の内容から場所xiの部分補正量S(xi)を算
出する。この部分補正量S(xi)は図3に示すように
関数S(x)にx=xiを代入したものである。この
後、補正演算手段206は部分像ずれ量Z(xi)から
部分補正量S(xi)を減じて、補正済部分像ずれ量Z
T(xi)を得る。即ち、ZT(xi)=Z(xi)−
S(xi)を得る。 【0018】こうして、補正演算手段206は各部分領
域Xiに関する補正済部分像ずれ量ZT(xi)を求
め、例えば、これらの値の単純平均ΣZT(xi)/5
を最終像ずれ量として算出して、これをデフォーカス量
に換算し表示駆動手段208に送出する。尚、各部分領
域Xiに関する部分像ずれ量ZT(xi)から最終像ず
れ量ZTを求める方法はその目的に応じて種々考えられ
るが、以下にいくつかの例を示す。 (A1) 上述の如く補正済部分像ずれ量ZT(xi)
の平均値を最終像ずれ量ZTとする。 (A2) 補正済部分像ずれ量ZT(xi)の最大と最
小のものを除いた残りの補正済部分像ずれ量の平均値を
最終像ずれ量ZTとする。 (A3) 補正済部分像ずれ量ZT(xi)を大きい順
にならべた時の中央のものを最終像ずれ量ZTとする。 (A4) 後述する情報量E(x)が最大の部分領域に
関する補正済部分像ずれ量ZTを最終像ずれ量ZTとす
る。 (A5) 上記情報量が相対的に大きい複数の部分領域
に関する補正済部分像ずれ量ZT(xi)の平均値を又
は情報量に応じて加重加算した平均値を最終像ずれ量Z
Tとする。 【0019】尚、各部分領域Xiのデータから部分像ず
れ演算を行うアルゴリズムとしては、例えばイメージ出
力をフーリエ変換し位相を比較する手段(特開昭54−
104859号公報)や相関演算を行い最大相関を与え
るシフト量を求める手段(特開昭57−45510号公
報)を用いることが可能である。部分領域Xiに含まれ
る光電変換素子数の少ない時は上記フーリエ変換法を用
いる方が精度がよい。アレイ上に奥行きのある被写体が
結像されている場合、アレイの全領域のイメージ出力を
用いて像ずれ量を算出すると、奥行き被写体のどの部分
に自動合焦されるかは全く不明となる。 【0020】このような奥行き被写体に関する問題は、
上述のように部分領域Xi毎の部分像ずれ量Z(xi)
を演算することにより以下の如く解決できる。 (B1) 複数の部分像ずれ量Z(xi)のうちから最
も像ずれ量の小さいものを選択し、これに基づき最終像
ずれ量ZTを求めれば、奥行き被写体の最も近い部分に
ついてのデフォーカス量を得ることができ、逆に部分像
ずれ量の最も大きいものの選択により遠方部分について
のデフォーカス量を、更に中間のものの選択により中間
距離の部分についてのデフォーカス量を得ることができ
る。 (B2) 複数の部分像ずれ量Z(xi)のうちでほぼ
等しい値をとるものがあれば、その値を選択しこれに基
づき最終像ずれ量ZTを求めれば、比較的広い領域を占
める被写体についてのデフォーカス量を得ることができ
る。 (B3) 後述する情報量の最も大きい部分領域Xiで
の部分像ずれ量を選択しこれに基づき最終像ずれ量ZT
を求めれば、焦点検出の為の情報が最も多い被写体、一
般的にはコントラストの最も良い被写体についてのデフ
ォーカス量を得ることができる。 【0021】次に上述のように部分像ずれ量を算出する
場合の具体例をフローチャートを用いて説明する。図7
においてステップで各部分領域Xiにおける部分像ず
れ量Z(xi)と情報量E(xi)とを像ずれ演算手段
205によって算出する。ここで情報量E(xi)とは
対応する部分像ずれ量Z(xi)の信頼度を表すもの
で、この情報量の値が大きい程、対応する部分像ずれ量
の精度が高くなる。具体的には、情報量としては像ずれ
演算がフーリエ変換後の位相比較により行われるのであ
るならば、フーリエ変換後の振幅に関連した値(特開昭
55−98710号公報のr1、r1' 、r2、r2'
が該当する。)を用いることができ、また像ずれ演算が
相関法である場合には後述の自己相関値Wmを用いるこ
とができる。 【0022】ステップにおいて、上記各部分領域Xi
の情報量E(xi)を所定閾値Ethと比較し、この閾
値よりも大きい値の情報量E(xj)の部分領域Xiを
選択する。ステップにおいて、補正データ記憶手段2
07の内容S(x)から上記選択された部分領域xjに
おける部分補正量S(xj)を算出すると共に、選択部
分領域Xjでの部分像ずれ量Z(xj)を部分像ずれ量
Z(xi)から選択する。 【0023】ステップにおいて選択領域Xjに関する
補正された部分像ずれ量ZT(xj)をZT(xj)=
Z(xj)−S(xj)から求める。ステップにおい
て、ステップで求めた補正済部分像ずれ量ZT(x
j)のバラツキが所定値ΔZより小さいか否か、具体的
には、補正済部分像ずれ量ZT(xj)のうちの最大値
と最小値との差が所定値より小さいか否かを判別し、小
である時、被写体に奥行きがないとしてステップへ移
り、小でない時、奥行きある被写体と判定しステップ
へ移る。 【0024】ステップでは、例えば前記(A1)〜
(A5)のいずれかの処理により最終ずれ量ZTを求め
る。ステップでは、例えば上述の(B1)〜(B3)
のいずれかの処理で最終像ずれ量ZTを求める。以上の
実施例では、一対のイメージ出力から複数の部分像ずれ
量を算出する例であったが、次に単一の像ずれ量を算出
する第2実施例を説明する。 【0025】図8(a)は図2のデータメモリ手段20
4に記憶される一対のデータ列A1…AN、B1…BN
の一方を示す。このデータ列としては、前述の如く光電
素子アレイのイメージ出力そのものでも、またそれをフ
ィルタリングやサンプリング処理したイメージ出力であ
ってもよい。図2において、像ずれ演算手段205はデ
ータメモリ手段204に記憶された一対のデータ列A1
…AN、B1…BNを用い、一方のデータ列A1…AN
を他方のデータ列B1…BNに対して所定量ずつシフト
しながら、各シフト量L毎の相関量C(L)を求める。 【0026】即ち、 【0027】 【数1】 【0028】この関数C(L)が最小となるシフト量L
mを像ずれ量として求める。このように相関演算により
求めた像ずれ量Lmは上述のような光学系の調整不足等
に起因する誤差を含んでいるので、この像ずれ量Lmを
補正データS(x)で補正しなければならない。しかし
ながら、この像ずれ量はデータ列A1…AN、B1…B
Nの全領域から算出しているので、補正量として補正デ
ータS(x)のどの領域を用いるかが問題となる。 【0029】この問題は、次のように解決される。デー
タ列A1…AN、B1…BNは、そのどの部分も上記相
関量C(L)に等しく寄与しているのでなく、図8
(a)に示した如くデータ列の変化の激しい部分Yが大
きく寄与し変化のゆるやかな部分は寄与が小さい。即ち
各部分のコントラストの大小に依存している。従ってデ
ータ列A1…AN、B1…BNの場所x毎の上記寄与の
程度(以下寄与度と称する。)を求め、この場所に応じ
た寄与度補正データS(x)とから補正量を求めればよ
い。この寄与度Wmは、例えばデータ列の隣接するデー
タの差分から求め得る。 【0030】即ち、Wm=|Am−Am+1|又は|Bm
−Bm+1|。この値Wmを図8(b)に示す。もちろん
Wmとして|Am−Am+1|+|Bm−Bm+1|を用い
ることもできる。補正量STは、 【0031】 【数2】 【0032】ここでSmは、x=mとしたときのs
(x)である。従って、補正済像ずれ量ZTは次式より
求まる。ZT=Lm−ST 尚、第1光電素子アレイとそれ上の光像との相対位置
と、第2光電素子アレイとそれ上の光像との相対位置と
の間の場所に応じた位置ずれ量が著しく大きい場合に
は、補正データS(x)により像ずれ量を高精度で補正
することは困難となることがある。そこで、第1及び第
2光電素子アレイの光電素子のピッチを場所に応じて変
化させることにより上記位置ずれ量を予め或る程度補正
し、それでも残存した位置ずれ量を補正データとして記
憶するようにすることが望ましい。 【0033】 【発明の効果】以上の説明から明らかなように、本発明
によると、光学系の調整不足等の原因により第1光電素
子アレイとそれ上の光像との相対位置と、第2光電素子
アレイとそれ上の光像との相対位置との場所に応じて生
じた位置ずれに関連した補正データを記憶しておき、こ
の補正データにより像ずれ量を補正するようにしたの
で、光電的像変位装置の光学系の入念な微調整が不要と
なり量座性を大幅に向上できる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a focus detecting device for detecting relative displacement of light images of substantially the same object formed on a pair of photoelectric element arrays. In particular, it is used for focus detection devices such as cameras and distance measuring devices. 2. Description of the Related Art FIG. 1A shows an optical system of a focus detecting device such as a general camera.
By 01, an image is formed in the vicinity of the field lens 102. The primary image of the subject 100 is formed as a secondary image on the first and second photoelectric element arrays 105 and 106 by the first and second re-imaging lenses 103 and 104, respectively.
The relative positional relationship of the secondary images on the arrays 105 and 106 is detected from the image output of the arrays. In order to perform such focus detection with high accuracy, each point of the light image distributed on the photoelectric element array 105 and each corresponding point of the light image distributed on the photoelectric element array 106 are combined. It is necessary that they are relatively completely coincident with each other at the time of focusing, and are deviated by the same amount corresponding to the amount of non-focusing from each corresponding point at the time of non-focusing. Of course, it is also possible to determine that the corresponding points at the time of focusing deviate by a certain amount. However, the above conditions are not satisfied due to aberrations or insufficient adjustment of the focus detection optical system including the field lens 102 and the re-imaging lenses 103 and 104. When focused, the image points 107a, 1a of the center point 100a of the subject 100 as shown in FIG.
08a forms an image at the same position (for example, the center) of each array 105 and 106, but the image point 107 of the peripheral point 100b.
b and 108b are imaged relatively displaced. Therefore, there is a difference between the focus detection result based on the point images 107a and 108a and the focus detection result based on the point images 107b and 108b, and correct focus detection cannot be performed. In order to eliminate such a difference in the relative position between each array and the light image on the array depending on the position of the array (hereinafter, referred to as position shift), a focus detection optical system with extremely small aberration is adopted. In addition, the optical adjustment must be performed very carefully, which leads to an increase in the cost of the focus detection optical system and a significant decrease in mass productivity. The above problem is not limited to the pupil division type focus detection device of FIG. 1, but in a device for photoelectrically detecting a pair of optical images of the same object and performing distance measurement or focus detection from the relative position thereof, photoelectric image displacement. This is common when performing detection.
An object of the present invention is to provide a highly accurate focus detection device (distance measuring device) that is easy to optically adjust and has high mass productivity. An embodiment of the present invention will be described below with reference to the drawings. In FIG. 2, a pair of photoelectric element arrays 105 and 106 each including an image sensor such as a CCD are arranged in parallel in the photoelectric conversion unit 201. An image of the same subject is formed on each photoelectric element array by the focus detection optical system similar to that shown in FIG. The image outputs a1 ... aN from the array 105 are A / D converted by the A / D converter 202 sequentially in time series, stored in the data memory means 204 in the microcomputer 203, and just like the image output b1 from the array 106. ... bN is also stored in the data memory means 204 via the A / D converter 202. The image shift calculating means 205 calculates the relative shift amount of both image outputs, that is, the relative shift amount of the optical image on the pair of arrays, based on the pair of image outputs a1 ... aN, b1 ... bN. Of course, the data used for the image shift calculation need not necessarily be the direct image output of the array, but may be the image output obtained by appropriately filtering or sampling these outputs. The correction data storage means 207 stores correction data for correcting the output of the image shift calculation means 205. This correction data is defined as follows.
That is, after the focus detection optical system is temporarily adjusted during the manufacture of the focus detection apparatus, the array 10 in the focused state is obtained.
5, the relative displacement amount of each corresponding image point of the optical image on 5, 106 is measured, and the relative displacement amount of each image point on this array is stored in the storage means 207 as the correction amount. As a concrete example, as shown in FIG. 1B, when the position in the array direction of the photoelectric elements of the arrays 105 and 106 is x and the center xo of each array 105 and 106 is the array 105, the array 105 is arranged. , 106, it is relatively easy to adjust so that the corresponding image points of the light image on the focus at the center xo of the array. Therefore, when adjusted in this way, the relative positional deviation amount of each point has the characteristic S (x) shown by the solid line in the in-focus point and the characteristic Z (x) in the out-of-focus state as shown in FIG. 3, for example. Here, the characteristic S (x) at the time of focusing indicates that the relative displacement amount is zero at the array center xo by the above adjustment and increases linearly from here to the array periphery. The focus characteristic Z (x) is translated from the characteristic S (x) by an amount ZT according to the degree of out-of-focus. The position shift S (x) of the in-focus point is stored in the correction data storage unit 207. It is not preferable to store all the values of S (x) for each position x of the array as the way of storing because the number of stored data increases. Therefore, when the positional shift amount S (x) can be approximated by a straight line passing through the origin xo as shown in FIG. 3, the positional shift amount S (x) is obtained only by the inclination of this straight line.
Since (x) can be specified, the storage unit 207 may store data indicating this inclination. In this case, the correction data storage means 207 can be extremely simplified, and the value of the potentiometer 401 can be changed to the characteristic straight line S as shown in FIG.
The output of the potentiometer 401 can be input to the microcomputer 203 via the A / D converter 402 by adjusting the inclination of (x). The correction data storage means 207 shown in FIG.
You may use ROM which memorize | stored the said inclination like (a). In this ROM, the output terminals P1 to P8 are also connected to the power supply line Vcc and the ground line Et, respectively, and the output terminals P1 to P8 are set according to the data to be stored.
Is processed so that it is connected to only one of the power supply line and the ground line. Further, the correction data storage means 2
A ROM in the microcomputer 203 can be used as 07. When the correction data S (x) is not a straight line but a curved line as shown in FIG. 5, this curved line is approximated by an n-th order equation and specified by (n + 1) numerical values. Good. Alternatively, correction data for several predetermined positions xi may be stored, and if correction data for intermediate positions are required, for example, Lagrangian interpolation may be used. Returning to FIG. 2 again, the correction calculation means 206 corrects the output Z (x) of the image shift calculation means 205 with the correction data S (x) of the correction data storage means 207, and specifically, Z (x ) -S (x) is calculated to calculate the corrected image shift amount ZT. The corrected image shift amount ZT is converted into a defocus amount (a shift amount between the subject image and a predetermined image formation of the photographing lens) by the correction calculation unit 206 and sent to the display drive unit 208. This means 208 displays the focus adjustment state based on the defocus amount and drives the taking lens to the in-focus position. This operation will be described below. A pair of arrays 1
Image output from 05 and 106 a1 ... aN, b1 ... b
N is stored in the data memory means 204 after A / D conversion. Image outputs a1 ... aN stored in the data memory means 204 are illustrated in FIG. 6 (a). Image shift calculation means 2
Reference numeral 05 designates this image output as shown in FIG. 6B or 6C, for example, five areas X-2, X-1, X0, X.
1 and X2, and image output b1 ... bN in exactly the same way
Is divided into five regions X-2, X-1, X0, X1, and X2, and the partial region Xi is output from the image output of each partial region X1.
The partial image shift amount Z (xi) with respect to the center xi of is calculated individually. The correction calculation means 206 calculates the partial correction amount S (xi) at the location xi from the contents of the correction data storage means 207. This partial correction amount S (xi) is obtained by substituting x = xi into the function S (x) as shown in FIG. Thereafter, the correction calculation unit 206 subtracts the partial correction amount S (xi) from the partial image shift amount Z (xi) to obtain the corrected partial image shift amount Z.
Get T (xi). That is, ZT (xi) = Z (xi)-
Get S (xi). In this way, the correction calculation means 206 obtains the corrected partial image shift amount ZT (xi) for each partial area Xi, and, for example, the simple average ΣZT (xi) / 5 of these values.
Is calculated as the final image shift amount, converted into a defocus amount, and sent to the display drive unit 208. There are various methods for obtaining the final image shift amount ZT from the partial image shift amount ZT (xi) for each partial region Xi, depending on the purpose, but some examples will be shown below. (A1) Corrected partial image shift amount ZT (xi) as described above
The average value of is the final image shift amount ZT. (A2) An average value of the remaining corrected partial image shift amounts excluding the maximum and minimum corrected partial image shift amounts ZT (xi) is set as the final image shift amount ZT. (A3) When the corrected partial image shift amounts ZT (xi) are arranged in descending order, the central one is set as the final image shift amount ZT. (A4) The corrected partial image shift amount ZT related to the partial area having the maximum information amount E (x) described later is set as the final image shift amount ZT. (A5) The final image shift amount Z is obtained by adding the average value of the corrected partial image shift amounts ZT (xi) relating to the plurality of partial regions having a relatively large amount of information or the weighted addition of the average value according to the information amount.
Let T. As an algorithm for calculating the partial image shift from the data of each partial region Xi, for example, means for performing Fourier transform on the image output and comparing the phases (Japanese Patent Laid-Open No. 54-54).
No. 104859) or a means for calculating a shift amount that gives a maximum correlation by performing a correlation calculation (Japanese Patent Laid-Open No. 57-45510). When the number of photoelectric conversion elements included in the partial region Xi is small, it is more accurate to use the Fourier transform method. When a deep subject is imaged on the array, if the image shift amount is calculated using the image output of the entire area of the array, it is completely unknown which part of the depth subject is automatically focused. A problem with such a depth subject is that
As described above, the partial image shift amount Z (xi) for each partial region Xi
Can be solved as follows. (B1) If the image shift amount having the smallest image shift amount is selected from the plurality of partial image shift amounts Z (xi) and the final image shift amount ZT is obtained based on this, the defocus amount for the portion closest to the depth subject is calculated. On the contrary, by selecting the one having the largest partial image shift amount, the defocus amount for the distant portion can be obtained, and by selecting the intermediate one, the defocus amount for the intermediate distance portion can be obtained. (B2) If a plurality of partial image shift amounts Z (xi) have almost the same value, the value is selected and the final image shift amount ZT is calculated based on the selected value. Can be obtained. (B3) A partial image shift amount in the partial area Xi having the largest amount of information, which will be described later, is selected, and based on this, the final image shift amount ZT
Is obtained, it is possible to obtain the defocus amount for the subject having the most information for focus detection, generally, the subject having the best contrast. Next, a specific example of calculating the partial image shift amount as described above will be described with reference to a flowchart. Figure 7
In step (2), the image shift calculating unit 205 calculates the partial image shift amount Z (xi) and the information amount E (xi) in each partial region Xi. Here, the information amount E (xi) represents the reliability of the corresponding partial image shift amount Z (xi). The larger the value of this information amount, the higher the accuracy of the corresponding partial image shift amount. Specifically, if the image shift calculation is performed by the phase comparison after the Fourier transform as the information amount, the values related to the amplitude after the Fourier transform (r1, r1 ′ in JP-A-55-98710). , R2, r2 '
Is applicable. ) Can be used, and when the image shift calculation is a correlation method, an autocorrelation value Wm described later can be used. In the step, each of the partial areas Xi
The information amount E (xi) of is compared with a predetermined threshold Eth, and the partial area Xi having the information amount E (xj) having a value larger than this threshold is selected. In the step, the correction data storage means 2
The partial correction amount S (xj) in the selected partial area xj is calculated from the content S (x) of 07, and the partial image deviation amount Z (xj) in the selected partial area Xj is calculated as the partial image deviation amount Z (xi. ) To choose from. In step, the corrected partial image shift amount ZT (xj) for the selected area Xj is ZT (xj) =
It is calculated from Z (xj) -S (xj). In step, the corrected partial image shift amount ZT (x
j) whether the variation is smaller than a predetermined value ΔZ, specifically, whether the difference between the maximum value and the minimum value of the corrected partial image displacement amount ZT (xj) is smaller than a predetermined value. If it is small, the process proceeds to the step because the subject has no depth, and if it is not small, the subject is determined to have the depth and the process proceeds to step. In the step, for example, the above (A1)-
The final shift amount ZT is obtained by any of the processes in (A5). In the step, for example, the above (B1) to (B3)
The final image shift amount ZT is obtained by any one of the processes. In the above embodiments, a plurality of partial image shift amounts are calculated from a pair of image outputs, but a second embodiment for calculating a single image shift amount will be described next. FIG. 8A shows the data memory means 20 of FIG.
A pair of data strings A1 ... AN, B1 ... BN stored in No. 4
Shows one of. This data string may be the image output itself of the photoelectric element array as described above, or the image output obtained by filtering or sampling it. In FIG. 2, the image shift calculation means 205 is a pair of data strings A1 stored in the data memory means 204.
... AN, B1 ... BN, and one data string A1 ... AN
While shifting the other data string B1 ... BN by a predetermined amount, the correlation amount C (L) for each shift amount L is obtained. That is, ## EQU1 ## The shift amount L that minimizes this function C (L)
m is obtained as the image shift amount. Since the image shift amount Lm thus obtained by the correlation calculation includes an error caused by insufficient adjustment of the optical system as described above, the image shift amount Lm must be corrected by the correction data S (x). I won't. However, this image shift amount is determined by the data strings A1 ... AN, B1 ... B.
Since the calculation is made from all N areas, it becomes a problem which area of the correction data S (x) is used as the correction amount. This problem is solved as follows. The data strings A1 ... AN, B1 ... BN do not all contribute equally to the correlation amount C (L), and
As shown in (a), the portion Y in which the data string changes drastically contributes greatly, and the portion in which the change changes gently contributes little. That is, it depends on the size of the contrast of each part. Therefore, if the degree of the above contribution (hereinafter referred to as the degree of contribution) for each location x of the data strings A1 ... AN, B1 ... BN is obtained, and the correction amount is obtained from the contribution degree correction data S (x) corresponding to this location. Good. The contribution Wm can be obtained, for example, from the difference between adjacent data in the data string. That is, Wm = | Am-Am + 1 | or | Bm
-Bm + 1 |. This value Wm is shown in FIG. Of course, | Am-Am + 1 | + | Bm-Bm + 1 | can be used as Wm. The correction amount ST is as follows: Here, Sm is s when x = m
(X). Therefore, the corrected image shift amount ZT is obtained from the following equation. ZT = Lm-ST It should be noted that the positional deviation amount according to the location between the relative position between the first photoelectric element array and the optical image on it and the relative position between the second photoelectric element array and the optical image on it. When is extremely large, it may be difficult to correct the image shift amount with high accuracy using the correction data S (x). Therefore, the positional deviation amount is corrected in advance to some extent by changing the pitch of the photoelectric elements of the first and second photoelectric element arrays according to the location, and the remaining positional deviation amount is stored as correction data. It is desirable to do. As is apparent from the above description, according to the present invention, the relative position between the first photoelectric element array and the optical image thereon due to the insufficient adjustment of the optical system and the like, Since the correction data relating to the positional deviation generated according to the position of the relative position between the photoelectric element array and the optical image on the photoelectric element array is stored, and the image deviation amount is corrected by this correction data, the photoelectric deviation is corrected. The fine adjustment of the optical system of the dynamic image displacing device is not required, and the volume balance can be greatly improved.

【図面の簡単な説明】 【図1】(a)は一般的な焦点検出光学系と光電素子ア
レイとの関係を示す光学図。(b)は光電素子上の光像
位置を示す正面図。 【図2】本発明の一実施例を示すブロック図。 【図3】相対的位置ずれ量の一例を示すグラフ。 【図4】(a)及び(b)は補正データ記憶手段の具体
的構成例を示す回路図。 【図5】相対的位置ずれ量の別の例を示すグラフ。 【図6】(a)はイメージ出力の一例を示すグラフ。
(b)及び(c)はイメージ出力を複数の領域に分割す
る様子を示す図。 【図7】第1実施例の具体的な作用を示すフローチャー
ト。 【図8】(a)はイメージ出力の別の例を示すグラフ。
(b)はイメージ出力の変化の激しさを示すグラフであ
る。 【主要部分の符号の説明】 105、106…光電素子アレイ 205…像ずれ演算手段 206…補正演算手段 207…補正データ記憶手段
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1A is an optical diagram showing a relationship between a general focus detection optical system and a photoelectric element array. FIG. 3B is a front view showing the position of an optical image on the photoelectric element. FIG. 2 is a block diagram showing an embodiment of the present invention. FIG. 3 is a graph showing an example of a relative positional deviation amount. 4A and 4B are circuit diagrams showing a specific configuration example of a correction data storage unit. FIG. 5 is a graph showing another example of the relative positional deviation amount. FIG. 6A is a graph showing an example of image output.
FIGS. 9B and 9C are diagrams showing how the image output is divided into a plurality of areas. FIG. 7 is a flowchart showing a specific operation of the first embodiment. FIG. 8A is a graph showing another example of image output.
(B) is a graph showing the intensity of change in image output. [Description of Signs of Main Parts] 105, 106 ... Photoelectric element array 205 ... Image shift calculation means 206 ... Correction calculation means 207 ... Correction data storage means

─────────────────────────────────────────────────────
【手続補正書】 【提出日】平成3年7月3日 【手続補正1】 【補正対象書類名】明細書 【補正対象項目名】0003 【補正方法】変更 【補正内容】 【0003】この検出された2次像の相対的位置関係か
ら焦点検出を行う。 【手続補正2】 【補正対象書類名】明細書 【補正対象項目名】0004 【補正方法】変更 【補正内容】 【0004】 【発明が解決しようとする課題】このようにして焦点検
出を行う場合、従来は被写体の一つの部分のみについて
焦点検出を行っていたために焦点検出可能な場所が限定
されていた。そのために、その検出領域に検出可能な被
写体が無い場合には焦点検出が不能であった。また、検
出可能な被写体でもコントラストが低いなど検出のため
の情報量の低い場合には焦点検出誤差が大きくなると言
う問題が生じていた。 【手続補正3】 【補正対象書類名】明細書 【補正対象項目名】0005 【補正方法】削除 【手続補正4】 【補正対象書類名】明細書 【補正対象項目名】0006 【補正方法】変更 【補正内容】 【0006】以上のような問題は図1の瞳分割式焦点検
出装置に限らず、同一物体に関する一対の光像を光電検
出しその相対位置から測距又は焦点検出する装置におい
て、光電的像変位検出を行う際に共通するものである。
本発明の目的は被写体の複数の部分について焦点検出を
可能とし、求められた複数の像ずれ量検出結果から最も
情報量の大きい焦点検出領域に関する像ずれ量から焦点
検出出力を求める事により検出誤差の少ない焦点検出装
置を提供することである。この目的を達成するために本
発明では、複数の焦点検出領域の光像に対してそれぞれ
の光像の情報量を求めて情報量が最大の光像に関する像
ずれ量の算出結果を用いるようにしている。 【手続補正5】 【補正対象書類名】明細書 【補正対象項目名】0015 【補正方法】変更 【補正内容】 【0015】再び図2に戻って、補正演算手段206は
像ずれ演算手段205の出力Z(x)を補正データ記憶
手段207の補正データS(x)で補正し、具体的には
Z(x)−S(x)の演算を行って、補正された像ずれ
量ZTを算出する。この補正済像ずれ量ZTは、補正演
算手段206でデフォーカス量(被写体像と撮影レンズ
の所定結像面との間のずれ量)に換算され、表示駆動手
段208に送られる。この手段208はデフォーカス量
に基づき焦点調節状態を表示しまた撮影レンズを合焦位
置に駆動する。 【手続補正6】 【補正対象書類名】明細書 【補正対象項目名】0024 【補正方法】変更 【補正内容】 【0024】ステップでは、例えば前記(A1)〜
(A5)のいずれかの処理により最終ずれ量ZTを求め
る。ステップでは、例えば上述の(B1)〜(B3)
のいずれかの処理で最終像ずれ量ZTを求める。上記の
処理に於いて情報量が最大の光像に関する像ずれ量の算
出結果を最終像ずれ量として選択した場合には、その領
域に対する焦点検出精度が高いという特徴がある。この
最終像ずれ量をデフォーカス量に換算して表示駆動が行
われる。次に一つの検出領域内において前記補正量S
(x)が大きく変わる場合の補正の方法について説明す
る。 【手続補正7】 【補正対象書類名】明細書 【補正対象項目名】0027 【補正方法】変更 【補正内容】 【0027】 【数1】 【手続補正8】 【補正対象書類名】明細書 【補正対象項目名】0028 【補正方法】変更 【補正内容】 【0028】この関数C(L)が最小となるシフト量L
m を像ずれ量として求める。このように相関演算により
求めた像ずれ量Lm は上述のような光学系の調整不足等
に起因する誤差を含んでいるので、この像ずれ量Lm
補正データS(x)で補正しなければならない。しかし
ながら、この像ずれ量はデータ列A1…AN、B1…B
Nの全領域から算出しているので、補正量として補正デ
ータS(x)のどの領域を用いるかが問題となる。 【手続補正9】 【補正対象書類名】明細書 【補正対象項目名】0029 【補正方法】変更 【補正内容】 【0029】この問題は、次のように解決される。デー
タ列A1…AN、B1…BNは、そのどの部分も上記相
関量C(L)に等しく寄与しているのでなく、図8
(a)に示した如くデータ列の変化の激しい部分Yが大
きく寄与し変化のゆるやかな部分は寄与が小さい。即ち
各部分のコントラストの大小に依存している。従ってデ
ータ列A1…AN、B1…BNの場所x毎の上記寄与の
程度(以下寄与度と称する。)を求め、この場所に応じ
た寄与度補正データS(x)とから補正量を求めればよ
い。この寄与度Wm は、例えばデータ列の隣接するデー
タの差分から求め得る。 【手続補正10】 【補正対象書類名】明細書 【補正対象項目名】0030 【補正方法】変更 【補正内容】 【0030】即ち、Wm =|Am −Am+1 |又は|Bm
−Bm+1 |。この値Wm を図8(b)に示す。もちろん
m として|Am −Am+1 |+|Bm −Bm+1 |を用い
ることもできる。補正量STは、 【手続補正11】 【補正対象書類名】明細書 【補正対象項目名】0031 【補正方法】変更 【補正内容】 【0031】 【数2】 【手続補正12】 【補正対象書類名】明細書 【補正対象項目名】0032 【補正方法】変更 【補正内容】 【0032】ここでSm は、x=mとしたときのs
(x)である。従って、補正済像ずれ量ZTは次式より
求まる。ZT=Lm −ST 尚、第1光電素子アレイとそれ上の光像との相対位置
と、第2光電素子アレイとそれ上の光像との相対位置と
の間の場所に応じた位置ずれ量が著しく大きい場合に
は、補正データS(x)により像ずれ量を高精度で補正
することは困難となることがある。そこで、第1及び第
2光電素子アレイの光電素子のピッチを場所に応じて変
化させることにより上記位置ずれ量を予め或る程度補正
し、それでも残存した位置ずれ量を補正データとして記
憶するようにすることが望ましい。 【手続補正13】 【補正対象書類名】明細書 【補正対象項目名】0033 【補正方法】変更 【補正内容】 【0033】 【発明の効果】以上のように本発明によれば、被写体の
複数の部分について焦点検出を行い、求められた複数の
像ずれ量の検出結果から最も情報の大きい焦点検出領域
に関する像ずれ量から焦点検出出力を求める事により検
出誤差の少ない焦点検出装置が得られる。 【手続補正14】 【補正対象書類名】明細書 【補正対象項目名】図面の簡単な説明 【補正方法】変更 【補正内容】 【図面の簡単な説明】 【図1】(a)は一般的な焦点検出光学系と光電素子ア
レイとの関係を示す光学図。(b)は光電素子上の光像
位置を示す正面図。 【図2】本発明の一実施例を示すブロック図。 【図3】相対的位置ずれ量の一例を示すグラフ。 【図4】(a)及び(b)は補正データ記憶手段の具体
的構成例を示す回路図。 【図5】相対的位置ずれ量の別の例を示すグラフ。 【図6】(a)はイメージ出力の一例を示すグラフ。
(b)及び(c)はイメージ出力を複数の領域に分割す
る様子を示す図。 【図7】第1実施例の具体的な作用を示すフローチャー
ト。 【図8】(a)はイメージ出力の別の例を示すグラフ。
(b)はイメージ出力の変化の激しさを示すグラフであ
る。 【主要部分の符号の説明】 105、106・・・光電素子アレイ 205・・・像ずれ演算手段 206・・・補正演算手段 207・・・補正データ記憶手段
─────────────────────────────────────────────────── ───
[Procedure amendment] [Date of submission] July 3, 1991 [Procedure Amendment 1] [Amendment target document name] Statement [Amendment item name] 0003 [Amendment method] Change [Amendment content] [0003] This detection Focus detection is performed based on the relative positional relationship of the formed secondary image. [Procedure Amendment 2] [Document name to be amended] Specification [Name of item to be amended] 0004 [Correction method] Change [Details of amendment] [Problems to be solved by the invention] In the case of performing focus detection in this way In the past, focus detection was performed only on one part of the subject, so the places where focus detection was possible were limited. Therefore, focus detection is impossible when there is no detectable subject in the detection area. Further, there has been a problem that the focus detection error becomes large when the amount of information for detection is low even for a detectable object such as low contrast. [Procedure amendment 3] [Document name to be amended] Specification [Correction target item name] 0005 [Correction method] Deleted [Procedure amendment 4] [Correction target document name] Specification [Correction target item name] 0006 [Correction method] Change [Details of correction] The above problem is not limited to the pupil division type focus detection device of FIG. 1, but in a device for photoelectrically detecting a pair of optical images of the same object and performing distance measurement or focus detection from their relative positions, This is common when performing photoelectric image displacement detection.
An object of the present invention is to enable focus detection for a plurality of parts of a subject, and to detect a focus detection output from an image shift amount related to a focus detection area having the largest information amount from the obtained plurality of image shift amount detection results. It is to provide a focus detection device with less number of defects. To achieve this object, in the present invention, the information amount of each light image is obtained for the light images of the plurality of focus detection areas, and the calculation result of the image shift amount regarding the light image having the largest information amount is used. ing. [Procedure amendment 5] [Name of document to be amended] Specification [Name of item to be amended] [Correction method] Change [Content of amendment] Returning again to FIG. The output Z (x) is corrected by the correction data S (x) of the correction data storage unit 207, and specifically, the calculation Z (x) -S (x) is performed to calculate the corrected image shift amount ZT. To do. The corrected image shift amount ZT is converted into a defocus amount (a shift amount between the subject image and a predetermined image forming surface of the photographing lens) by the correction calculation unit 206 and sent to the display drive unit 208. This means 208 displays the focus adjustment state based on the defocus amount and drives the taking lens to the in-focus position. [Procedure Amendment 6] [Name of Document to Amend] Specification [Name of Item to Amend] 0024 [Correction Method] Change [Content of Amendment] In the step, for example, (A1)-
The final shift amount ZT is obtained by any of the processes in (A5). In the step, for example, the above (B1) to (B3)
The final image shift amount ZT is obtained by any one of the processes. When the calculation result of the image shift amount regarding the optical image with the maximum information amount is selected as the final image shift amount in the above processing, the feature is that the focus detection accuracy for that region is high. The display drive is performed by converting the final image shift amount into the defocus amount. Next, within one detection area, the correction amount S
A correction method when (x) changes greatly will be described. [Procedure Amendment 7] [Name of Documents to Amend] Specification [Name of Items to Amend] 0027 [Method of Amendment] Change [Contents of Amendment] [0027] [Equation 1] [Procedure Amendment 8] [Name of Document to be Amended] Specification [Name of Item to Amend] 0028 [Correction Method] Change [Content of Amendment] [Shift amount L that minimizes this function C (L)]
Obtain m as the image shift amount. Since the image shift amount L m thus obtained by the correlation calculation includes an error due to insufficient adjustment of the optical system as described above, the image shift amount L m is corrected by the correction data S (x). There must be. However, this image shift amount is determined by the data strings A1 ... AN, B1 ... B.
Since the calculation is made from all N areas, it becomes a problem which area of the correction data S (x) is used as the correction amount. [Procedure Amendment 9] [Name of Document to be Amended] Specification [Name of Item to Amend] 0029 [Method of Amendment] Change [Content of Amendment] [0029] This problem is solved as follows. The data strings A1 ... AN, B1 ... BN do not all contribute equally to the correlation amount C (L), and
As shown in (a), the portion Y in which the data string changes drastically contributes greatly, and the portion in which the change changes gently contributes little. That is, it depends on the size of the contrast of each part. Therefore, if the degree of the above contribution (hereinafter referred to as the degree of contribution) for each location x of the data strings A1 ... AN, B1 ... BN is obtained, and the correction amount is obtained from the contribution degree correction data S (x) corresponding to this location. Good. The contribution W m can be obtained, for example, from the difference between adjacent data in the data string. [Procedure Amendment 10] [Document name to be amended] Description [Item name to be amended] 0030 [Correction method] Changed [Correction content] That is, W m = | A m −A m + 1 | or | B m
-B m + 1 |. This value W m is shown in FIG. Of course, it is also possible to use | A m −A m + 1 | + | B m −B m + 1 | as W m . The correction amount ST is [procedure correction 11] [correction target document name] specification [correction target item name] 0031 [correction method] change [correction content] [0031] [Equation 2] [Procedure Amendment 12] [Name of document to be amended] Specification [Name of item to be amended] [Correction method] Change [Content of amendment] Here, S m is s when x = m
(X). Therefore, the corrected image shift amount ZT is obtained from the following equation. ZT = L m −ST In addition, a positional shift corresponding to a position between the relative position between the first photoelectric element array and the optical image on it and the relative position between the second photoelectric element array and the optical image on it. If the amount is extremely large, it may be difficult to correct the image shift amount with high accuracy using the correction data S (x). Therefore, the positional deviation amount is corrected in advance to some extent by changing the pitch of the photoelectric elements of the first and second photoelectric element arrays according to the location, and the remaining positional deviation amount is stored as correction data. It is desirable to do. [Procedure Amendment 13] [Name of Document to Amend] Specification [Name of Item to Amend] [Correction Method] Change [Details of Amendment] [Effect of the Invention] As described above, according to the present invention, a plurality of objects A focus detection device with a small detection error can be obtained by performing focus detection on the portion of (3) and obtaining the focus detection output from the image shift amount regarding the focus detection area having the largest information from the obtained detection results of the plurality of image shift amounts. [Procedure Amendment 14] [Name of Document to Amend] Specification [Name of Item to Amend] Brief Description of Drawing [Correction Method] Change [Content of Amendment] [Simple Description of Drawing] [Fig. 1] (a) is general FIG. 6 is an optical diagram showing the relationship between a focus detection optical system and a photoelectric element array. FIG. 3B is a front view showing the position of an optical image on the photoelectric element. FIG. 2 is a block diagram showing an embodiment of the present invention. FIG. 3 is a graph showing an example of a relative positional deviation amount. 4A and 4B are circuit diagrams showing a specific configuration example of a correction data storage unit. FIG. 5 is a graph showing another example of the relative positional deviation amount. FIG. 6A is a graph showing an example of image output.
FIGS. 9B and 9C are diagrams showing how the image output is divided into a plurality of areas. FIG. 7 is a flowchart showing a specific operation of the first embodiment. FIG. 8A is a graph showing another example of image output.
(B) is a graph showing the intensity of change in image output. [Explanation of Signs of Main Parts] 105, 106 ... Photoelectric element array 205 ... Image shift calculation means 206 ... Correction calculation means 207 ... Correction data storage means

Claims (1)

【特許請求の範囲】 (1) 被写界の複数の異なる領域についてそれぞれ視差
を有する2像を形成する焦点検出光学系と、 それぞれの前記2像に関する光電出力から前記複数の領
域に関する複数の像ずれ量を算出する演算手段とを有
し、 前記演算手段は、前記像ずれ量の検出に用いた前記光電
出力の情報量が最大の領域に対応する像ずれ量を焦点検
出出力として出力することを特徴とする焦点検出装置。 (2) 前記焦点検出光学系は、前記被写界のほぼ連続し
た所定領域について視差を有する2像を形成し、 前記演算手段は、該2像に関する光電出力を複数部分に
分割することにより前記領域に関する複数の像ずれ量を
算出することを特徴とする特許請求の範囲第1項記載の
焦点検出装置。
What is claimed is: (1) A focus detection optical system that forms two images having parallaxes in a plurality of different regions of the object field, and a plurality of images of the plurality of regions from photoelectric outputs of the two images. A calculation unit for calculating a shift amount, wherein the calculation unit outputs, as a focus detection output, an image shift amount corresponding to a region where the information amount of the photoelectric output used for detecting the image shift amount is the maximum. A focus detection device. (2) The focus detection optical system forms two images having a parallax with respect to a substantially continuous predetermined region of the object scene, and the computing means divides the photoelectric output related to the two images into a plurality of parts, The focus detection device according to claim 1, wherein a plurality of image shift amounts regarding the area are calculated.
JP3136858A 1991-06-07 1991-06-07 Focus detection device Expired - Lifetime JP2545758B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3136858A JP2545758B2 (en) 1991-06-07 1991-06-07 Focus detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3136858A JP2545758B2 (en) 1991-06-07 1991-06-07 Focus detection device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP11946284A Division JPH0684890B2 (en) 1984-06-11 1984-06-11 Focus detection device

Publications (2)

Publication Number Publication Date
JPH06288767A true JPH06288767A (en) 1994-10-18
JP2545758B2 JP2545758B2 (en) 1996-10-23

Family

ID=15185161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3136858A Expired - Lifetime JP2545758B2 (en) 1991-06-07 1991-06-07 Focus detection device

Country Status (1)

Country Link
JP (1) JP2545758B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009133642A (en) * 2007-11-28 2009-06-18 Tokyo Institute Of Technology Apparatus and program for image processing and imaging apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03136860A (en) * 1989-10-20 1991-06-11 Canon Inc Residual ink amount detection device and ink jet recording device equipped with the former
JPH06103182A (en) * 1992-09-24 1994-04-15 Nec Eng Ltd Program distribution system for cluster type terminal equipment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03136860A (en) * 1989-10-20 1991-06-11 Canon Inc Residual ink amount detection device and ink jet recording device equipped with the former
JPH06103182A (en) * 1992-09-24 1994-04-15 Nec Eng Ltd Program distribution system for cluster type terminal equipment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009133642A (en) * 2007-11-28 2009-06-18 Tokyo Institute Of Technology Apparatus and program for image processing and imaging apparatus

Also Published As

Publication number Publication date
JP2545758B2 (en) 1996-10-23

Similar Documents

Publication Publication Date Title
JPS6036905A (en) Distance measuring apparatus
CN109255810A (en) Image processing apparatus and image processing method
JP2012022037A (en) Imaging apparatus
JPH0684890B2 (en) Focus detection device
JP2013037166A (en) Focus detector, and lens device and imaging device having the same
JP2014081462A (en) Focus detection device, and lens device and imaging apparatus including the same
JPH0666007B2 (en) Camera focus detector
JPH11355813A (en) Device for deciding internal parameters of camera
JPH0328691B2 (en)
KR101715553B1 (en) Focus position detection device, focus position detection method and a computer program for focus position detection
CN104949659B (en) Distance detection device and method, imaging device and parallax amount detecting device
JPH08211284A (en) Focus detector
JPH06103182B2 (en) Focus detection device
JP2545758B2 (en) Focus detection device
JPH0762732B2 (en) Focus detection device
JPH0540037A (en) Focus detecting device
JPH0540036A (en) Focus detecting device
US10339665B2 (en) Positional shift amount calculation apparatus and imaging apparatus
JP4817552B2 (en) Phase difference detection method, phase difference detection device, distance measuring device, and imaging device
JP3230759B2 (en) Distance measuring device
JPH0693059B2 (en) Focus detection device
JP2013247435A (en) Imaging device
JPH0252204A (en) Measuring instrument for three-dimensional coordinate
JP2558377B2 (en) Focus detection device
JP2005147959A (en) Distance-measuring method and distance-measuring device

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term