JP2004045728A - Camera, focusing device and focusing method - Google Patents

Camera, focusing device and focusing method Download PDF

Info

Publication number
JP2004045728A
JP2004045728A JP2002202736A JP2002202736A JP2004045728A JP 2004045728 A JP2004045728 A JP 2004045728A JP 2002202736 A JP2002202736 A JP 2002202736A JP 2002202736 A JP2002202736 A JP 2002202736A JP 2004045728 A JP2004045728 A JP 2004045728A
Authority
JP
Japan
Prior art keywords
image
subject
focusing
light beams
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002202736A
Other languages
Japanese (ja)
Inventor
Osamu Nonaka
野中 修
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2002202736A priority Critical patent/JP2004045728A/en
Publication of JP2004045728A publication Critical patent/JP2004045728A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera, a focusing device and a focusing method which efficiently discriminate a plurality of points within an image and executing focusing at a high speed. <P>SOLUTION: Object light passing through a photographing lens 11 is divided into two luminous fluxes passing through different areas within a photographing image in a focus detection optical system 25 and a pair of image signals are outputted from the two luminous fluxes. From the object light passing through the photographing lens 11, a plurality of the luminous fluxes of different optical path lengths are formed in an area sensor 22 and the image signals based on the plurality of the luminous fluxes are outputted. Then, according to the output of a sensor array 26 and the area sensor 22, focusing is detected. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明はカメラの焦点検出装置に関するもので、より詳細には、撮影レンズを通して得られた像信号を利用して撮影レンズの焦点位置を調節する、いわゆるTTL方式のAFカメラの改良に関するものである。
【0002】
【従来の技術】
従来より、TTL方式のAFは、撮影レンズを介した光を利用するため、視差がなくフィードバック制御による高精度のピント合わせが可能になるというメリットがあり、レンズ交換式のカメラに応用されてきた。
【0003】
しかし、撮影レンズが合焦位置から大きく外れた位置にあった場合には、被写体の像がぼけたり、像センサから像がはみ出したりする等、正しいピント合わせ制御ができないことがあった。
【0004】
また、近年の、いわゆる多点(マルチ)AF技術の発達によって、画面上の多くのポイントからピント合わせポイントを選択する工夫が種々提案されている(例えば、本件出願人による特許3253398号等)。しかしながら、ピント合わせ用のポイントが増加するにつれて、各ポイントの焦点検出のレンジが制限される傾向にある。
【0005】
【発明が解決しようとする課題】
ところで、多くのレンズ交換式のカメラ、または一眼レフレックスカメラでは、撮影レンズの異なる視野から入射した2つの像信号を利用してピント位置を検出する、いわゆる位相差方式のAFが主流になっている。この位相差方式AFは、レンズの光軸方向の変位を、それと直交する方向の像位置変化に変換して検出するものである。
【0006】
つまり、レンズの光軸方向と直交する方向に多くのセンサを並べた方が広いレンジの検出が可能となる。しかしながら、マルチAFになると、別ポイント用のセンサが同じ軸上に配置されるため、検出レンジが狭くなる方向になった。
【0007】
また、検出ポイントが増加すると、本来ピント検出不要な画面内のポイントも検出する必要が生じてしまい、無駄なタイムラグが生じてしまうものであった。
【0008】
このように、マルチAF化と広いピント合わせレンジを兼ね備えることは非常に困難であった。
【0009】
したがって本発明は、上記実状に鑑みてなされたものであり、画面内の複数のポイントを効率よく判別し、高速でのピント合わせを可能としたカメラ及び合焦装置並びに合焦方法を提供するものである。
【0010】
【課題を解決するための手段】
すなわち本発明は、撮影レンズを通った被写体光を、撮影画面内の異なる領域を通過する2つの光束に分け、当該2つの光束から一対の像信号を出力する第1の像検出手段と、上記撮影レンズを通った被写体光から光路長の異なる複数の光束を形成し、上記複数の光束に基く像信号を出力する第2の像検出手段と、上記第1、第2の像検出手段の出力に応じて合焦検出を行う合焦検出手段と、を備えたことを特徴とする。
【0011】
また、本発明は、撮影レンズを通った被写体光を、撮影画面内の異なる領域を通過する2つの光束に分け、上記2つの光束から一対の像信号を出力する第1の像検出手段と、上記撮影レンズを通った被写体光から光路長の異なる複数の光束を形成し、上記複数の光束に基く像信号を出力するエリアセンサを有する第2の像検出手段と、上記第1、第2の像検出手段の出力に応じて合焦検出を行う合焦検出手段と、上記エリアセンサから出力される像信号に基いて露出制御を行う露出制御手段と、を備えたことを特徴とする。
【0012】
本発明は、撮影レンズを通った被写体光を、撮影画面内の異なる領域を通過する2つの光束に分け、上記2つの光束から一対の第1の像信号を出力する第1のステップと、上記撮影レンズを通った被写体光から光路長の異なる複数の光束を形成し、上記複数の光束に基く第2の像信号を出力する第2のステップと、上記第1、第2の像信号の出力に応じて合焦検出を行う第3のステップと、を備えることを特徴とする。
【0013】
更に本発明は、光路長を異ならせて結像させるための焦点距離の異なる複数の再結像光学手段と、上記複数の光束に基く像信号を出力する像検出手段と、上記像検出手段の出力に応じて合焦検出を行う合焦検出手段と、を備えたことを特徴とする。
【0014】
本発明の合焦装置にあっては、第1の像検出手段により撮影レンズを通った被写体光が撮影画面内の異なる領域を通過する2つの光束に分けられ、当該2つの光束から一対の像信号が出力される。上記撮影レンズを通った被写体光から光路長の異なる複数の光束が、第2の像検出手段で形成され、上記複数の光束に基く像信号が出力される。そして、上記第1、第2の像検出手段の出力に応じて、合焦検出手段にて合焦検出が行われる。
【0015】
また、本発明のカメラにあっては、撮影レンズを通った被写体光が撮影画面内の異なる領域を通過する2つの光束に分けられ、第1の像検出手段によって上記2つの光束から一対の像信号が出力される。更に、エリアセンサを有する第2の像検出手段では、上記撮影レンズを通った被写体光から光路長の異なる複数の光束が形成され、上記複数の光束に基く像信号が出力される。そして、上記第1、第2の像検出手段の出力に応じて、合焦検出手段により合焦検出が行われ、上記エリアセンサから出力される像信号に基いて露出制御手段で露出制御が行われる。
【0016】
また、本発明の合焦方法にあっては、撮影レンズを通った被写体光が撮影画面内の異なる領域を通過する2つの光束に分けられ、上記2つの光束から一対の第1の像信号が出力される。次いで、上記撮影レンズを通った被写体光から光路長の異なる複数の光束が形成され、上記複数の光束に基く第2の像信号が出力される。そして、上記第1、第2の像信号の出力に応じて合焦検出が行われる。
【0017】
本発明の合焦装置にあっては、焦点距離の異なる複数の再結像光学手段によって、光路長が異ならされて結像され、像検出手段によって上記複数の光束に基く像信号が出力される。そして、上記像検出手段の出力に応じて合焦検出手段により合焦検出が行われる。
【0018】
これにより、多くのレンズ交換式カメラや一眼レフレックスカメラに於いて採用されている位相差AFに加え、コントラストを判定するセンサの出力を利用して、ピント合わせにふさわしい位置を瞬時に検出し、ピント合わせの方向を高速で決定することを可能とした。
【0019】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
【0020】
図1は本発明の一実施の形態の構成を示すもので、本発明をレンズ交換可能な一眼レフレックスカメラに適用した例を示した図である。
【0021】
図1に於いて、このカメラはカメラ本体1と、該カメラ本体1に着脱可能に取付けられた鏡胴部2とから構成されている。この鏡胴部2内には、図示されない被写体からの撮影光束を導く撮影レンズ11と、後述するCPU27の制御によって該撮影レンズ11を駆動するモータ12とを有している。
【0022】
一方、カメラ本体1は、上記撮影レンズ11を介して入射した光を反射及び透過するメインミラー(クイックリターンミラー)15を有している。このメインミラー15で反射された光は、フォーカシングスクリーン16を介してペンタプリズム17及び接眼レンズ18を経て撮影者の眼20に至る。また、上記接眼レンズ18の上方でペンタプリズム17の近傍には、後述する複眼レンズ21及びエリアセンサ22が配置されている。尚、上記フォーカシングスクリーン16は、拡散性の少ないものが望ましい。
【0023】
上記メインミラー15はハーフミラーで構成されており、一部の光はメインミラー15を透過してサブミラー24で図示下方に反射されて、焦点検出光学系25に導かれる。この焦点検出光学系25では被写体像が2つに分けられて、その出力がセンサアレイ26に供給される。焦点検出光学系25とセンサアレイ26とから、第1の像検出手段が構成される。そして、センサアレイ26の出力は、ワンチップマイクロコンピュータ等から成る演算制御手段(CPU)27に供給される。このCPU27は上記エリアセンサ22の出力が供給され、更にモータ12、画像処理回路31、メインミラー15及びサブミラー24を駆動制御する。
【0024】
また、メインミラー15及びサブミラー24がCPU27の制御によって図示矢印A方向に回動されると、図示されない被写体からの撮影光束は撮像素子29上に結像される。この撮像素子29で得られた信号はA/D変換部30によってデジタル信号化され、画像処理回路31に出力される。そして、画像処理回路31にて圧縮等の処理が行われるとメモリ32にデジタル画像信号として記録が可能となる。
【0025】
尚、上記CPU27は、撮影者のカメラ操作を検出して、ピント合わせやミラーの制御、露出制御を含む画像処理等をシーケンシャルに制御する。
【0026】
このような構成に於いて、撮影レンズ11を介して入射された光が、メインミラー15で図1に於いて上方に反射され、フォーカシングスクリーン16上に結像される。これにより、撮影者(眼)20は、ペンタプリズム17及び接眼レンズ18によって、写真構図を確認しながら撮影を楽しむことができる。
【0027】
また、メインミラー15を透過した光は、サブミラー24で反射されて焦点検出光学系25に導かれる。
【0028】
図2(a)は焦点検出光学系25及びその周辺部の詳細な構成を示した図である。焦点検出光学系25は、視野マスク25a、コンデンサレンズ25b、ミラー25c及びセパレータレンズ25dを有して構成されるもので、被写体像を2つに分割してレンズの繰出し位置変化を、それとは直交する方向に変換する。この2つに分割された像の相対位置を検出するのがセンサアレイ26である。
【0029】
そして、センサアレイ26の出力は、CPU27に内蔵のA/D変換器によってデジタル像信号に変換される。これにより、上記2像の相対位置判定が行われる。この結果が用いられてモータ12が制御されれば、撮影レンズ11のピント合わせ制御が可能となる。
【0030】
この状態でメインミラー15が図示矢印A方向に回動させて光路外に退避させると、被写体像は撮像素子29上に結像される。したがって、被写体の明るさによって適当な露出制御が行われることにより、ピント及び露出が合った画像を得ることができる。
【0031】
図2(b)は、上述した焦点検出光学系25を説明するもので、ミラーによる光路折り曲げなしに示した図である。
【0032】
すなわち、コンデンサレンズ25bとセパレータレンズ25dの働きによって、センサアレイ26a、26bには、撮影レンズ11の異なる光路11a、11bを通った光(2像)が入射される。撮影レンズ11が光軸方向(図示矢印B方向)に移動されると、一対のセパレータレンズ25dの間隔は変化しないので、被写体像位置は、センサアレイ26a、26bの並び方向に変化する。
【0033】
このような働きにより、撮影レンズ11が最適位置になった時の上記2像の位置関係が決まるので、その位置関係になるように、ピント合わせレンズを制御すればよい。レンズのピント合わせ範囲が広くなると、センサアレイ26a、26bの範囲からはみ出すようになり、この範囲を越えるものはピント合わせが困難で、カメラのCPU27はどちらにピント合わせレンズを制御してよいか判定不可能となる。こうしたことが、ピント合わせの高速化をはばむことがある。
【0034】
一方、センサアレイの長さを長くすると、図3に示されるように、画面30内の複数ポイント(L、C、R)31にピント合わせ範囲を有する、いわゆるマルチAFのカメラの仕様が実現しにくくなる。これは、以下の理由による。
【0035】
すなわち、図3に示されるように、3ポイント(L部、C部、R部)の検出を行うには、図2(a)に明らかなように、セパレータレンズ25dを基本的には3対必要とし、センサアレイ26もそれに対応するL、C、R用の3対が必要となる。そのため、図2(c)に示されるように、中央(C)のセンサアレイ26Cを長くすると、左(L)及び右(R)のセンサアレイ26L及び26Rを配置することが困難であり、左右のセンサを配置することができなくなることがあるからである。
【0036】
本発明に於いては、図1に示されるようなエリアセンサ22を、複眼レンズ21及びペンタプリズム17を介して、フォーカシングスクリーン16をにらむ位置で配置し、フォーカシングスクリーン16上の像のピントが合っているか、どちらにずれているかを検出するようにしている。複眼レンズ21は、フォーカシングスクリーン16上に結像された像を、エリアセンサ22に再結合させる再結像手段である。
【0037】
図4(a)に示されるように、一体的に形成される複眼レンズ21は、21a、21b、21cの3つに分割され、各レンズ21a、21b、21cを介してエリアセンサがモニタする領域が22a、22b、22cとしている。このエリアセンサを前方から見ると、図4(b)に示されるようになる。
【0038】
上記センサ22a、22c及び22bの中心部分は、上記レンズ21a、21c及び21bを介して、図3に示される画面30内の領域33をモニタしている。複眼レンズ21とエリアセンサ22とから、第2の像検出手段が構成される。上記センサ22bの部分は、センサ22a、22cに比べて上下方向にも面積を有しているので、画面内のより広い領域23をモニタしている。したがって、このセンサ22bの部分に入射する光量を加算すれば、平均測光と同様の効果が得られ、カメラの露出制御に利用できる。
【0039】
図5は、上述したエリアセンサ及び周辺部の構成を示したブロック図である。
【0040】
図5に於いて、斜線で示されている部分が、エリアセンサの受光面(画素)37b1、37b2、37c1、37c2、37d1、37d2は、斜線部で示されている。これらの画素37b1、37b2、37c1、37c2、37d1、37d2から生じる光電流は、各画素毎に設けられた積分回路38b1、38b2、38c1、38c2、38d1、38d2によって電圧信号に変換される。
【0041】
各画素に入射される光の大小関係は、CPU27にから順次スイッチ(SW)制御回路40によって、スイッチ39の端子が切換えられる。すなわち、積分回路38b1、38b2、38c1、38c2、38d1、38d2に接続された端子B1、B2、C1、C2、D1、D2が選択され、A/D変換回路41によって読取られて像信号に変換されることができる。
【0042】
一方、各画素37b1、37b2、37c1、37c2、37d1、37d2のアノード側は、全てカレントミラー回路43に接続されているので、全画素の加算結果は、圧縮ダイオード44に流し込まれる。したがって、A/D変換回路41に入力するためのスイッチ39が、端子Aの部分に接続されれば、全画素電流の加算結果をCPU27が検出することができる。
【0043】
このように、図4(b)の22b部分の画素信号は、全て加算されて平均測光用データとして露出制御に用いることができる。つまり、センサ22は、ピント合わせ用センサと露出制御用センサを兼用したものとして有効利用される。また、各画素を独立として扱った場合、各エリアのコントラストがピント合わせに適当か否かを判定することができる。
【0044】
ここで、このエリアセンサ22の各エリア22a、22b、22cの画素信号を利用したピント位置検出方法について、図6を参照して説明する。
【0045】
図6(a)に示されるように、各エリアセンサ22a、22b、22cの前方には、レンズ21a、21b、21cが光軸方向に位置を変えて並んで配置されている。
【0046】
図6(b)の実線の光線にて示されるように、レンズ21cが丁度フォーカシングスクリーン16をにらんで、受光面22に対してピントが合った状態では、レンズ21b、21aは位置がずれて配置されているので、受光面22に対してフォーカシングスクリーン16上の像を正しく結像させることができない。より遠くのものを結像させられるレンズ21bによる像は、ぼけて像のコントラストがなくなり、また更に遠くのものを結像するレンズ21aによる像は、もっとぼけて像のコントラストは更に小さくなってしまう。
【0047】
逆に、レンズ21cによる像のコントラストが、レンズ21aによる像のコントラストより低い場合には、破線の光線にて示されるように、本来、ピント面に相当する位置であるフォーカシングスクリーン16よりセンサ側にはずれた16Fの位置にピントが合うと考えられる。このいわゆる後ピンのピント位置を16の位置に戻すためには、図7に示されるように、撮影レンズ11をもっと繰込む必要がある。すなわち、図7(a)に示される撮影レンズの位置から、(b)に於いて図示矢印B1方向に撮影レンズを移動させる必要がある。実際は、レンズ21bがフォーカシングスクリーン16に結像された像を、受光面22に丁度結像されるようにおかれている。
【0048】
尚、図6では各レンズ21a〜21c及びエリアセンサ22a〜22cは、フォーカシングスクリーン22の異なるポイントをモニタしているように表現したが、実際には、図4(a)に示されるように、図3の領域33に相当する部分をにらんで、同一の被写体像を検出しているものとする。図3のL部、C部、R部が、それぞれ図4(b)のL部、C部、R部に対応している。
【0049】
次に、図8のフローチャートを参照して、上述したように、位相差AF用センサとは別に設けられたエリアセンサの像信号を利用して、ピントの位置や被写体のコントラストを判定して高速のAFを行う動作について説明する。
【0050】
初めに、ステップS1〜S3は、このように構成されたエリアセンサ22a〜22c部の像のコントラストを検出しているステップである。すなわち、ステップS1にて、エリアセンサ22a部からローコントラスト部が検出される。次いで、ステップS2にてエリアセンサ22b部からローコントラスト部が検出され、更にステップS3にてエリアセンサ22c部からローコントラスト部が検出される。
【0051】
図6の説明にて繰返し述べているように、各レンズ21a〜21cは光軸方向にずらして配置されているので、撮影レンズが撮像面に対してぼけた位置に止まっていても、エリアセンサ22a〜22cの何れかには、大きくぼけていない像が結像されている。したがって、この30a〜30cの何れかのセンサにコントラストの高い像があれば、基本的にピント合わせが可能なはずである。
【0052】
しかし、どのセンサでもコントラストが検出されない場合には、白い壁や空エリアセンサ22a〜22c等、コントラストのないものをモニタしていると考えられる。こうした場合には、位相差AFでもコントラストAFでもピント検出は不可能なので、早めに警告を出してユーザに伝えることが好ましい。
【0053】
したがって、ステップS4で、エリアセンサ22a、22b、22cの各センサの何れに於いてもローコントラストが検出されたポイント(例えば、図3のL部、C部、R部に相当)が検出される。次いで、ステップS5にて、先ずC部がローコントラストか否かが判断される。ここで、上記C部がローコントラストでない場合はステップS13へ移行し、ローコントラストである場合はステップS6へ移行する。
【0054】
そして、ステップS6にて、R部がローコントラストか否かが判断される。ここで、上記R部がローコントラストでない場合はステップS9へ移行し、ローコントラストである場合はステップS7へ移行する。
【0055】
ステップS7でL部がローコントラストであると判断されると、C部、R部、L部の全ポイントがローコントラストであると判定されたことになるので、無駄なレンズ駆動は行わず、ステップS8に移行してすぐに警告が出される。
【0056】
上記ステップS6にて、R部がローコントラストでない場合は、ステップS9に移行して、センサアレイ26Rによりピント合わせが行われる。次いで、ステップS10にて、再度L部がローコントラストであるか否かが判断される。ここで、L部がローコントラストである場合はステップS12へ移行し、そうでなければステップS11へ移行する。
【0057】
ステップS11では、センサアレイ26Lにより、ピント合わせが行われる。次いで、ステップS12では、L部とR部とで何れか近距離を示すポイントにてピント合わせが行われ、その後、ステップS18へ移行する。
【0058】
上記ステップS5にて、C部がローコントラストでないと判断された場合は、ステップS13に移行して、センサアレイ26Cで位相差方式(図2(b)参照)のピント合わせが行われる。そして、ステップS14に於いて、この位相差方式によるピント合わせが不能であるか否かが判断される。ここで、不能の場合はステップS15へ移行し、そうでない場合はステップS18へ移行する。
【0059】
ところで、CPU27内での電気的な演算だけならミリ秒オーダ以下で済む判定でも、レンズ駆動量の制御が間に入ると、すぐに0.1秒オーダのタイムラグとなり、操作性が著しく劣化する。そのため、本発明は極力、レンズ駆動しながらの判定や検出を減らし、高速化を達成するもので、上述したステップS1〜S3にて、予めピント合わせにふさわしくないポイントを判別し、また、図6で説明したピント位置判定によって位相差AFができない状況でも、レンズ駆動の方向を決めてしまうように工夫している。
【0060】
その工夫を実施するのが、ステップS14〜S17である。すなわち、上記ステップS14にて位相差方式のピント合わせが不能である場合、ステップS15に移行して、図6で説明したエリアセンサ22のコントラスト(ぼけが大きいとコントラストが低下)が判断される。
【0061】
そして、この判断結果に従って、レンズ駆動方向が決定される。つまり、エリアセンサ22cのボケよりエリアセンサ22aのボケの方が大きい場合は、ステップS16に移行して繰出し方向にレンズが駆動される。一方、エリアセンサ22aのボケよりエリアセンサ22cのボケの方が大きい場合は、ステップS17に移行して繰込み方向にレンズが駆動される。
【0062】
このように、位相差AFで時として必要であった検出駆動(レンズを少し移動させてみて、ピント合わせの方向を決める)を無くして、高速のピント合わせをすることができる。そして、レンズ駆動の方向が決定したならば、上記ステップS13に移行して、位相差AF方式のピント合わせが行われる。
【0063】
また、最も被写体の存在確率の高い中央部(C部)がローコントラストであるか否かは、上記ステップS4にて判定することができる。したがって、ローコントラスト時は、ステップS6に移行して、R部またはL部を利用したピント合わせが行われる。
【0064】
上述したR部、L部共、上記ステップS4にてピント合わせに位置するか否かが判定されているので、コントラストがない場合は、ステップS9、S11のピント検出のステップはスキップして、無駄な処理は行われずに高速化が図られている。
【0065】
また、左右の何れかが選択される際は、上記ステップS12にてピント検出ができた一方または近距離のものが優先されて選択されたピント合わせが行われる。
【0066】
こうして、ピント合わせが終了すると、ステップS18にてエリアセンサの22bの画素出力が加算された結果が判定される。そして、この結果に従って、ステップS19にて露出制御方法が決定される。更に、ステップS20にて、制御されたピントと露出制御方法にて撮影が行われ、一連のシーケンスが終了する。
【0067】
尚、上記ステップS5、S6及びS7は、合焦位置が画面の中央、右、左の何れにあるかを判断するためのものである。
【0068】
以上説明したように、本実施の形態によれば、露出制御用のセンサを利用して、より高速なピント制御が可能となる。
【0069】
また、本実施の形態では、単純化のために、露出制御用にはエリアセンサ22の22bの部分の画素を加算した出力を平均測光用として用いて単純化したが、分割センサとして主被写体部分の画素をいくつかひとまとめにして、重み付けするような制御を行っても良いことは言うまでもない。
【0070】
尚、本発明の上記実施の形態によれば、以下の如き構成を得ることができる。
【0071】
すなわち、
(付記項1) 撮影レンズの異なる領域を通った2つの光束による一対の像信号を検出する第1の像検出手段と、
上記撮影レンズを介した光を光路長を変えて検出する第2の像検出手段と、
上記第1及び第2の像検出手段の出力結果によって、上記撮影レンズの焦点調節を行う制御手段と、
を具備することを特徴とするカメラ。
【0072】
(付記項2) 上記第2の像検出手段は、焦点位置の異なる複数のレンズ及びエリアセンサとから成ることを特徴とする付記項1に記載のカメラ。
【0073】
(付記項3) 上記第2の像検出手段は各画素の出力を加算する加算回路を有しており、上記加算回路の出力より上記カメラの露出制御を行う露出制御手段を更に具備することを特徴とする付記項1に記載のカメラ。
【0074】
(付記項4) 撮影レンズの異なる視野を通った2つの光束による一対の像信号を検出する第1の像検出手段と、
画素出力を加算して出力するモードと、各画素出力を独立して検出するモードとを有し、上記撮影レンズを通った第3の光束を検出する第2の像検出手段と、
上記第1及び第2の像検出手段の出力に従って、上記撮影レンズの焦点調節を行う制御手段と、
を具備することを特徴とするカメラ。
【0075】
【発明の効果】
以上説明したように、本発明によれば、画面内の複数のポイントを効率よく判別し、高速でのピント合わせを可能としたカメラ及び合焦装置並びに合焦方法を提供することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の構成を示すもので、本発明をレンズ交換可能な一眼レフレックスカメラに適用した例を示した図である。
【図2】(a)は焦点検出光学系25及びその周辺部の詳細な構成を示した図、(b)は焦点検出光学系25を説明するものでミラーによる光路折り曲げなしに示した図、(c)は中央、左、右のセンサアレイの配置例を示した図である。
【図3】画面30内の領域の例を示した図である。
【図4】(a)は複眼レンズとエリアセンサの関係を説明する図、(b)はエリアセンサとL部、C部、R部との関係を示した図である。
【図5】エリアセンサ及び周辺部の構成を示したブロック図である。
【図6】エリアセンサ22の各エリア22a、22b、22cの画素信号を利用したピント位置検出方法について説明する図である。
【図7】ピント面と撮影レンズの位置について説明する図である。
【図8】本発明の一実施の形態のカメラに於けるピントの位置や被写体のコントラストを判定して高速のAFを行う動作について説明するフローチャートである。
【符号の説明】
1 カメラ本体、
2 鏡胴部、
11 撮影レンズ、
15 メインミラー(クイックリターンミラー)、
16 フォーカシングスクリーン、
17 ペンタプリズム、
18 接眼レンズ、
21、21a、21b、21c 複眼レンズ、
22、22a、22b、22c エリアセンサ、
24 サブミラー、
25 焦点検出光学系、
25a 視野マスク、
25b コンデンサレンズ、、
25c ミラー、
25d セパレータレンズ、
26、26a、26b、26C、26L、26R センサアレイ、
27 演算制御手段(CPU)、
29 撮像素子、
30 A/D変換部、
31 画像処理回路、
32 メモリ。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a camera focus detection device, and more particularly to an improvement in a so-called TTL AF camera that adjusts a focal position of a photographing lens using an image signal obtained through the photographing lens. .
[0002]
[Prior art]
Conventionally, the TTL AF has the advantage of using a light passing through a photographing lens, so that there is no parallax and high-precision focusing by feedback control is possible, and it has been applied to a lens-interchangeable camera. .
[0003]
However, if the photographing lens is located far away from the in-focus position, correct focus control may not be performed, for example, the image of the subject may be blurred or the image may protrude from the image sensor.
[0004]
In recent years, with the development of so-called multi-point (multi) AF technology, various devices for selecting a focusing point from many points on a screen have been proposed (for example, Japanese Patent No. 3253398 by the present applicant). However, as the number of points for focusing increases, the range of focus detection at each point tends to be limited.
[0005]
[Problems to be solved by the invention]
By the way, in many interchangeable lens cameras or single-lens reflex cameras, a so-called phase difference AF, which detects a focus position using two image signals incident from different fields of view of a photographing lens, has become mainstream. I have. In the phase difference AF, the displacement of a lens in the optical axis direction is converted into an image position change in a direction perpendicular to the optical axis direction and detected.
[0006]
That is, it is possible to detect a wider range by arranging many sensors in a direction orthogonal to the optical axis direction of the lens. However, in the case of multi-AF, since the sensors for different points are arranged on the same axis, the detection range tends to be narrow.
[0007]
In addition, when the number of detection points increases, it is necessary to detect points in the screen that do not originally need to detect focus, resulting in a useless time lag.
[0008]
Thus, it is very difficult to combine the multi-AF operation with a wide focusing range.
[0009]
Therefore, the present invention has been made in view of the above situation, and provides a camera, a focusing device, and a focusing method that can efficiently discriminate a plurality of points on a screen and perform focusing at high speed. It is.
[0010]
[Means for Solving the Problems]
That is, the present invention divides subject light that has passed through a photographing lens into two light beams that pass through different regions in a photographing screen, and outputs a pair of image signals from the two light beams; Second image detecting means for forming a plurality of light fluxes having different optical path lengths from subject light passing through the photographing lens, and outputting image signals based on the plurality of light fluxes; and outputs of the first and second image detecting means And focus detection means for performing focus detection in accordance with
[0011]
Further, the present invention further comprises a first image detecting means for dividing the subject light passing through the photographing lens into two light beams passing through different regions in the photographing screen, and outputting a pair of image signals from the two light beams; A second image detecting means for forming a plurality of light beams having different optical path lengths from subject light passing through the photographing lens and having an area sensor for outputting an image signal based on the plurality of light beams; the first and second image detecting means; The image processing apparatus further includes a focus detection unit that performs focus detection in accordance with an output of the image detection unit, and an exposure control unit that performs exposure control based on an image signal output from the area sensor.
[0012]
The first step of dividing the subject light passing through the photographing lens into two light beams passing through different regions in the photographing screen, and outputting a pair of first image signals from the two light beams; A second step of forming a plurality of luminous fluxes having different optical path lengths from subject light passing through the photographing lens and outputting a second image signal based on the plurality of luminous fluxes; and outputting the first and second image signals And a third step of performing focus detection in accordance with
[0013]
Further, the present invention provides a plurality of re-imaging optical units having different focal lengths for forming an image with different optical path lengths, an image detecting unit for outputting an image signal based on the plurality of light beams, and the image detecting unit. And a focus detection unit that performs focus detection according to the output.
[0014]
In the focusing apparatus according to the aspect of the invention, the subject light having passed through the photographing lens is divided into two light beams passing through different regions in the photographing screen by the first image detecting means, and a pair of image light beams is formed from the two light beams. A signal is output. A plurality of light fluxes having different optical path lengths are formed from the subject light passing through the photographing lens by a second image detecting means, and an image signal based on the plurality of light fluxes is output. Then, in accordance with the output of the first and second image detecting means, focus detection is performed by the focus detecting means.
[0015]
Further, in the camera of the present invention, the subject light passing through the taking lens is divided into two light beams passing through different regions in the photographing screen, and the first image detecting means converts the two light beams into a pair of images. A signal is output. Further, in the second image detecting means having the area sensor, a plurality of light beams having different optical path lengths are formed from the subject light passing through the photographing lens, and an image signal based on the plurality of light beams is output. Focus detection is performed by the focus detection means in accordance with the outputs of the first and second image detection means, and exposure control is performed by the exposure control means based on the image signal output from the area sensor. Is
[0016]
According to the focusing method of the present invention, the subject light passing through the photographing lens is divided into two light beams passing through different regions in the photographing screen, and a pair of first image signals is formed from the two light beams. Is output. Next, a plurality of light beams having different optical path lengths are formed from the subject light passing through the photographing lens, and a second image signal based on the plurality of light beams is output. Then, focus detection is performed according to the output of the first and second image signals.
[0017]
In the focusing apparatus according to the present invention, the plurality of re-imaging optical units having different focal lengths form images with different optical path lengths, and the image detecting unit outputs an image signal based on the plurality of light beams. . Then, focus detection is performed by the focus detection means in accordance with the output of the image detection means.
[0018]
As a result, in addition to the phase difference AF used in many interchangeable lens type cameras and single-lens reflex cameras, using the output of a sensor for determining contrast, a position suitable for focusing is instantly detected, The direction of focusing can be determined at high speed.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0020]
FIG. 1 shows a configuration of an embodiment of the present invention, and shows an example in which the present invention is applied to a single-lens reflex camera with interchangeable lenses.
[0021]
In FIG. 1, the camera comprises a camera body 1 and a lens barrel 2 detachably attached to the camera body 1. The lens barrel 2 includes a photographing lens 11 for guiding a photographing light beam from a not-shown subject, and a motor 12 for driving the photographing lens 11 under the control of a CPU 27 described later.
[0022]
On the other hand, the camera body 1 has a main mirror (quick return mirror) 15 that reflects and transmits light that has entered through the photographing lens 11. The light reflected by the main mirror 15 reaches a photographer's eye 20 through a pentaprism 17 and an eyepiece 18 via a focusing screen 16. Further, a compound eye lens 21 and an area sensor 22, which will be described later, are arranged above the eyepiece lens 18 and near the pentaprism 17. It is desirable that the focusing screen 16 has a low diffusivity.
[0023]
The main mirror 15 is constituted by a half mirror, and a part of the light passes through the main mirror 15 and is reflected by the sub-mirror 24 downward in the drawing, and is guided to the focus detection optical system 25. In the focus detection optical system 25, the subject image is divided into two, and the output is supplied to the sensor array 26. The focus detection optical system 25 and the sensor array 26 constitute a first image detection unit. The output of the sensor array 26 is supplied to an arithmetic and control unit (CPU) 27 including a one-chip microcomputer or the like. The CPU 27 is supplied with the output of the area sensor 22, and further controls the driving of the motor 12, the image processing circuit 31, the main mirror 15, and the sub mirror 24.
[0024]
When the main mirror 15 and the sub-mirror 24 are rotated in the direction indicated by the arrow A under the control of the CPU 27, a photographic light beam from a subject (not shown) is imaged on the image sensor 29. The signal obtained by the image sensor 29 is converted into a digital signal by the A / D converter 30 and output to the image processing circuit 31. Then, when processing such as compression is performed in the image processing circuit 31, the image can be recorded in the memory 32 as a digital image signal.
[0025]
The CPU 27 detects a photographer's camera operation and sequentially controls image processing including focusing, mirror control, and exposure control.
[0026]
In such a configuration, the light incident through the photographing lens 11 is reflected upward by the main mirror 15 in FIG. 1 and forms an image on the focusing screen 16. Thereby, the photographer (eye) 20 can enjoy photographing while checking the photographic composition by the pentaprism 17 and the eyepiece 18.
[0027]
The light transmitted through the main mirror 15 is reflected by the sub mirror 24 and guided to the focus detection optical system 25.
[0028]
FIG. 2A is a diagram showing a detailed configuration of the focus detection optical system 25 and its peripheral portion. The focus detection optical system 25 includes a field mask 25a, a condenser lens 25b, a mirror 25c, and a separator lens 25d. The focus detection optical system 25 divides a subject image into two, and changes the extension position of the lens at right angles. To the direction you want. The sensor array 26 detects the relative position of the two divided images.
[0029]
The output of the sensor array 26 is converted into a digital image signal by an A / D converter built in the CPU 27. Thus, the relative position of the two images is determined. If the motor 12 is controlled using the result, focus control of the photographing lens 11 can be performed.
[0030]
In this state, when the main mirror 15 is rotated in the direction indicated by arrow A and retracted out of the optical path, a subject image is formed on the image sensor 29. Therefore, by performing appropriate exposure control depending on the brightness of the subject, an image in focus and exposure can be obtained.
[0031]
FIG. 2B is a view for explaining the focus detection optical system 25 described above and is shown without bending the optical path by a mirror.
[0032]
That is, light (two images) passing through different optical paths 11a and 11b of the photographing lens 11 is incident on the sensor arrays 26a and 26b by the functions of the condenser lens 25b and the separator lens 25d. When the photographing lens 11 is moved in the optical axis direction (the direction of arrow B in the drawing), the distance between the pair of separator lenses 25d does not change, so that the subject image position changes in the direction in which the sensor arrays 26a and 26b are arranged.
[0033]
Such a function determines the positional relationship between the two images when the photographing lens 11 is at the optimal position, so that the focusing lens may be controlled so as to achieve the positional relationship. If the focusing range of the lens is widened, it will be out of the range of the sensor arrays 26a and 26b, and if it exceeds this range, it is difficult to focus, and the CPU 27 of the camera determines which one to control the focusing lens. Impossible. This may limit the speed of focusing.
[0034]
On the other hand, if the length of the sensor array is increased, as shown in FIG. 3, the specification of a so-called multi-AF camera having a focusing range at a plurality of points (L, C, R) 31 in the screen 30 is realized. It becomes difficult. This is for the following reason.
[0035]
That is, as shown in FIG. 3, in order to detect three points (L part, C part, and R part), as apparent from FIG. And three pairs of L, C, and R corresponding to the sensor array 26 are required. For this reason, as shown in FIG. 2C, when the sensor array 26C at the center (C) is made longer, it is difficult to arrange the left (L) and right (R) sensor arrays 26L and 26R. This is because it may not be possible to dispose the sensor.
[0036]
In the present invention, the area sensor 22 as shown in FIG. 1 is disposed at a position where the focusing screen 16 is viewed through the compound eye lens 21 and the pentaprism 17 so that the image on the focusing screen 16 is focused. Or which one is deviated. The compound eye lens 21 is a re-imaging unit that re-combines the image formed on the focusing screen 16 with the area sensor 22.
[0037]
As shown in FIG. 4A, the compound eye lens 21 integrally formed is divided into three, 21a, 21b, and 21c, and the area monitored by the area sensor via each of the lenses 21a, 21b, and 21c. Are 22a, 22b and 22c. When this area sensor is viewed from the front, it is as shown in FIG.
[0038]
The central portions of the sensors 22a, 22c and 22b monitor an area 33 in the screen 30 shown in FIG. 3 via the lenses 21a, 21c and 21b. The compound eye lens 21 and the area sensor 22 constitute a second image detecting unit. Since the sensor 22b has a larger area in the vertical direction than the sensors 22a and 22c, it monitors a wider area 23 in the screen. Therefore, if the amount of light incident on the sensor 22b is added, the same effect as that of the average photometry can be obtained, which can be used for the exposure control of the camera.
[0039]
FIG. 5 is a block diagram showing a configuration of the above-described area sensor and peripheral portions.
[0040]
In FIG. 5, the shaded portions indicate the light receiving surfaces (pixels) 37b1, 37b2, 37c1, 37c2, 37d1, and 37d2 of the area sensor. Photocurrents generated from these pixels 37b1, 37b2, 37c1, 37c2, 37d1, 37d2 are converted into voltage signals by integration circuits 38b1, 38b2, 38c1, 38c2, 38d1, 38d2 provided for each pixel.
[0041]
Regarding the magnitude relation of the light incident on each pixel, the terminal of the switch 39 is switched by the switch (SW) control circuit 40 sequentially from the CPU 27. That is, terminals B1, B2, C1, C2, D1, and D2 connected to the integration circuits 38b1, 38b2, 38c1, 38c2, 38d1, 38d2 are selected, read by the A / D conversion circuit 41, and converted into image signals. Can be
[0042]
On the other hand, the anode side of each of the pixels 37b1, 37b2, 37c1, 37c2, 37d1, 37d2 is all connected to the current mirror circuit 43, so that the addition result of all pixels flows into the compression diode 44. Therefore, if the switch 39 for inputting to the A / D conversion circuit 41 is connected to the terminal A, the CPU 27 can detect the addition result of all pixel currents.
[0043]
As described above, all the pixel signals of the portion 22b in FIG. 4B can be added to be used for exposure control as average photometric data. In other words, the sensor 22 is effectively used as a sensor that also serves as a focusing sensor and an exposure control sensor. When each pixel is treated independently, it can be determined whether or not the contrast of each area is appropriate for focusing.
[0044]
Here, a focus position detection method using pixel signals of the respective areas 22a, 22b, 22c of the area sensor 22 will be described with reference to FIG.
[0045]
As shown in FIG. 6A, lenses 21a, 21b, and 21c are arranged in front of the area sensors 22a, 22b, and 22c at different positions in the optical axis direction.
[0046]
As shown by the solid ray in FIG. 6B, in a state where the lens 21c has just focused on the focusing screen 16 and is focused on the light receiving surface 22, the lenses 21b and 21a are displaced. Because of the arrangement, the image on the focusing screen 16 cannot be correctly formed on the light receiving surface 22. An image formed by the lens 21b that forms a farther object is blurred and has no image contrast, and an image formed by a lens 21a that forms a farther object is further blurred and the image contrast is further reduced. .
[0047]
Conversely, when the contrast of the image by the lens 21c is lower than the contrast of the image by the lens 21a, as indicated by the broken-line light, the focusing screen 16 which is originally at the position corresponding to the focus plane is closer to the sensor. It is considered that the position of the shifted 16F is in focus. In order to return the so-called rear focus position to the position of 16, the photographing lens 11 needs to be further retracted as shown in FIG. That is, it is necessary to move the photographing lens from the position of the photographing lens shown in FIG. 7A in the direction of the arrow B1 shown in FIG. 7B. Actually, the image formed by the lens 21b on the focusing screen 16 is formed on the light receiving surface 22 exactly.
[0048]
In FIG. 6, the lenses 21a to 21c and the area sensors 22a to 22c are expressed as monitoring different points on the focusing screen 22, but actually, as shown in FIG. It is assumed that the same subject image is detected with a view to a portion corresponding to the region 33 in FIG. The L, C, and R portions in FIG. 3 correspond to the L, C, and R portions in FIG. 4B, respectively.
[0049]
Next, referring to the flowchart of FIG. 8, as described above, the focus position and the contrast of the subject are determined by using the image signal of the area sensor provided separately from the phase difference AF sensor, and the high speed is determined. Will be described.
[0050]
First, steps S1 to S3 are steps for detecting the contrast of the images of the area sensors 22a to 22c configured as described above. That is, in step S1, a low contrast portion is detected from the area sensor 22a. Next, in step S2, a low contrast portion is detected from the area sensor 22b, and in step S3, a low contrast portion is detected from the area sensor 22c.
[0051]
As described repeatedly in the description of FIG. 6, since the lenses 21a to 21c are displaced in the optical axis direction, even if the photographing lens is stopped at a blurred position with respect to the imaging surface, the area sensor An image that is not greatly blurred is formed on any of 22a to 22c. Therefore, if an image with high contrast is present in any of the sensors 30a to 30c, focusing should be basically possible.
[0052]
However, when the contrast is not detected by any of the sensors, it is considered that an object having no contrast, such as a white wall or the empty area sensors 22a to 22c, is being monitored. In such a case, focus detection is not possible with either the phase difference AF or the contrast AF, so it is preferable to issue a warning early to inform the user.
[0053]
Accordingly, in step S4, points (for example, corresponding to the L, C, and R portions in FIG. 3) at which the low contrast is detected are detected in any of the area sensors 22a, 22b, and 22c. . Next, in step S5, it is first determined whether or not the portion C has low contrast. Here, if the section C is not low contrast, the process proceeds to step S13, and if it is low contrast, the process proceeds to step S6.
[0054]
Then, in step S6, it is determined whether or not the R portion has low contrast. Here, when the R portion is not low contrast, the process proceeds to step S9, and when the R portion is low contrast, the process proceeds to step S7.
[0055]
If it is determined in step S7 that the L portion has low contrast, it is determined that all the points of the C portion, the R portion, and the L portion have low contrast, so that useless lens driving is not performed. A warning is issued immediately after shifting to S8.
[0056]
If it is determined in step S6 that the R portion is not low contrast, the process proceeds to step S9, where the sensor array 26R performs focusing. Next, in step S10, it is determined again whether or not the L portion has low contrast. Here, if the L portion has low contrast, the process proceeds to step S12; otherwise, the process proceeds to step S11.
[0057]
In step S11, focusing is performed by the sensor array 26L. Next, in step S12, focusing is performed at any point indicating a short distance between the L portion and the R portion, and then the process proceeds to step S18.
[0058]
If it is determined in step S5 that the portion C is not low contrast, the process proceeds to step S13, and the sensor array 26C focuses on the phase difference method (see FIG. 2B). Then, in step S14, it is determined whether or not focusing by the phase difference method is impossible. Here, if it is impossible, the process proceeds to step S15, and if not, the process proceeds to step S18.
[0059]
By the way, even if it is determined that only the electrical calculation in the CPU 27 is on the order of milliseconds or less, if the control of the lens driving amount is in between, the time lag immediately becomes on the order of 0.1 second, and the operability is significantly deteriorated. Therefore, the present invention reduces the number of determinations and detections while driving the lens as much as possible and achieves high speed. In the above-described steps S1 to S3, a point which is not suitable for focusing is determined in advance. Even in a situation where the phase difference AF cannot be performed by the focus position determination described in the above section, the lens driving direction is determined.
[0060]
Steps S14 to S17 implement the contrivance. That is, if focusing by the phase difference method is impossible in step S14, the process proceeds to step S15, and the contrast of the area sensor 22 described in FIG.
[0061]
Then, the lens driving direction is determined according to the result of this determination. That is, when the blur of the area sensor 22a is larger than the blur of the area sensor 22c, the process proceeds to step S16 and the lens is driven in the extending direction. On the other hand, when the blur of the area sensor 22c is larger than the blur of the area sensor 22a, the process proceeds to step S17, and the lens is driven in the retracting direction.
[0062]
In this manner, high-speed focusing can be performed without the need for detection driving (determining the direction of focusing by slightly moving the lens), which is sometimes necessary in the phase difference AF. When the lens driving direction is determined, the flow shifts to step S13 to perform focusing by the phase difference AF method.
[0063]
Further, it can be determined in the above step S4 whether or not the central portion (C portion) where the existence probability of the subject is highest has low contrast. Therefore, at the time of low contrast, the process proceeds to step S6, and focusing using the R portion or the L portion is performed.
[0064]
Since it is determined in step S4 whether or not the above-described R and L portions are positioned for focusing, if there is no contrast, the steps of focus detection in steps S9 and S11 are skipped, resulting in waste. The speed is increased without performing any complicated processing.
[0065]
When either the left or the right is selected, one or a short-distance object that has been detected in step S12 is prioritized and the selected focus is performed.
[0066]
When focusing is completed in this way, the result of adding the pixel outputs of the area sensor 22b is determined in step S18. Then, an exposure control method is determined in step S19 according to the result. Further, in step S20, shooting is performed using the controlled focus and exposure control method, and a series of sequences ends.
[0067]
Steps S5, S6, and S7 are for determining whether the in-focus position is at the center, right, or left of the screen.
[0068]
As described above, according to the present embodiment, focus control can be performed at higher speed using the sensor for exposure control.
[0069]
Further, in the present embodiment, for simplification, the output obtained by adding the pixels of the area sensor 22b for the exposure control is simplified for average photometry. It goes without saying that control may be performed such that several pixels are grouped together and weighted.
[0070]
According to the above embodiment of the present invention, the following configuration can be obtained.
[0071]
That is,
(Additional Item 1) First image detecting means for detecting a pair of image signals by two light beams passing through different regions of the photographing lens;
Second image detecting means for detecting the light passing through the taking lens by changing the optical path length,
Control means for adjusting the focus of the taking lens based on the output results of the first and second image detection means;
A camera comprising:
[0072]
(Additional Item 2) The camera according to Additional Item 1, wherein the second image detecting means includes a plurality of lenses having different focal positions and an area sensor.
[0073]
(Additional Item 3) The second image detecting means has an adding circuit for adding the output of each pixel, and further includes an exposure controlling means for controlling the exposure of the camera from the output of the adding circuit. 2. The camera according to claim 1, wherein the camera is characterized in that:
[0074]
(Additional Item 4) First image detecting means for detecting a pair of image signals by two light beams passing through different fields of view of the taking lens;
A second image detecting means having a mode for adding and outputting the pixel outputs and a mode for independently detecting each pixel output, and detecting a third light flux passing through the photographing lens;
Control means for adjusting the focus of the taking lens according to the outputs of the first and second image detection means;
A camera comprising:
[0075]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a camera, a focusing device, and a focusing method capable of efficiently determining a plurality of points in a screen and performing high-speed focusing.
[Brief description of the drawings]
FIG. 1 is a view showing a configuration of a first embodiment of the present invention, and is a diagram showing an example in which the present invention is applied to a single-lens reflex camera with interchangeable lenses.
2A is a diagram illustrating a detailed configuration of a focus detection optical system 25 and a peripheral portion thereof, FIG. 2B is a diagram illustrating the focus detection optical system 25, and is a diagram illustrating the focus detection optical system 25 without bending an optical path by a mirror; (C) is a diagram showing an example of the arrangement of the center, left, and right sensor arrays.
FIG. 3 is a diagram showing an example of an area in a screen 30.
4A is a diagram illustrating a relationship between a compound eye lens and an area sensor, and FIG. 4B is a diagram illustrating a relationship between an area sensor and an L portion, a C portion, and an R portion.
FIG. 5 is a block diagram showing a configuration of an area sensor and peripheral portions.
FIG. 6 is a diagram illustrating a focus position detection method using pixel signals of respective areas 22a, 22b, and 22c of the area sensor 22.
FIG. 7 is a diagram illustrating a focus surface and a position of a photographing lens.
FIG. 8 is a flowchart illustrating an operation of determining a focus position and a contrast of a subject and performing high-speed AF in the camera according to the embodiment of the present invention.
[Explanation of symbols]
1 camera body,
2 lens barrel,
11 shooting lens,
15 Main mirror (quick return mirror),
16 Focusing screen,
17 Penta prism,
18 eyepieces,
21, 21a, 21b, 21c compound eye lens,
22, 22a, 22b, 22c area sensor,
24 submirrors,
25 focus detection optical system,
25a field mask,
25b condenser lens,
25c mirror,
25d separator lens,
26, 26a, 26b, 26C, 26L, 26R sensor array,
27 arithmetic control means (CPU),
29 image sensor,
30 A / D converter,
31 image processing circuit,
32 memory.

Claims (20)

撮影レンズを通った被写体光を、撮影画面内の異なる領域を通過する2つの光束に分け、当該2つの光束から一対の像信号を出力する第1の像検出手段と、
上記撮影レンズを通った被写体光から光路長の異なる複数の光束を形成し、上記複数の光束に基く像信号を出力する第2の像検出手段と、
上記第1、第2の像検出手段の出力に応じて合焦検出を行う合焦検出手段と、
を備えたことを特徴とする合焦装置。
First image detecting means for dividing subject light passing through the photographing lens into two light beams passing through different regions in the photographing screen and outputting a pair of image signals from the two light beams;
Second image detection means for forming a plurality of light beams having different optical path lengths from subject light passing through the photographing lens, and outputting an image signal based on the plurality of light beams;
Focus detection means for performing focus detection according to the output of the first and second image detection means;
A focusing device comprising:
上記第2の像検出手段は、光路長を異ならせて結像させるための焦点距離の異なる複数の再結像光学手段を備えたことを特徴とする請求項1に記載の合焦装置。2. The focusing apparatus according to claim 1, wherein the second image detecting means includes a plurality of re-imaging optical means having different focal lengths for forming images with different optical path lengths. 上記第2の像検出手段は、被写体像を視認するための光学ファインダに備えられたことを特徴とする請求項2に記載の合焦装置。The focusing device according to claim 2, wherein the second image detecting means is provided in an optical finder for visually recognizing a subject image. 上記再結像光学手段は、光学ファインダ用に結像される被写体像から光路長の異なる複数の光束を形成することを特徴とする請求項3に記載の合焦装置。4. The focusing apparatus according to claim 3, wherein the re-imaging optical unit forms a plurality of light beams having different optical path lengths from a subject image formed for an optical finder. 上記第2の像検出手段は、上記被写体像の結像する結像面であって、光学的拡散性が少ない結像面を有する上記光学ファインダに備えられたことを特徴とする請求項3、4に記載の合焦装置。4. The optical finder according to claim 3, wherein the second image detecting means is provided on the optical viewfinder having an image forming surface on which the subject image is formed and having an optically diffusive property. 5. The focusing device according to 4. 上記第2の像検出手段は、上記光学ファインダに備えられる接眼レンズ近傍に配置されたことを特徴とする請求項3、4、5に記載の合焦装置。The focusing device according to claim 3, wherein the second image detection unit is disposed near an eyepiece provided in the optical viewfinder. 上記合焦検出手段は、上記第2の像検出手段から出力された光路長の異なる像信号の比較により、ピントのずれている方向を検出することを特徴とする請求項1乃至6に記載の合焦装置。7. The apparatus according to claim 1, wherein the focus detecting unit detects a direction in which the focus is shifted by comparing image signals having different optical path lengths output from the second image detecting unit. Focusing device. 上記合焦検出手段は、上記第2の像検出手段から出力された像信号により、画面内の被写体の位置を検出することを特徴とする請求項1乃至7に記載の合焦装置。The focusing apparatus according to claim 1, wherein the focus detection unit detects a position of a subject in a screen based on an image signal output from the second image detection unit. 上記第1の像検出手段は、上記2つの光束が属する領域を1つの検出領域として、画面内に複数設けられた当該検出領域の中から、上記検出された画面内の被写体の位置に応じて使用する検出領域を選択する選択手段を備えたことを特徴とする請求項8に記載の合焦装置。The first image detecting means sets a region to which the two light beams belong as one detection region and selects one of the detection regions provided in the screen according to the detected position of the subject in the screen. 9. The focusing device according to claim 8, further comprising a selection unit for selecting a detection area to be used. 上記第1の像検出手段への被写体光は、撮影レンズを通過して光路分割手段により分割された一方の被写体光であり、上記第2の像検出手段への被写体光は、分割された他方の被写体光であることを特徴とする請求項1乃至9に記載の合焦装置。The subject light to the first image detecting means is one of the subject lights passing through the taking lens and divided by the optical path dividing means, and the subject light to the second image detecting means is the other of the divided light. The focusing device according to claim 1, wherein the object light is a subject light. 請求項1乃至11の何れか1項に記載の合焦装置を備えたことを特徴とするカメラ。A camera comprising the focusing device according to claim 1. 撮影レンズを通った被写体光を、撮影画面内の異なる領域を通過する2つの光束に分け、上記2つの光束から一対の像信号を出力する第1の像検出手段と、
上記撮影レンズを通った被写体光からピント結像位置の異なる複数の光束を形成し、上記複数の光束に基く像信号を出力するエリアセンサを有する第2の像検出手段と、
上記第1、第2の像検出手段の出力に応じて合焦検出を行う合焦検出手段と、上記エリアセンサから出力される像信号に基いて露出制御を行う露出制御手段と、
を備えたことを特徴とするカメラ。
First image detecting means for dividing the subject light passing through the photographing lens into two light beams passing through different regions in the photographing screen and outputting a pair of image signals from the two light beams;
A second image detecting unit that forms a plurality of light beams having different focus image positions from subject light passing through the photographing lens and has an area sensor that outputs an image signal based on the plurality of light beams;
Focus detection means for performing focus detection according to the output of the first and second image detection means, exposure control means for performing exposure control based on an image signal output from the area sensor,
A camera comprising:
上記エリアセンサから出力される像信号を加算して上記露出制御手段に出力する加算手段を備えたことを特徴とする請求項12に記載のカメラ。13. The camera according to claim 12, further comprising an adding unit that adds an image signal output from the area sensor and outputs the added image signal to the exposure control unit. 上記エリアセンサは、上記複数の光束別に像信号を出力することを特徴とする請求項12、13に記載のカメラ。14. The camera according to claim 12, wherein the area sensor outputs an image signal for each of the plurality of light beams. 上記露出制御手段は、上記複数の光束に対応するそれぞれの受光領域の中で、広い受光領域の像信号の出力に基いて露出制御を行うことを特徴とする請求項14に記載のカメラ。15. The camera according to claim 14, wherein the exposure control means performs exposure control based on an output of an image signal of a wide light receiving area in each of the light receiving areas corresponding to the plurality of light beams. 撮影レンズを通った被写体光を、撮影画面内の異なる領域を通過する2つの光束に分け、上記2つの光束から一対の第1の像信号を出力する第1のステップと、
上記撮影レンズを通った被写体光から光路長の異なる複数の光束を形成し、上記複数の光束に基く第2の像信号を出力する第2のステップと、
上記第1、第2の像信号の出力に応じて合焦検出を行う第3のステップと、
を備えることを特徴とする合焦方法。
A first step of dividing the subject light passing through the photographing lens into two light beams passing through different regions in the photographing screen, and outputting a pair of first image signals from the two light beams;
A second step of forming a plurality of luminous fluxes having different optical path lengths from subject light passing through the photographing lens, and outputting a second image signal based on the plurality of luminous fluxes;
A third step of performing focus detection in accordance with the output of the first and second image signals;
A focusing method comprising:
上記光路長の異なる複数の光束は、焦点距離の異なる複数の再結像光学系によって形成されることを特徴とする請求項15に記載の合焦方法。The focusing method according to claim 15, wherein the plurality of light beams having different optical path lengths are formed by a plurality of re-imaging optical systems having different focal lengths. 光路長を異ならせて結像させるための焦点距離の異なる複数の再結像光学手段と、
上記複数の光束に基く像信号を出力する像検出手段と、
上記像検出手段の出力に応じて合焦検出を行う合焦検出手段と、
を備えたことを特徴とする合焦装置。
A plurality of re-imaging optical means having different focal lengths for imaging with different optical path lengths,
Image detection means for outputting an image signal based on the plurality of light fluxes,
Focus detection means for performing focus detection according to the output of the image detection means,
A focusing device comprising:
上記再結像光学手段及び像検出手段は、被写体像を視認するための光学ファインダに備えられたことを特徴とする請求項18に記載の合焦装置。19. The focusing device according to claim 18, wherein the re-imaging optical unit and the image detecting unit are provided in an optical finder for visually recognizing a subject image. 上記再結像光学手段は、光学ファインダ用に結像される被写体像から、光路長の異なる複数の光束を形成することを特徴とする請求項19に記載の合焦装置。20. The focusing apparatus according to claim 19, wherein the re-imaging optical unit forms a plurality of light beams having different optical path lengths from a subject image formed for an optical finder.
JP2002202736A 2002-07-11 2002-07-11 Camera, focusing device and focusing method Withdrawn JP2004045728A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002202736A JP2004045728A (en) 2002-07-11 2002-07-11 Camera, focusing device and focusing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002202736A JP2004045728A (en) 2002-07-11 2002-07-11 Camera, focusing device and focusing method

Publications (1)

Publication Number Publication Date
JP2004045728A true JP2004045728A (en) 2004-02-12

Family

ID=31708839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002202736A Withdrawn JP2004045728A (en) 2002-07-11 2002-07-11 Camera, focusing device and focusing method

Country Status (1)

Country Link
JP (1) JP2004045728A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031343A (en) * 2007-07-24 2009-02-12 Nikon Corp Camera
JP2009258451A (en) * 2008-04-17 2009-11-05 Canon Inc Focus detection device
US8694640B2 (en) 2002-11-12 2014-04-08 Rateze Remote Mgmt. L.L.C. Low level storage protocols, systems and methods
JP2019066542A (en) * 2017-09-28 2019-04-25 キヤノン株式会社 Imaging apparatus and control method of the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8694640B2 (en) 2002-11-12 2014-04-08 Rateze Remote Mgmt. L.L.C. Low level storage protocols, systems and methods
JP2009031343A (en) * 2007-07-24 2009-02-12 Nikon Corp Camera
US8744256B2 (en) 2007-07-24 2014-06-03 Nikon Corporation Camera
JP2009258451A (en) * 2008-04-17 2009-11-05 Canon Inc Focus detection device
JP2019066542A (en) * 2017-09-28 2019-04-25 キヤノン株式会社 Imaging apparatus and control method of the same

Similar Documents

Publication Publication Date Title
EP1684503B1 (en) Camera and autofocus control method therefor
KR101395015B1 (en) Camera, focus detection method and control method
JP2004109690A (en) Camera system and camera
JP2753495B2 (en) Camera zoom lens automatic zooming device
JP2605282B2 (en) Automatic focusing device
JP2662650B2 (en) Automatic focusing device
JP2008268815A (en) Automatic focusing device
JP4468396B2 (en) Lens unit and optical apparatus having the same
JP2004045728A (en) Camera, focusing device and focusing method
JP5025527B2 (en) Imaging device
US5373342A (en) Focus detection apparatus
JPH06186473A (en) Automatic focusing camera
JPH09318871A (en) Auxiliary light projecting device and focus detector
JP3581141B2 (en) Distance measuring device and camera provided with the same
JP2006126330A (en) Camera, lens, and camera system
JP2000131595A (en) Camera and focusing device
JP2671421B2 (en) Distance detection device using focus detection device
JP2012133067A (en) Imaging apparatus
JP2007011021A (en) Electronic camera and camera system
JPH01288812A (en) Focus detecting device
JPH11133477A (en) Photometry device
JP2002014275A (en) Camera
JP3943160B2 (en) Camera auto focus detection device
JP2003098421A (en) Multipoint range-finding device for camera and camera
JP2006146058A (en) Photometry apparatus for camera

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051004