JP2004045728A - Camera, focusing device and focusing method - Google Patents
Camera, focusing device and focusing method Download PDFInfo
- Publication number
- JP2004045728A JP2004045728A JP2002202736A JP2002202736A JP2004045728A JP 2004045728 A JP2004045728 A JP 2004045728A JP 2002202736 A JP2002202736 A JP 2002202736A JP 2002202736 A JP2002202736 A JP 2002202736A JP 2004045728 A JP2004045728 A JP 2004045728A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- focusing
- light beams
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明はカメラの焦点検出装置に関するもので、より詳細には、撮影レンズを通して得られた像信号を利用して撮影レンズの焦点位置を調節する、いわゆるTTL方式のAFカメラの改良に関するものである。
【0002】
【従来の技術】
従来より、TTL方式のAFは、撮影レンズを介した光を利用するため、視差がなくフィードバック制御による高精度のピント合わせが可能になるというメリットがあり、レンズ交換式のカメラに応用されてきた。
【0003】
しかし、撮影レンズが合焦位置から大きく外れた位置にあった場合には、被写体の像がぼけたり、像センサから像がはみ出したりする等、正しいピント合わせ制御ができないことがあった。
【0004】
また、近年の、いわゆる多点(マルチ)AF技術の発達によって、画面上の多くのポイントからピント合わせポイントを選択する工夫が種々提案されている(例えば、本件出願人による特許3253398号等)。しかしながら、ピント合わせ用のポイントが増加するにつれて、各ポイントの焦点検出のレンジが制限される傾向にある。
【0005】
【発明が解決しようとする課題】
ところで、多くのレンズ交換式のカメラ、または一眼レフレックスカメラでは、撮影レンズの異なる視野から入射した2つの像信号を利用してピント位置を検出する、いわゆる位相差方式のAFが主流になっている。この位相差方式AFは、レンズの光軸方向の変位を、それと直交する方向の像位置変化に変換して検出するものである。
【0006】
つまり、レンズの光軸方向と直交する方向に多くのセンサを並べた方が広いレンジの検出が可能となる。しかしながら、マルチAFになると、別ポイント用のセンサが同じ軸上に配置されるため、検出レンジが狭くなる方向になった。
【0007】
また、検出ポイントが増加すると、本来ピント検出不要な画面内のポイントも検出する必要が生じてしまい、無駄なタイムラグが生じてしまうものであった。
【0008】
このように、マルチAF化と広いピント合わせレンジを兼ね備えることは非常に困難であった。
【0009】
したがって本発明は、上記実状に鑑みてなされたものであり、画面内の複数のポイントを効率よく判別し、高速でのピント合わせを可能としたカメラ及び合焦装置並びに合焦方法を提供するものである。
【0010】
【課題を解決するための手段】
すなわち本発明は、撮影レンズを通った被写体光を、撮影画面内の異なる領域を通過する2つの光束に分け、当該2つの光束から一対の像信号を出力する第1の像検出手段と、上記撮影レンズを通った被写体光から光路長の異なる複数の光束を形成し、上記複数の光束に基く像信号を出力する第2の像検出手段と、上記第1、第2の像検出手段の出力に応じて合焦検出を行う合焦検出手段と、を備えたことを特徴とする。
【0011】
また、本発明は、撮影レンズを通った被写体光を、撮影画面内の異なる領域を通過する2つの光束に分け、上記2つの光束から一対の像信号を出力する第1の像検出手段と、上記撮影レンズを通った被写体光から光路長の異なる複数の光束を形成し、上記複数の光束に基く像信号を出力するエリアセンサを有する第2の像検出手段と、上記第1、第2の像検出手段の出力に応じて合焦検出を行う合焦検出手段と、上記エリアセンサから出力される像信号に基いて露出制御を行う露出制御手段と、を備えたことを特徴とする。
【0012】
本発明は、撮影レンズを通った被写体光を、撮影画面内の異なる領域を通過する2つの光束に分け、上記2つの光束から一対の第1の像信号を出力する第1のステップと、上記撮影レンズを通った被写体光から光路長の異なる複数の光束を形成し、上記複数の光束に基く第2の像信号を出力する第2のステップと、上記第1、第2の像信号の出力に応じて合焦検出を行う第3のステップと、を備えることを特徴とする。
【0013】
更に本発明は、光路長を異ならせて結像させるための焦点距離の異なる複数の再結像光学手段と、上記複数の光束に基く像信号を出力する像検出手段と、上記像検出手段の出力に応じて合焦検出を行う合焦検出手段と、を備えたことを特徴とする。
【0014】
本発明の合焦装置にあっては、第1の像検出手段により撮影レンズを通った被写体光が撮影画面内の異なる領域を通過する2つの光束に分けられ、当該2つの光束から一対の像信号が出力される。上記撮影レンズを通った被写体光から光路長の異なる複数の光束が、第2の像検出手段で形成され、上記複数の光束に基く像信号が出力される。そして、上記第1、第2の像検出手段の出力に応じて、合焦検出手段にて合焦検出が行われる。
【0015】
また、本発明のカメラにあっては、撮影レンズを通った被写体光が撮影画面内の異なる領域を通過する2つの光束に分けられ、第1の像検出手段によって上記2つの光束から一対の像信号が出力される。更に、エリアセンサを有する第2の像検出手段では、上記撮影レンズを通った被写体光から光路長の異なる複数の光束が形成され、上記複数の光束に基く像信号が出力される。そして、上記第1、第2の像検出手段の出力に応じて、合焦検出手段により合焦検出が行われ、上記エリアセンサから出力される像信号に基いて露出制御手段で露出制御が行われる。
【0016】
また、本発明の合焦方法にあっては、撮影レンズを通った被写体光が撮影画面内の異なる領域を通過する2つの光束に分けられ、上記2つの光束から一対の第1の像信号が出力される。次いで、上記撮影レンズを通った被写体光から光路長の異なる複数の光束が形成され、上記複数の光束に基く第2の像信号が出力される。そして、上記第1、第2の像信号の出力に応じて合焦検出が行われる。
【0017】
本発明の合焦装置にあっては、焦点距離の異なる複数の再結像光学手段によって、光路長が異ならされて結像され、像検出手段によって上記複数の光束に基く像信号が出力される。そして、上記像検出手段の出力に応じて合焦検出手段により合焦検出が行われる。
【0018】
これにより、多くのレンズ交換式カメラや一眼レフレックスカメラに於いて採用されている位相差AFに加え、コントラストを判定するセンサの出力を利用して、ピント合わせにふさわしい位置を瞬時に検出し、ピント合わせの方向を高速で決定することを可能とした。
【0019】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
【0020】
図1は本発明の一実施の形態の構成を示すもので、本発明をレンズ交換可能な一眼レフレックスカメラに適用した例を示した図である。
【0021】
図1に於いて、このカメラはカメラ本体1と、該カメラ本体1に着脱可能に取付けられた鏡胴部2とから構成されている。この鏡胴部2内には、図示されない被写体からの撮影光束を導く撮影レンズ11と、後述するCPU27の制御によって該撮影レンズ11を駆動するモータ12とを有している。
【0022】
一方、カメラ本体1は、上記撮影レンズ11を介して入射した光を反射及び透過するメインミラー(クイックリターンミラー)15を有している。このメインミラー15で反射された光は、フォーカシングスクリーン16を介してペンタプリズム17及び接眼レンズ18を経て撮影者の眼20に至る。また、上記接眼レンズ18の上方でペンタプリズム17の近傍には、後述する複眼レンズ21及びエリアセンサ22が配置されている。尚、上記フォーカシングスクリーン16は、拡散性の少ないものが望ましい。
【0023】
上記メインミラー15はハーフミラーで構成されており、一部の光はメインミラー15を透過してサブミラー24で図示下方に反射されて、焦点検出光学系25に導かれる。この焦点検出光学系25では被写体像が2つに分けられて、その出力がセンサアレイ26に供給される。焦点検出光学系25とセンサアレイ26とから、第1の像検出手段が構成される。そして、センサアレイ26の出力は、ワンチップマイクロコンピュータ等から成る演算制御手段(CPU)27に供給される。このCPU27は上記エリアセンサ22の出力が供給され、更にモータ12、画像処理回路31、メインミラー15及びサブミラー24を駆動制御する。
【0024】
また、メインミラー15及びサブミラー24がCPU27の制御によって図示矢印A方向に回動されると、図示されない被写体からの撮影光束は撮像素子29上に結像される。この撮像素子29で得られた信号はA/D変換部30によってデジタル信号化され、画像処理回路31に出力される。そして、画像処理回路31にて圧縮等の処理が行われるとメモリ32にデジタル画像信号として記録が可能となる。
【0025】
尚、上記CPU27は、撮影者のカメラ操作を検出して、ピント合わせやミラーの制御、露出制御を含む画像処理等をシーケンシャルに制御する。
【0026】
このような構成に於いて、撮影レンズ11を介して入射された光が、メインミラー15で図1に於いて上方に反射され、フォーカシングスクリーン16上に結像される。これにより、撮影者(眼)20は、ペンタプリズム17及び接眼レンズ18によって、写真構図を確認しながら撮影を楽しむことができる。
【0027】
また、メインミラー15を透過した光は、サブミラー24で反射されて焦点検出光学系25に導かれる。
【0028】
図2(a)は焦点検出光学系25及びその周辺部の詳細な構成を示した図である。焦点検出光学系25は、視野マスク25a、コンデンサレンズ25b、ミラー25c及びセパレータレンズ25dを有して構成されるもので、被写体像を2つに分割してレンズの繰出し位置変化を、それとは直交する方向に変換する。この2つに分割された像の相対位置を検出するのがセンサアレイ26である。
【0029】
そして、センサアレイ26の出力は、CPU27に内蔵のA/D変換器によってデジタル像信号に変換される。これにより、上記2像の相対位置判定が行われる。この結果が用いられてモータ12が制御されれば、撮影レンズ11のピント合わせ制御が可能となる。
【0030】
この状態でメインミラー15が図示矢印A方向に回動させて光路外に退避させると、被写体像は撮像素子29上に結像される。したがって、被写体の明るさによって適当な露出制御が行われることにより、ピント及び露出が合った画像を得ることができる。
【0031】
図2(b)は、上述した焦点検出光学系25を説明するもので、ミラーによる光路折り曲げなしに示した図である。
【0032】
すなわち、コンデンサレンズ25bとセパレータレンズ25dの働きによって、センサアレイ26a、26bには、撮影レンズ11の異なる光路11a、11bを通った光(2像)が入射される。撮影レンズ11が光軸方向(図示矢印B方向)に移動されると、一対のセパレータレンズ25dの間隔は変化しないので、被写体像位置は、センサアレイ26a、26bの並び方向に変化する。
【0033】
このような働きにより、撮影レンズ11が最適位置になった時の上記2像の位置関係が決まるので、その位置関係になるように、ピント合わせレンズを制御すればよい。レンズのピント合わせ範囲が広くなると、センサアレイ26a、26bの範囲からはみ出すようになり、この範囲を越えるものはピント合わせが困難で、カメラのCPU27はどちらにピント合わせレンズを制御してよいか判定不可能となる。こうしたことが、ピント合わせの高速化をはばむことがある。
【0034】
一方、センサアレイの長さを長くすると、図3に示されるように、画面30内の複数ポイント(L、C、R)31にピント合わせ範囲を有する、いわゆるマルチAFのカメラの仕様が実現しにくくなる。これは、以下の理由による。
【0035】
すなわち、図3に示されるように、3ポイント(L部、C部、R部)の検出を行うには、図2(a)に明らかなように、セパレータレンズ25dを基本的には3対必要とし、センサアレイ26もそれに対応するL、C、R用の3対が必要となる。そのため、図2(c)に示されるように、中央(C)のセンサアレイ26Cを長くすると、左(L)及び右(R)のセンサアレイ26L及び26Rを配置することが困難であり、左右のセンサを配置することができなくなることがあるからである。
【0036】
本発明に於いては、図1に示されるようなエリアセンサ22を、複眼レンズ21及びペンタプリズム17を介して、フォーカシングスクリーン16をにらむ位置で配置し、フォーカシングスクリーン16上の像のピントが合っているか、どちらにずれているかを検出するようにしている。複眼レンズ21は、フォーカシングスクリーン16上に結像された像を、エリアセンサ22に再結合させる再結像手段である。
【0037】
図4(a)に示されるように、一体的に形成される複眼レンズ21は、21a、21b、21cの3つに分割され、各レンズ21a、21b、21cを介してエリアセンサがモニタする領域が22a、22b、22cとしている。このエリアセンサを前方から見ると、図4(b)に示されるようになる。
【0038】
上記センサ22a、22c及び22bの中心部分は、上記レンズ21a、21c及び21bを介して、図3に示される画面30内の領域33をモニタしている。複眼レンズ21とエリアセンサ22とから、第2の像検出手段が構成される。上記センサ22bの部分は、センサ22a、22cに比べて上下方向にも面積を有しているので、画面内のより広い領域23をモニタしている。したがって、このセンサ22bの部分に入射する光量を加算すれば、平均測光と同様の効果が得られ、カメラの露出制御に利用できる。
【0039】
図5は、上述したエリアセンサ及び周辺部の構成を示したブロック図である。
【0040】
図5に於いて、斜線で示されている部分が、エリアセンサの受光面(画素)37b1、37b2、37c1、37c2、37d1、37d2は、斜線部で示されている。これらの画素37b1、37b2、37c1、37c2、37d1、37d2から生じる光電流は、各画素毎に設けられた積分回路38b1、38b2、38c1、38c2、38d1、38d2によって電圧信号に変換される。
【0041】
各画素に入射される光の大小関係は、CPU27にから順次スイッチ(SW)制御回路40によって、スイッチ39の端子が切換えられる。すなわち、積分回路38b1、38b2、38c1、38c2、38d1、38d2に接続された端子B1、B2、C1、C2、D1、D2が選択され、A/D変換回路41によって読取られて像信号に変換されることができる。
【0042】
一方、各画素37b1、37b2、37c1、37c2、37d1、37d2のアノード側は、全てカレントミラー回路43に接続されているので、全画素の加算結果は、圧縮ダイオード44に流し込まれる。したがって、A/D変換回路41に入力するためのスイッチ39が、端子Aの部分に接続されれば、全画素電流の加算結果をCPU27が検出することができる。
【0043】
このように、図4(b)の22b部分の画素信号は、全て加算されて平均測光用データとして露出制御に用いることができる。つまり、センサ22は、ピント合わせ用センサと露出制御用センサを兼用したものとして有効利用される。また、各画素を独立として扱った場合、各エリアのコントラストがピント合わせに適当か否かを判定することができる。
【0044】
ここで、このエリアセンサ22の各エリア22a、22b、22cの画素信号を利用したピント位置検出方法について、図6を参照して説明する。
【0045】
図6(a)に示されるように、各エリアセンサ22a、22b、22cの前方には、レンズ21a、21b、21cが光軸方向に位置を変えて並んで配置されている。
【0046】
図6(b)の実線の光線にて示されるように、レンズ21cが丁度フォーカシングスクリーン16をにらんで、受光面22に対してピントが合った状態では、レンズ21b、21aは位置がずれて配置されているので、受光面22に対してフォーカシングスクリーン16上の像を正しく結像させることができない。より遠くのものを結像させられるレンズ21bによる像は、ぼけて像のコントラストがなくなり、また更に遠くのものを結像するレンズ21aによる像は、もっとぼけて像のコントラストは更に小さくなってしまう。
【0047】
逆に、レンズ21cによる像のコントラストが、レンズ21aによる像のコントラストより低い場合には、破線の光線にて示されるように、本来、ピント面に相当する位置であるフォーカシングスクリーン16よりセンサ側にはずれた16Fの位置にピントが合うと考えられる。このいわゆる後ピンのピント位置を16の位置に戻すためには、図7に示されるように、撮影レンズ11をもっと繰込む必要がある。すなわち、図7(a)に示される撮影レンズの位置から、(b)に於いて図示矢印B1方向に撮影レンズを移動させる必要がある。実際は、レンズ21bがフォーカシングスクリーン16に結像された像を、受光面22に丁度結像されるようにおかれている。
【0048】
尚、図6では各レンズ21a〜21c及びエリアセンサ22a〜22cは、フォーカシングスクリーン22の異なるポイントをモニタしているように表現したが、実際には、図4(a)に示されるように、図3の領域33に相当する部分をにらんで、同一の被写体像を検出しているものとする。図3のL部、C部、R部が、それぞれ図4(b)のL部、C部、R部に対応している。
【0049】
次に、図8のフローチャートを参照して、上述したように、位相差AF用センサとは別に設けられたエリアセンサの像信号を利用して、ピントの位置や被写体のコントラストを判定して高速のAFを行う動作について説明する。
【0050】
初めに、ステップS1〜S3は、このように構成されたエリアセンサ22a〜22c部の像のコントラストを検出しているステップである。すなわち、ステップS1にて、エリアセンサ22a部からローコントラスト部が検出される。次いで、ステップS2にてエリアセンサ22b部からローコントラスト部が検出され、更にステップS3にてエリアセンサ22c部からローコントラスト部が検出される。
【0051】
図6の説明にて繰返し述べているように、各レンズ21a〜21cは光軸方向にずらして配置されているので、撮影レンズが撮像面に対してぼけた位置に止まっていても、エリアセンサ22a〜22cの何れかには、大きくぼけていない像が結像されている。したがって、この30a〜30cの何れかのセンサにコントラストの高い像があれば、基本的にピント合わせが可能なはずである。
【0052】
しかし、どのセンサでもコントラストが検出されない場合には、白い壁や空エリアセンサ22a〜22c等、コントラストのないものをモニタしていると考えられる。こうした場合には、位相差AFでもコントラストAFでもピント検出は不可能なので、早めに警告を出してユーザに伝えることが好ましい。
【0053】
したがって、ステップS4で、エリアセンサ22a、22b、22cの各センサの何れに於いてもローコントラストが検出されたポイント(例えば、図3のL部、C部、R部に相当)が検出される。次いで、ステップS5にて、先ずC部がローコントラストか否かが判断される。ここで、上記C部がローコントラストでない場合はステップS13へ移行し、ローコントラストである場合はステップS6へ移行する。
【0054】
そして、ステップS6にて、R部がローコントラストか否かが判断される。ここで、上記R部がローコントラストでない場合はステップS9へ移行し、ローコントラストである場合はステップS7へ移行する。
【0055】
ステップS7でL部がローコントラストであると判断されると、C部、R部、L部の全ポイントがローコントラストであると判定されたことになるので、無駄なレンズ駆動は行わず、ステップS8に移行してすぐに警告が出される。
【0056】
上記ステップS6にて、R部がローコントラストでない場合は、ステップS9に移行して、センサアレイ26Rによりピント合わせが行われる。次いで、ステップS10にて、再度L部がローコントラストであるか否かが判断される。ここで、L部がローコントラストである場合はステップS12へ移行し、そうでなければステップS11へ移行する。
【0057】
ステップS11では、センサアレイ26Lにより、ピント合わせが行われる。次いで、ステップS12では、L部とR部とで何れか近距離を示すポイントにてピント合わせが行われ、その後、ステップS18へ移行する。
【0058】
上記ステップS5にて、C部がローコントラストでないと判断された場合は、ステップS13に移行して、センサアレイ26Cで位相差方式(図2(b)参照)のピント合わせが行われる。そして、ステップS14に於いて、この位相差方式によるピント合わせが不能であるか否かが判断される。ここで、不能の場合はステップS15へ移行し、そうでない場合はステップS18へ移行する。
【0059】
ところで、CPU27内での電気的な演算だけならミリ秒オーダ以下で済む判定でも、レンズ駆動量の制御が間に入ると、すぐに0.1秒オーダのタイムラグとなり、操作性が著しく劣化する。そのため、本発明は極力、レンズ駆動しながらの判定や検出を減らし、高速化を達成するもので、上述したステップS1〜S3にて、予めピント合わせにふさわしくないポイントを判別し、また、図6で説明したピント位置判定によって位相差AFができない状況でも、レンズ駆動の方向を決めてしまうように工夫している。
【0060】
その工夫を実施するのが、ステップS14〜S17である。すなわち、上記ステップS14にて位相差方式のピント合わせが不能である場合、ステップS15に移行して、図6で説明したエリアセンサ22のコントラスト(ぼけが大きいとコントラストが低下)が判断される。
【0061】
そして、この判断結果に従って、レンズ駆動方向が決定される。つまり、エリアセンサ22cのボケよりエリアセンサ22aのボケの方が大きい場合は、ステップS16に移行して繰出し方向にレンズが駆動される。一方、エリアセンサ22aのボケよりエリアセンサ22cのボケの方が大きい場合は、ステップS17に移行して繰込み方向にレンズが駆動される。
【0062】
このように、位相差AFで時として必要であった検出駆動(レンズを少し移動させてみて、ピント合わせの方向を決める)を無くして、高速のピント合わせをすることができる。そして、レンズ駆動の方向が決定したならば、上記ステップS13に移行して、位相差AF方式のピント合わせが行われる。
【0063】
また、最も被写体の存在確率の高い中央部(C部)がローコントラストであるか否かは、上記ステップS4にて判定することができる。したがって、ローコントラスト時は、ステップS6に移行して、R部またはL部を利用したピント合わせが行われる。
【0064】
上述したR部、L部共、上記ステップS4にてピント合わせに位置するか否かが判定されているので、コントラストがない場合は、ステップS9、S11のピント検出のステップはスキップして、無駄な処理は行われずに高速化が図られている。
【0065】
また、左右の何れかが選択される際は、上記ステップS12にてピント検出ができた一方または近距離のものが優先されて選択されたピント合わせが行われる。
【0066】
こうして、ピント合わせが終了すると、ステップS18にてエリアセンサの22bの画素出力が加算された結果が判定される。そして、この結果に従って、ステップS19にて露出制御方法が決定される。更に、ステップS20にて、制御されたピントと露出制御方法にて撮影が行われ、一連のシーケンスが終了する。
【0067】
尚、上記ステップS5、S6及びS7は、合焦位置が画面の中央、右、左の何れにあるかを判断するためのものである。
【0068】
以上説明したように、本実施の形態によれば、露出制御用のセンサを利用して、より高速なピント制御が可能となる。
【0069】
また、本実施の形態では、単純化のために、露出制御用にはエリアセンサ22の22bの部分の画素を加算した出力を平均測光用として用いて単純化したが、分割センサとして主被写体部分の画素をいくつかひとまとめにして、重み付けするような制御を行っても良いことは言うまでもない。
【0070】
尚、本発明の上記実施の形態によれば、以下の如き構成を得ることができる。
【0071】
すなわち、
(付記項1) 撮影レンズの異なる領域を通った2つの光束による一対の像信号を検出する第1の像検出手段と、
上記撮影レンズを介した光を光路長を変えて検出する第2の像検出手段と、
上記第1及び第2の像検出手段の出力結果によって、上記撮影レンズの焦点調節を行う制御手段と、
を具備することを特徴とするカメラ。
【0072】
(付記項2) 上記第2の像検出手段は、焦点位置の異なる複数のレンズ及びエリアセンサとから成ることを特徴とする付記項1に記載のカメラ。
【0073】
(付記項3) 上記第2の像検出手段は各画素の出力を加算する加算回路を有しており、上記加算回路の出力より上記カメラの露出制御を行う露出制御手段を更に具備することを特徴とする付記項1に記載のカメラ。
【0074】
(付記項4) 撮影レンズの異なる視野を通った2つの光束による一対の像信号を検出する第1の像検出手段と、
画素出力を加算して出力するモードと、各画素出力を独立して検出するモードとを有し、上記撮影レンズを通った第3の光束を検出する第2の像検出手段と、
上記第1及び第2の像検出手段の出力に従って、上記撮影レンズの焦点調節を行う制御手段と、
を具備することを特徴とするカメラ。
【0075】
【発明の効果】
以上説明したように、本発明によれば、画面内の複数のポイントを効率よく判別し、高速でのピント合わせを可能としたカメラ及び合焦装置並びに合焦方法を提供することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の構成を示すもので、本発明をレンズ交換可能な一眼レフレックスカメラに適用した例を示した図である。
【図2】(a)は焦点検出光学系25及びその周辺部の詳細な構成を示した図、(b)は焦点検出光学系25を説明するものでミラーによる光路折り曲げなしに示した図、(c)は中央、左、右のセンサアレイの配置例を示した図である。
【図3】画面30内の領域の例を示した図である。
【図4】(a)は複眼レンズとエリアセンサの関係を説明する図、(b)はエリアセンサとL部、C部、R部との関係を示した図である。
【図5】エリアセンサ及び周辺部の構成を示したブロック図である。
【図6】エリアセンサ22の各エリア22a、22b、22cの画素信号を利用したピント位置検出方法について説明する図である。
【図7】ピント面と撮影レンズの位置について説明する図である。
【図8】本発明の一実施の形態のカメラに於けるピントの位置や被写体のコントラストを判定して高速のAFを行う動作について説明するフローチャートである。
【符号の説明】
1 カメラ本体、
2 鏡胴部、
11 撮影レンズ、
15 メインミラー(クイックリターンミラー)、
16 フォーカシングスクリーン、
17 ペンタプリズム、
18 接眼レンズ、
21、21a、21b、21c 複眼レンズ、
22、22a、22b、22c エリアセンサ、
24 サブミラー、
25 焦点検出光学系、
25a 視野マスク、
25b コンデンサレンズ、、
25c ミラー、
25d セパレータレンズ、
26、26a、26b、26C、26L、26R センサアレイ、
27 演算制御手段(CPU)、
29 撮像素子、
30 A/D変換部、
31 画像処理回路、
32 メモリ。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a camera focus detection device, and more particularly to an improvement in a so-called TTL AF camera that adjusts a focal position of a photographing lens using an image signal obtained through the photographing lens. .
[0002]
[Prior art]
Conventionally, the TTL AF has the advantage of using a light passing through a photographing lens, so that there is no parallax and high-precision focusing by feedback control is possible, and it has been applied to a lens-interchangeable camera. .
[0003]
However, if the photographing lens is located far away from the in-focus position, correct focus control may not be performed, for example, the image of the subject may be blurred or the image may protrude from the image sensor.
[0004]
In recent years, with the development of so-called multi-point (multi) AF technology, various devices for selecting a focusing point from many points on a screen have been proposed (for example, Japanese Patent No. 3253398 by the present applicant). However, as the number of points for focusing increases, the range of focus detection at each point tends to be limited.
[0005]
[Problems to be solved by the invention]
By the way, in many interchangeable lens cameras or single-lens reflex cameras, a so-called phase difference AF, which detects a focus position using two image signals incident from different fields of view of a photographing lens, has become mainstream. I have. In the phase difference AF, the displacement of a lens in the optical axis direction is converted into an image position change in a direction perpendicular to the optical axis direction and detected.
[0006]
That is, it is possible to detect a wider range by arranging many sensors in a direction orthogonal to the optical axis direction of the lens. However, in the case of multi-AF, since the sensors for different points are arranged on the same axis, the detection range tends to be narrow.
[0007]
In addition, when the number of detection points increases, it is necessary to detect points in the screen that do not originally need to detect focus, resulting in a useless time lag.
[0008]
Thus, it is very difficult to combine the multi-AF operation with a wide focusing range.
[0009]
Therefore, the present invention has been made in view of the above situation, and provides a camera, a focusing device, and a focusing method that can efficiently discriminate a plurality of points on a screen and perform focusing at high speed. It is.
[0010]
[Means for Solving the Problems]
That is, the present invention divides subject light that has passed through a photographing lens into two light beams that pass through different regions in a photographing screen, and outputs a pair of image signals from the two light beams; Second image detecting means for forming a plurality of light fluxes having different optical path lengths from subject light passing through the photographing lens, and outputting image signals based on the plurality of light fluxes; and outputs of the first and second image detecting means And focus detection means for performing focus detection in accordance with
[0011]
Further, the present invention further comprises a first image detecting means for dividing the subject light passing through the photographing lens into two light beams passing through different regions in the photographing screen, and outputting a pair of image signals from the two light beams; A second image detecting means for forming a plurality of light beams having different optical path lengths from subject light passing through the photographing lens and having an area sensor for outputting an image signal based on the plurality of light beams; the first and second image detecting means; The image processing apparatus further includes a focus detection unit that performs focus detection in accordance with an output of the image detection unit, and an exposure control unit that performs exposure control based on an image signal output from the area sensor.
[0012]
The first step of dividing the subject light passing through the photographing lens into two light beams passing through different regions in the photographing screen, and outputting a pair of first image signals from the two light beams; A second step of forming a plurality of luminous fluxes having different optical path lengths from subject light passing through the photographing lens and outputting a second image signal based on the plurality of luminous fluxes; and outputting the first and second image signals And a third step of performing focus detection in accordance with
[0013]
Further, the present invention provides a plurality of re-imaging optical units having different focal lengths for forming an image with different optical path lengths, an image detecting unit for outputting an image signal based on the plurality of light beams, and the image detecting unit. And a focus detection unit that performs focus detection according to the output.
[0014]
In the focusing apparatus according to the aspect of the invention, the subject light having passed through the photographing lens is divided into two light beams passing through different regions in the photographing screen by the first image detecting means, and a pair of image light beams is formed from the two light beams. A signal is output. A plurality of light fluxes having different optical path lengths are formed from the subject light passing through the photographing lens by a second image detecting means, and an image signal based on the plurality of light fluxes is output. Then, in accordance with the output of the first and second image detecting means, focus detection is performed by the focus detecting means.
[0015]
Further, in the camera of the present invention, the subject light passing through the taking lens is divided into two light beams passing through different regions in the photographing screen, and the first image detecting means converts the two light beams into a pair of images. A signal is output. Further, in the second image detecting means having the area sensor, a plurality of light beams having different optical path lengths are formed from the subject light passing through the photographing lens, and an image signal based on the plurality of light beams is output. Focus detection is performed by the focus detection means in accordance with the outputs of the first and second image detection means, and exposure control is performed by the exposure control means based on the image signal output from the area sensor. Is
[0016]
According to the focusing method of the present invention, the subject light passing through the photographing lens is divided into two light beams passing through different regions in the photographing screen, and a pair of first image signals is formed from the two light beams. Is output. Next, a plurality of light beams having different optical path lengths are formed from the subject light passing through the photographing lens, and a second image signal based on the plurality of light beams is output. Then, focus detection is performed according to the output of the first and second image signals.
[0017]
In the focusing apparatus according to the present invention, the plurality of re-imaging optical units having different focal lengths form images with different optical path lengths, and the image detecting unit outputs an image signal based on the plurality of light beams. . Then, focus detection is performed by the focus detection means in accordance with the output of the image detection means.
[0018]
As a result, in addition to the phase difference AF used in many interchangeable lens type cameras and single-lens reflex cameras, using the output of a sensor for determining contrast, a position suitable for focusing is instantly detected, The direction of focusing can be determined at high speed.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0020]
FIG. 1 shows a configuration of an embodiment of the present invention, and shows an example in which the present invention is applied to a single-lens reflex camera with interchangeable lenses.
[0021]
In FIG. 1, the camera comprises a
[0022]
On the other hand, the
[0023]
The
[0024]
When the
[0025]
The
[0026]
In such a configuration, the light incident through the photographing
[0027]
The light transmitted through the
[0028]
FIG. 2A is a diagram showing a detailed configuration of the focus detection
[0029]
The output of the
[0030]
In this state, when the
[0031]
FIG. 2B is a view for explaining the focus detection
[0032]
That is, light (two images) passing through different
[0033]
Such a function determines the positional relationship between the two images when the photographing
[0034]
On the other hand, if the length of the sensor array is increased, as shown in FIG. 3, the specification of a so-called multi-AF camera having a focusing range at a plurality of points (L, C, R) 31 in the
[0035]
That is, as shown in FIG. 3, in order to detect three points (L part, C part, and R part), as apparent from FIG. And three pairs of L, C, and R corresponding to the
[0036]
In the present invention, the
[0037]
As shown in FIG. 4A, the
[0038]
The central portions of the
[0039]
FIG. 5 is a block diagram showing a configuration of the above-described area sensor and peripheral portions.
[0040]
In FIG. 5, the shaded portions indicate the light receiving surfaces (pixels) 37b1, 37b2, 37c1, 37c2, 37d1, and 37d2 of the area sensor. Photocurrents generated from these pixels 37b1, 37b2, 37c1, 37c2, 37d1, 37d2 are converted into voltage signals by integration circuits 38b1, 38b2, 38c1, 38c2, 38d1, 38d2 provided for each pixel.
[0041]
Regarding the magnitude relation of the light incident on each pixel, the terminal of the
[0042]
On the other hand, the anode side of each of the pixels 37b1, 37b2, 37c1, 37c2, 37d1, 37d2 is all connected to the
[0043]
As described above, all the pixel signals of the
[0044]
Here, a focus position detection method using pixel signals of the
[0045]
As shown in FIG. 6A,
[0046]
As shown by the solid ray in FIG. 6B, in a state where the
[0047]
Conversely, when the contrast of the image by the
[0048]
In FIG. 6, the
[0049]
Next, referring to the flowchart of FIG. 8, as described above, the focus position and the contrast of the subject are determined by using the image signal of the area sensor provided separately from the phase difference AF sensor, and the high speed is determined. Will be described.
[0050]
First, steps S1 to S3 are steps for detecting the contrast of the images of the
[0051]
As described repeatedly in the description of FIG. 6, since the
[0052]
However, when the contrast is not detected by any of the sensors, it is considered that an object having no contrast, such as a white wall or the
[0053]
Accordingly, in step S4, points (for example, corresponding to the L, C, and R portions in FIG. 3) at which the low contrast is detected are detected in any of the
[0054]
Then, in step S6, it is determined whether or not the R portion has low contrast. Here, when the R portion is not low contrast, the process proceeds to step S9, and when the R portion is low contrast, the process proceeds to step S7.
[0055]
If it is determined in step S7 that the L portion has low contrast, it is determined that all the points of the C portion, the R portion, and the L portion have low contrast, so that useless lens driving is not performed. A warning is issued immediately after shifting to S8.
[0056]
If it is determined in step S6 that the R portion is not low contrast, the process proceeds to step S9, where the
[0057]
In step S11, focusing is performed by the
[0058]
If it is determined in step S5 that the portion C is not low contrast, the process proceeds to step S13, and the
[0059]
By the way, even if it is determined that only the electrical calculation in the
[0060]
Steps S14 to S17 implement the contrivance. That is, if focusing by the phase difference method is impossible in step S14, the process proceeds to step S15, and the contrast of the
[0061]
Then, the lens driving direction is determined according to the result of this determination. That is, when the blur of the
[0062]
In this manner, high-speed focusing can be performed without the need for detection driving (determining the direction of focusing by slightly moving the lens), which is sometimes necessary in the phase difference AF. When the lens driving direction is determined, the flow shifts to step S13 to perform focusing by the phase difference AF method.
[0063]
Further, it can be determined in the above step S4 whether or not the central portion (C portion) where the existence probability of the subject is highest has low contrast. Therefore, at the time of low contrast, the process proceeds to step S6, and focusing using the R portion or the L portion is performed.
[0064]
Since it is determined in step S4 whether or not the above-described R and L portions are positioned for focusing, if there is no contrast, the steps of focus detection in steps S9 and S11 are skipped, resulting in waste. The speed is increased without performing any complicated processing.
[0065]
When either the left or the right is selected, one or a short-distance object that has been detected in step S12 is prioritized and the selected focus is performed.
[0066]
When focusing is completed in this way, the result of adding the pixel outputs of the
[0067]
Steps S5, S6, and S7 are for determining whether the in-focus position is at the center, right, or left of the screen.
[0068]
As described above, according to the present embodiment, focus control can be performed at higher speed using the sensor for exposure control.
[0069]
Further, in the present embodiment, for simplification, the output obtained by adding the pixels of the
[0070]
According to the above embodiment of the present invention, the following configuration can be obtained.
[0071]
That is,
(Additional Item 1) First image detecting means for detecting a pair of image signals by two light beams passing through different regions of the photographing lens;
Second image detecting means for detecting the light passing through the taking lens by changing the optical path length,
Control means for adjusting the focus of the taking lens based on the output results of the first and second image detection means;
A camera comprising:
[0072]
(Additional Item 2) The camera according to
[0073]
(Additional Item 3) The second image detecting means has an adding circuit for adding the output of each pixel, and further includes an exposure controlling means for controlling the exposure of the camera from the output of the adding circuit. 2. The camera according to
[0074]
(Additional Item 4) First image detecting means for detecting a pair of image signals by two light beams passing through different fields of view of the taking lens;
A second image detecting means having a mode for adding and outputting the pixel outputs and a mode for independently detecting each pixel output, and detecting a third light flux passing through the photographing lens;
Control means for adjusting the focus of the taking lens according to the outputs of the first and second image detection means;
A camera comprising:
[0075]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a camera, a focusing device, and a focusing method capable of efficiently determining a plurality of points in a screen and performing high-speed focusing.
[Brief description of the drawings]
FIG. 1 is a view showing a configuration of a first embodiment of the present invention, and is a diagram showing an example in which the present invention is applied to a single-lens reflex camera with interchangeable lenses.
2A is a diagram illustrating a detailed configuration of a focus detection
FIG. 3 is a diagram showing an example of an area in a
4A is a diagram illustrating a relationship between a compound eye lens and an area sensor, and FIG. 4B is a diagram illustrating a relationship between an area sensor and an L portion, a C portion, and an R portion.
FIG. 5 is a block diagram showing a configuration of an area sensor and peripheral portions.
FIG. 6 is a diagram illustrating a focus position detection method using pixel signals of
FIG. 7 is a diagram illustrating a focus surface and a position of a photographing lens.
FIG. 8 is a flowchart illustrating an operation of determining a focus position and a contrast of a subject and performing high-speed AF in the camera according to the embodiment of the present invention.
[Explanation of symbols]
1 camera body,
2 lens barrel,
11 shooting lens,
15 Main mirror (quick return mirror),
16 Focusing screen,
17 Penta prism,
18 eyepieces,
21, 21a, 21b, 21c compound eye lens,
22, 22a, 22b, 22c area sensor,
24 submirrors,
25 focus detection optical system,
25a field mask,
25b condenser lens,
25c mirror,
25d separator lens,
26, 26a, 26b, 26C, 26L, 26R sensor array,
27 arithmetic control means (CPU),
29 image sensor,
30 A / D converter,
31 image processing circuit,
32 memory.
Claims (20)
上記撮影レンズを通った被写体光から光路長の異なる複数の光束を形成し、上記複数の光束に基く像信号を出力する第2の像検出手段と、
上記第1、第2の像検出手段の出力に応じて合焦検出を行う合焦検出手段と、
を備えたことを特徴とする合焦装置。First image detecting means for dividing subject light passing through the photographing lens into two light beams passing through different regions in the photographing screen and outputting a pair of image signals from the two light beams;
Second image detection means for forming a plurality of light beams having different optical path lengths from subject light passing through the photographing lens, and outputting an image signal based on the plurality of light beams;
Focus detection means for performing focus detection according to the output of the first and second image detection means;
A focusing device comprising:
上記撮影レンズを通った被写体光からピント結像位置の異なる複数の光束を形成し、上記複数の光束に基く像信号を出力するエリアセンサを有する第2の像検出手段と、
上記第1、第2の像検出手段の出力に応じて合焦検出を行う合焦検出手段と、上記エリアセンサから出力される像信号に基いて露出制御を行う露出制御手段と、
を備えたことを特徴とするカメラ。First image detecting means for dividing the subject light passing through the photographing lens into two light beams passing through different regions in the photographing screen and outputting a pair of image signals from the two light beams;
A second image detecting unit that forms a plurality of light beams having different focus image positions from subject light passing through the photographing lens and has an area sensor that outputs an image signal based on the plurality of light beams;
Focus detection means for performing focus detection according to the output of the first and second image detection means, exposure control means for performing exposure control based on an image signal output from the area sensor,
A camera comprising:
上記撮影レンズを通った被写体光から光路長の異なる複数の光束を形成し、上記複数の光束に基く第2の像信号を出力する第2のステップと、
上記第1、第2の像信号の出力に応じて合焦検出を行う第3のステップと、
を備えることを特徴とする合焦方法。A first step of dividing the subject light passing through the photographing lens into two light beams passing through different regions in the photographing screen, and outputting a pair of first image signals from the two light beams;
A second step of forming a plurality of luminous fluxes having different optical path lengths from subject light passing through the photographing lens, and outputting a second image signal based on the plurality of luminous fluxes;
A third step of performing focus detection in accordance with the output of the first and second image signals;
A focusing method comprising:
上記複数の光束に基く像信号を出力する像検出手段と、
上記像検出手段の出力に応じて合焦検出を行う合焦検出手段と、
を備えたことを特徴とする合焦装置。A plurality of re-imaging optical means having different focal lengths for imaging with different optical path lengths,
Image detection means for outputting an image signal based on the plurality of light fluxes,
Focus detection means for performing focus detection according to the output of the image detection means,
A focusing device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002202736A JP2004045728A (en) | 2002-07-11 | 2002-07-11 | Camera, focusing device and focusing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002202736A JP2004045728A (en) | 2002-07-11 | 2002-07-11 | Camera, focusing device and focusing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004045728A true JP2004045728A (en) | 2004-02-12 |
Family
ID=31708839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002202736A Withdrawn JP2004045728A (en) | 2002-07-11 | 2002-07-11 | Camera, focusing device and focusing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004045728A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009031343A (en) * | 2007-07-24 | 2009-02-12 | Nikon Corp | Camera |
JP2009258451A (en) * | 2008-04-17 | 2009-11-05 | Canon Inc | Focus detection device |
US8694640B2 (en) | 2002-11-12 | 2014-04-08 | Rateze Remote Mgmt. L.L.C. | Low level storage protocols, systems and methods |
JP2019066542A (en) * | 2017-09-28 | 2019-04-25 | キヤノン株式会社 | Imaging apparatus and control method of the same |
-
2002
- 2002-07-11 JP JP2002202736A patent/JP2004045728A/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8694640B2 (en) | 2002-11-12 | 2014-04-08 | Rateze Remote Mgmt. L.L.C. | Low level storage protocols, systems and methods |
JP2009031343A (en) * | 2007-07-24 | 2009-02-12 | Nikon Corp | Camera |
US8744256B2 (en) | 2007-07-24 | 2014-06-03 | Nikon Corporation | Camera |
JP2009258451A (en) * | 2008-04-17 | 2009-11-05 | Canon Inc | Focus detection device |
JP2019066542A (en) * | 2017-09-28 | 2019-04-25 | キヤノン株式会社 | Imaging apparatus and control method of the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1684503B1 (en) | Camera and autofocus control method therefor | |
KR101395015B1 (en) | Camera, focus detection method and control method | |
JP2004109690A (en) | Camera system and camera | |
JP2753495B2 (en) | Camera zoom lens automatic zooming device | |
JP2605282B2 (en) | Automatic focusing device | |
JP2662650B2 (en) | Automatic focusing device | |
JP2008268815A (en) | Automatic focusing device | |
JP4468396B2 (en) | Lens unit and optical apparatus having the same | |
JP2004045728A (en) | Camera, focusing device and focusing method | |
JP5025527B2 (en) | Imaging device | |
US5373342A (en) | Focus detection apparatus | |
JPH06186473A (en) | Automatic focusing camera | |
JPH09318871A (en) | Auxiliary light projecting device and focus detector | |
JP3581141B2 (en) | Distance measuring device and camera provided with the same | |
JP2006126330A (en) | Camera, lens, and camera system | |
JP2000131595A (en) | Camera and focusing device | |
JP2671421B2 (en) | Distance detection device using focus detection device | |
JP2012133067A (en) | Imaging apparatus | |
JP2007011021A (en) | Electronic camera and camera system | |
JPH01288812A (en) | Focus detecting device | |
JPH11133477A (en) | Photometry device | |
JP2002014275A (en) | Camera | |
JP3943160B2 (en) | Camera auto focus detection device | |
JP2003098421A (en) | Multipoint range-finding device for camera and camera | |
JP2006146058A (en) | Photometry apparatus for camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20051004 |