JP4007713B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP4007713B2
JP4007713B2 JP09907199A JP9907199A JP4007713B2 JP 4007713 B2 JP4007713 B2 JP 4007713B2 JP 09907199 A JP09907199 A JP 09907199A JP 9907199 A JP9907199 A JP 9907199A JP 4007713 B2 JP4007713 B2 JP 4007713B2
Authority
JP
Japan
Prior art keywords
focus detection
unit
light receiving
receiving element
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP09907199A
Other languages
Japanese (ja)
Other versions
JP2000292686A (en
Inventor
昌孝 井出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP09907199A priority Critical patent/JP4007713B2/en
Priority to US09/540,840 priority patent/US6819360B1/en
Publication of JP2000292686A publication Critical patent/JP2000292686A/en
Application granted granted Critical
Publication of JP4007713B2 publication Critical patent/JP4007713B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、焦点調節機能を有し、更に電子的な撮像素子を用いて撮影を行う撮像装置に関する。
【0002】
【従来の技術】
従来より、電子的な撮像素子を使用して、被写体像を電子的に撮像する撮像装置に関する種々の技術が開示されている。
【0003】
例えば、特開平10−213737号公報では、オートフォーカス(以下、AFと称する)方式として所謂「山登り方式」を採用した撮像装置に関する技術が開示されている。この山登り方式は、撮像素子で撮像した被写体像のコントラストが最大になる撮影レンズ位置を探索する方式である。
【0004】
また、特開平10−197783号公報では、TTL位相差検出方式を採用した撮像装置に関する技術が開示されている。かかるTTL位相差検出方式では、絞り部材を駆動して瞳分割を時分割で行い、その瞳を通過した光束を撮像素子で受光して位相差検出を行っている。
【0005】
一方、特公昭57−49841号公報では、TTL位相差検出装置に関する技術が開示されている。これは、フライレンズ方式と呼ばれる方式であり、レンズアレイを通過した光束を、ラインセンサを成す一対の受光素子で受光し、ラインセンサの信号を処理して像ずれ量、即ち位相差量を計算し、フォーカシンクレンズの繰り出し量にフィードバックして焦点調節を行うものである。
【0006】
また、特開平10−274562号公報では、再結像方式を採用したTTL位相差検出装置に関する技術が開示されている。これに対して、更に特開平8−201683号公報では、複数の焦点検出領域を有する再結像方式TTL位相差検出装置に関する技術が開示されている。
【0007】
【発明が解決しようとする課題】
しかし、上記山登り方式では、撮影レンズを移動させて撮像素子の被写体像のコントラストのピークを探すので、AF速度が遅いといった問題がある。
【0008】
また、上記特開平10−197783号公報により示された技術では、機械的機構による絞り部材を駆動して瞳分割を行うので、駆動機構が必要になり、実装スペースを要するため小型化が困難である。さらに、分割する複数個の分割された瞳の形成に時間差が発生するため、移動する被写体に対して検出精度が大幅に劣化するという問題もある。さらに、メカニカルな絞り部材を移動させるために時間を要し、AF速度が遅くなるという問題も発生する。
【0009】
一方、上記特公昭57−49841号公報により開示された焦点検出装置では、撮影レンズを通過した被写体からの光束の一部を分割して導かねばならず、光学的な制約やスペース的な制約を受けるといった問題が生じる。
【0010】
また、上記特開平10−274562号公報により開示された焦点検出装置は、上記光路分割の問題の他に再結像光学系が必要であり、更にスペース的な制約が大きくなるといった問題を有している。
【0011】
そして、上記特開平8−201683号公報により開示された焦点検出装置は、複数の焦点検出領域に対して、それぞれ再結像光学系やAFセンサを必要とするので、更なるコストアップ、スペース増大を招いてしまう。
【0012】
本発明は、上記問題に鑑みてなされたもので、その目的とするところは、新たな機構や光学系を追加することなく、低コスト且つ省スペースで、より広い焦点検出領域を有し、AFスピードを向上させ、且つ正確な焦点調節を行うことが可能な焦点調節機能を有する撮像装置を提供することにある。
【0013】
【課題を解決するための手段】
上記目的を達成するために、本発明の第1の態様では、撮影レンズを通過した被写体像光を受光する撮像素子を有する撮像装置において、上記撮像素子は、上記撮影レンズを通過する被写体像光を受光するとともにその前面に所定の規則に従って配列される色フィルタが配置された第1受光素子群と、該第1受光素子群に対して被写体像光を集光する第1微小レンズ群と、を備え、撮像を行うために上記第1受光素子群の出力を発生する撮像用領域部と、上記撮影レンズを通過する被写体像光の光束を瞳分割する第2微小レンズ群と、上記第2微小レンズ群により瞳分割された光束をそれぞれ受光するとともにその前面に所定の規則に従って配列される色フィルタが配置された一対の第2受光素子群と、を備え、焦点検出を行うために上記一対の受光素子群の出力を発生する焦点検出用領域部と、を有し、上記焦点検出用領域部の出力に基づいて焦点検出を行う焦点検出部と、上記撮像用領域部の出力に基づいて、撮影画像を作成する画像作成部と、を具備し、上記焦点検出部は、上記焦点検出用領域部の同色の色フィルタが配置された前記一対の受光素子群の出力に基づいて焦点検出を行うことを特徴とする撮像装置が提供される。
【0014】
そして、第2の態様では、上記第1の態様において、上記焦点検出部は、複数の異なる色フィルタごとに、同色の色フィルタが配置された前記一対の受光素子群の出力に基づいて焦点検出を行い、異なる色フィルタに対応する複数の焦点検出結果の平均値を焦点検出結果として採用することを特徴とする撮像装置が提供される。
【0015】
さらに、第3の態様では、上記第1の態様において、上記焦点検出部は、複数の異なる色フィルタごとに、同色の色フィルタが配置された前記一対の受光素子群の出力に基づいて焦点検出を行い、異なる色フィルタに対応する複数の焦点検出結果のうちでより信頼性が高い焦点検出結果を選択することを特徴とする撮像装置が提供される。
【0016】
上記第1乃至第3の態様によれば以下の作用が奏される。
【0017】
即ち、本発明の第1の態様では、撮影レンズを通過した被写体像光を受光する撮像素子を有する撮像装置において、上記撮像素子では、その前面に色フィルタが所定の規則に従って配列されて配置され第1受光素子群により、上記撮影レンズを通過する被写体像光が受光され、第1微小レンズ群により、上記第1受光素子群に対して被写体像光が集光され、撮像用領域部により、撮像を行うために上記第1受光素子群の出力が発生される。また、焦点検出用領域部では、第2微小レンズ群により、上記撮影レンズを通過する被写体像光の光束が瞳分割され、その前面に所定の規則に従って配列される色フィルタが配置された一対の第2受光素子群により、上記第2微小レンズ群により瞳分割された光束がそれぞれ受光され、焦点検出を行うために上記一対の受光素子群の出力が発生される。さらに、焦点検出部により、上記焦点検出用領域部の出力に基づいて焦点検出が行われ、画像作成部により、上記撮像用領域部の出力に基づいて、撮影画像が作成される。そして、上記焦点検出部によって、上記焦点検出用領域部の同色の色フィルタが配置された前記一対の受光素子群の出力に基づいた焦点検出が行われる。
【0018】
そして、第2の態様では、上記第1の態様において、上記焦点検出部により、複数の異なる色フィルタごとに、同色の色フィルタが配置された前記一対の受光素子群の出力に基づいて焦点検出が行われ、異なる色フィルタに対応する複数の焦点検出結果の平均値が焦点検出結果として採用される
さらに、第3の態様では、上記焦点検出部により、複数の異なる色フィルタごとに、同色の色フィルタが配置された前記一対の受光素子群の出力に基づいて焦点検出が行われ、異なる色フィルタに対応する複数の焦点検出結果のうちでより信頼性が高い焦点検出結果が選択される。
【0019】
【発明の実施の形態】
以下、図面を参照して、本発明の実施の形態について説明する。
【0020】
図1は本発明の第1の実施の形態に係る撮像装置の光学系の構成図である。
【0021】
同図に示されるように、被写体光の入射を受けるフォーカシングレンズ1aが所定位置に配置されており、その光軸上に絞り2が配置されている。これらフォーカシングレンズ1aと絞り2等により撮影光学系1が構成される。上記撮影光学系1を介した被写体光の光路上には、ビームスプリッタ3が配置されており、当該ビームスプリッタ3で反射された光の光路上には赤外カットフィルタ4、ローパスフィルタ(以下、LPFと称する)5、撮像素子6が設けられている。
【0022】
一方、上記ビームスプリッタ3を透過した光の光路上にはミラー7、ペンタプリズム8、接眼レンズ9からなるファインダ光学系10が設けられている。
【0023】
尚、上記絞り2は、所定の絞り開口を保持することが可能であると共に、シャッタ機能を有しており、完全に遮光する機能も有している。
【0024】
このような構成において、撮影光学系1を通過した被写体光束の一部は、ビームスプリッタ3により下方に反射され、赤外光カットフィルタ4により赤外光成分が除去され、LPF5によりモアレが低減された後、撮像素子6で撮像されることになる。上記ビームスプリッタ3を透過した被写体光束の一部は、ミラー7で反射された後、ペンダプリズム8、接眼レンズ9等から構成されるファインダ光学系10に導かれ、撮影者により観察される。
【0025】
次に図2は第1の実施の形態に係る撮像装置の電気系の構成図である。
【0026】
同図に示されるように、マイコン31は、全体の制御を司る中央演算処理部(以下、CPUと称する)31aと、リードオンリメモリ(以下、ROMと称する)31b、ランダムアクセスメモリ(以下、RAMと称する)31c、アナログ/デジタル変換器(以下、ADCと称する)31d、不揮発性メモリたるEEPROM31eを少なくとも有している。
【0027】
さらに、上記マイコン31は、レンズ駆動部32、絞り駆動部33、撮像素子制御部43、表示部46、ファーストレリーズスイッチ(以下、1RSWと称する)47、セカンドレリーズスイッチ(以下、2RSWと称する)48、エリア選択SW49と電気的に接続されている。
【0028】
そして、上記撮像素子制御部43の出力は撮像素子16(図1の撮像素子6と同一)の入力に接続されており、当該撮像素子16の出力は映像信号処理部42の入力に接続されている。そして、この映像信号処理部42の出力は、記録部44、測光・露出演算部45、表示部46、焦点検出演算部50、オートホワイトバランス(以下、AWBと称する)部51の入力にそれぞれ接続されている。
【0029】
そして、上記測光・露出演算部45の出力と、上記焦点検出演算部50の出力は上記マイコン31の入力に接続されている。
【0030】
このような構成において、上記マイコン31は、その内部のROM31bに格納されたシーケンスプログラムに従って一連の動作を行う。また、上記マイコン31の内部のEEPROM31eには、焦点調節、測光・露出演算、AWB等に関する補正データがカメラ毎に記憶されている。上記撮像素子6は、撮影光学系1により形成される被写体像を撮像して電気信号に変換する。
【0031】
上記映像信号処理部42は、撮像素子6からの画素信号である電気信号を処理して映像信号を作成する。その詳細な構成は後述する。
【0032】
上記測光・露出演算部45は、上記映像信号処理部42において処理された映像信号に基づいて測光値、露出制御値を算出する。また、撮像素子制御部43は、上記測光・露出演算部45の出力であるシャッタスピードに基づいて、撮影時の撮像素子6の電子シャッタを制御する。この実施の形態では、上記測光部・露出演算部45の露出演算により算出された絞り値データに基づいて、撮影時に撮影光学系1内の絞り2の制御が行われることになる。
【0033】
上記絞り駆動部33は、マイコン31からの司令に基づいて、絞り2を駆動する。さらに、焦点検出演算部50は、上記映像信号処理部42において処理された映像信号に基づいて焦点検出演算を行う。この焦点検出演算の結果、合焦の判定データやフォーカシンクレンズ駆動量等をマイコン31に送信する。
【0034】
上記AWB部51は、上記映像信号処理部42において処理された映像信号に基づいてホワイトバランスを自動的に制御する。表示部46は、マイコン31の制御の下、撮像素子6により撮像された映像やカメラ内部の情報を液晶表示素子(LCD;liquid Crystal Display)等により表示する。
【0035】
1RSW47,2RSW48はレリーズボタンに連動したスイッチで、レリーズボタンの第1段階の押し下げにより1RSW47がオンし、引き続いて第2段階の押し下げで2RSW48がオンする。エリア選択SW49はAFエリアを選択するためのスイッチであり、オンする毎に予め決まられたAFエリアを移動選択する。マイコン31は1RSW47オンで測光、AF動作を行い、2RSW48オンで露出動作と画像記録動作を行う。
【0036】
以上の他、レンズ駆動部32は、マイコン31からの司令に基づいて、フォーカシンクレンズ1aを駆動する。
【0037】
ここで、図3は上記撮像素子6の詳細な構成を示す図である。
【0038】
同図に示されるように、MOS型センサたる撮像素子6は、受光素子であるフォトダイオードをそれぞれ含む複数の画素ユニット110が二次元状に配列され、制御部111により各画素ユニット110の蓄積動作が制御されるような構成となっている。上記制御部111は、Xシフトレジスタ112,Yシフトレジスタ113を制御して、画素ユニットの出力SnをスイッチSWxn,SWyn選択して、出力部114により外部に出力する。
【0039】
さらに、図4(c)には、上記撮像素子6を機能的に2つの部分に分けて示し説明する。同図に示されるように、撮像素子6は、画素信号を撮影用に用いるための撮像部100と、画素信号を焦点検出用に用いる為の焦点検出部200とで構成されている。この撮像部100は、略全面に形成されており、焦点検出部200は、その一部分に形成されている。さらに、撮影画面120において、焦点検出領域200Aは光軸上に配置されており、焦点検出領域200Bは光軸外で且つ焦点検出領域200Aに対して垂直な方向に配置されている。
【0040】
これに対して、受光素子たるフォトダイオードの前面には、それぞれマイクロレンズが構成されている。撮像素子の光感度を向上させる技術としては、各フォトダイオードに対応した位置にマイクロレンズを設けることにより、入射光を効率よく受光部に集光する、所謂オンチップマイクロレンズと呼ばれる技術が確立されている。撮像部100においては、マイクロレンズは、上記のように光感度を最適にするように設定されている。
【0041】
図4(a)は撮像素子16上の受光素子たるフォトダイオードの配列を示す図である。焦点検出部200A〜200Cには、一対のフォトダイオード201a,201bのユニットを複数個配列されている。また、撮像部100にはフォトダイオード101が配列されている。
【0042】
図4(b)はフォトダイオードとマイクロレンズの配置を示す図である。
【0043】
焦点検出部200A〜200Cでは、一対のフォトダイオード201a,201bに対してマイクロレンズ206が、撮像部100では、フォトダイオード101に対してマイクロレンズ106が、それぞれ配置されている。
【0044】
次に、図5はオンチップマイクロレンズを形成した撮像素子の一般的な断面構成を示す図である。尚、本実施の形態に係る撮像装置における上記撮像素子6の撮像部100は、この図5と略同様の構成となっている。
【0045】
この図5に示されるように、シリコンからなる半導体基板内131には、拡散層等により受光部133を構成するフォトダイオードが形成されている。
【0046】
また、このフォトダイオードの出力を増幅する回路を構成する回路部132やゲート電極134等は、遮光膜135により被覆されている。さらに、上記受光部133は、遮光膜135の開口に対応して形成されており、受光部133上及び遮光膜135の上には色フィルタ137が形成されている。さらに、この色フィルタ137の上には、所定の曲率rを有し焦点距離f1の球面であるマイクロレンズ139が形成されている。
【0047】
一方、焦点検出部200に対応するマイクロレンズ206は、撮像部100のマイクロレンズ106(139)とは曲率、焦点距離等の特性が異なっており、マイクロレンズ206のほぼ焦点面に一対の受光素子であるフォトダイオードA,Bが配置されている。そして、マイクロレンズ206は、図6に示すように撮影光学系11を通過する光束を瞳分割して、各分割光束を一対の受光素子A,Bにそれぞれ入射するように作用する。
【0048】
尚、焦点検出原理については、前述の特公昭57−49841号公報に開示の位相差検出方式と同様である為、ここでは詳細な説明は省略する。
【0049】
次に、図7には上記焦点検出部200における合焦、前ピン、後ピンの各例を示し説明する。尚、実際には、マイクロレンズLn群、受光素子An,Bn群は固定されており、撮影光学系1の位置が移動するのであるが、ここでは、説明の便宜上、撮影光学系1の位置を固定として相対位置関係を説明する。
【0050】
マイクロレンズLnの焦点距離はf2であり、マイクロレンズLnと受光素子フォトダイオードAn,Bn間の距離に略等しい。
【0051】
先ず、合焦時は、同一の被写体からの光東であり異なる射出瞳を通過した光線R1,R2及びR3,R4…は、各マイクロレンズLnの光軸を中心に隣合うAnとBnが受ける受光量が一致する。例えば、光線R3,R4に対してマイクロレンズL2と受光素子A2,B2が対応する。
【0052】
前ピンの場合は、異なるマイクロレンズを通った光の受光素子A,Bの受光量、即ち隣り合わない受光素子A,Bの受光量が一致する。例えば、同一被写体からの光線R3,R4に対してはマイクロレンズL3と受光素子B3、マイクロレンズL1と受光素子A1がそれぞれ対応するので、像が2ピッチ分ずれる。
【0053】
一方、後ピンの場合は、受光量が一致している検出素子は隣り合っているが、それら隣り合っている受光素子に入射する光は異なるマイクロレンズを通った光となる。例えば、同一被写体からの光線R3,R4に対してマイクロレンズL1と受光素子B1、マイクロレンズL3と受光素子A3がそれぞれ対応するので、前ピン時とは逆方向に2ピッチ分だけ像がずれる。
【0054】
このようにピントずれ量に応じて像ずれが発生する。実際には、上記1ピッチ単位の像ずれ量(位相産量)では焦点検出精度が低下するので、公知の補間演算等の処理を行って1ピッチ分以下の焦点検出を行う。このように像ずれ量を検出することで、撮影レンズのピントずれ量を求めることができる。
【0055】
ここで、図8(a)には、先に図3に示した、水平方向と垂直方向に二次元状に配置されている画素ユニットのうち、撮像部100部分に位置する画素ユニット110の構成を示し説明する。
【0056】
同図に於いて、画素ユニット110においては、そのフォトダイオード101の出力は、フォトダイオード101の発生する電荷を増幅する画素増幅回路102に入力される。この画素増幅回路102は、初段アンプ104とサンプルホールド部105とで構成されている。
【0057】
上記初段アンプ104はアンプA1、蓄積コンデンサC1、スイッチSW1からなり、積分器を構成している。そして、この初段アンプ104の出力は、サンプルホールド部105に入力される。上記サンプルホールド部105は、スイッチSW2、ホールドコンデンサC2、バッファA2で構成されている。
【0058】
そして、上記スイッチSW1,SW2のオンにより、画素ユニット110は初期化され、続いてスイッチSW1のオフにより、蓄積動作が開始される。更に、スイッチSW2のオフにより、蓄積レベルがホールドコンデンサC2にホールドされ、蓄積動作を終了する。尚、上記スイッチSW1,SW2のオン、オフのタイミングは、上記制御部111により制御される。
【0059】
さらに、上記ホールドコンデンサC2にホールドされた蓄積レベルは、バッファA2を介してVsnに出力され、上記Xシフトレジスタ112,Yシフトレジスタ113により選択されて出力部114に出力される。
【0060】
そして、上記焦点検出部200は、マイクロレンズ群による撮影レンズ11の射出瞳において分割された光束をそれぞれ受光する一対のフォトダイオード201a,201bと、上記フォトダイオード201a,201bの発生電荷を増幅する画素増幅回路202a,202bとからなる画素ユニット210を配列して構成されている。
【0061】
一方、図8(b)は上記画素ユニット210の詳細な構成を示す図である。
【0062】
同図に示されるように、画素増幅回路202a,202bは、それぞれ上記画素増幅回路102と同様の回路構成となっている。画素増幅回路202a,202bの出力は、上記制御部111により制御されるスイッチSWa,SWbを介して選択的に出力Vsnに接続される。出力Vsnは、上記画素ユニット103と同様に、画素ユニット210の外部で前記Xシフトレジスタ112,Yシフトレジスタ113により選択されて出力部114に出力される。
【0063】
上記撮像部100のフォトダイオード101の前面には色フィルタが配置されている。この色フィルタの配列は、図9に示されるような所謂ベイヤー配列となっている。即ち、図9において、R,G,Bはそれぞれ赤、緑、青を選択的に透過する色フィルタを示している。
【0064】
一方、焦点検出部のフォトダイオード201a,201bの前面には色フィルタを配置しておらず、撮像部100のみを配列している。
【0065】
このように、複数の焦点検出領域200A,200B,200Cについて焦点検出を行い、そのうちの例えば最も近い被写体を自動的に選択する等の公知のアルゴリズムによる処理が可能となる。また、撮影者は後述するエリア選択スイッチ49によりAFエリアを選択して、そのエリアについて合焦させる事が可能である。焦点検出エリア200Aでは、撮影画面120に対して、横方向にコントラストがある被写体、例えば縦線について焦点検出が可能である。
【0066】
これに対して、焦点検出エリア200B,200Cでは、図9に示す撮影画面120に対して縦方向にコントラストがある被写体、例えば横線について焦点検出が可能である。従って、一方向のコントラストしか有していない被写体に対しても焦点検出することが可能である。
【0067】
ところで、画像作成時には、焦点検出領域200A〜200C部分については画像データが無いので補う必要がある。
【0068】
この画像データを補う方法に説明すると、先に示した図4(a)において、例えば焦点検出領域200Aのフォトダイオード201a,201b部分については、その周辺画素であり且つ撮像部100に属するフォトダイオード101A〜101Eの画素信号を用いて補間することにより求める。
【0069】
このとき、同一色フィルタの画素データのみを使用してもよいことは勿論である。補間演算の方法については、フォトダイオード101A〜101Eの画素信号を単純平均したり重み付け平均する等の様々な方法を採用することができる。かかる方法は既に公知である為、詳細な説明は省略する。
【0070】
次に、図10には上記映像信号処理部42の詳細な構成を示し説明する。
【0071】
この図10に於いて、固定パターンノイズ(FPN)除去回路78は、撮像素子16の画像信号からFPN等を除去する。ゲインコントロールアンプAMP79は、上記FPN除去回路78の出力を所定のゲインで増幅する。
【0072】
A/Dコンバータ80は、上記ゲインコントロールアンプ79の出力をAD変換してデジタル信号に変換する。プロセス処理回路81は、デジタル信号に変換された映像信号に各種の処理を行うものである。
【0073】
撮像素子制御部43は、撮像素子16に対して駆動信号を出力して、その動作を制御する。かかる撮像素子制御部43は、タイミングジェネレータ82とシグナルジェネレータ83により構成されている。
【0074】
即ち、タイミングジェネレータ(TG)82は、撮像素子16を駆動するための駆動パルス等の駆動信号を発生すると共に、上記FPN除去回路78のサンプルホールドパルス、上記A/Dコンバータ80のAD変換タイミングパルスを発生する。シグナルジェネレータ(SG)83は、上記タイミングジェネレータ82とマイコン31との同期をとるための信号を発生する。
【0075】
記録部44は、DRAM84と圧縮伸張回路85、記録媒体86で構成されている。上記映像信号処理部42内のプロセス処理回路81から出力される映像信号(画素データ)は、DRAM84に記憶される。圧縮伸張回路85では、このDRAM84に蓄積された画素データのデータ量を減らして記録するための圧縮処理と、記録媒体86から読み出した圧縮データを復元するための伸長処理とを行う。記録媒体86は、上記圧縮された静止画データを記録する。
【0076】
以下、図11のフローチャートを参照して、マイコン31の動作を詳細に説明する。尚、以下の説明では、図12のタイムチャートを適宜参照する。
【0077】
不図示の電源SWがオンされるか電池が挿入されると、マイコン31は動作を開始し、内部のROM31bに格納されたシーケンスプログラムを実行する。
【0078】
即ち、本シーケンスに入ると、先ず撮像装置内の各ブロックの初期化を行う(ステップS1)。続いて、1RSW47の状態を検出する(ステップS2)。
【0079】
1RSW47がオフの場合は、撮像素子6の撮像部における蓄積(露光)、読み出し動作である撮像動作を行い(ステップS5)、映像信号処理部42からの撮像部100の映像信号に基づいて、測光・露出演算部45が測光、露出演算を行い、本露光撮影(画像記録)時の絞り12の絞り制御値、撮像素子6の電子シャッタスピード等を計算し(ステップS6)、上記ステップS2に戻る。
【0080】
一方、1RSW47がオンの場合は、撮像素子6の焦点検出部200の蓄積動作(AF用露光)を行い、焦点検出部200の画像信号を読み出して(ステップS3)、それに基づく焦点検出演算を行う(ステップS4)。
【0081】
尚、この焦点検出演算は、図12(f)のタイミングF1で実行されるものであり、焦点検出エリア200A,200B,200Cにおける演算結果を比較し、最も近距離のエリアを選択する等といった公知の方法を採用できる。
【0082】
続いて、焦点検出演算の結果が合焦か非合焦かを判別し(ステップS7)、合焦ならばステップS9に移行する。また、非合焦の場合はステップS8に移行し、焦点検出演算結果に基づいて合焦になるようなフォーカシングレンズ1aの移動量を算出し駆動する。そして、上記ステップS2に戻り、上述したようなAF動作が繰り返されることになる。このフォーカシングレンズ1aの駆動は図12(f)のタイミングF2で実行されるものである。
【0083】
ステップS9では、2RSW48がオンされているか検出し、オンされている場合はステップS10に進む。一方、2RSW48がオフの場合は上記ステップS2に移行し、2RSW48のオンを待ちつつAF動作を継続する。
【0084】
続くステップS1O以降では、本露光動作を行う。
【0085】
即ち、マイコン31は絞り制御部33を制御して、絞り2を露出用絞り値に絞り込み(ステップS10)、撮像素子制御部43は電荷リセット信号RESをオフして(図12(b)参照)撮像素子6の蓄積をスタートさせ、露出演算に基づく電子シャツタスピードで制御して本露光を行う(ステップS11)。
【0086】
この本露光動作は、図12(f)のF3のタイミングで実行される。
【0087】
この電子シャッタ動作は、撮像素子制御部43によりシャツタスピードに応じた所定のタイミングで電荷記憶信号HOLDを発生して、フォトダイオード101の蓄積電荷をホールドすることによる(図12(c)参照)。
【0088】
次いで、撮像素子制御部43は画像読み出し信号DCLKを撮像素子16に出力し、映像信号処理部42は信号DCLK(図12(d)参照)に同期して出力される撮像部100の画像信号(撮像素子信号)をA/D変換して読み出す(ステップS12)。尚、上記画像データの読み出しは、図12(f)のF4のタイミングで実行されるものである。
【0089】
さらに、マイコン31は絞り制御部33を制御して、絞り開放のコマンドを送信して絞り12を開放状態にし(ステップS13)、読み出した画像信号の圧縮等の処理を行い、その後記録媒体86に格納する(ステップS14)。この画像処理及び記録動作は図12(f)のF5のタイミングで行われる。
【0090】
以上で一連の撮影動作を終了して上記ステップS2に戻り、前述した動作を繰り返すことになる。
【0091】
次に本発明の第2の実施の形態について説明する。
【0092】
第2の実施の形態は、前述した第1の実施の形態に対して、焦点検出領域の配置を変化させたものである。
【0093】
先ず、図13は第2の実施の形態に係る撮像装置における撮像素子の焦点検出領域の配置の様子を示す図である。
【0094】
同図に示されるように、撮影画面120において、撮影レンズの光軸上を中心として撮影画面120の長辺方向に平行に配置される焦点検出領域300Aと、撮影レンズの光軸を中心とし、焦点検出領域300Aと垂直な方向に配置される300Bとを有している。
【0095】
図14は第2の実施の形態に係る撮像装置の撮像素子におけるフォトダイオードの配置を示している。
【0096】
前述した第1の実施の形態と同様に、撮像素子6の全面にわたって撮像部100が形成されており、図14に示されるように、焦点検出領域に対応する部分に焦点検出部300A,300Bが形成されている。
【0097】
この焦点検出部300Aのフォトダイオード301a,301bの対は、撮影画面100の長辺に平行に複数個配列され、これらにより焦点検出領域を形成している。これに対して、焦点検出領域300Bのフォトダイオード301c,301dの対は、撮影画面の長辺と垂直、即ち短辺方向に平行に複数個配列され、これらにより焦点検出領域を形成している。
【0098】
第2の実施の形態では、このように十字型焦点検出領域を設けることで、撮影画面の中央付近の領域に存在する被写体に対して、コントラストの方向に関わらず焦点検出することを可能としている。
【0099】
次に、本発明の第3の実施の形態について説明する。
【0100】
図15は第3の実施の形態に係る撮像装置の撮像素子の配置を示す図である。この第3の実施の形態は、上記第2の実施の形態において示した十字型焦点検出領域の組み合わせを、更に複数個有するものである。
【0101】
十字型焦点検出領域410Aは、水平焦点検出領域400Aと垂直焦点検出領域400Bとからなる。同様な十字型焦点検出領域410A〜410E付近における撮像素子6上のフォトダイオードの配置は、全て上記図14と同様に配置されている為、ここでは重複した説明を省略する。
【0102】
第3の実施の形態では、十字型焦点検出領域の数を更に増加させているので、撮影画面全域において、被写体コントラストの方向の影響を受けずに焦点検出することが可能となる。
【0103】
次に、本発明の第4の実施の形態について説明する。
【0104】
図16は第4の実施の形態に係る撮像装置の撮像素子の配置を示す図である。この第4の実施の形態は、撮影画面120の辺に対して斜めに焦点検出領域を伸ばした構成とし、更に2列の焦点検出領域510A,510Bを十字型に配置して十字型焦点検出領域501Aを形成している。更に、上記十字型焦点検出領域501Aを複数個配置している。尚、十字型焦点検出領域501Aとその周辺の画素構成は図17に示される通りである。
【0105】
次に、本発明の第5の実施の形態について説明する。
【0106】
この第5の実施の形態は、上記第1の実施の形態の変形例であり、当該第1の実施の形態とは画素ユニットの構成が異なっている。
【0107】
図18(a)は第5の実施の形態に係る撮像装置の撮像素子における焦点検出領域200Aの構成を示す図であり、図18(b)は当該焦点検出領域200Aの画素ユニット210の構成を示す図である。
図18(a)に示されるように、第5の実施の形態では、焦点検出領域200Aにおいて、一対のフォトダイオード201a,201bの他に撮像用のフォトダイオード201c有している。
【0108】
さらに、図18(b)において、焦点検出時にはスイッチSwgをオフした状態で蓄積動作を行う。この場合は、前述した第1の実施の形態と全く同じ動作を行うこととなる。
【0109】
これに対して、記録画像撮像時には、前述した第1の実施の形態では、焦点検出部200Aは蓄積動作を行わなかったが、第5の実施の形態では、撮像部100と同時に蓄積動作を行う。
【0110】
そのとき、スイッチSWgをオンとして、フォトダイオード201cの出力も画素増幅回路202aに入力させることで、瞳分割光束だけではなく、瞳分割光束を含むより広い光束を受光し、電圧信号に変換する。
【0111】
そして、得られたフォトダイオード201a,201cの加算画素信号とフォトダイオード201bの画素信号を加算することによって、全体光束を受光する場合に対応する画像信号を得ることができる。
【0112】
このようにして、焦点検出領域200A〜200Cのそれぞれについて同様に画像信号を作成することで、より高画質な画像を得ることができる。
【0113】
図19は前述した第4の実施の形態(図17)に対して、第5の実施の形態を適用した場合の焦点検出部510Aのフォトダイオードの配置を示す図である。同図に示されるように、フォトダイオード501a,501bの他に画像用フォトダイオード501cを有している。記録撮像時にはフォトダイオード501a,501b,501cの受光量を加算した画像信号を作成する。
【0114】
尚、前述したように、撮像部100のマイクロレンズ106と、焦点検出部200のマイクロレンズ206とは光学的特性が異なるので、受光光量が異なるが、この光量差は予めEEPROM31eに記憶されており、焦点検出部200の画素ユニット毎に補正して撮像部100に合わせることとしている。
【0115】
次に、本発明の第6の実施の形態について説明する。
【0116】
第6の実施の形態は、前述した第1の実施の形態を変形したものであり、特にフォトダイオードの配置が異なっている。
【0117】
図21は第6の実施の形態に係る撮像装置における撮像素子の焦点検出部の配置を示す図である。
【0118】
同図に示されるように、焦点検出部200A〜200Cにおいて、焦点検出用の一対のフォトダイオード201a,201bからなるユニットと撮像用フォトダイオード101とが交互に配置されている。このような構成では、焦点検出用フォトダイオードの検出ピッチは、第1の実施の形態に対して2倍となる。その為、焦点検出精度は約1/2に低下するが、焦点検出領域200A〜200C周辺の画像の質としては向上させることができる。
【0119】
焦点検出領域200Aのフォトダイオード201a,201b部分については、その周辺画素であり、画素データとして有効なフォトダイオード101A〜101Hの画素信号を用いて補間することにより求める。
【0120】
第6の実施の形態では、前述した第1の実施の形態に比較して、補間演算用の有効画素データ数が増加するので、画像の質をより向上させることができる。
【0121】
尚、焦点検出用の一対のフォトダイオード201a,201bからなるユニットと撮像用フォトダイオード101を交互に配置しているが、必要精度に応じて2〜5個おき等に変形可能であることは勿論である。
【0122】
次に、本発明の第7の実施の形態について説明する。
【0123】
第7の実施の形態は、前述した第1の実施の形態の変形であり、特にフォトダイオード上の色フィルタの配置が異なっている。
【0124】
図20は第7の実施の形態に係る撮像装置における撮像素子の焦点検出部の配置を示す図である。
【0125】
前述した第1の実施の形態においては、焦点検出部200A〜200Cには色フィルタを配置していないが、第7の実施の形態では、焦点検出部200A〜200Cを含めて撮像部100と同様に、ベイヤー配列に従って規則的に色フィルタを配列している。実際の焦点検出時には、焦点検出部200A〜200Cにおいて同一色フイルタの画素データを選択して焦点検出演算を行う。
【0126】
尚、色Gの画素信号又は色Bの画素信号について、それぞれ単独で焦点検出演算を行い、両者を平均処理したり、信頼性の高い一方のみを選択してもよいことは勿論である。この場合、焦点検出の検出ピッチが粗くなるが、記録画像作成時には焦点検出部200A〜200C内の画素信号情報も採用することが可能になり、画像の質を向上させることができる。
【0127】
また、記録画像作成時に、例えば焦点検出領域200Aについては、画素信号201aと201b(色G)とを加算してその部分の画素データとして採用する。さらに周辺の色Gの画素信号101A〜101Dも考慮して補間処理等を行うことが考えられる。色Bの画素についても同様に処理すればよい。
【0128】
以上説明したように、本発明では、撮像素子と同一チップ上に瞳分割微小レンズ群と瞳分割光東を受光する一対の受光素子群とを複数領域において形成し、上記受光素子群の出力に基づいて焦点検出を行うので、低コスト、省スペースであり、広視野な焦点検出領域を有すると共に、高速で高精度な焦点調節機能を有した撮像装置を提供することが可能となる。
【0129】
以上、本発明の実施の形態について説明したが、本発明はこれに限定されることなく、その趣旨を逸脱しない範囲で種々の改良・変更が可能であることは勿論である。例えば、上記実施の形態では、 撮像素子をMOS型センサとして説明したが、CCDやその他のタイプの固体撮像素子であってもよい。
【0130】
尚、本発明の上記実施の形態には、以下の発明が含まれる。
【0131】
(1)撮影レンズを通過し、受光面上に結像した光学像の光電変換を行う撮像素子を有する撮像装置において、
上記受光面を焦点位置とし、それぞれ2次元配列された第1及び第2微小レンズアレイと、
上記第1微小レンズアレイの焦点位置付近に配され、それぞれ第1映像信号を出力するための、単一の受光素子を構成単位とする第1受光素子群と、
上記第2微小レンズアレイの焦点位置付近に配され、それぞれ第2映像信号を出力するための、一対の受光素子を構成単位とする第2受光素子群と、
を具備し、
上記第2微小レンズアレイと上記第2受光素子群とを規則的に配列した焦点検出ブロック列を、複数個配置して形成したことを特徴とする撮像装置。
【0132】
(2)上記(1)において、複数の上記焦点検出ブロック列は、互いに、上記第2受光素子群の配列方向が異なるように配置されている。
【0133】
(3)上記(1)において、上記第1受光素子群と、上記第2受光素子群とは、該撮像素子上における配列ピッチが異なる。
【0134】
【発明の効果】
以上詳述したように、本発明によれば、新たな機構や光学系を追加することなく、低コスト且つ省スペースで、より広い焦点検出領域を有し、AFスピードを向上させ、且つ正確な焦点調節を行うことが可能な焦点調節機能を有する撮像装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る撮像装置の光学系の構成図である。
【図2】第1の実施の形態に係る撮像装置の電気系の構成図である。
【図3】撮像素子6の詳細な構成を示す図である。
【図4】撮像素子6の詳細な構成を示す図である。
【図5】オンチップマイクロレンズを形成した撮像素子の一般的な断面構成を示す図である。
【図6】撮影光学系11を通過する光束を瞳分割して、各分割光束を一対の受光素子A,Bにそれぞれ入射する様子を示す図である。
【図7】焦点検出部200における合焦、前ピン、後ピンの各例を示す図である。
【図8】(a)は、先に図3に示した、水平方向と垂直方向に二次元状に配置されている画素ユニットのうち、撮像部100部分に位置する画素ユニット110の構成を示す図であり、(b)は上記画素ユニット210の詳細な構成を示す図である。
【図9】ベイヤー配列を示す図である。
【図10】映像信号処理部42の詳細な構成を示す図である。
【図11】第1の実施の形態に係る撮像装置のマイコン31の動作を詳細に説明するためのフローチャートである。
【図12】第1の実施の形態に係る撮像装置のマイコン31の動作を詳細に説明するためのタイムチャートである。
【図13】第2の実施の形態に係る撮像装置における撮像素子の焦点検出領域の配置の様子を示す図である。
【図14】第2の実施の形態に係る撮像装置の撮像素子におけるフォトダイオードの配置を示す図である。
【図15】第3の実施の形態に係る撮像装置の撮像素子の配置を示す図である。
【図16】第4の実施の形態に係る撮像装置の撮像素子の配置を示す図である。
【図17】十字型焦点検出領域501Aとその周辺の画素構成を示す図である。
【図18】(a)は第5の実施の形態に係る撮像装置の撮像素子における焦点検出領域200Aの構成を示す図であり、(b)は当該焦点検出領域200Aの画素ユニット210の構成を示す図である。
【図19】第4の実施の形態(図17)に対して、第5の実施の形態を適用した場合の焦点検出部510Aのフォトダイオードの配置を示す図である。
【図20】第6の実施の形態に係る撮像装置における撮像素子の焦点検出部の配置を示す図である。
【図21】第7の実施の形態に係る撮像装置における撮像素子の焦点検出部の配置を示す図である。
【符号の説明】
1 撮影光学系
1aフォーカシングレンズ
2 絞り
3 ビームスプリッタ
4 赤外カットフィルタ
5 LPF
6 撮像素子
7 ミラー
8 ペンタプリズム
9 接眼レンズ
10 ファインダ光学系
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging apparatus that has a focus adjustment function and that performs imaging using an electronic imaging element.
[0002]
[Prior art]
Conventionally, various techniques relating to an imaging apparatus that electronically captures a subject image using an electronic imaging element have been disclosed.
[0003]
For example, Japanese Patent Laid-Open No. 10-213737 discloses a technique related to an imaging apparatus that employs a so-called “mountain climbing method” as an autofocus (hereinafter referred to as AF) method. This hill-climbing method is a method of searching for a photographing lens position where the contrast of a subject image captured by an image sensor is maximized.
[0004]
Japanese Patent Application Laid-Open No. 10-197783 discloses a technique related to an imaging apparatus that employs a TTL phase difference detection method. In such a TTL phase difference detection method, a diaphragm member is driven to perform pupil division in a time division manner, and a light flux that has passed through the pupil is received by an imaging element to perform phase difference detection.
[0005]
On the other hand, Japanese Patent Publication No. 57-49841 discloses a technique related to a TTL phase difference detection device. This is a method called the fly lens method. The light beam that has passed through the lens array is received by a pair of light receiving elements that form a line sensor, and the signal from the line sensor is processed to calculate the image shift amount, that is, the phase difference amount. Then, the focus adjustment is performed by feeding back to the amount of extension of the focus sync lens.
[0006]
Japanese Patent Application Laid-Open No. 10-274562 discloses a technique related to a TTL phase difference detection apparatus that employs a re-imaging method. On the other hand, Japanese Patent Application Laid-Open No. 8-201683 discloses a technique related to a re-imaging type TTL phase difference detection apparatus having a plurality of focus detection areas.
[0007]
[Problems to be solved by the invention]
However, the hill-climbing method has a problem that the AF speed is slow because the photographing lens is moved to search for the contrast peak of the subject image of the image sensor.
[0008]
In the technique disclosed in Japanese Patent Laid-Open No. 10-197783, a diaphragm member is driven by a mechanical mechanism to perform pupil division. Therefore, a driving mechanism is required, and it is difficult to reduce the size because a mounting space is required. is there. Furthermore, since a time difference occurs in the formation of a plurality of divided pupils to be divided, there is a problem that detection accuracy is greatly deteriorated for a moving subject. Further, it takes time to move the mechanical aperture member, and the AF speed becomes slow.
[0009]
On the other hand, in the focus detection device disclosed in the above Japanese Patent Publication No. 57-49841, a part of the light beam from the subject that has passed through the photographing lens has to be divided and guided, so that there are optical restrictions and space restrictions. The problem of receiving occurs.
[0010]
Further, the focus detection apparatus disclosed in the above Japanese Patent Laid-Open No. 10-274562 has a problem that a re-imaging optical system is required in addition to the above-described problem of optical path division, and further, space restrictions are increased. ing.
[0011]
The focus detection apparatus disclosed in the above Japanese Patent Laid-Open No. 8-201683 requires a re-imaging optical system and an AF sensor for each of the plurality of focus detection areas, thereby further increasing the cost and increasing the space. Will be invited.
[0012]
The present invention has been made in view of the above problems, and the object of the present invention is to provide a low-cost and space-saving, wider focus detection area without adding a new mechanism or optical system, and an AF An object of the present invention is to provide an imaging apparatus having a focus adjustment function capable of improving speed and performing accurate focus adjustment.
[0013]
[Means for Solving the Problems]
  In order to achieve the above object, according to a first aspect of the present invention, in an imaging apparatus having an imaging element that receives subject image light that has passed through a photographing lens,The image sensorReceiving subject image light passing through the taking lensIn addition, a color filter arranged according to a predetermined rule is arranged on the front surfaceA first light receiving element group, a first microlens group for condensing subject image light on the first light receiving element group,WithAn imaging area for generating an output of the first light receiving element group for imaging, a second microlens group for pupil-dividing a luminous flux of subject image light passing through the photographing lens, and the second microlens Receiving each luminous flux divided by pupilsIn addition, a color filter arranged according to a predetermined rule is arranged on the front surfaceA pair of second light receiving element groupsAnd comprisingA focus detection area for generating outputs of the pair of light receiving element groups to perform focus detection;A focus detection unit that performs focus detection based on the output of the focus detection region unit, an image creation unit that generates a captured image based on the output of the imaging region unit,ComprisingThe focus detection unit performs focus detection based on outputs of the pair of light receiving element groups in which color filters of the same color in the focus detection region unit are arranged.Is provided.
[0014]
  And in the second aspect, in the first aspect,The focus detection unit performs focus detection for each of a plurality of different color filters based on outputs of the pair of light receiving element groups in which the color filters of the same color are arranged, and outputs a plurality of focus detection results corresponding to the different color filters. Use the average value as the focus detection resultAn imaging device is provided.
[0015]
  Furthermore, in the third aspect, in the first aspect,The focus detection unit performs focus detection for each of a plurality of different color filters based on outputs of the pair of light receiving element groups in which the color filters of the same color are arranged, and outputs a plurality of focus detection results corresponding to the different color filters. Select a focus detection result with higher reliabilityAn imaging device is provided.
[0016]
According to the 1st thru | or 3rd aspect, the following effects are show | played.
[0017]
  That is, in the first aspect of the present invention, in an imaging apparatus having an imaging element that receives subject image light that has passed through a photographing lens,In the imaging device, color filters are arranged and arranged on the front surface according to a predetermined rule, and subject image light passing through the photographing lens is received by the first light receiving element group, and the first minute lens group receives the first micro lens group. Subject image light is focused on the light receiving element group, and an output of the first light receiving element group is generated by the imaging region unit for imaging. Further, in the focus detection area portion, the second minute lens group splits the luminous flux of the subject image light passing through the photographing lens into a pupil, and a pair of color filters arranged in accordance with a predetermined rule are arranged on the front surface thereof. The second light receiving element group receives the light beams divided by the second minute lens group, and outputs the pair of light receiving element groups for focus detection. Further, the focus detection unit performs focus detection based on the output of the focus detection region unit, and the image generation unit generates a captured image based on the output of the imaging region unit. Then, the focus detection unit performs focus detection based on outputs of the pair of light receiving element groups in which the color filters of the same color in the focus detection region unit are arranged.
[0018]
  And in the second aspect, in the first aspect,The focus detection unit performs focus detection for each of a plurality of different color filters based on the output of the pair of light receiving element groups in which the same color filters are arranged, and a plurality of focus detection results corresponding to the different color filters. Is used as the focus detection result.
  Furthermore, in the third aspect,The focus detection unit performs focus detection for each of a plurality of different color filters based on the output of the pair of light receiving element groups in which the same color filters are arranged, and a plurality of focus detection results corresponding to the different color filters. Among them, a focus detection result with higher reliability is selected.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0020]
FIG. 1 is a configuration diagram of an optical system of the imaging apparatus according to the first embodiment of the present invention.
[0021]
As shown in the figure, a focusing lens 1a for receiving incident light is disposed at a predetermined position, and a diaphragm 2 is disposed on the optical axis thereof. The photographing optical system 1 is constituted by the focusing lens 1a, the diaphragm 2, and the like. A beam splitter 3 is disposed on the optical path of the subject light via the photographing optical system 1, and an infrared cut filter 4 and a low-pass filter (hereinafter, referred to as “light cut-off filter 4”) are disposed on the optical path of the light reflected by the beam splitter 3. (Referred to as LPF) 5 and an image sensor 6 are provided.
[0022]
On the other hand, a finder optical system 10 including a mirror 7, a pentaprism 8, and an eyepiece lens 9 is provided on the optical path of the light transmitted through the beam splitter 3.
[0023]
The diaphragm 2 can hold a predetermined diaphragm aperture, has a shutter function, and also has a function of completely shielding light.
[0024]
In such a configuration, part of the subject luminous flux that has passed through the photographing optical system 1 is reflected downward by the beam splitter 3, the infrared light component is removed by the infrared light cut filter 4, and moire is reduced by the LPF 5. After that, an image is picked up by the image sensor 6. A part of the subject luminous flux that has passed through the beam splitter 3 is reflected by the mirror 7 and then guided to a finder optical system 10 including a pendant prism 8 and an eyepiece 9 and is observed by a photographer.
[0025]
Next, FIG. 2 is a configuration diagram of an electric system of the imaging apparatus according to the first embodiment.
[0026]
As shown in the figure, a microcomputer 31 includes a central processing unit (hereinafter referred to as a CPU) 31a that controls the whole, a read only memory (hereinafter referred to as a ROM) 31b, a random access memory (hereinafter referred to as a RAM). 31c), an analog / digital converter (hereinafter referred to as ADC) 31d, and an EEPROM 31e which is a non-volatile memory.
[0027]
Further, the microcomputer 31 includes a lens driving unit 32, an aperture driving unit 33, an image sensor control unit 43, a display unit 46, a first release switch (hereinafter referred to as 1RSW) 47, and a second release switch (hereinafter referred to as 2RSW) 48. The area selection SW 49 is electrically connected.
[0028]
The output of the image sensor control unit 43 is connected to the input of the image sensor 16 (same as the image sensor 6 in FIG. 1), and the output of the image sensor 16 is connected to the input of the video signal processor 42. Yes. The output of the video signal processing unit 42 is connected to the inputs of the recording unit 44, photometry / exposure calculation unit 45, display unit 46, focus detection calculation unit 50, and auto white balance (hereinafter referred to as AWB) unit 51, respectively. Has been.
[0029]
The output of the photometry / exposure calculation unit 45 and the output of the focus detection calculation unit 50 are connected to the input of the microcomputer 31.
[0030]
In such a configuration, the microcomputer 31 performs a series of operations in accordance with a sequence program stored in the internal ROM 31b. The EEPROM 31e inside the microcomputer 31 stores correction data for focus adjustment, photometry / exposure calculation, AWB, and the like for each camera. The image sensor 6 captures a subject image formed by the photographing optical system 1 and converts it into an electrical signal.
[0031]
The video signal processing unit 42 processes an electrical signal that is a pixel signal from the image sensor 6 to create a video signal. The detailed configuration will be described later.
[0032]
The photometric / exposure calculating unit 45 calculates a photometric value and an exposure control value based on the video signal processed by the video signal processing unit 42. Further, the image sensor control unit 43 controls the electronic shutter of the image sensor 6 at the time of shooting based on the shutter speed that is the output of the photometry / exposure calculation unit 45. In this embodiment, based on the aperture value data calculated by the exposure calculation of the photometry / exposure calculation unit 45, the diaphragm 2 in the photographing optical system 1 is controlled at the time of shooting.
[0033]
The diaphragm drive unit 33 drives the diaphragm 2 based on a command from the microcomputer 31. Further, the focus detection calculation unit 50 performs focus detection calculation based on the video signal processed by the video signal processing unit 42. As a result of the focus detection calculation, in-focus determination data, a focus sync lens driving amount, and the like are transmitted to the microcomputer 31.
[0034]
The AWB unit 51 automatically controls white balance based on the video signal processed by the video signal processing unit 42. Under the control of the microcomputer 31, the display unit 46 displays images captured by the image sensor 6 and information inside the camera on a liquid crystal display (LCD) or the like.
[0035]
1RSW47 and 2RSW48 are switches linked to the release button. When the release button is depressed in the first stage, 1RSW47 is turned on. Subsequently, when the second stage is depressed, 2RSW48 is turned on. The area selection SW 49 is a switch for selecting an AF area, and moves and selects a predetermined AF area each time it is turned on. The microcomputer 31 performs photometry and AF operations when 1RSW 47 is on, and performs an exposure operation and an image recording operation when 2RSW 48 is on.
[0036]
In addition to the above, the lens driving unit 32 drives the focus sync lens 1 a based on a command from the microcomputer 31.
[0037]
Here, FIG. 3 is a diagram showing a detailed configuration of the image sensor 6.
[0038]
As shown in the figure, in the imaging element 6 as a MOS type sensor, a plurality of pixel units 110 each including a photodiode as a light receiving element are two-dimensionally arranged, and the control unit 111 performs an accumulation operation of each pixel unit 110. Is configured to be controlled. The control unit 111 controls the X shift register 112 and the Y shift register 113 to select the output Sn of the pixel unit as switches SWxn and SWyn, and outputs them to the outside by the output unit 114.
[0039]
Further, in FIG. 4C, the image pickup device 6 is functionally divided into two parts for explanation. As shown in the figure, the image pickup device 6 includes an image pickup unit 100 for using a pixel signal for photographing and a focus detection unit 200 for using the pixel signal for focus detection. The imaging unit 100 is formed on substantially the entire surface, and the focus detection unit 200 is formed on a part thereof. Further, on the photographing screen 120, the focus detection area 200A is arranged on the optical axis, and the focus detection area 200B is arranged outside the optical axis and in a direction perpendicular to the focus detection area 200A.
[0040]
On the other hand, a microlens is formed on the front surface of the photodiode as the light receiving element. As a technique for improving the photosensitivity of the image sensor, a so-called on-chip microlens technique has been established in which a microlens is provided at a position corresponding to each photodiode to efficiently collect incident light on the light receiving portion. ing. In the imaging unit 100, the microlens is set to optimize the light sensitivity as described above.
[0041]
FIG. 4A is a diagram showing an arrangement of photodiodes as light receiving elements on the image sensor 16. In the focus detection units 200A to 200C, a plurality of units of a pair of photodiodes 201a and 201b are arranged. A photodiode 101 is arranged in the imaging unit 100.
[0042]
FIG. 4B is a diagram showing the arrangement of photodiodes and microlenses.
[0043]
In the focus detection units 200 </ b> A to 200 </ b> C, the microlens 206 is disposed for the pair of photodiodes 201 a and 201 b, and in the imaging unit 100, the microlens 106 is disposed for the photodiode 101.
[0044]
Next, FIG. 5 is a diagram showing a general cross-sectional configuration of an image pickup element in which an on-chip microlens is formed. Note that the imaging unit 100 of the imaging device 6 in the imaging apparatus according to the present embodiment has a configuration substantially similar to that shown in FIG.
[0045]
As shown in FIG. 5, in a semiconductor substrate 131 made of silicon, a photodiode constituting the light receiving portion 133 is formed by a diffusion layer or the like.
[0046]
Further, the circuit portion 132, the gate electrode 134, and the like that constitute a circuit for amplifying the output of the photodiode are covered with a light shielding film 135. Further, the light receiving portion 133 is formed corresponding to the opening of the light shielding film 135, and a color filter 137 is formed on the light receiving portion 133 and the light shielding film 135. Further, on the color filter 137, a micro lens 139 having a predetermined curvature r and a spherical surface having a focal length f1 is formed.
[0047]
On the other hand, the microlens 206 corresponding to the focus detection unit 200 is different from the microlens 106 (139) of the imaging unit 100 in characteristics such as curvature and focal length, and a pair of light receiving elements substantially on the focal plane of the microlens 206. The photodiodes A and B are arranged. Then, as shown in FIG. 6, the microlens 206 divides the light beam passing through the photographing optical system 11 into pupils and acts so that the divided light beams are incident on the pair of light receiving elements A and B, respectively.
[0048]
The focus detection principle is the same as the phase difference detection method disclosed in the above-mentioned Japanese Patent Publication No. 57-49841, and a detailed description thereof is omitted here.
[0049]
Next, FIG. 7 shows and describes examples of focusing, front pins, and rear pins in the focus detection unit 200. Actually, the microlens Ln group and the light receiving elements An and Bn group are fixed and the position of the photographing optical system 1 moves. Here, for convenience of explanation, the position of the photographing optical system 1 is changed. The relative positional relationship will be described as fixed.
[0050]
The focal length of the microlens Ln is f2, which is substantially equal to the distance between the microlens Ln and the light receiving element photodiodes An and Bn.
[0051]
First, at the time of focusing, light rays R1, R2, R3, R4,..., Which are light east from the same subject and have passed through different exit pupils, are received by adjacent An and Bn around the optical axis of each microlens Ln. The amount of received light matches. For example, the microlens L2 and the light receiving elements A2 and B2 correspond to the light beams R3 and R4.
[0052]
In the case of the front pin, the amounts of light received by the light receiving elements A and B through different microlenses, that is, the amounts of light received by the light receiving elements A and B that are not adjacent to each other match. For example, since the microlens L3 and the light receiving element B3 and the microlens L1 and the light receiving element A1 respectively correspond to the light rays R3 and R4 from the same subject, the image is shifted by two pitches.
[0053]
On the other hand, in the case of the rear pin, detection elements having the same amount of received light are adjacent to each other, but light incident on the adjacent light receiving elements is light that passes through different microlenses. For example, since the microlens L1 and the light receiving element B1, and the microlens L3 and the light receiving element A3 respectively correspond to the light rays R3 and R4 from the same subject, the image is shifted by two pitches in the opposite direction to that at the front pin.
[0054]
In this way, image shift occurs according to the amount of focus shift. Actually, since the focus detection accuracy decreases with the image shift amount (phase production amount) in units of one pitch, a known interpolation calculation or the like is performed to detect the focus for one pitch or less. By detecting the image shift amount in this way, the focus shift amount of the photographing lens can be obtained.
[0055]
Here, FIG. 8A shows the configuration of the pixel unit 110 located in the imaging unit 100 portion among the pixel units arranged in a two-dimensional manner in the horizontal direction and the vertical direction shown in FIG. Will be described.
[0056]
In the figure, in the pixel unit 110, the output of the photodiode 101 is input to a pixel amplification circuit 102 that amplifies the charge generated by the photodiode 101. The pixel amplification circuit 102 includes a first stage amplifier 104 and a sample hold unit 105.
[0057]
The first stage amplifier 104 includes an amplifier A1, a storage capacitor C1, and a switch SW1, and constitutes an integrator. The output of the first stage amplifier 104 is input to the sample hold unit 105. The sample hold unit 105 includes a switch SW2, a hold capacitor C2, and a buffer A2.
[0058]
Then, the pixel unit 110 is initialized when the switches SW1 and SW2 are turned on, and then the accumulation operation is started when the switch SW1 is turned off. Further, when the switch SW2 is turned off, the accumulation level is held in the hold capacitor C2, and the accumulation operation is terminated. The on / off timing of the switches SW1 and SW2 is controlled by the control unit 111.
[0059]
Further, the accumulation level held by the hold capacitor C2 is output to Vsn through the buffer A2, selected by the X shift register 112 and the Y shift register 113, and output to the output unit 114.
[0060]
The focus detection unit 200 includes a pair of photodiodes 201a and 201b that respectively receive the light beams divided at the exit pupil of the photographing lens 11 by the micro lens group, and pixels that amplify the charges generated by the photodiodes 201a and 201b. A pixel unit 210 including amplifier circuits 202a and 202b is arranged.
[0061]
On the other hand, FIG. 8B is a diagram showing a detailed configuration of the pixel unit 210.
[0062]
As shown in the figure, the pixel amplifier circuits 202a and 202b have the same circuit configuration as the pixel amplifier circuit 102, respectively. The outputs of the pixel amplifier circuits 202a and 202b are selectively connected to the output Vsn via the switches SWa and SWb controlled by the control unit 111. Similarly to the pixel unit 103, the output Vsn is selected by the X shift register 112 and the Y shift register 113 outside the pixel unit 210 and output to the output unit 114.
[0063]
A color filter is disposed in front of the photodiode 101 of the imaging unit 100. The arrangement of the color filters is a so-called Bayer arrangement as shown in FIG. That is, in FIG. 9, R, G, and B indicate color filters that selectively transmit red, green, and blue, respectively.
[0064]
On the other hand, no color filter is arranged in front of the photodiodes 201a and 201b of the focus detection unit, and only the imaging unit 100 is arranged.
[0065]
As described above, it is possible to perform processing based on a known algorithm such as performing focus detection on the plurality of focus detection areas 200A, 200B, and 200C and automatically selecting the closest subject among them. Further, the photographer can select an AF area with an area selection switch 49 described later and focus on the area. In the focus detection area 200A, focus detection can be performed on an object having contrast in the horizontal direction with respect to the shooting screen 120, for example, a vertical line.
[0066]
On the other hand, in the focus detection areas 200B and 200C, focus detection can be performed on a subject having a contrast in the vertical direction with respect to the shooting screen 120 shown in FIG. 9, for example, a horizontal line. Therefore, it is possible to detect the focus even for a subject having only one direction of contrast.
[0067]
By the way, at the time of image creation, there is no image data for the focus detection areas 200A to 200C, so it is necessary to compensate.
[0068]
The method for supplementing this image data will be described below. In FIG. 4A, for example, the photodiodes 201a and 201b in the focus detection region 200A are the peripheral pixels of the photodiode 101A belonging to the imaging unit 100. It calculates | requires by interpolating using the pixel signal of -101E.
[0069]
At this time, it is needless to say that only pixel data of the same color filter may be used. As the interpolation calculation method, various methods such as simple averaging or weighted averaging of the pixel signals of the photodiodes 101A to 101E can be employed. Since this method is already known, detailed description is omitted.
[0070]
Next, FIG. 10 shows a detailed configuration of the video signal processing unit 42 and will be described.
[0071]
In FIG. 10, a fixed pattern noise (FPN) removal circuit 78 removes FPN and the like from the image signal of the image sensor 16. The gain control amplifier AMP79 amplifies the output of the FPN removal circuit 78 with a predetermined gain.
[0072]
The A / D converter 80 converts the output of the gain control amplifier 79 into a digital signal by AD conversion. The process processing circuit 81 performs various processes on the video signal converted into the digital signal.
[0073]
The image sensor control unit 43 outputs a drive signal to the image sensor 16 and controls its operation. The image sensor control unit 43 includes a timing generator 82 and a signal generator 83.
[0074]
That is, the timing generator (TG) 82 generates a drive signal such as a drive pulse for driving the image sensor 16, and also the sample hold pulse of the FPN removal circuit 78 and the AD conversion timing pulse of the A / D converter 80. Is generated. A signal generator (SG) 83 generates a signal for synchronizing the timing generator 82 and the microcomputer 31.
[0075]
The recording unit 44 includes a DRAM 84, a compression / decompression circuit 85, and a recording medium 86. The video signal (pixel data) output from the process processing circuit 81 in the video signal processing unit 42 is stored in the DRAM 84. The compression / decompression circuit 85 performs a compression process for recording by reducing the amount of pixel data stored in the DRAM 84 and a decompression process for restoring compressed data read from the recording medium 86. The recording medium 86 records the compressed still image data.
[0076]
Hereinafter, the operation of the microcomputer 31 will be described in detail with reference to the flowchart of FIG. In the following description, the time chart of FIG.
[0077]
When a power switch (not shown) is turned on or a battery is inserted, the microcomputer 31 starts operation and executes a sequence program stored in the internal ROM 31b.
[0078]
That is, when entering this sequence, first, each block in the imaging apparatus is initialized (step S1). Subsequently, the state of 1RSW 47 is detected (step S2).
[0079]
When the 1RSW 47 is off, the image pickup operation of the image pickup unit 6 is performed (accumulation (exposure) and read operation) (step S5), and photometry is performed based on the video signal of the image pickup unit 100 from the video signal processing unit 42. The exposure calculation unit 45 performs photometry and exposure calculation, calculates the aperture control value of the aperture 12 at the time of main exposure photography (image recording), the electronic shutter speed of the image sensor 6 and the like (step S6), and returns to step S2. .
[0080]
On the other hand, when 1RSW 47 is on, the accumulation operation (AF exposure) of the focus detection unit 200 of the image sensor 6 is performed, the image signal of the focus detection unit 200 is read (step S3), and the focus detection calculation is performed based thereon. (Step S4).
[0081]
This focus detection calculation is executed at timing F1 in FIG. 12 (f), and the calculation results in the focus detection areas 200A, 200B, and 200C are compared, and the closest area is selected. Can be adopted.
[0082]
Subsequently, it is determined whether the focus detection calculation result is in-focus or in-focus (step S7). If in-focus, the process proceeds to step S9. In the case of out-of-focus, the process proceeds to step S8, and the amount of movement of the focusing lens 1a that achieves in-focus is calculated and driven based on the focus detection calculation result. Then, the process returns to step S2, and the AF operation as described above is repeated. The driving of the focusing lens 1a is executed at the timing F2 in FIG.
[0083]
In step S9, it is detected whether 2RSW 48 is turned on. If it is turned on, the process proceeds to step S10. On the other hand, if the 2RSW 48 is off, the process proceeds to step S2, and the AF operation is continued while waiting for the 2RSW 48 to be on.
[0084]
In subsequent steps S1O and subsequent, the main exposure operation is performed.
[0085]
That is, the microcomputer 31 controls the aperture controller 33 to limit the aperture 2 to the exposure aperture value (step S10), and the image sensor control unit 43 turns off the charge reset signal RES (see FIG. 12B). Accumulation of the image sensor 6 is started, and the main exposure is performed by controlling the electronic shot speed based on the exposure calculation (step S11).
[0086]
This main exposure operation is executed at the timing of F3 in FIG.
[0087]
This electronic shutter operation is performed by generating a charge storage signal HOLD at a predetermined timing according to the shutter speed by the image sensor control unit 43 and holding the accumulated charge in the photodiode 101 (see FIG. 12C). .
[0088]
Next, the image sensor control unit 43 outputs the image readout signal DCLK to the image sensor 16, and the video signal processing unit 42 outputs the image signal of the image sensor 100 (in synchronization with the signal DCLK (see FIG. 12D)). The image pickup device signal) is A / D converted and read (step S12). Note that the reading of the image data is executed at the timing of F4 in FIG.
[0089]
Further, the microcomputer 31 controls the aperture controller 33 to transmit an aperture opening command to open the aperture 12 (step S13), perform processing such as compression of the read image signal, and then store it on the recording medium 86. Store (step S14). This image processing and recording operation are performed at the timing F5 in FIG.
[0090]
Thus, the series of photographing operations is completed, the process returns to step S2, and the above-described operation is repeated.
[0091]
Next, a second embodiment of the present invention will be described.
[0092]
In the second embodiment, the arrangement of the focus detection areas is changed with respect to the first embodiment described above.
[0093]
First, FIG. 13 is a diagram illustrating an arrangement state of focus detection areas of the image sensor in the imaging apparatus according to the second embodiment.
[0094]
As shown in the figure, in the shooting screen 120, the focus detection area 300A arranged in parallel with the long side direction of the shooting screen 120 with the optical axis of the shooting lens as the center, and the optical axis of the shooting lens as the center, 300B arranged in a direction perpendicular to the focus detection area 300A.
[0095]
FIG. 14 shows the arrangement of photodiodes in the image sensor of the image pickup apparatus according to the second embodiment.
[0096]
Similar to the first embodiment described above, the image pickup unit 100 is formed over the entire surface of the image pickup device 6, and as shown in FIG. 14, the focus detection units 300A and 300B are provided in the portion corresponding to the focus detection region. Is formed.
[0097]
A plurality of pairs of photodiodes 301 a and 301 b of the focus detection unit 300 </ b> A are arranged in parallel to the long side of the imaging screen 100, thereby forming a focus detection region. On the other hand, a plurality of pairs of photodiodes 301c and 301d in the focus detection area 300B are arranged perpendicular to the long side of the imaging screen, that is, parallel to the short side direction, thereby forming a focus detection area.
[0098]
In the second embodiment, by providing the cross-shaped focus detection area in this way, it is possible to detect the focus on the subject existing in the area near the center of the shooting screen regardless of the direction of contrast. .
[0099]
Next, a third embodiment of the present invention will be described.
[0100]
FIG. 15 is a diagram illustrating an arrangement of image pickup elements of the image pickup apparatus according to the third embodiment. The third embodiment further includes a plurality of combinations of cross-shaped focus detection areas shown in the second embodiment.
[0101]
The cross-shaped focus detection area 410A includes a horizontal focus detection area 400A and a vertical focus detection area 400B. Since the arrangement of the photodiodes on the image pickup device 6 in the vicinity of the similar cruciform focus detection areas 410A to 410E are all arranged in the same manner as in FIG. 14, a duplicate description is omitted here.
[0102]
In the third embodiment, the number of cruciform focus detection areas is further increased, so that focus detection can be performed over the entire shooting screen without being affected by the direction of subject contrast.
[0103]
Next, a fourth embodiment of the present invention will be described.
[0104]
FIG. 16 is a diagram illustrating an arrangement of image pickup elements of the image pickup apparatus according to the fourth embodiment. In the fourth embodiment, the focus detection area is extended obliquely with respect to the side of the shooting screen 120, and two rows of focus detection areas 510A and 510B are arranged in a cross shape so as to form a cross focus detection area. 501A is formed. Further, a plurality of the cross-shaped focus detection areas 501A are arranged. Note that the cross-shaped focus detection region 501A and the surrounding pixel configuration are as shown in FIG.
[0105]
Next, a fifth embodiment of the present invention will be described.
[0106]
The fifth embodiment is a modification of the first embodiment, and is different from the first embodiment in the configuration of the pixel unit.
[0107]
FIG. 18A is a diagram showing the configuration of the focus detection area 200A in the imaging device of the imaging apparatus according to the fifth embodiment, and FIG. 18B is the configuration of the pixel unit 210 in the focus detection area 200A. FIG.
As shown in FIG. 18A, in the fifth embodiment, the focus detection region 200A has an imaging photodiode 201c in addition to the pair of photodiodes 201a and 201b.
[0108]
Further, in FIG. 18B, the accumulation operation is performed with the switch Swg turned off during focus detection. In this case, the same operation as in the first embodiment described above is performed.
[0109]
On the other hand, when the recorded image is captured, the focus detection unit 200A does not perform the accumulation operation in the first embodiment described above. However, in the fifth embodiment, the accumulation operation is performed simultaneously with the imaging unit 100. .
[0110]
At that time, the switch SWg is turned on and the output of the photodiode 201c is also input to the pixel amplifier circuit 202a, so that not only the pupil-divided beam but also a wider beam including the pupil-divided beam is received and converted into a voltage signal.
[0111]
Then, by adding the added pixel signals of the obtained photodiodes 201a and 201c and the pixel signal of the photodiode 201b, an image signal corresponding to the case where the entire light flux is received can be obtained.
[0112]
In this manner, a higher quality image can be obtained by similarly creating an image signal for each of the focus detection areas 200A to 200C.
[0113]
FIG. 19 is a diagram showing the arrangement of the photodiodes of the focus detection unit 510A when the fifth embodiment is applied to the fourth embodiment (FIG. 17) described above. As shown in the drawing, an image photodiode 501c is provided in addition to the photodiodes 501a and 501b. At the time of recording and imaging, an image signal is created by adding the received light amounts of the photodiodes 501a, 501b, and 501c.
[0114]
As described above, since the optical characteristics of the micro lens 106 of the imaging unit 100 and the micro lens 206 of the focus detection unit 200 are different, the received light amount is different, but this light amount difference is stored in the EEPROM 31e in advance. The correction is performed for each pixel unit of the focus detection unit 200 to match the imaging unit 100.
[0115]
Next, a sixth embodiment of the present invention will be described.
[0116]
The sixth embodiment is a modification of the first embodiment described above, and in particular, the arrangement of the photodiodes is different.
[0117]
FIG. 21 is a diagram illustrating an arrangement of focus detection units of the image sensor in the image pickup apparatus according to the sixth embodiment.
[0118]
As shown in the figure, in the focus detection units 200A to 200C, units composed of a pair of focus detection photodiodes 201a and 201b and imaging photodiodes 101 are alternately arranged. In such a configuration, the detection pitch of the focus detection photodiode is twice that of the first embodiment. Therefore, although the focus detection accuracy is reduced to about ½, the image quality around the focus detection areas 200A to 200C can be improved.
[0119]
The photodiodes 201a and 201b in the focus detection area 200A are obtained by interpolating using the pixel signals of the photodiodes 101A to 101H that are the peripheral pixels and are effective as pixel data.
[0120]
In the sixth embodiment, since the number of effective pixel data for interpolation calculation is increased as compared with the first embodiment described above, the image quality can be further improved.
[0121]
Incidentally, although the unit composed of a pair of focus detection photodiodes 201a and 201b and the imaging photodiode 101 are alternately arranged, it is needless to say that it can be modified every 2 to 5 according to the required accuracy. It is.
[0122]
Next, a seventh embodiment of the present invention will be described.
[0123]
The seventh embodiment is a modification of the above-described first embodiment, and in particular, the arrangement of the color filters on the photodiode is different.
[0124]
FIG. 20 is a diagram illustrating the arrangement of the focus detection units of the image sensor in the imaging apparatus according to the seventh embodiment.
[0125]
In the first embodiment described above, the color filters are not arranged in the focus detection units 200A to 200C. However, in the seventh embodiment, the focus detection units 200A to 200C including the focus detection units 200A to 200C are the same. In addition, the color filters are regularly arranged according to the Bayer arrangement. During actual focus detection, the focus detection units 200A to 200C select pixel data of the same color filter and perform focus detection calculation.
[0126]
Of course, the color G pixel signal or the color B pixel signal may be individually subjected to focus detection calculation and averaged, or only one with high reliability may be selected. In this case, the detection pitch of focus detection becomes rough, but pixel signal information in the focus detection units 200A to 200C can also be adopted when creating a recorded image, and the quality of the image can be improved.
[0127]
Further, at the time of creating a recorded image, for example, for the focus detection area 200A, the pixel signals 201a and 201b (color G) are added and adopted as pixel data of that portion. Further, it is conceivable to perform interpolation processing or the like in consideration of the pixel signals 101A to 101D of the surrounding color G. The same processing may be applied to the color B pixel.
[0128]
As described above, in the present invention, the pupil-divided microlens group and the pair of light-receiving element groups that receive the pupil-divided light east are formed in a plurality of regions on the same chip as the image sensor, and the output of the light-receiving element group Since focus detection is performed based on this, it is possible to provide an imaging apparatus that has a focus detection area that is low-cost and space-saving, has a wide-field focus detection region, and has a high-speed and high-precision focus adjustment function.
[0129]
The embodiment of the present invention has been described above, but the present invention is not limited to this, and it is needless to say that various improvements and changes can be made without departing from the spirit of the present invention. For example, in the above-described embodiment, the image sensor is described as a MOS sensor, but a CCD or other type of solid-state image sensor may be used.
[0130]
In addition, the following invention is contained in the said embodiment of this invention.
[0131]
(1) In an imaging apparatus having an imaging element that performs photoelectric conversion of an optical image that passes through a photographic lens and forms an image on a light receiving surface;
First and second microlens arrays that are two-dimensionally arranged with the light receiving surface as a focal position,
A first light receiving element group having a single light receiving element as a constituent unit, which is arranged near the focal position of the first microlens array and outputs a first video signal,
A second light-receiving element group having a pair of light-receiving elements as structural units, which are arranged near the focal position of the second microlens array and each output a second video signal;
Comprising
An imaging apparatus, comprising: a plurality of focus detection block arrays in which the second microlens array and the second light receiving element group are regularly arranged.
[0132]
(2) In the above (1), the plurality of focus detection block rows are arranged so that the arrangement directions of the second light receiving element groups are different from each other.
[0133]
(3) In the above (1), the first light receiving element group and the second light receiving element group have different arrangement pitches on the imaging element.
[0134]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to reduce the cost, save space, have a wider focus detection area, improve the AF speed, and accurately without adding a new mechanism or optical system. An imaging apparatus having a focus adjustment function capable of performing focus adjustment can be provided.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of an optical system of an imaging apparatus according to a first embodiment of the present invention.
FIG. 2 is a configuration diagram of an electrical system of the imaging apparatus according to the first embodiment.
FIG. 3 is a diagram showing a detailed configuration of an image sensor 6;
FIG. 4 is a diagram showing a detailed configuration of an image sensor 6;
FIG. 5 is a diagram showing a general cross-sectional configuration of an image sensor on which an on-chip microlens is formed.
6 is a diagram showing a state in which a light beam passing through the photographing optical system 11 is divided into pupils, and each divided light beam is incident on a pair of light receiving elements A and B, respectively. FIG.
7 is a diagram illustrating examples of focusing, a front pin, and a rear pin in the focus detection unit 200. FIG.
8A shows the configuration of the pixel unit 110 located in the imaging unit 100 among the pixel units arranged two-dimensionally in the horizontal and vertical directions shown in FIG. FIG. 2B is a diagram illustrating a detailed configuration of the pixel unit 210. FIG.
FIG. 9 is a diagram illustrating a Bayer array.
10 is a diagram showing a detailed configuration of a video signal processing unit 42. FIG.
FIG. 11 is a flowchart for explaining in detail the operation of the microcomputer 31 of the imaging apparatus according to the first embodiment;
FIG. 12 is a time chart for explaining in detail the operation of the microcomputer 31 of the imaging apparatus according to the first embodiment;
FIG. 13 is a diagram illustrating a state of arrangement of focus detection areas of an image sensor in an imaging apparatus according to a second embodiment.
FIG. 14 is a diagram illustrating an arrangement of photodiodes in an imaging element of an imaging apparatus according to a second embodiment.
FIG. 15 is a diagram illustrating an arrangement of imaging elements of an imaging apparatus according to a third embodiment.
FIG. 16 is a diagram illustrating an arrangement of image pickup elements of an image pickup apparatus according to a fourth embodiment.
FIG. 17 is a diagram showing a cross-shaped focus detection area 501A and a peripheral pixel configuration.
18A is a diagram illustrating a configuration of a focus detection area 200A in an image sensor of an imaging apparatus according to a fifth embodiment, and FIG. 18B is a diagram illustrating a configuration of a pixel unit 210 in the focus detection area 200A. FIG.
FIG. 19 is a diagram showing the arrangement of photodiodes in a focus detection unit 510A when the fifth embodiment is applied to the fourth embodiment (FIG. 17).
FIG. 20 is a diagram illustrating an arrangement of focus detection units of an image sensor in an imaging apparatus according to a sixth embodiment.
FIG. 21 is a diagram illustrating an arrangement of focus detection units of an image sensor in an imaging apparatus according to a seventh embodiment.
[Explanation of symbols]
1 Shooting optics
1a Focusing lens
2 Aperture
3 Beam splitter
4 Infrared cut filter
5 LPF
6 Image sensor
7 Mirror
8 Penta prism
9 Eyepiece
10 Finder optical system

Claims (3)

撮影レンズを通過した被写体像光を受光する撮像素子を有する撮像装置において、
上記撮像素子は、
上記撮影レンズを通過する被写体像光を受光するとともにその前面に所定の規則に従って配列される色フィルタが配置された第1受光素子群と、該第1受光素子群に対して被写体像光を集光する第1微小レンズ群と、を備え、撮像を行うために上記第1受光素子群の出力を発生する撮像用領域部と、
上記撮影レンズを通過する被写体像光の光束を瞳分割する第2微小レンズ群と、上記第2微小レンズ群により瞳分割された光束をそれぞれ受光するとともに、その前面に所定の規則に従って配列される色フィルタが配置された一対の第2受光素子群と、を備え、焦点検出を行うために上記一対の受光素子群の出力を発生する焦点検出用領域部と、
を有し、
上記焦点検出用領域部の出力に基づいて焦点検出を行う焦点検出部と、
上記撮像用領域部の出力に基づいて、撮影画像を作成する画像作成部と、
を具備し、
上記焦点検出部は、上記焦点検出用領域部の同色の色フィルタが配置された前記一対の受光素子群の出力に基づいて焦点検出を行う
ことを特徴とする撮像装置。
In an imaging apparatus having an imaging element that receives subject image light that has passed through a photographing lens,
The image sensor is
A first light receiving element group that receives subject image light passing through the photographing lens and has a color filter arranged in accordance with a predetermined rule on the front surface thereof, and collects subject image light to the first light receiving element group. A first micro lens group that emits light, and an imaging region unit that generates an output of the first light receiving element group for imaging,
The second minute lens group for pupil-dividing the luminous flux of the subject image light passing through the photographing lens and the luminous flux divided by the second minute lens group are respectively received and arranged on the front surface according to a predetermined rule. A pair of second light receiving element groups in which color filters are arranged , and a focus detection area unit that generates an output of the pair of light receiving element groups to perform focus detection;
Have
A focus detection unit that performs focus detection based on the output of the focus detection region unit;
An image creating unit that creates a captured image based on the output of the imaging region unit;
Comprising
The focus detection unit performs focus detection based on outputs of the pair of light receiving element groups in which color filters of the same color in the focus detection region unit are arranged.
An imaging apparatus characterized by that.
上記焦点検出部は、複数の異なる色フィルタごとに、同色の色フィルタが配置された前記一対の受光素子群の出力に基づいて焦点検出を行い、異なる色フィルタに対応する複数の焦点検出結果の平均値を焦点検出結果として採用する
ことを特徴とする請求項1に記載の撮像装置。
The focus detection unit performs focus detection for each of a plurality of different color filters based on outputs of the pair of light receiving element groups in which the color filters of the same color are arranged, and outputs a plurality of focus detection results corresponding to the different color filters. Use the average value as the focus detection result
The imaging apparatus according to claim 1.
上記焦点検出部は、複数の異なる色フィルタごとに、同色の色フィルタが配置された前記一対の受光素子群の出力に基づいて焦点検出を行い、異なる色フィルタに対応する複数の焦点検出結果のうちでより信頼性が高い焦点検出結果を選択する
ことを特徴とする請求項1に記載の撮像装置。
The focus detection unit performs focus detection for each of a plurality of different color filters based on outputs of the pair of light receiving element groups in which the color filters of the same color are arranged, and outputs a plurality of focus detection results corresponding to the different color filters. Choose a focus detection result that is more reliable
The imaging apparatus according to claim 1.
JP09907199A 1999-04-01 1999-04-06 Imaging device Expired - Fee Related JP4007713B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP09907199A JP4007713B2 (en) 1999-04-06 1999-04-06 Imaging device
US09/540,840 US6819360B1 (en) 1999-04-01 2000-03-31 Image pickup element and apparatus for focusing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09907199A JP4007713B2 (en) 1999-04-06 1999-04-06 Imaging device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007197970A Division JP4567712B2 (en) 2007-07-30 2007-07-30 Imaging device

Publications (2)

Publication Number Publication Date
JP2000292686A JP2000292686A (en) 2000-10-20
JP4007713B2 true JP4007713B2 (en) 2007-11-14

Family

ID=14237656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09907199A Expired - Fee Related JP4007713B2 (en) 1999-04-01 1999-04-06 Imaging device

Country Status (1)

Country Link
JP (1) JP4007713B2 (en)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4532800B2 (en) * 2001-11-08 2010-08-25 キヤノン株式会社 Imaging apparatus and system
JP4027113B2 (en) * 2002-02-19 2007-12-26 キヤノン株式会社 Imaging apparatus and system
JP2006279897A (en) * 2005-03-30 2006-10-12 Seiko Precision Inc Picture sensor, pursuit equipment and photographic subject pursuit method
JP4720508B2 (en) * 2006-01-05 2011-07-13 株式会社ニコン Imaging device and imaging apparatus
JP4935078B2 (en) * 2006-01-10 2012-05-23 株式会社ニコン Solid-state imaging device and electronic camera using the same
JP4935162B2 (en) * 2006-04-11 2012-05-23 株式会社ニコン Imaging apparatus, camera, and image processing method
JP4935161B2 (en) * 2006-04-11 2012-05-23 株式会社ニコン Imaging apparatus, camera, and image processing method
JP5045007B2 (en) * 2006-07-05 2012-10-10 株式会社ニコン Imaging device
US8049801B2 (en) 2006-09-14 2011-11-01 Nikon Corporation Image sensor and imaging apparatus
JP4867552B2 (en) 2006-09-28 2012-02-01 株式会社ニコン Imaging device
JP4321579B2 (en) 2006-11-28 2009-08-26 ソニー株式会社 Imaging device
JP4961993B2 (en) * 2006-12-18 2012-06-27 株式会社ニコン Imaging device, focus detection device, and imaging device
JP5076528B2 (en) * 2007-02-06 2012-11-21 株式会社ニコン Photoelectric conversion unit connection / separation structure, solid-state imaging device, and imaging apparatus
JP5012236B2 (en) 2007-06-12 2012-08-29 株式会社ニコン Digital camera
JP2008310072A (en) * 2007-06-15 2008-12-25 Nikon Corp Digital camera
JP5040458B2 (en) * 2007-06-16 2012-10-03 株式会社ニコン Solid-state imaging device and imaging apparatus using the same
JP5028154B2 (en) 2007-06-20 2012-09-19 キヤノン株式会社 Imaging apparatus and control method thereof
JP4979482B2 (en) * 2007-06-28 2012-07-18 オリンパス株式会社 Imaging apparatus and image signal processing program
JP4957413B2 (en) * 2007-07-04 2012-06-20 株式会社ニコン Solid-state imaging device and imaging apparatus using the same
EP2181349B1 (en) 2007-08-06 2019-05-29 Canon Kabushiki Kaisha Image sensing apparatus
CN101779154B (en) 2007-08-13 2012-03-07 松下电器产业株式会社 Imaging device and camera
JP2009047735A (en) * 2007-08-13 2009-03-05 Olympus Corp Imaging apparatus and image processing program
JP2009047734A (en) * 2007-08-13 2009-03-05 Olympus Corp Imaging apparatus and image processing program
JP2009047733A (en) * 2007-08-13 2009-03-05 Olympus Corp Imaging apparatus and image processing program
JP5264131B2 (en) * 2007-09-14 2013-08-14 キヤノン株式会社 Imaging device
JP2009109623A (en) * 2007-10-29 2009-05-21 Sony Corp Imaging apparatus
JP5157377B2 (en) * 2007-11-12 2013-03-06 株式会社ニコン Focus detection apparatus and imaging apparatus
JP5061858B2 (en) * 2007-11-12 2012-10-31 株式会社ニコン Focus detection apparatus and imaging apparatus
JP5167783B2 (en) * 2007-11-22 2013-03-21 株式会社ニコン Focus detection apparatus and imaging apparatus
JP5552214B2 (en) 2008-03-11 2014-07-16 キヤノン株式会社 Focus detection device
JP5207819B2 (en) * 2008-05-13 2013-06-12 キヤノン株式会社 Imaging device
JP2010020015A (en) 2008-07-09 2010-01-28 Canon Inc Image pick up apparatus
JP5276371B2 (en) 2008-07-09 2013-08-28 キヤノン株式会社 Imaging device
JP5241355B2 (en) 2008-07-10 2013-07-17 キヤノン株式会社 Imaging apparatus and control method thereof
JP5276374B2 (en) 2008-07-25 2013-08-28 キヤノン株式会社 Focus detection device
JP2010057067A (en) 2008-08-29 2010-03-11 Sony Corp Image pickup apparatus and image processing apparatus
JP5322561B2 (en) 2008-09-25 2013-10-23 キヤノン株式会社 Imaging apparatus and control method thereof
JP2010169709A (en) * 2009-01-20 2010-08-05 Sony Corp Imaging element and imaging apparatus
JP5400406B2 (en) 2009-02-06 2014-01-29 キヤノン株式会社 Imaging device
JP5385650B2 (en) * 2009-03-23 2014-01-08 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP5183565B2 (en) 2009-05-11 2013-04-17 キヤノン株式会社 Imaging device
JP5517514B2 (en) * 2009-07-16 2014-06-11 キヤノン株式会社 Imaging apparatus and control method thereof
JP5595014B2 (en) 2009-11-09 2014-09-24 キヤノン株式会社 Imaging device
JP5724208B2 (en) * 2010-04-23 2015-05-27 株式会社ニコン Imaging device
JP5322995B2 (en) 2010-05-10 2013-10-23 キヤノン株式会社 Imaging apparatus and control method thereof
JP5739640B2 (en) 2010-10-20 2015-06-24 キヤノン株式会社 Imaging device and imaging apparatus
JP2012113189A (en) * 2010-11-26 2012-06-14 Nikon Corp Imaging apparatus
JP5656613B2 (en) 2010-12-22 2015-01-21 キヤノン株式会社 Imaging apparatus and control method thereof
JP5954933B2 (en) 2011-03-29 2016-07-20 キヤノン株式会社 Imaging device and lens device
JP5473977B2 (en) 2011-04-14 2014-04-16 キヤノン株式会社 Imaging apparatus and camera system
JP5751946B2 (en) 2011-06-15 2015-07-22 キヤノン株式会社 Focus adjustment apparatus and control method thereof
JP2013069987A (en) 2011-09-26 2013-04-18 Sony Corp Image pickup device
JP6239820B2 (en) 2011-12-19 2017-11-29 キヤノン株式会社 Imaging apparatus and control method thereof
JP5403117B2 (en) * 2012-06-25 2014-01-29 株式会社ニコン Focus detection apparatus and imaging apparatus
JP5942697B2 (en) 2012-08-21 2016-06-29 株式会社ニコン Focus detection apparatus and imaging apparatus
JP6366251B2 (en) 2013-01-07 2018-08-01 キヤノン株式会社 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6238578B2 (en) 2013-06-05 2017-11-29 キヤノン株式会社 Imaging apparatus and control method thereof
JP6486041B2 (en) 2014-09-11 2019-03-20 キヤノン株式会社 Imaging apparatus and control method thereof
JP6465704B2 (en) 2015-03-11 2019-02-06 キヤノン株式会社 Imaging apparatus and control method thereof

Also Published As

Publication number Publication date
JP2000292686A (en) 2000-10-20

Similar Documents

Publication Publication Date Title
JP4007713B2 (en) Imaging device
JP4007716B2 (en) Imaging device
JP4077577B2 (en) Image sensor
US6819360B1 (en) Image pickup element and apparatus for focusing
US8319870B2 (en) Imaging apparatus
US8817165B2 (en) Image capturing apparatus
JP3977062B2 (en) Imaging apparatus and focus adjustment method
JP4323002B2 (en) Imaging device
JP5207797B2 (en) Imaging apparatus and control method thereof
JP5247663B2 (en) Imaging device
US20110304765A1 (en) Imaging apparatus
US8384815B2 (en) Imaging apparatus
JPWO2010095374A1 (en) Image pickup device and image pickup apparatus including the same
JP4567712B2 (en) Imaging device
JP4384288B2 (en) Focus detection device
US20100329656A1 (en) Imaging apparatus
JP4190086B2 (en) Electronic imaging device
JP2012237769A (en) Imaging device
JPH11258492A (en) Focus detecting device and its method and storage medium readable through computer
JP2009053540A (en) Imaging device
JP2002303785A (en) Focus detecting device and image pickup device
US8068728B2 (en) Imaging apparatus
JP2010039106A (en) Imaging element, focus detection device and imaging apparatus
JP2007187806A (en) Imaging apparatus
JP2009038589A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070828

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100907

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100907

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110907

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120907

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130907

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees