JP2004193284A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2004193284A
JP2004193284A JP2002358597A JP2002358597A JP2004193284A JP 2004193284 A JP2004193284 A JP 2004193284A JP 2002358597 A JP2002358597 A JP 2002358597A JP 2002358597 A JP2002358597 A JP 2002358597A JP 2004193284 A JP2004193284 A JP 2004193284A
Authority
JP
Japan
Prior art keywords
light
pixel
refractive index
dichroic film
reflected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002358597A
Other languages
Japanese (ja)
Other versions
JP2004193284A5 (en
Inventor
Hideki Dobashi
英記 土橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002358597A priority Critical patent/JP2004193284A/en
Publication of JP2004193284A publication Critical patent/JP2004193284A/en
Publication of JP2004193284A5 publication Critical patent/JP2004193284A5/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device having an imaging element which can improve the efficiency of incident light without complicating and shrinking the structure. <P>SOLUTION: Out of light beams 110 condensed by a micro lens 2, those having a prescribed wavelength are selectively passed through a dichroic film 4g and those having the other wavelengths are reflected by the dichroic film 4g. The light beams reflected by the dichroic film 4g are reflected by an interface between a layer 5 having a first refractive index and a layer 6 having a second refractive index, to be introduced into dichroic films 4r composed of contiguous pixels. Meanwhile, the light beams passed through the dichroic film 4g are converted into electric signals by means of a photoelectric transfer section 3. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、被写体像を撮像する撮像装置に関し、特に、入射光の利用効率を向上し得るものに用いて好適である。
【0002】
【従来の技術】
従来における一般的なカラー画像を形成する撮像素子の内部構造を図29に示す。図29は、撮像素子を構成する画素の中央断面図である。2は外部からの光線を集光し、光線の取り込み効率を向上させる役目を果たすマイクロレンズ、41はマイクロレンズ2で集光した光線を波長分離するカラーフィルタ、3はカラーフィルタ41を透過した光線を電気信号に変換する光電変換部である。ここでカラーフィルタ41は、R(赤色)G(緑色)B(青色)のいずれかの原色フィルタで構成されている。図の41Rは赤色カラーフィルタ、41Gは緑色カラーフィルタを示している。また、このカラーフィルタ41としては、C(シアン)M(マゼンダ)Y(イエロー)の3色を用いた補色フィルタというものもある。
【0003】
また、図30に示す撮像素子61には、図29で示した画素がモザイク状に配設されており、各画素からの出力信号を処理して、画素数に相当する輝度情報と色情報とを生成する撮像技術が広く用いられている。ここで、撮像素子61におけるカラーフィルタ配列は、図示するようなベイヤー配列と呼ばれる構成を採るものが多い。図30に示す61mngは第1の緑色の画素、61mnbは青色の画素、61mnrは赤色の画素、61mng2は第2の緑色の画素をそれぞれ示している。また、mは横方向の画素の配列番号を示し、nは縦方向の画素の配列番号を示している。これらの画素を図示するように規則正しく配置することにより、1つの撮像素子61を構成する。
【0004】
図30に示した画素配列では、緑色の画素は青色及び赤色の画素に比べて2倍の画素数を持つことになる。基本的には3色が同数ずつあればカラーの画像を生成することが可能であるが、比較的視感度の高い緑色の画素を増やすことで画質を向上させることができる。
【0005】
また、別のカラー画像を得る方法としては、図31に示すような色分解用のビームスプリッターを用いたものが提案されている。これは3個のプリズム302,303,304と、ダイクロイック膜305a,305bを用いて物体像を予め3色に分離し、各色に対応した単色用撮像素子301a,301b,301cを使用して像を捉えようとするものであり、3板式と呼ばれている。ダイクロイック膜305aは、緑色光を反射して、それ以外の光を透過する特性を持っており、緑色用撮像素子301aに対して緑色の物体像を分離する。また、ダイクロイック膜305bは、青色光を反射して、それ以外の光を透過するという特性を持っており、ダイクロイック膜305aを透過した光線(青色光+赤色光)のうち青色光を青色用撮像素子301cに分離し、透過した赤色光を赤色用撮像素子301bへと導く。
【0006】
【特許文献1】
特開平08−182006号公報
【特許文献2】
特開2000−066141号公報
【特許文献3】
特開2001−078213号公報
【特許文献4】
特公平01−014749号公報
【0007】
【発明が解決しようとする課題】
しかしながら、上述した従来例には以下のような問題点が存在する。
光線の利用効率に関して考えると、例えば、色再現性が良いとされる原色フィルタ付きの画素をモザイク状に配置したCCD撮像素子では、R(赤色)G(緑色)B(青色)の光学フィルタ41がマイクロレンズ2と光電変換部3との間に1つずつ配置される構造となるが、赤色の光学フィルタを配した画素では赤色光のみが光電変換されて、青色光や緑色光は当該光学フィルタで吸収されて熱となってしまう。同様に、緑色の光学フィルタを配した画素では青色光と赤色光が光電変換されずに当該光学フィルタで吸収されて熱となってしまい、また、青色の光学フィルタを配した画素では同様に緑色光と赤色光が光電変換されずに当該光学フィルタで吸収されて熱となってしまう。
【0008】
すなわち、従来のカラー撮像素子の各画素では、入射した光束のうち所定の光学フィルタを透過した光のみが光電変換されて電気信号として出力されるため、その光学フィルタを透過できなかった光は熱などとして捨てられてしまい、入射した光線を有効に利用することができないという問題点がある。
【0009】
図32は、撮像素子61におけるRGBカラーフィルタ41の分光透過率を示す特性図である。ここで、赤外線の透過率が高いのため、実際には撮像素子61と撮影レンズとの間にさらに650nm以上の波長を遮断する赤外線カットフィルタを重ねて用いる。この特性図から分かるように、撮像素子61の1画素においては可視光のうち、およそ1/3だけしか有効に利用されていない。
【0010】
さらに詳しくRGBの色別に利用効率を考えると、例えば、図30に示すベイヤー配列におけるカラー撮像素子のRGB画素面積比率は、規則的配列を構成する1単位の面積を1としたとき、1/4:2/4:1/4であるので、全体の光量を1としたときの緑色光の利用割合は、波長選択性の項と面積比率の項の積として1/3×2/4=1/6となり、また、赤色光と青色光は1/3×1/4=1/12となる。これらを合計すれば1/6+1/12+1/12=1/3となって、やはり利用効率は1/3ということになる。逆に、全体の光量を1としたときに、緑色光では2/3×2/4=1/3、赤色光や青色光では2/3×1/4=1/6が有効に利用されないことになる。
【0011】
以上は、原色系のカラーフィルタを用いた撮像素子について説明を行ったが、補色フィルタを用いた撮像素子では、可視光のうちのおよそ1/3が光電変換されず、有効に利用されないことになる。このように、原色系・補色系のいずれにしても従来型の単板式撮像素子では、撮像面をカラーフィルタで分割構成していることに起因して入射光の利用効率を向上させることができない。
【0012】
これに対して、特開平08−182006号公報では、このような光量の無駄を省いた撮像素子の構造を開示している。具体的には、空間画素ごとにプリズムを配置して、そのプリズムによって色分解した物体光を3つのRGB色画素で受光するものである。しかしながら、空間画素に対して色画素は1/3程度の大きさしかなく、画素ピッチの小さな撮像素子を作製することは、色画素を極めて微細に作製する必要があるために限界がある。
【0013】
一般に、良好な画像特性を得るための撮像方法としては、物体像を光学装置によって形成する第1のプロセスと、物体像の空間周波数特性の高周波成分を抑制するように調節する第2のプロセスと、空間周波数特性が調節された物体像を光電変換する第3のプロセスと、得られた電気信号に対して空間周波数に応じてレスポンスを補正する第4のプロセスとを経る。このとき有限の画素数の撮像素子で光学像のサンプリングを行うわけであるから、良質な画像出力を得るためには、標本化定理に従って光学像の空間周波数特性に撮像素子固有のナイキスト周波数以上の成分を少なくする必要がある。ここで、ナイキスト周波数とは、画素ピッチで決まるサンプリング周波数の1/2の周波数である。したがって、最適化された一連のプロセスは、サンプリングされる光学像を撮像素子固有のナイキスト周波数に応じた特性の光学像に調節することで、折り返し歪みが目立たない、すなわちモワレの目立たない良質な画像を得るものである。
【0014】
画像の空間周波数伝達特性であるMTF(Modulation Transfer Function)は、デジタルスティルカメラやビデオカメラなどの鮮鋭度に関する特性をよく表現できる評価量である。このMTFに影響を与える具体的要素は、光学装置である結像光学系、物体像の帯域制限のための光学ローパスフィルタ、撮像素子の光電変換領域の開口形状、デジタルアパーチャ補正等であり、最終の画像特性を表す全体のMTFは各要素のMTFの積として与えられる。すなわち、上記の第1のプロセスから第4のプロセスまでのMTFをそれぞれ求め、その積を計算すればよい。ただし、第4のプロセスであるデジタルフィルタ処理は、撮像素子によって既にサンプリングされた画像出力に対して行われるので、ナイキスト周波数を超える高周波について考慮する必要はない。
【0015】
したがって、光学像の空間周波数特性に撮像素子固有のナイキスト周波数以上の成分を少なくする構成とは、第4のプロセスを除き、第1のプロセスにおけるMTF、第2のプロセスにおけるMTFおよび第3のプロセスにおけるMTFの積においてナイキスト周波数以上の成分が小さいということである。ここで、デジタルスティルカメラのように静止画の鑑賞を前提とする場合、ナイキスト周波数を超える高周波がゼロではなく、多少残っていても、ナイキスト周波数をやや下回る周波数におけるレスポンスが高い方が、解像感のある画像となりやすいことを考慮する必要がある。
【0016】
第1のプロセスである結像光学系による物体像の形成において、一般に画面の中央は周辺に比べて光学収差を補正しやすい。画面の周辺で良好な画像を得ようとすると、画面の中央では結像レンズのFナンバーで決定される回折限界MTFに近い極めて良好な特性を得る必要がある。近年、撮像素子の小ピクセル化が進んでおり、この必要性はますます高まっている。したがって、結像光学系については無収差の理想レンズと仮定してMTFを考えると良い。
【0017】
また、幅dの受光開口が隙間なく敷きつめられた撮像素子においては、受光開口の幅が画素ピッチと一致するので、ナイキスト周波数u=d/2における第3のプロセスのレスポンス値はかなり高い。この理由から、ナイキスト周波数付近の総合MTFを下げるために第2のプロセスにおいてナイキスト周波数付近をトラップするのが一般的である。
【0018】
第2のプロセスにおいては、通常、光学ローパスフィルタが用いられる。光学ローパスフィルタには水晶等の複屈折特性を有する物質を利用する。また、特開2000−066141号公報にあるような位相型の回折格子を利用しても良い。
【0019】
光学装置の光路中に複屈折板を介在させ、その光学軸を結像面の水平方向と並行するように傾けて配置すると、常光線による物体像と異常光線による物体像は所定量だけ水平方向にずれて形成される。複屈折板によって特定の空間周波数をトラップするということは、その空間周波数の縞の明部と暗部とが重なるようにずらすということである。光学ローパスフィルタによるMTFは、以下の式(1)で表される。ここで、R(u)はレスポンス、uは光学像の空間周波数、ωは物体像分離幅である。
【0020】
【数1】

Figure 2004193284
【0021】
複屈折版の厚さを適当に選択すれば、撮像素子のナイキスト周波数においてレスポンスをゼロとすることが可能である。回折格子を利用する場合には、回折によって光学像を所定の位置関係の複数の像に分離し重畳させることで、同様の効果を得ることができる。
【0022】
しかしながら、複屈折板を作製するには水晶やニオブ酸リチウムなどの結晶を成長させてから薄く研磨する必要があるため、構造が複雑化してしまい極めて高価になるという問題点がある。また、回折格子にしても高度に精密な微細構造が必要となるため、やはり高価になってしまう。
【0023】
これに対し、特開2001−078213号公報には、複眼レンズを用いることで、単板式の撮像系でありながら、画素ピッチよりも実効的な受光開口を大きくしてナイキスト周波数以上の画素のMTFを抑制する技術が開示されている。しかしながら、複眼であることに起因する物体距離依存の像位置のシフトがあって、基準の物体距離以外では物体像のサンプリングピッチが不等間隔になってしまうという、いわゆるレジストレーションずれが生じてしまう。したがって、どんな物体条件であっても所定の画像性能が得られるというわけではない。
【0024】
さらには、特公平01−014749号公報に開示されているように、画素の光電変換領域を隣接する画素との関係として入り組んだ形状とすることで、高い空間周波数に対するレスポンスを抑制する試みもなされている。しかし、画素の形状が複雑になるという問題や、極めて微細な構造が必要であるという問題、各画素が平面を分割していることから、画素に投影される物体像がその分割線に沿った、例えば、斜めの線を持っていた場合には、入射した光線の利用効率向上の効果が出にくいといった問題点がある。
【0025】
本発明は前述の問題点にかんがみてなされたもので、構造を複雑化・微細化することなく、入射光の利用効率を向上させた撮像素子を備えた撮像装置を実現することを目的とする。
【0026】
【課題を解決するための手段】
本発明の撮像装置は、画素がマトリクス状に配設された撮像素子を備える撮像装置であって、前記画素は、外部から入射した光線を集光する集光手段と、前記集光手段で集光された光線のうち、所定の波長の光線を選択的に透過するとともに他の波長の光線を反射する波長選択手段と、前記波長選択手段で反射させた光線を隣接する画素に対応する前期波長選択手段に導入する反射光線導入手段と、前記波長選択手段で透過させた光線を電気信号に変換する光電変換手段とを有することを特徴とするものである。
【0027】
【発明の実施の形態】
次に、添付図面を参照しながら本発明の撮像装置の実施形態について説明する。
【0028】
(第1の実施形態)
本発明の第1の実施形態における撮像装置を図1〜図22を用いて説明する。図1は、第1の実施形態の撮像装置における撮像素子の概略断面図である。1はシリコン基板、2は外部からの光線を集光するマイクロレンズ、3は受光した光子を電荷へ変換する光電変換部、4(4r,4g)は光線を波長分離する波長選択部であるダイクロイック膜、5はマイクロレンズ2と接する第1の屈折率層、6は第1の屈折率層5よりも高屈折率を有する第2の屈折率層、7はダイクロイック膜4(4r,4g)と光電変換部3との間に、それぞれに接して設けられた高屈折率部、8は高屈折率部7の周囲に設けられた低屈折率部、10は光電変換部3の電荷を制御するゲートの役割を果たすPoly配線層、11〜13はアルミニウムなどの金属でできた配線層であり、11は各部間の結線および出力線の役割を果たすAL1配線層、12はウェル電源線および制御線の役割を果たすAL2配線層、13は遮光および電源線の役割を果たすAL3配線層である。
【0029】
また、図2は、撮像素子を斜め上面から見た斜視図である。図2には、多数個存在する撮像素子のうち9個のみを取り出して図式化したものを示している。さらに、図3は、図2の中央部でマイクロレンズ2およびダイクロイック膜4からAL3配線層13までの構造を切断した断面図である。
【0030】
図1において、マイクロレンズ2は、上に凸の球面形状であり正のレンズパワーを有する。従って、マイクロレンズ2は、当該マイクロレンズ2上に到達した光線を光電変換部3に対して集光する働きをする。これにより、より多くの光線を光電変換部3に取り込むことができるため、撮像素子の感度を向上させることが可能となる。
【0031】
第1の屈折率層5は低屈折率の材料で形成されており、例えば屈折率1.38のフッ化マグネシウム(MgF)などを用いることができる。また、第1の屈折率層5とダイクロイック膜4に挟まれた第2の屈折率層6は高屈折率の材料で形成されており、例えば屈折率2.5の二酸化チタン(TiO)などを用いることができる。このようのに構成することにより、第1の屈折率層5と第2の屈折率層6との界面で第2の屈折率層6から第1の屈折率層5へと進む光線を全反射しやすくすることができるようになる。
【0032】
また、高屈折率部7は二酸化チタンのような高屈折率の材料で形成され、低屈折率部8は屈折率1.46の二酸化ケイ素(SiO)やフッ化マグネシウムといった低屈折率の材料を用いて成形する。このように構成することにより、高屈折率部7に入射した光線を低屈折率部8との界面で全反射しやすくすることができ、ダイクロイック膜4から光電変換部3に至るまでの導光路の役割を果たすことができる。
【0033】
一般的にダイクロイック膜4とは、注目する波長λの1/4の整数倍の膜厚からなり、高屈折率の物質と低屈折率の物質を交互に積層することによって形成されたものである。このような構成されたダイクロイック膜4により、透過光線の波長を選択することができるようになる。ここで、撮像素子のダイクロイック膜4の構成例を図4に示す。本実施形態におけるダイクロイック膜4は、高屈折率の材料として二酸化チタン、低屈折率の材料として二酸化ケイ素を用いて図4に示すような膜厚及び層数で構成した。
【0034】
また、ダイクロイック膜4の透過特性を図5に示す。図5の特性図を見て分かるように、ダイクロイック膜4は、図32に示す従来の色素を用いたカラーフィルタの特性図に近い特性を有する。従って、本構成のダイクロイック膜4を用いたものであっても従来の撮像素子に近い特性とすることができる。これらの積層膜はPVD(Physical Vapor Deposition)を用いることによって容易に作製することができる。
【0035】
続いて、マイクロレンズ2で集光された光線の挙動について図6,図7を用いて説明する。図6には、緑色光を受光する画素100gに入射してダイクロイック膜4gによって反射された光線、すなわち青色光と赤色光を含む光線のみの挙動を示している。
【0036】
画素の大きさに対して十分に遠い位置にある結像レンズの瞳からの光線は、赤外線カットフィルタを通過して物体光110のような光束となる。この物体光110は、マイクロレンズ2へ入射して集光作用を受ける。そして、第1の屈折率層5,第2の屈折率層6と順に入射してダイクロイック膜4gへと到達する。ここで、ダイクロイック膜4gの特性により、緑色以外の光線は反射作用を受け、第1の屈折率層5の方向へ進行することになるが、ダイクロイック膜4gは四角錐の形状をして形成されているために、反射した光線はその中心から外側に方向を変えて進行する。
【0037】
前述の通り、第2の屈折率層6は第1の屈折率層5よりも高屈折率であるため、臨界角以上の光線はその界面で全反射作用を受けることになる。界面で全反射した光線は、隣接画素である赤色光を受光する画素100rおよび101rのダイクロイック膜4rの方向に向かって進行する。ここで、第1の屈折率層5と第2の屈折率層6との界面も四角錐の形状をしている。この界面による反射光線は、光軸に対して平行に近い角度で進行するようになる。
【0038】
画素100r,101rのダイクロイック膜4rは、赤色光を透過して緑色光と青色光を反射する特性を有する。従って、画素100gから反射してきた光線のうち赤色光のみが透過し、青色光はダイクロイック膜4rによってさらに反射作用を受ける。図6には、反射作用を受ける青色光は図示していない。また、赤色光の反射光線を透過するダイクロイック膜4rは膜厚分だけ透過できる面積が小さくなっているが、マイクロレンズ2の集光作用によりダイクロイック膜4gに入射する光線の面積(反射光の面積)はマイクロレンズ2の開口面積に比べて小さくなっている。従って、この反射光線はダイクロイック膜4rでのケラレを小さくすることができる。
【0039】
ダイクロイック膜4rを透過した光線は、高屈折率部7から低屈折率部8へ進行しようとするが、これも前述の通り、高屈折率部7は低屈折率部8よりも高屈折率であるため、臨界角以上の光線はその界面で全反射をする。高屈折率部7と低屈折率部8の界面は、入射部が広がったテーパ形状をしているために入射光線を取り込む間口が広くなって高屈折率部7に多くの光線を取り込むことができるようになっている。
【0040】
仮に、高屈折率部7の入射部がテーパ形状をしていないとすると、反射光線のうち図の下側に位置する光線が低屈折率部8から高屈折率部7へと進行する。そうすると、高屈折率部7は低屈折率部8よりも高屈折率であるために、光線が上方向に曲げられることになる。従って、このようなルートを辿る光線は光電変換部3には導かれず損失となってしまうため、高屈折率部7の入射部をテーパ形状として、低屈折率部8から高屈折率部7へ進行する光線をなくして隣接画素からの反射光を十分取り込めるようにしたのである。
【0041】
また、前述の通り第1の屈折率層5と第2の屈折率層6との界面が四角錐の形状をしていて、その界面における反射光線が光軸に対して平行に近い角度で進行するようになっているため、テーパ面71で全反射できずに透過してしまう光線を少なくすることができる。そして、光電変換部3近傍における高屈折率部7と低屈折率部8との界面が光軸方向に略平行となるように形成されているため、一度目の全反射によって光電変換部3に入射できなかった光線を再び反対側の界面で全反射して最終的にはすべて光電変換部3へと入射させることができる。
【0042】
画素100gにおいて紙面に垂直な方向には青色光を受光する画素が存在している。この青色光の場合も赤色の場合と同様に、画素100gで反射された光線のうち青色光のみを取り込む挙動を示す。
【0043】
続いて、図7は、ダイクロイック膜4において透過作用を受ける光線、すなわち緑色光の光線の挙動を示している。
本図上方からの光線は、マイクロレンズ2へ入射して集光作用を受ける。そして、第1の屈折率層5,第2の屈折率層6と順に入射してダイクロイック膜4gへと到達する。ここで、ダイクロイック膜4gでは、所定の波長の光線のみを選択的に透過し、ダイクロイック膜4gを透過した光線は、高屈折率部7へ進行して、さらに高屈折率部7と低屈折率部8との界面で全反射を繰り返す作用を受けることによって、光電変換部3へと導かれる。
【0044】
また、高屈折率部7と低屈折率部8との界面は、入射部が広がったテーパ形状をしている。このテーパ形状の角度がきつすぎるとテーパ面71で全反射しない場合があり、仮に全反射したとしても今度は反対側の面で全反射せずに透過してしまう。本実施形態の場合では、画素の中心軸より25°程度までの角度であればテーパ面71でも全反射して光電変換部3へ導くことができる。以上のことからテーパ面71を適当な角度に設定することによって広範囲な光線を取り込むことが可能となる。
【0045】
続いて、ダイクロイック膜4の透過・反射を用いて入射した光線を取り込む際の効率について考えていく。例えば、色再現性が良いとされる原色フィルタ付きの画素をモザイク状に配置したCCD撮像素子では、R(赤色)G(緑色)B(青色)の光学フィルタがマイクロレンズ2と光電変換領域3の間に一つずつ配置される。
【0046】
このとき、赤色の光学フィルタを配した画素では赤色光のみが光電変換され、青色光や緑色光は当該光学フィルタで吸収されて熱となる。同様に、緑色の光学フィルタを配した画素では青色光と赤色光が光電変換されずに当該光学フィルタで吸収されて熱となり、また、青色の光学フィルタを配した画素では同様に緑色光と赤色光が光電変換されずに当該光学フィルタで吸収されて熱となる。
【0047】
すなわち、従来のカラー撮像素子の各画素では、入射した光束のうち所定の光学フィルタを透過した光のみが光電変換されて電気信号として出力されるため、その光学フィルタを透過できなかった光は熱などとして捨てられてしまう。
【0048】
前述したように、図32は、撮像素子におけるRGBのカラーフィルタの分光透過率を示す特性図である。ここで、赤外線の透過率が高いため、実際には撮像素子と撮影レンズとの間にさらに650nm以上の波長を遮断する赤外線カットフィルタを重ねて用いる。この特性図から分かるように、撮像素子の1画素においては可視光のうち、およそ1/3だけしか有効に利用されていない。
【0049】
さらに詳しくRGBの色別に利用効率を考えると、例えば、図30に示すベイヤー配列におけるカラー撮像素子のRGB画素面積比率は、規則的配列を構成する1単位の面積を1としたとき、1/4:2/4:1/4であるので、全体の光量を1としたときの緑色光の利用割合は、波長選択性の項と面積比率の項の積として1/3×2/4=1/6となり、また、赤色光と青色光は1/3×1/4=1/12となる。これらを合計すれば1/6+1/12+1/12=1/3となって、やはり利用効率は1/3ということになる。逆に、全体の光量を1としたときに、緑色光では2/3×2/4=1/3、赤色光や青色光では2/3×1/4=1/6が有効に利用されないことになる。
【0050】
以上は、原色系のカラーフィルタを用いた撮像素子について説明を行ったが、補色フィルタを用いた撮像素子では、可視光のうちのおよそ1/3が光電変換されず、有効に利用されないことになる。このように、原色系・補色系のいずれにしても従来型の単板式撮像素子では、撮像面をカラーフィルタで分割構成していることに起因して光利用効率を向上させることができない。
【0051】
図8は、ダイクロイック膜4の各色の透過特性を単純化したものである。また、本図で示した透過特性図の裏返しが反射特性ということになる。また、計算の簡略化のために透過しない光線はすべて反射するものとし、反射した光線はすべて隣接画素に平等に到達するものとして考える。さらに、画素配列は、図9に示すようなベイヤー配列をしているものとする。
【0052】
図8において、緑色の画素内のダイクロイック膜で反射した光線が青色の画素内のダイクロイック膜を透過して青色の光電変換部に取り込まれる場合を考えると、前述の通り、緑色の透過特性の裏返しが反射特性になるため、この曲線と青色の透過特性との積が求めるものとなる。この特性を表したものを図10に示す。残りの色に関しても同様に考えると、緑色の画素内のダイクロイック膜で反射した光線が赤色の画素内のダイクロイック膜を透過して赤色の光電変換部に取り込まれる場合の特性図を図11に示し、また、赤色の画素内のダイクロイック膜で反射した光線が緑色の画素内のダイクロイック膜を透過して緑色の光電変換部に取り込まれる場合の特性図を図12に示し、さらに、青色の画素内のダイクロイック膜で反射した光線が緑色の画素内のダイクロイック膜を透過して緑色の光電変換部に取り込まれる場合の特性図を図13に示す。
【0053】
緑色の画素内に隣接画素から反射してくる光線について考えると、画素配列はベイヤー配列であることから隣接画素は赤と青が2個ずつである。このことから緑色の画素が隣接画素から受け取る光線は{(青色の反射)×1/4×2+(赤色の反射)×1/4×2}となる。もともと緑色の画素が受け取る光線量は、透過率曲線の積分量であるため、この積分量を1とすると、図12の大きさ(赤色画素から反射するもの)は0.74、図13の大きさ(青色画素から反射するもの)は0.85となる。従って、反射光の合計は0.80となるため、透過する光線だけを取り込む場合に対して1.80倍となることが分かる。
【0054】
続いて、青色の画素内に隣接画素から反射してくる光線について考えると、隣接画素は緑色の画素が4個である。青色の画素における透過率曲線の積分量を1とすると、図10の積分量は0.84となる。また、隣接画素より受け取る光線は{(緑色の反射)×1/4×4}であるから合計は0.84となり、もともとの透過量に対して1.84倍となることが分かる。
【0055】
最後に、赤色の画素内に隣接画素から反射してくる光線について考えると、隣接画素は青色の画素と同じく緑色が4個である。赤色の画素における透過率曲線の積分量を1とすると、図11の積分量は0.67となる。また、隣接画素より受け取る光線は{(緑色の反射)×1/4×4}であるから合計は0.67となり、もともとの透過量に対して1.67倍となることが分かる。
【0056】
以上のようにベイヤー配列のような隣接する画素が同色でない場合であれば、どの画素についても本実施形態を用いて不要な波長成分を隣接する画素に分割・反射させることで、隣接する画素で有効な波長成分として光電変換することができ、光の利用効率を大幅に向上させることが可能である。
【0057】
次に、本実施形態による作用の1つとしてのローパスフィルタ効果について説明する。
一般に、良好な画像特性を得るための撮像方法としては、物体像を光学装置によって形成する第1のプロセスと、物体像の空間周波数特性の高周波成分を抑制するように調節する第2のプロセスと、空間周波数特性が調節された物体像を光電変換する第3のプロセスと、得られた電気信号に対して空間周波数に応じてレスポンスを補正する第4のプロセスとを経る。このとき有限の画素数の撮像素子で光学像のサンプリングを行うわけであるから、良質な画像出力を得るためには、標本化定理に従って光学像の空間周波数特性に撮像素子固有のナイキスト周波数以上の成分を少なくする必要がある。ここで、ナイキスト周波数とは、画素ピッチで決まるサンプリング周波数の1/2の周波数である。したがって、最適化された一連のプロセスは、サンプリングされる光学像を撮像素子固有のナイキスト周波数に応じた特性の光学像に調節することで、折り返し歪みが目立たない、すなわちモワレの目立たない良質な画像を得るものである。
【0058】
画像の空間周波数伝達特性であるMTF(Modulation Transfer Function)は、デジタルスティルカメラやビデオカメラなどの鮮鋭度に関する特性をよく表現できる評価量である。このMTFに影響を与える具体的要素は、光学装置である結像光学系、物体像の帯域制限のための光学ローパスフィルタ、撮像素子の光電変換領域の開口形状、デジタルアパーチャ補正等であり、最終の画像特性を表す全体のMTFは各要素のMTFの積として与えられる。すなわち、上記の第1のプロセスから第4のプロセスまでのMTFをそれぞれ求め、その積を計算すればよい。ただし、第4のプロセスであるデジタルフィルタ処理は、撮像素子によって既にサンプリングされた画像出力に対して行われるので、ナイキスト周波数を超える高周波について考慮する必要はない。
【0059】
したがって、光学像の空間周波数特性に撮像素子固有のナイキスト周波数以上の成分を少なくする構成とは、第4のプロセスを除き、第1のプロセスにおけるMTF、第2のプロセスにおけるMTFおよび第3のプロセスにおけるMTFの積においてナイキスト周波数以上の成分が小さいということである。ここで、デジタルスティルカメラのように静止画の鑑賞を前提とする場合、ナイキスト周波数を超える高周波がゼロではなく、多少残っていても、ナイキスト周波数をやや下回る周波数におけるレスポンスが高い方が、解像感のある画像となりやすいことを考慮する必要がある。
【0060】
第1のプロセスである結像光学系による物体像の形成において、一般に画面の中央は周辺に比べて光学収差を補正しやすい。画面の周辺で良好な画像を得ようとすると、画面の中央では結像レンズのFナンバーで決定される回折限界MTFに近い極めて良好な特性を得る必要がある。近年、撮像素子の小ピクセル化が進んでおり、この必要性はますます高まっている。したがって、結像光学系については無収差の理想レンズと仮定してMTFを考えると良い。
【0061】
また、幅dの受光開口が隙間なく敷きつめられた撮像素子においては、受光開口の幅が画素ピッチと一致するので、ナイキスト周波数u=d/2における第3のプロセスのレスポンス値はかなり高い。この理由から、ナイキスト周波数付近の総合MTFを下げるために第2のプロセスにおいてナイキスト周波数付近をトラップするのが一般的である。
【0062】
第2のプロセスにおいては、通常、光学ローパスフィルタが用いられる。光学ローパスフィルタには水晶等の複屈折特性を有する物質を利用する。また、位相型の回折格子を利用しても良い。
【0063】
光学装置の光路中に複屈折板を介在させ、その光学軸を結像面の水平方向と並行するように傾けて配置すると、常光線による物体像と異常光線による物体像は所定量だけ水平方向にずれて形成される。複屈折板によって特定の空間周波数をトラップするということは、その空間周波数の縞の明部と暗部とが重なるようにずらすということである。光学ローパスフィルタによるMTFは、以下の式(2)で表される。ここで、R(u)はレスポンス、uは光学像の空間周波数、ωは物体像分離幅である。
【0064】
【数2】
Figure 2004193284
【0065】
複屈折板の厚さを適当に選択すれば、撮像素子のナイキスト周波数においてレスポンスをゼロとすることが可能である。回折格子を利用する場合には、回折によって光学像を所定の位置関係の複数の像に分離し重畳させることで、同様の効果を得ることができる。
【0066】
しかしながら、複屈折板を作製するには水晶やニオブ酸リチウムなどの結晶を成長させてから薄く研磨する必要があって、極めて高価になるという問題点がある。また、回折格子にしても高度に精密な微細構造が求められるため、やはり高価であることに変わりはない。
【0067】
本発明の実施形態における撮像素子では、実質的な受光開口が各画素よりも大きくなる。RGBの色毎に図9に示したベイヤー配列における従来の撮像素子と比較すると、まず、従来の緑色光を受光する画素(G画素)の開口はマイクロレンズ2の大きさであったが、本実施形態における撮像素子では図14に示すように92a,92b,92c,92dの部分を隣接画素からの反射光線を受け取ることができることから、本来の画素開口91よりも大きくなる。これにより、隣接する画素からの緑色光の入射を含めた実質的な受光開口は図15に示すようなものとなる。青色光を受光する画素(B画素),赤色光を受光する画素(R画素)についても隣接画素からの各色光の入射により、実効的な受光開口は同様の形状となる。従って、全ての画素について考えると、実効的に互いにオーバーラップした受光開口を有することが分かる。
【0068】
このように実質的な受光開口が各画素よりも大きくなると、通常の単板式の撮像装置では考えられなかったMTF特性を得ることができる。この結果、光学ローパスフィルタを省略しても画像の品位を損なわない。すなわち、前述した物体像の空間周波数特性の高周波成分を抑制するように調節する第2のプロセスを省き、物体像を光電変換する第3のプロセスだけで、折り返し歪みが目立たない良質な画像を得ることが可能である。図16〜図22までは、これらを説明するための特性図である。
【0069】
まず、図16は、本実施形態における撮像素子の画素110gについての水平方向の空間周波数成分に対するMTFの特性図である。また、図17は、通常型の矩形開口を有する画素のMTFの特性図である。いずれも1画素の大きさを□3μmとし、マイクロレンズ2は1画素分の大きさを有していることとした。さらに、本実施形態の画素は、隣接画素の中央部にまで伸びた開口を有している。
【0070】
図9に示した矩形開口画素のレスポンスについては、以下に示す式(3)のような簡単なSINC関数で表すことができる。ここで、R(u)はレスポンス、dは撮像素子の受光開口の幅である。
【0071】
【数3】
Figure 2004193284
【0072】
式(3)の最初のゼロ点(カットオフ周波数)は、u=1/dの位置である。すなわち、受光開口の幅に一致した波長においてレスポンスがゼロになる。受光開口が隙間なく敷きつめられた撮像素子においては、受光開口の幅が画素ピッチと一致するので、ナイキスト周波数u=d/2における式(3)のレスポンス値は0.636であってかなり高い。したがって、従来の矩形開口画素には図18に示したMTF特性の光学ローパスフィルタを併せて使用する必要がある。ここでは、デジタルスティルカメラのように静止画の鑑賞を前提とする場合に、ナイキスト周波数を超える高周波がゼロではなく多少残っていても、ナイキスト周波数をやや下回る周波数におけるレスポンスが高い方が解像感のある画像となりやすいことを考慮してある。
【0073】
これに対して、本実施形態における画素100gは図15に示したような菱形状の開口に起因して、高周波側までレスポンスが伸びる。これは式(3)でMTF特性を表せる無限に細い短冊状の矩形開口が集まったと考えれば良い。短冊状の矩形開口全体を積分した結果は図16のようになって、画素ピッチを3μmとしたときのナイキスト周波数167本/mmにおいては、画素100gの方がかなり低いレスポンスを有していることが分かる。
【0074】
次に、図19はFナンバーを4.0、物体像の波長を550nmと仮定したときの無収差レンズのMTF特性である。幾何光学的に収差がない理想レンズでは、そのMTFは光の回折によって決定される。回折限界MTFは、Fナンバーによって決まり、以下の式(4)で表される。ここで、uは光学像の空間周波数、Fは光学系のFナンバー、λは光学像の波長である。
【0075】
【数4】
Figure 2004193284
【0076】
この結像レンズのカットオフ周波数は455本/mmである。
さて、これにより物体像を光学装置によって形成する第1のプロセス、(物体像の空間周波数特性の高周波成分を抑制するように調節する第2のプロセス、)空間周波数特性が調節された物体像を光電変換する第3のプロセスの総合MTFを知る上での材料が揃ったことになる。
【0077】
図20は、画素100gを用いたときの結像レンズと撮像素子の画素における総合MTFの特性図である。一方、図21は、従来の画素を用いたときの結像レンズと光学ローパスフィルタと撮像素子の画素における総合MTFの特性図である。両者はナイキスト周波数167本/mmにおいて、ほぼ同等のレスポンスを有し、全体としてよく似た特性となっている。また、従来の画素において、光学ローパスフィルタを用いないと、図22に示すようにナイキスト周波数でのレスポンスが高くなりすぎてしまう。このように、画素100gを用いれば、光学ローパスフィルタを省略できることが分かる。
【0078】
(第2の実施形態)
本発明の第2の実施形態における撮像装置を図23〜図25を用いて説明する。
図23は、第2の実施形態の撮像装置における撮像素子の概略断面図である。なお、第1の実施形態の撮像素子と同一の機能を果たすものには、同一番号を付することとする。第1の実施形態における撮像素子のダイクロイック膜4(4t,4g)が四角錐の形状で形成されているのに対して、本実施形態の撮像素子は、ダイクロイック膜4(4t,4g)が平面で形成されている点で異なる。また、本実施形態の撮像素子内の光線は、図24および図25に示すような挙動になる。
【0079】
図24は、図6の場合と同様に、緑色光を受光する画素200gに入射してダイクロイック膜4gによって反射された光線、すなわち青色光と赤色光を含む光線のみの挙動を示している。画素の大きさに対して十分に遠い位置にある結像レンズの瞳から出た光線は、赤外線カットフィルタを通過して物体光120のような光束となる。
【0080】
本図の上方からの物体光120は、マイクロレンズ2へ入射して集光作用を受ける。そして、第1の屈折率層5,第2の屈折率層6と順に入射されて、ダイクロイック膜4gへと到達する。ここで、緑色以外の光線は、ダイクロイック膜4gの特性により反射作用を受けて、ダイクロイック膜4gが第1の実施形態とは異ななる平面で形成されているため、反射光線はほぼ入射方向に向かって進行することになる。そして、第2の屈折率層6と第1の屈折率層5との界面51gにおいて、臨界角以上の光線は全反射作用を受ける。この界面は、四角錐の形状となっているため、反射光線は光軸に対してほぼ垂直な方向へと進行する。そして、隣接画素200r,201rの第2の屈折率層6と第1の屈折率層5との界面50rおよび51rでは、もう一度、全反射作用を受ける。
【0081】
このようにして、反射により下方向に向いた光線は、赤色光を受光する画素200rおよび201rに向かって進行する。さらに、ダイクロイック膜4rを透過した光線は、高屈折率部7へ進行する。続いて、高屈折率部7から低屈折率部8へ進行しようとするが、前述したように、高屈折率部7は低屈折率部8よりも高屈折率であるため、臨界角以上の光線は界面で全反射をする。
【0082】
また、高屈折率部7と低屈折率部8との界面は、高屈折率部7の入射部が広がったテーパ形状をしているために、入射光線を取り込む間口が広くなり、高屈折率部7に多くの光線を取り込むことができるようになっている。さらに、光電変換部3近傍の高屈折率部7と低屈折率部8との界面は、光軸方向に略平行な2面で形成されているために、一度目の全反射によって光電変換部3に入射できなかった光線は、再び反対側の界面で全反射して、最終的にはすべての光線が光電変換部3へと入射することになる。
【0083】
図25は、ダイクロイック膜4において透過作用を受ける光線の挙動を示している。本図上方からの光線は、マイクロレンズ2へ入射して集光作用を受ける。続いて、マイクロレンズ2で集光された光線は、第1の屈折率層5,第2の屈折率層6と順に入射してダイクロイック膜4gへと到達する。そして、ダイクロイック膜4に到達した光線は、所定の波長の光線のみ(ここでは緑色の光線)が選択的に透過されて高屈折率部7へと進行し、高屈折率部7と低屈折率部8との界面で全反射作用を繰り返すことによって、光電変換部3へと導かれる。ここで、高屈折率部7と低屈折率部8との界面は、高屈折率部7の入射部が広がったテーパ形状をしているため、透過光線においても十分な光量を光電変換部3に導くことができる。
【0084】
(第3の実施形態)
本発明の第3の実施形態における撮像装置を図26〜図28を用いて説明する。なお、第1及び第2の実施形態の撮像装置における撮像素子と同一の機能を果たすものには、同一番号を付することとする。本実施形態の撮像素子内の横方向の光線(透過光線、反射光線)は、第2の実施形態で説明した図24および図25に示すものと同様の挙動となる。
【0085】
図26は、第3の実施形態の撮像装置における撮像素子の概略構成図である。本実施形態の撮像素子は、第2の実施形態における撮像素子のダイクロイック膜4(4t,4g)での反射光線が縦方向、横方向ともに同様な挙動を示すのに対して、縦方向に隣接する画素には反射光線が入射しない構成となっている。図27に、本実施形態の撮像装置における撮像素子の画素の光線取り込み範囲を示した概略図を示す。
【0086】
図27において、緑色光を受光する画素91に着目してみると、隣接画素の921a,921bの部分からの反射光線を受け取ることにより、本実施形態における撮像素子の画素開口部は、本来の画素開口91よりも大きくなる。これにより、隣接する画素からの緑色光の入射を含めた実質的な受光開口は図28に示すようなものとなる。これから分かるように、本実施形態の撮像素子においても第2の実施形態と同様に2倍の画素開口となる。B画素、R画素についても隣接画素からの各色光の入射により、実効的な受光開口は図28と同様の形状となる。従って、全ての画素について考えると、実効的に互いにオーバーラップした受光開口を有することが分かる。
【0087】
第2の実施形態における撮像素子は、隣接する上下の画素からの光線も入射するため、縦横の2方向に対してローパス効果が期待できるが、本実施形態の撮像素子においては、横方向のみローパス効果が期待できる。従って、本実施形態では、縦方向には別途にローパスフィルタを設ける必要がある。ただし、図24に示した全反射作用を受ける界面51gの形状は、本実施形態の撮像素子では、その形状を単純にすることができるため、製造しやすく、また、製造コストを抑えることが期待できる。
【0088】
また、図24および図25から分かるように、マイクロレンズ2からの光線が最初にダイクロイック膜4gに入射する時の入射角度と、ダイクロイック膜4gで反射して隣接する画素200r,201rのダイクロイック膜4rに入射する時の入射角度とが大きく変化しない。従って、入射角によってダイクロイック膜4を透過する波長の変化の割合を小さくできるため、色変化を少なくできるという利点もある。
【0089】
次に、各画素の受光効率について説明する。
まず、G画素内に隣接画素からの反射光が入射してくる場合について考えると、画素配列がベイヤー配列であることから隣接画素は、R画素あるいはB画素が2個ずつである。このことから、隣接画素からこのG画素へ入射する光線は、B画素が隣接する場合には{(青色の反射)×1/2×2}、R画素が隣接する場合は{(赤色の反射)×1/4×2}となる。もともとG画素が受光する光線量は、透過率曲線の積分量であるためにこれを1とすると、図12の大きさ(赤色画素から反射するもの)は0.74、図13の大きさ(青色画素から反射するもの)は0.85となり、透過する光線だけを取り込む場合に対して、それぞれ1.85倍、1,74倍となることが分かる。
【0090】
続いて、B画素内に隣接画素からの反射光が入射してくる場合について考えると、隣接画素はG画素が2個である。B画素の透過率曲線の積分量を1とすると、図10の積分量は0.84となる。また、隣接画素より受け取る光線は{(緑色の反射)×1/2×2}であるから合計は0.84となり、もともとの透過量に対して1.84倍となることが分かる。
【0091】
最後に、R画素内に隣接画素からの反射光が入射してくる場合について考えると、隣接画素はB画素と同じくG画素が2個である。R画素の透過率曲線の積分量を1とすると、図11の積分量は0.67となる。隣接画素より受け取る光線は{(緑色の反射)×1/2×2}であるから合計は0.67となり、もともとの透過量に対して1.67倍となることが分かる。
【0092】
本発明の諸実施形態によれば、ダイクロイック膜4gで反射させた光線を隣接する画素のダイクロイック膜4rに導入するようにしたので、構造を複雑化・微細化することなく、入射光の利用効率を向上させた撮像素子を備えた撮像装置を実現することができる。
【0093】
また、第1の屈折率層5と第2の屈折率層6との界面を光軸から周辺部に向かって傾斜面を有する形状としたので、ダイクロイック膜4gで反射させた光線を隣接画素に入射させることができる。さらに、第1の屈折率層5を高屈折率層、第2の屈折率層6を低屈折率層で構成することにより、ダイクロイック膜4gで反射された光線を第1の屈折率層5と第2の屈折率層6との界面で全反射しやすくすることができる。
【0094】
また、ダイクロイック膜4と光電変換部3との間に、それぞれに接して設けられた高屈折率部7と、その周囲に当該高屈折率部7よりも低屈折率である低屈折率部8とを更に有するようにしたので、ダイクロイック膜4を透過して高屈折率部7に入射した光線を低屈折率部8との界面で全反射しやすくすることができ、ダイクロイック膜4から光電変換部3に至るまでの導光路の役割を果たさせることができる。
【0095】
また、第1の屈折率層5と第2の屈折率層6との界面を光電変換部3側に凸の四角錐の形状で形成するようにしたので、ダイクロイック膜4で反射させた光線を隣接画素に入射させることができる。また、第2の屈折率層6とダイクロイック膜4との界面をマイクロレンズ2側に凸の四角錐の形状で形成するようにしたので、ダイクロイック膜4で反射させる光線を特定の方向に効率良く反射させることができる。さらに、ダイクロイック膜4がマイクロレンズ2で集光された光線のうち、所定の波長の光線を選択的に透過するとともに他の波長の光線を反射するようにすることで、光線を効率良く波長分離することができる。
【0096】
本発明の実施態様の例を以下に列挙する。
【0097】
[実施態様1] 画素がマトリクス状に配設された撮像素子を備える撮像装置であって、
前記画素は、外部から入射した光線を集光する集光手段と、
前記集光手段で集光された光線のうち、所定の波長の光線を選択的に透過するとともに他の波長の光線を反射する波長選択手段と、
前記波長選択手段で反射させた光線を隣接する画素に対応する前期波長選択手段に導入する反射光線導入手段と、
前記波長選択手段で透過させた光線を電気信号に変換する光電変換手段とを有することを特徴とする撮像装置。
【0098】
[実施態様2] 前記反射光線導入手段は、前記集光手段と接する第1の屈折率層と、当該第1の屈折率層と前記波長選択手段との間に設けられ、前記第1の屈折率層よりも高屈折率を有する第2の屈折率層とを備えていることを特徴とする実施態様1に記載の撮像装置。
【0099】
[実施態様3] 前記第1の屈折率層と前記第2の屈折率層との界面が光軸から周辺部に向かって傾斜面を有することを特徴とする実施態様2に撮像装置。
【0100】
[実施態様4] 前記波長選択手段と光電変換手段との間には、それぞれに接して設けられた高屈折率部と、当該高屈折率部の周囲に設けられ、当該高屈折率部よりも低屈折率である低屈折率部とを更に有することを特徴とする実施態様1〜3のいずれか1項に記載の撮像装置。
【0101】
[実施態様5] 前記第2の屈折率層と前記波長選択手段との界面が光軸から周辺部に向かって傾斜面を有することを特徴とする実施態様2〜4のいずれか1項に記載の撮像装置。
【0102】
[実施態様6] 前記第1の屈折率層と前記第2の屈折率層との界面は、前記光電変換手段側に凸の四角錐の形状を有していることを特徴とする実施態様2〜5のいずれか1項に記載の撮像装置。
【0103】
[実施態様7] 前記第2の屈折率層と前記波長選択手段との界面は、前記集光手段側に凸の四角錐の形状を有していることを特徴とする実施態様2〜5のいずれか1項に記載の撮像装置。
【0104】
[実施態様8] 前記波長選択手段がダイクロイック膜であることを特徴とする実施態様1〜7のいずれか1項に記載の撮像装置。
【0105】
【発明の効果】
本発明によれば、波長選択手段で反射させた光線を隣接する画素の波長選択手段に導入するようにしたので、構造を複雑化・微細化することなく、入射光の利用効率を向上させた撮像素子を備えた撮像装置を実現することができる。
【図面の簡単な説明】
【図1】第1の実施形態の撮像装置における撮像素子の概略断面図である。
【図2】第1の実施形態の撮像装置における撮像素子を斜め上面から見た斜視図である。
【図3】第1の実施形態の撮像装置における撮像素子の断面斜視図である。
【図4】撮像素子のダイクロイック膜の層構成を示す図である。
【図5】ダイクロイック膜の透過特性図である。
【図6】第1の実施形態の撮像装置における撮像素子の反射光の光線トレース図である。
【図7】第1の実施形態の撮像装置における撮像素子の透過光の光線トレース図である。
【図8】ダイクロイック膜の各色の透過特性図である。
【図9】撮像素子のRGB画素の配置図である。
【図10】緑色光の透過用ダイクロイック膜で反射し、青色光の透過用ダイクロイック膜で透過した時の特性図である。
【図11】緑色光の透過用ダイクロイック膜で反射し、赤色光の透過用ダイクロイック膜で透過した時の特性図である。
【図12】赤色光の透過用ダイクロイック膜で反射し、緑色光の透過用ダイクロイック膜で透過した時の特性図である。
【図13】青色光の透過用ダイクロイック膜で反射し、緑色光の透過用ダイクロイック膜で透過した時の特性図である。
【図14】緑色用画素における光線取り込み範囲を示した概略図である。
【図15】緑色用画素における光線取り込み範囲を示した概略図である。
【図16】緑色用画素の水平方向の空間周波数成分に対するMTFの特性図である。
【図17】矩形開口を有する画素のMTFの特性図である。
【図18】光学ローパスフィルタのMTFを示す図である。
【図19】Fナンバーを4.0,物体像の波長を550nmと仮定したときの無収差レンズのMTFの特性図である。
【図20】緑色用画素を用いたときの結像レンズと撮像素子の画素における総合MTFの特性図である。
【図21】従来の画素を用いたときの結像レンズと光学ローパスフィルタと撮像素子の画素における総合MTFの特性図である。
【図22】従来の画素で光学ローパスフィルタを用いないときの総合MTFの特性図である。
【図23】第2の実施形態の撮像装置における撮像素子の概略断面図である。
【図24】第2の実施形態の撮像装置における撮像素子の反射光の光線トレース図である。
【図25】第2の実施形態の撮像装置における撮像素子の透過光の光線トレース図である。
【図26】第3の実施形態の撮像装置における撮像素子の概略構成図である。
【図27】第3の実施形態の撮像装置における撮像素子の画素の光線取り込み範囲を示した概略図である。
【図28】第3の実施形態の撮像装置における撮像素子の画素の光線取り込み範囲を示した概略図である。
【図29】従来の撮像装置における撮像素子の画素の概略断面図である。
【図30】従来の撮像装置における撮像素子の概略平面図である。
【図31】従来の撮像装置における撮像素子の概略構成図である。
【図32】カラーフィルタの特性図である。
【符号の説明】
1 シリコンウェハ
2 マイクロレンズ
3 光電変換部
4 波長選択部
4g 緑色透過用波長選択部
4r 赤色透過用波長選択部
5 第1の屈折率層
50g,51g,50r,51r テーパ面
6 第2の屈折率層
7 光屈折率部
71 テーパ面
8 低屈折率部
10 Poly配線層
11 AL1配線層
12 AL2配線層
13 AL3配線層
14 平坦化層
15 屈折層
16 キャップ層
17 マイクロレンズ支持層
18 低屈折率層
41 カラーフィルタ
41g 緑色カラーフィルタ
41r 赤色カラーフィルタ
61 撮像素子(従来)
61mnr 赤色用画素
61mng,61mng2 緑色用画素
61mnb 青色用画素
91 有効画素開口
92 有効画素開口(反射光分)
100 撮像素子
100g,200g 緑色用画素
100r,101r,200r,201r 赤色用画素
110,120 物体光[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device that captures a subject image, and is particularly suitable for an imaging device that can improve the efficiency of use of incident light.
[0002]
[Prior art]
FIG. 29 shows the internal structure of a conventional imaging device that forms a general color image. FIG. 29 is a central cross-sectional view of a pixel constituting the image sensor. Reference numeral 2 denotes a microlens that collects light from the outside and serves to improve the efficiency of capturing the light, 41 denotes a color filter that separates the light collected by the microlens 2 into wavelengths, and 3 denotes a light that passes through the color filter 41. Is a photoelectric conversion unit that converts a signal into an electric signal. Here, the color filter 41 is configured by any one of R (red), G (green), and B (blue) primary color filters. In the figure, 41R indicates a red color filter, and 41G indicates a green color filter. Further, as the color filter 41, there is a complementary color filter using three colors of C (cyan), M (magenta) and Y (yellow).
[0003]
Further, in the image sensor 61 shown in FIG. 30, the pixels shown in FIG. 29 are arranged in a mosaic pattern, and output signals from each pixel are processed to obtain luminance information and color information corresponding to the number of pixels. An imaging technique for generating an image is widely used. Here, the color filter array in the image sensor 61 often employs a configuration called a Bayer array as illustrated. In FIG. 30, 61 mng indicates a first green pixel, 61 mnb indicates a blue pixel, 61 mnr indicates a red pixel, and 61 mng2 indicates a second green pixel. In addition, m indicates the array number of the pixel in the horizontal direction, and n indicates the array number of the pixel in the vertical direction. By arranging these pixels regularly as shown in the figure, one image sensor 61 is formed.
[0004]
In the pixel array shown in FIG. 30, the green pixel has twice the number of pixels as the blue and red pixels. Basically, a color image can be generated if the same number of three colors is provided, but the image quality can be improved by increasing the number of green pixels having relatively high visibility.
[0005]
As a method for obtaining another color image, a method using a beam splitter for color separation as shown in FIG. 31 has been proposed. In this method, an object image is previously separated into three colors by using three prisms 302, 303, 304 and dichroic films 305a, 305b, and an image is formed by using single-color imaging elements 301a, 301b, 301c corresponding to each color. It is intended to be caught and is called a three-plate system. The dichroic film 305a has a characteristic of reflecting green light and transmitting the other light, and separates a green object image from the green image sensor 301a. Further, the dichroic film 305b has a characteristic of reflecting blue light and transmitting the other light, and captures blue light of the light (blue light + red light) transmitted through the dichroic film 305a for blue light. The separated red light is guided to the red image sensor 301b.
[0006]
[Patent Document 1]
JP 08-182006 A
[Patent Document 2]
JP 2000-066141 A
[Patent Document 3]
JP 2001-078213 A
[Patent Document 4]
Japanese Patent Publication No. 01-014749
[0007]
[Problems to be solved by the invention]
However, the above-described conventional example has the following problems.
Considering the light use efficiency, for example, in a CCD image pickup device in which pixels with primary color filters, which are considered to have good color reproducibility, are arranged in a mosaic pattern, the R (red) G (green) B (blue) optical filter 41 is used. Are arranged one by one between the microlens 2 and the photoelectric conversion unit 3, but only red light is photoelectrically converted in a pixel having a red optical filter, and blue light and green light are It is absorbed by the filter and becomes heat. Similarly, in a pixel provided with a green optical filter, blue light and red light are not photoelectrically converted but are absorbed by the optical filter and become heat, and in a pixel provided with a blue optical filter, green light is similarly emitted. The light and the red light are not photoelectrically converted but are absorbed by the optical filter and become heat.
[0008]
That is, in each pixel of the conventional color image sensor, only the light transmitted through a predetermined optical filter out of the incident light flux is photoelectrically converted and output as an electric signal. However, there is a problem that the incident light beam cannot be used effectively.
[0009]
FIG. 32 is a characteristic diagram showing the spectral transmittance of the RGB color filters 41 in the image sensor 61. Here, since the transmittance of infrared rays is high, an infrared cut filter that cuts off a wavelength of 650 nm or more is further superposed between the image sensor 61 and the photographing lens. As can be seen from this characteristic diagram, only about 1/3 of the visible light is effectively used in one pixel of the image sensor 61.
[0010]
Considering the usage efficiency for each of the RGB colors in more detail, for example, the RGB pixel area ratio of the color image sensor in the Bayer array shown in FIG. 30 is 1/4 when the area of one unit constituting the regular array is 1. : 2/4: 1/4, the utilization ratio of green light when the total amount of light is 1 is 1/3 × 2/4 = 1 as the product of the wavelength selectivity term and the area ratio term. / 6, and the ratio of red light and blue light is 3 × 1 / = 1/12. When these are summed up, 1/6 + 1/12 + 1/12 = 1/3, and the utilization efficiency is also 1/3. Conversely, when the total amount of light is 1, ×× 2 == for green light, and ×× == 1 / for red light and blue light are not effectively used. Will be.
[0011]
In the above, an image sensor using a primary color filter has been described. However, in an image sensor using a complementary color filter, about one third of visible light is not photoelectrically converted and is not effectively used. Become. As described above, in either of the primary color system or the complementary color system, the conventional single-plate image sensor cannot improve the use efficiency of the incident light due to the division of the imaging surface by the color filter. .
[0012]
On the other hand, Japanese Patent Application Laid-Open No. 08-182006 discloses a structure of an imaging device in which such a waste of light amount is omitted. Specifically, a prism is arranged for each spatial pixel, and the object light color-separated by the prism is received by three RGB color pixels. However, the color pixels are only about 1/3 the size of the spatial pixels, and there is a limit to fabricating an imaging device with a small pixel pitch because it is necessary to fabricate the color pixels extremely finely.
[0013]
In general, as an imaging method for obtaining good image characteristics, a first process of forming an object image by an optical device, and a second process of adjusting so as to suppress a high-frequency component of a spatial frequency characteristic of the object image are provided. , A third process of photoelectrically converting the object image whose spatial frequency characteristics have been adjusted, and a fourth process of correcting the response of the obtained electric signal according to the spatial frequency. At this time, since the optical image is sampled by an image sensor having a finite number of pixels, in order to obtain a high-quality image output, the spatial frequency characteristics of the optical image must be equal to or higher than the Nyquist frequency inherent to the image sensor according to the sampling theorem. It is necessary to reduce the ingredients. Here, the Nyquist frequency is a half of the sampling frequency determined by the pixel pitch. Therefore, a series of optimized processes adjusts the optical image to be sampled to an optical image having characteristics according to the Nyquist frequency inherent to the image sensor, so that aliasing distortion is inconspicuous, that is, a high-quality image in which moiré is inconspicuous. Is what you get.
[0014]
An MTF (Modulation Transfer Function), which is a spatial frequency transfer characteristic of an image, is an evaluation amount that can well express characteristics related to sharpness of a digital still camera, a video camera, and the like. Specific factors affecting the MTF include an imaging optical system which is an optical device, an optical low-pass filter for band-limiting an object image, an aperture shape of a photoelectric conversion region of an image sensor, digital aperture correction, and the like. Is given as the product of the MTFs of the elements. That is, the MTFs of the above-described first to fourth processes may be obtained, and their products may be calculated. However, since the digital filter processing as the fourth process is performed on the image output already sampled by the image sensor, it is not necessary to consider a high frequency exceeding the Nyquist frequency.
[0015]
Therefore, the configuration in which the spatial frequency characteristic of the optical image has less components equal to or higher than the Nyquist frequency specific to the imaging device means that the MTF in the first process, the MTF in the second process, and the third process, except for the fourth process. In the product of MTF in the above, the component above the Nyquist frequency is small. Here, when viewing still images as in a digital still camera, the higher the frequency at a frequency slightly lower than the Nyquist frequency, the higher the resolution at a frequency slightly lower than the Nyquist frequency. It is necessary to take into account that the image tends to have a sense of quality.
[0016]
In the formation of an object image by the imaging optical system, which is the first process, optical aberrations are generally easier to correct at the center of the screen than at the periphery. In order to obtain a good image at the periphery of the screen, it is necessary to obtain extremely good characteristics near the diffraction limit MTF determined by the F number of the imaging lens at the center of the screen. In recent years, as the number of pixels of an image sensor has been reduced, the necessity has been increasing. Therefore, the MTF should be considered assuming that the imaging optical system is an ideal lens having no aberration.
[0017]
Further, in an image sensor in which the light receiving openings having the width d are laid without gaps, the response value of the third process at the Nyquist frequency u = d / 2 is considerably high because the width of the light receiving openings matches the pixel pitch. For this reason, it is common to trap near the Nyquist frequency in the second process to lower the overall MTF near the Nyquist frequency.
[0018]
In the second process, an optical low-pass filter is usually used. For the optical low-pass filter, a material having birefringence characteristics, such as quartz, is used. Further, a phase type diffraction grating as disclosed in JP-A-2000-066141 may be used.
[0019]
If a birefringent plate is interposed in the optical path of the optical device and its optical axis is inclined so as to be parallel to the horizontal direction of the imaging plane, the object image due to the ordinary ray and the object image due to the extraordinary ray will be horizontally shifted by a predetermined amount. Is formed. Trapping a specific spatial frequency with a birefringent plate means shifting the bright and dark portions of the spatial frequency stripe so that they overlap. The MTF by the optical low-pass filter is expressed by the following equation (1). Where R 2 (U) is the response, u is the spatial frequency of the optical image, and ω is the object image separation width.
[0020]
(Equation 1)
Figure 2004193284
[0021]
By appropriately selecting the thickness of the birefringent plate, it is possible to make the response zero at the Nyquist frequency of the image sensor. When a diffraction grating is used, the same effect can be obtained by separating an optical image into a plurality of images having a predetermined positional relationship by diffraction and superimposing the images.
[0022]
However, in order to fabricate a birefringent plate, it is necessary to grow a crystal such as quartz or lithium niobate and then to polish it thinly, so that there is a problem that the structure becomes complicated and extremely expensive. In addition, even a diffraction grating requires a highly precise fine structure, which is also expensive.
[0023]
On the other hand, Japanese Patent Application Laid-Open No. 2001-078213 discloses that an MTF of a pixel having a frequency equal to or higher than the Nyquist frequency is obtained by using a compound eye lens to increase the effective light receiving aperture larger than the pixel pitch while using a single-panel imaging system. The technology which suppresses is disclosed. However, there is a shift in the image position depending on the object distance due to the compound eye, and so-called registration deviation occurs in which the sampling pitch of the object image becomes uneven at intervals other than the reference object distance. . Therefore, a predetermined image performance cannot be obtained under any object conditions.
[0024]
Furthermore, as disclosed in Japanese Patent Publication No. 01-014749, an attempt has been made to suppress the response to a high spatial frequency by forming the photoelectric conversion region of a pixel into a complicated shape in relation to an adjacent pixel. ing. However, the problem that the shape of the pixel becomes complicated, the problem that an extremely fine structure is required, and the fact that each pixel divides a plane causes the object image projected on the pixel to follow the dividing line. For example, in the case of having an oblique line, there is a problem that it is difficult to obtain the effect of improving the use efficiency of the incident light beam.
[0025]
The present invention has been made in view of the above-described problems, and has as its object to realize an image pickup apparatus including an image pickup element with improved utilization efficiency of incident light without complicating or miniaturizing the structure. .
[0026]
[Means for Solving the Problems]
An image pickup apparatus according to the present invention is an image pickup apparatus including an image pickup device in which pixels are arranged in a matrix, wherein the pixels collect light by a light converging from outside and collect light by the light condensing means. Among the emitted light beams, a wavelength selecting unit that selectively transmits a light beam of a predetermined wavelength and reflects a light beam of another wavelength, and a light beam reflected by the wavelength selecting unit, the wavelength corresponding to an adjacent pixel. A reflected light introducing means for introducing the light into the selecting means and a photoelectric converting means for converting the light transmitted through the wavelength selecting means into an electric signal are provided.
[0027]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, an embodiment of an imaging device of the present invention will be described with reference to the accompanying drawings.
[0028]
(1st Embodiment)
An imaging device according to a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a schematic cross-sectional view of an imaging device in the imaging device according to the first embodiment. 1 is a silicon substrate, 2 is a microlens for condensing a light beam from the outside, 3 is a photoelectric conversion unit for converting a received photon into an electric charge, and 4 (4r, 4g) is a dichroic which is a wavelength selection unit for wavelength-separating the light beam. The film 5 is a first refractive index layer in contact with the microlens 2, 6 is a second refractive index layer having a higher refractive index than the first refractive index layer 5, and 7 is a dichroic film 4 (4r, 4g). A high-refractive-index portion provided between and in contact with the photoelectric conversion portion 3, a low-refractive-index portion 8 provided around the high-refractive-index portion 7, and 10 controls the charge of the photoelectric conversion portion 3. Poly wiring layer serving as a gate, 11 to 13 are wiring layers made of metal such as aluminum, 11 is an AL1 wiring layer serving as a connection between respective parts and an output line, 12 is a well power supply line and a control line. AL2 wiring layer that plays the role of 1 Is a role AL3 wiring layer of the light-shielding and the power line.
[0029]
FIG. 2 is a perspective view of the image sensor viewed from an oblique upper surface. FIG. 2 shows a schematic diagram in which only nine of a large number of image pickup devices are taken out. FIG. 3 is a cross-sectional view of the structure from the microlens 2 and the dichroic film 4 to the AL3 wiring layer 13 at the center of FIG.
[0030]
In FIG. 1, the microlens 2 has an upwardly convex spherical shape and has a positive lens power. Therefore, the microlens 2 has a function of condensing the light beam that has reached the microlens 2 on the photoelectric conversion unit 3. Thereby, more light rays can be taken into the photoelectric conversion unit 3, so that the sensitivity of the imaging device can be improved.
[0031]
The first refractive index layer 5 is formed of a material having a low refractive index, for example, magnesium fluoride (MgF) having a refractive index of 1.38. 2 ) Can be used. The second refractive index layer 6 sandwiched between the first refractive index layer 5 and the dichroic film 4 is formed of a material having a high refractive index, for example, titanium dioxide (TiO.sub.2) having a refractive index of 2.5. 2 ) Can be used. With such a configuration, light traveling from the second refractive index layer 6 to the first refractive index layer 5 at the interface between the first refractive index layer 5 and the second refractive index layer 6 is totally reflected. Will be easier to do.
[0032]
The high refractive index portion 7 is formed of a material having a high refractive index such as titanium dioxide, and the low refractive index portion 8 is formed of silicon dioxide (SiO.sub.2) having a refractive index of 1.46. 2 ) And magnesium fluoride. With this configuration, it is possible to make the light incident on the high-refractive-index portion 7 totally reflected at the interface with the low-refractive-index portion 8, and a light guide path from the dichroic film 4 to the photoelectric conversion portion 3. Can play a role.
[0033]
Generally, the dichroic film 4 has a thickness of an integral multiple of 1/4 of the wavelength λ of interest, and is formed by alternately laminating a high-refractive-index material and a low-refractive-index material. . With the dichroic film 4 configured as described above, the wavelength of the transmitted light can be selected. Here, FIG. 4 shows a configuration example of the dichroic film 4 of the image sensor. The dichroic film 4 according to the present embodiment is formed with titanium oxide as a material having a high refractive index and silicon dioxide as a material having a low refractive index, and has a film thickness and the number of layers as shown in FIG.
[0034]
FIG. 5 shows the transmission characteristics of the dichroic film 4. As can be seen from the characteristic diagram of FIG. 5, the dichroic film 4 has characteristics similar to those of the conventional color filter using a dye shown in FIG. Therefore, even when the dichroic film 4 having this configuration is used, characteristics close to those of a conventional image sensor can be obtained. These laminated films can be easily manufactured by using PVD (Physical Vapor Deposition).
[0035]
Next, the behavior of the light beam condensed by the microlens 2 will be described with reference to FIGS. FIG. 6 shows the behavior of only the light beam that enters the pixel 100g that receives green light and is reflected by the dichroic film 4g, that is, the light beam that includes blue light and red light.
[0036]
A light ray from the pupil of the imaging lens located far enough from the size of the pixel passes through the infrared cut filter and becomes a light beam like the object light 110. The object light 110 is incident on the microlens 2 and receives a light condensing action. Then, the light is sequentially incident on the first refractive index layer 5 and the second refractive index layer 6 and reaches the dichroic film 4g. Here, due to the characteristics of the dichroic film 4g, light rays other than green light are reflected and travel in the direction of the first refractive index layer 5, but the dichroic film 4g is formed in the shape of a quadrangular pyramid. Therefore, the reflected light beam changes its direction from its center to the outside and travels.
[0037]
As described above, since the second refractive index layer 6 has a higher refractive index than the first refractive index layer 5, a light beam having a critical angle or more undergoes total reflection at the interface. The light beam totally reflected at the interface advances toward the dichroic film 4r of the pixels 100r and 101r that receive the red light, which is an adjacent pixel. Here, the interface between the first refractive index layer 5 and the second refractive index layer 6 also has a quadrangular pyramid shape. The light reflected by the interface travels at an angle nearly parallel to the optical axis.
[0038]
The dichroic films 4r of the pixels 100r and 101r have a characteristic of transmitting red light and reflecting green light and blue light. Therefore, only the red light among the light rays reflected from the pixel 100g is transmitted, and the blue light is further reflected by the dichroic film 4r. FIG. 6 does not show the blue light that undergoes the reflection action. The dichroic film 4r that transmits the reflected light of red light has a small area that can be transmitted by the thickness of the dichroic film. However, the area of the light incident on the dichroic film 4g (the area of the reflected light) ) Is smaller than the opening area of the microlens 2. Therefore, this reflected light can reduce vignetting in the dichroic film 4r.
[0039]
The light transmitted through the dichroic film 4r tends to travel from the high refractive index portion 7 to the low refractive index portion 8, which also has a higher refractive index than the low refractive index portion 8 as described above. For this reason, light rays having a critical angle or more are totally reflected at the interface. Since the interface between the high refractive index portion 7 and the low refractive index portion 8 has a tapered shape with a widened incident portion, a frontage for taking in an incident light beam is widened, so that many light beams can be taken into the high refractive index portion 7. I can do it.
[0040]
Assuming that the incident portion of the high refractive index portion 7 does not have a tapered shape, the light beam located on the lower side of the drawing among the reflected light beams travels from the low refractive index portion 8 to the high refractive index portion 7. Then, since the high refractive index portion 7 has a higher refractive index than the low refractive index portion 8, the light beam is bent upward. Therefore, the light rays that follow such a route are not guided to the photoelectric conversion unit 3 and are lost. Therefore, the incident part of the high refractive index part 7 is formed into a tapered shape, and the light is transmitted from the low refractive index part 8 to the high refractive index part 7. This eliminates the traveling light beam so that reflected light from adjacent pixels can be sufficiently captured.
[0041]
Further, as described above, the interface between the first refractive index layer 5 and the second refractive index layer 6 has a quadrangular pyramid shape, and the reflected light at the interface travels at an angle almost parallel to the optical axis. As a result, it is possible to reduce the number of light rays that cannot be totally reflected by the tapered surface 71 and pass through. Since the interface between the high refractive index portion 7 and the low refractive index portion 8 near the photoelectric conversion portion 3 is formed so as to be substantially parallel to the optical axis direction, the first total reflection causes the photoelectric conversion portion 3 Light rays that could not be incident can be totally reflected again at the interface on the opposite side, and finally all can be incident on the photoelectric conversion unit 3.
[0042]
In the pixel 100g, there is a pixel that receives blue light in a direction perpendicular to the paper surface. In the case of the blue light, similarly to the case of the red light, the behavior of taking in only the blue light out of the light rays reflected by the pixel 100g is shown.
[0043]
Next, FIG. 7 shows the behavior of a light beam that is transmitted through the dichroic film 4, that is, a green light beam.
Light rays from above in the figure enter the microlens 2 and receive a light-condensing action. Then, the light is sequentially incident on the first refractive index layer 5 and the second refractive index layer 6 and reaches the dichroic film 4g. Here, in the dichroic film 4g, only the light of a predetermined wavelength is selectively transmitted, and the light transmitted through the dichroic film 4g proceeds to the high refractive index portion 7, and further the high refractive index portion 7 and the low refractive index. By being subjected to the action of repeating total reflection at the interface with the portion 8, the light is guided to the photoelectric conversion portion 3.
[0044]
The interface between the high-refractive-index portion 7 and the low-refractive-index portion 8 has a tapered shape with a widened incident portion. If the angle of the tapered shape is too tight, total reflection may not occur on the tapered surface 71, and even if total reflection is performed, the light is transmitted without being totally reflected on the opposite surface. In the case of the present embodiment, if the angle is up to about 25 ° from the central axis of the pixel, even the tapered surface 71 can be totally reflected and guided to the photoelectric conversion unit 3. From the above, it is possible to capture a wide range of light rays by setting the taper surface 71 at an appropriate angle.
[0045]
Next, the efficiency of taking in an incident light beam using transmission and reflection of the dichroic film 4 will be considered. For example, in a CCD imaging device in which pixels with primary color filters, which are considered to have good color reproducibility, are arranged in a mosaic pattern, an optical filter of R (red), G (green), and B (blue) has a microlens 2 and a photoelectric conversion region 3. Are placed one by one between.
[0046]
At this time, in the pixel provided with the red optical filter, only the red light is photoelectrically converted, and the blue light and the green light are absorbed by the optical filter and become heat. Similarly, in a pixel provided with a green optical filter, blue light and red light are not photoelectrically converted but are absorbed by the optical filter and become heat, and in a pixel provided with a blue optical filter, green light and red light are similarly provided. The light is absorbed by the optical filter without being photoelectrically converted and becomes heat.
[0047]
That is, in each pixel of the conventional color image sensor, only the light transmitted through a predetermined optical filter out of the incident light flux is photoelectrically converted and output as an electric signal. It is thrown away as such.
[0048]
As described above, FIG. 32 is a characteristic diagram illustrating the spectral transmittance of the RGB color filters in the image sensor. Here, since the transmittance of infrared rays is high, an infrared cut filter that cuts off a wavelength of 650 nm or more is further used between the imaging element and the photographing lens. As can be seen from this characteristic diagram, only about one third of the visible light is effectively used in one pixel of the image sensor.
[0049]
Considering the usage efficiency for each of the RGB colors in more detail, for example, the RGB pixel area ratio of the color image sensor in the Bayer array shown in FIG. 30 is 1/4 when the area of one unit constituting the regular array is 1. : 2/4: 1/4, the utilization ratio of green light when the total amount of light is 1 is 1/3 × 2/4 = 1 as the product of the wavelength selectivity term and the area ratio term. / 6, and the ratio of red light and blue light is 3 × 1 / = 1/12. When these are summed up, 1/6 + 1/12 + 1/12 = 1/3, and the utilization efficiency is also 1/3. Conversely, when the total amount of light is 1, ×× 2 == for green light, and ×× == 1 / for red light and blue light are not effectively used. Will be.
[0050]
In the above, an image sensor using a primary color filter has been described. However, in an image sensor using a complementary color filter, about one third of visible light is not photoelectrically converted and is not effectively used. Become. As described above, in either of the primary color system or the complementary color system, the light use efficiency of the conventional single-chip image sensor cannot be improved due to the fact that the imaging surface is divided by the color filters.
[0051]
FIG. 8 simplifies the transmission characteristics of each color of the dichroic film 4. In addition, the reverse of the transmission characteristic diagram shown in this figure is the reflection characteristic. Further, for simplicity of calculation, it is assumed that all rays that do not pass through are reflected, and that all reflected rays reach the adjacent pixels equally. Further, it is assumed that the pixel array has a Bayer array as shown in FIG.
[0052]
In FIG. 8, considering the case where the light reflected by the dichroic film in the green pixel passes through the dichroic film in the blue pixel and is taken into the blue photoelectric conversion unit, as described above, the green transmission characteristics are turned over. Is the reflection characteristic, and the product of this curve and the blue transmission characteristic is obtained. FIG. 10 shows this characteristic. Considering the remaining colors in the same way, FIG. 11 shows a characteristic diagram in the case where the light reflected by the dichroic film in the green pixel passes through the dichroic film in the red pixel and is taken into the red photoelectric conversion unit. FIG. 12 shows a characteristic diagram in the case where the light reflected by the dichroic film in the red pixel passes through the dichroic film in the green pixel and is taken into the green photoelectric conversion unit. FIG. 13 shows a characteristic diagram in the case where the light beam reflected by the dichroic film is transmitted through the dichroic film in the green pixel and taken into the green photoelectric conversion unit.
[0053]
Considering light rays reflected from adjacent pixels in a green pixel, the pixel array is a Bayer array, and there are two red and blue adjacent pixels. Accordingly, the light beam that the green pixel receives from the adjacent pixel is {(blue reflection) × 1 / × 2 + (red reflection) × 1 / × 2}. Since the amount of light rays originally received by the green pixel is the integral of the transmittance curve, if the integral is 1, the size in FIG. 12 (reflected from the red pixel) is 0.74, and the size in FIG. The value (reflected from the blue pixel) is 0.85. Therefore, since the total of the reflected light is 0.80, it can be seen that it is 1.80 times as large as the case where only the transmitted light is taken in.
[0054]
Next, considering the light reflected from the adjacent pixel in the blue pixel, the number of the adjacent pixels is four green pixels. Assuming that the integral of the transmittance curve of the blue pixel is 1, the integral of FIG. 10 is 0.84. Also, since the light ray received from the adjacent pixel is {(green reflection) × 1/4 × 4}, the sum is 0.84, which is 1.84 times the original transmission amount.
[0055]
Finally, considering light rays reflected from adjacent pixels in a red pixel, the number of adjacent pixels is four, like the blue pixels. Assuming that the integral of the transmittance curve of the red pixel is 1, the integral of FIG. 11 is 0.67. In addition, since the light beam received from the adjacent pixel is {(green reflection) × 1/4 × 4}, the total is 0.67, which is 1.67 times the original transmission amount.
[0056]
As described above, if adjacent pixels such as the Bayer array are not the same color, by dividing and reflecting unnecessary wavelength components to adjacent pixels using the present embodiment for any pixel, Photoelectric conversion can be performed as an effective wavelength component, and light use efficiency can be greatly improved.
[0057]
Next, a low-pass filter effect as one of the operations according to the present embodiment will be described.
In general, as an imaging method for obtaining good image characteristics, a first process of forming an object image by an optical device, and a second process of adjusting so as to suppress a high-frequency component of a spatial frequency characteristic of the object image are provided. , A third process of photoelectrically converting the object image whose spatial frequency characteristics have been adjusted, and a fourth process of correcting the response of the obtained electric signal according to the spatial frequency. At this time, since the optical image is sampled by an image sensor having a finite number of pixels, in order to obtain a high-quality image output, the spatial frequency characteristics of the optical image must be equal to or higher than the Nyquist frequency inherent to the image sensor according to the sampling theorem. It is necessary to reduce the ingredients. Here, the Nyquist frequency is a half of the sampling frequency determined by the pixel pitch. Therefore, a series of optimized processes adjusts the optical image to be sampled to an optical image having characteristics according to the Nyquist frequency inherent to the image sensor, so that aliasing distortion is inconspicuous, that is, a high-quality image in which moiré is inconspicuous. Is what you get.
[0058]
An MTF (Modulation Transfer Function), which is a spatial frequency transfer characteristic of an image, is an evaluation amount that can well express characteristics related to sharpness of a digital still camera, a video camera, and the like. Specific factors affecting the MTF include an imaging optical system which is an optical device, an optical low-pass filter for band-limiting an object image, an aperture shape of a photoelectric conversion region of an image sensor, digital aperture correction, and the like. Is given as the product of the MTFs of the elements. That is, the MTFs of the above-described first to fourth processes may be obtained, and their products may be calculated. However, since the digital filter processing as the fourth process is performed on the image output already sampled by the image sensor, it is not necessary to consider a high frequency exceeding the Nyquist frequency.
[0059]
Therefore, the configuration in which the spatial frequency characteristic of the optical image has less components equal to or higher than the Nyquist frequency specific to the imaging device means that the MTF in the first process, the MTF in the second process, and the third process, except for the fourth process. In the product of MTF in the above, the component above the Nyquist frequency is small. Here, when viewing still images as in a digital still camera, the higher the frequency at a frequency slightly lower than the Nyquist frequency, the higher the resolution at a frequency slightly lower than the Nyquist frequency. It is necessary to take into account that the image tends to have a sense of quality.
[0060]
In the formation of an object image by the imaging optical system, which is the first process, optical aberrations are generally easier to correct at the center of the screen than at the periphery. In order to obtain a good image at the periphery of the screen, it is necessary to obtain extremely good characteristics near the diffraction limit MTF determined by the F number of the imaging lens at the center of the screen. In recent years, as the number of pixels of an image sensor has been reduced, the necessity has been increasing. Therefore, the MTF should be considered assuming that the imaging optical system is an ideal lens having no aberration.
[0061]
Further, in an image sensor in which the light receiving openings having the width d are laid without gaps, the response value of the third process at the Nyquist frequency u = d / 2 is considerably high because the width of the light receiving openings matches the pixel pitch. For this reason, it is common to trap near the Nyquist frequency in the second process to lower the overall MTF near the Nyquist frequency.
[0062]
In the second process, an optical low-pass filter is usually used. For the optical low-pass filter, a material having birefringence characteristics, such as quartz, is used. Further, a phase type diffraction grating may be used.
[0063]
If a birefringent plate is interposed in the optical path of the optical device and its optical axis is inclined so as to be parallel to the horizontal direction of the imaging plane, the object image due to the ordinary ray and the object image due to the extraordinary ray will be horizontally shifted by a predetermined amount. Is formed. Trapping a specific spatial frequency with a birefringent plate means shifting the bright and dark portions of the spatial frequency stripe so that they overlap. The MTF by the optical low-pass filter is represented by the following equation (2). Where R 2 (U) is the response, u is the spatial frequency of the optical image, and ω is the object image separation width.
[0064]
(Equation 2)
Figure 2004193284
[0065]
By appropriately selecting the thickness of the birefringent plate, it is possible to make the response zero at the Nyquist frequency of the image sensor. When a diffraction grating is used, the same effect can be obtained by separating an optical image into a plurality of images having a predetermined positional relationship by diffraction and superimposing the images.
[0066]
However, in order to produce a birefringent plate, it is necessary to grow a crystal such as quartz or lithium niobate and then polish it thinly, which is extremely expensive. Further, since a highly precise microstructure is required even for a diffraction grating, it is still expensive.
[0067]
In the image sensor according to the embodiment of the present invention, the substantial light receiving aperture is larger than each pixel. Compared with the conventional image pickup device in the Bayer arrangement shown in FIG. 9 for each of the RGB colors, first, the aperture of the pixel (G pixel) for receiving the conventional green light was the size of the microlens 2. In the image sensor according to the embodiment, as shown in FIG. 14, the portions 92a, 92b, 92c, and 92d can receive the reflected light rays from the adjacent pixels. Thus, the substantial light receiving aperture including the incidence of green light from the adjacent pixels is as shown in FIG. The pixels that receive blue light (B pixels) and the pixels that receive red light (R pixels) have the same effective light receiving aperture due to the incidence of each color light from adjacent pixels. Therefore, when considering all the pixels, it can be seen that the light-receiving apertures effectively overlap each other.
[0068]
When the substantial light receiving aperture is larger than each pixel as described above, it is possible to obtain an MTF characteristic that cannot be considered in a normal single-plate type imaging device. As a result, even if the optical low-pass filter is omitted, the image quality is not deteriorated. That is, the second process of adjusting the high-frequency component of the spatial frequency characteristic of the object image to be suppressed is omitted, and a high-quality image in which aliasing distortion is inconspicuous is obtained only by the third process of photoelectrically converting the object image. It is possible. 16 to 22 are characteristic diagrams for explaining these.
[0069]
First, FIG. 16 is a characteristic diagram of the MTF with respect to the horizontal spatial frequency component of the pixel 110g of the image sensor according to the present embodiment. FIG. 17 is a characteristic diagram of the MTF of a pixel having a normal rectangular opening. In each case, the size of one pixel was □ 3 μm, and the microlens 2 had a size of one pixel. Further, the pixel of the present embodiment has an opening extending to the center of the adjacent pixel.
[0070]
The response of the rectangular aperture pixel shown in FIG. 9 can be represented by a simple SINC function such as the following equation (3). Where R 3 (U) is the response, and d is the width of the light receiving aperture of the image sensor.
[0071]
[Equation 3]
Figure 2004193284
[0072]
The first zero point (cutoff frequency) in equation (3) is the position of u = 1 / d. That is, the response becomes zero at a wavelength that matches the width of the light receiving aperture. In an image sensor in which the light receiving openings are laid without gaps, the width of the light receiving openings coincides with the pixel pitch, so that the response value of the equation (3) at the Nyquist frequency u = d / 2 is 0.636, which is considerably high. Therefore, it is necessary to use the conventional rectangular aperture pixel together with the optical low-pass filter having the MTF characteristic shown in FIG. Here, when viewing still images as in a digital still camera, the higher the response at a frequency slightly lower than the Nyquist frequency, the higher the resolution Consideration is given to the fact that an image tends to be formed.
[0073]
On the other hand, the response of the pixel 100g in this embodiment extends to the high frequency side due to the diamond-shaped opening as shown in FIG. This can be thought of as a collection of infinitely narrow rectangular openings that can exhibit the MTF characteristics in equation (3). FIG. 16 shows the result of integrating the entire rectangular opening in the form of a strip. At a Nyquist frequency of 167 lines / mm when the pixel pitch is 3 μm, 100 g of the pixel has a much lower response. I understand.
[0074]
Next, FIG. 19 shows the MTF characteristics of the aberration-free lens when the F-number is 4.0 and the wavelength of the object image is 550 nm. In an ideal lens having no geometrical aberration, its MTF is determined by light diffraction. The diffraction-limited MTF is determined by the F number and is represented by the following equation (4). Here, u is the spatial frequency of the optical image, F is the F number of the optical system, and λ is the wavelength of the optical image.
[0075]
(Equation 4)
Figure 2004193284
[0076]
The cutoff frequency of this imaging lens is 455 lines / mm.
Now, a first process of forming an object image by the optical device, a second process of adjusting the high frequency component of the spatial frequency characteristics of the object image to be suppressed, and an object image of which the spatial frequency characteristics are adjusted are formed. This means that the materials for obtaining the total MTF of the third process for photoelectric conversion have been prepared.
[0077]
FIG. 20 is a characteristic diagram of the total MTF in the pixels of the imaging lens and the image sensor when using the pixel 100g. On the other hand, FIG. 21 is a characteristic diagram of the total MTF in the pixels of the imaging lens, the optical low-pass filter, and the image sensor when using the conventional pixel. Both have almost the same response at the Nyquist frequency of 167 lines / mm, and have similar characteristics as a whole. In addition, in the conventional pixel, if the optical low-pass filter is not used, the response at the Nyquist frequency becomes too high as shown in FIG. Thus, it can be seen that the optical low-pass filter can be omitted by using the pixel 100g.
[0078]
(Second embodiment)
An imaging device according to a second embodiment of the present invention will be described with reference to FIGS.
FIG. 23 is a schematic cross-sectional view of an imaging device in the imaging device according to the second embodiment. It is to be noted that components having the same functions as those of the image sensor according to the first embodiment are denoted by the same reference numerals. While the dichroic film 4 (4t, 4g) of the image sensor according to the first embodiment is formed in the shape of a quadrangular pyramid, the dichroic film 4 (4t, 4g) of the image sensor according to the present embodiment has a planar shape. In that it is formed by The light rays in the image sensor according to the present embodiment behave as shown in FIGS.
[0079]
FIG. 24 shows, similarly to the case of FIG. 6, the behavior of only the light beam that enters the pixel 200g that receives the green light and is reflected by the dichroic film 4g, that is, the light beam including the blue light and the red light. A light beam emitted from the pupil of the imaging lens located far enough from the size of the pixel passes through an infrared cut filter and becomes a light beam like the object light 120.
[0080]
The object light 120 from above in the figure enters the microlens 2 and is subjected to a light collecting action. Then, the light is sequentially incident on the first refractive index layer 5 and the second refractive index layer 6, and reaches the dichroic film 4g. Here, light rays other than green light are reflected by the characteristics of the dichroic film 4g, and the dichroic film 4g is formed on a plane different from that of the first embodiment. Will progress. Then, at the interface 51g between the second refractive index layer 6 and the first refractive index layer 5, light rays having a critical angle or more undergo a total reflection action. Since this interface has a quadrangular pyramid shape, the reflected light travels in a direction substantially perpendicular to the optical axis. Then, the interfaces 50r and 51r between the second refractive index layer 6 and the first refractive index layer 5 of the adjacent pixels 200r and 201r are subjected to the total reflection once again.
[0081]
In this way, the light rays directed downward by the reflection travel toward the pixels 200r and 201r that receive the red light. Further, the light beam transmitted through the dichroic film 4r proceeds to the high refractive index section 7. Subsequently, the light is going to proceed from the high refractive index portion 7 to the low refractive index portion 8. However, as described above, the high refractive index portion 7 has a higher refractive index than the low refractive index portion 8, and thus has a critical angle or more. Light rays are totally reflected at the interface.
[0082]
Further, the interface between the high refractive index portion 7 and the low refractive index portion 8 has a tapered shape in which the incident portion of the high refractive index portion 7 is widened. A large number of light beams can be taken into the unit 7. Furthermore, since the interface between the high refractive index portion 7 and the low refractive index portion 8 near the photoelectric conversion portion 3 is formed by two surfaces substantially parallel to the optical axis direction, the photoelectric conversion portion is subjected to the first total reflection. The light rays that failed to enter the photoelectric conversion unit 3 are totally reflected again at the interface on the opposite side, and eventually all the light rays enter the photoelectric conversion unit 3.
[0083]
FIG. 25 shows the behavior of a light beam that is transmitted through the dichroic film 4. Light rays from above in the figure enter the microlens 2 and receive a light-condensing action. Subsequently, the light beam condensed by the microlens 2 sequentially enters the first refractive index layer 5 and the second refractive index layer 6 and reaches the dichroic film 4g. As for the light beam that has reached the dichroic film 4, only a light beam having a predetermined wavelength (here, a green light beam) is selectively transmitted and proceeds to the high refractive index portion 7. By repeating the total reflection function at the interface with the portion 8, the light is guided to the photoelectric conversion portion 3. Here, the interface between the high-refractive-index portion 7 and the low-refractive-index portion 8 has a tapered shape in which the incident portion of the high-refractive-index portion 7 is widened. Can be led to.
[0084]
(Third embodiment)
An imaging device according to a third embodiment of the present invention will be described with reference to FIGS. It is to be noted that components having the same functions as those of the imaging device in the imaging devices of the first and second embodiments are denoted by the same reference numerals. Light rays in the horizontal direction (transmitted light rays and reflected light rays) in the image sensor of the present embodiment behave similarly to those shown in FIGS. 24 and 25 described in the second embodiment.
[0085]
FIG. 26 is a schematic configuration diagram of an imaging device in the imaging device according to the third embodiment. In the image sensor of the present embodiment, while the light reflected by the dichroic film 4 (4t, 4g) of the image sensor of the second embodiment exhibits the same behavior in the vertical and horizontal directions, it is adjacent in the vertical direction. The configuration is such that the reflected light does not enter the pixels that do. FIG. 27 is a schematic diagram illustrating a light beam capturing range of a pixel of an image sensor in the image capturing apparatus according to the present embodiment.
[0086]
In FIG. 27, focusing on the pixel 91 that receives green light, the pixel aperture of the image sensor according to the present embodiment receives the reflected light from the adjacent pixels 921a and 921b, and It is larger than the opening 91. As a result, the substantial light receiving aperture including the incidence of green light from an adjacent pixel is as shown in FIG. As can be seen from the above, the pixel aperture of the image sensor of this embodiment is twice as large as in the second embodiment. The effective light receiving aperture of the B pixel and the R pixel has the same shape as that of FIG. 28 due to the incidence of each color light from the adjacent pixel. Therefore, when considering all the pixels, it can be seen that the light-receiving apertures effectively overlap each other.
[0087]
In the image sensor according to the second embodiment, light rays from adjacent upper and lower pixels are also incident. Therefore, a low-pass effect can be expected in two vertical and horizontal directions. The effect can be expected. Therefore, in this embodiment, it is necessary to separately provide a low-pass filter in the vertical direction. However, since the shape of the interface 51g subjected to the total reflection effect shown in FIG. 24 can be simplified in the image pickup device of the present embodiment, it is expected to be easy to manufacture and to reduce the manufacturing cost. it can.
[0088]
As can be seen from FIGS. 24 and 25, the incident angle when the light beam from the microlens 2 first enters the dichroic film 4g, and the dichroic film 4r of the adjacent pixels 200r and 201r reflected by the dichroic film 4g. Does not change significantly with the angle of incidence at the time of incidence. Therefore, the rate of change of the wavelength transmitted through the dichroic film 4 can be reduced depending on the incident angle, and there is an advantage that the color change can be reduced.
[0089]
Next, the light receiving efficiency of each pixel will be described.
First, considering the case where reflected light from an adjacent pixel is incident on a G pixel, since the pixel array is a Bayer array, the number of adjacent pixels is two for each R pixel or B pixel. From this, the light beam incident on the G pixel from the adjacent pixel is {(blue reflection) × 1 / × 2} when the B pixel is adjacent, and Δ (red reflection) when the R pixel is adjacent. ) × 1 / × 2}. Originally, the amount of light rays received by the G pixel is an integral amount of the transmittance curve. If this is set to 1, the size in FIG. 12 (reflected from the red pixel) is 0.74, and the size in FIG. It can be seen that the ratio of the reflected light from the blue pixel is 0.85, which is 1.85 times and 1,74 times that of the case where only the transmitted light is captured.
[0090]
Next, considering a case where reflected light from an adjacent pixel enters the B pixel, there are two G pixels in the adjacent pixel. Assuming that the integral of the transmittance curve of the B pixel is 1, the integral of FIG. 10 is 0.84. In addition, since the light beam received from the adjacent pixel is {(green reflection) × 1/2 × 2}, the total is 0.84, which is 1.84 times the original transmission amount.
[0091]
Finally, considering the case where reflected light from an adjacent pixel enters the R pixel, the number of adjacent pixels is two, similar to the B pixel. Assuming that the integral of the transmittance curve of the R pixel is 1, the integral of FIG. 11 is 0.67. Since the light ray received from the adjacent pixel is {(green reflection) × 1/2 × 2}, the total is 0.67, which is 1.67 times the original transmission amount.
[0092]
According to the embodiments of the present invention, the light reflected by the dichroic film 4g is introduced into the dichroic film 4r of an adjacent pixel, so that the efficiency of use of incident light can be reduced without complicating or miniaturizing the structure. It is possible to realize an image pickup apparatus provided with an image pickup device having improved image quality.
[0093]
In addition, since the interface between the first refractive index layer 5 and the second refractive index layer 6 has a shape having an inclined surface from the optical axis toward the peripheral portion, the light reflected by the dichroic film 4g is applied to adjacent pixels. Can be incident. Further, by configuring the first refractive index layer 5 as a high refractive index layer and the second refractive index layer 6 as a low refractive index layer, the light reflected by the dichroic film 4g is Total reflection can be easily performed at the interface with the second refractive index layer 6.
[0094]
Further, a high refractive index portion 7 provided between and in contact with the dichroic film 4 and the photoelectric conversion portion 3, and a low refractive index portion 8 having a lower refractive index than the high refractive index portion 7 around the high refractive index portion 7. The light beam transmitted through the dichroic film 4 and incident on the high-refractive-index portion 7 can be easily totally reflected at the interface with the low-refractive-index portion 8, and the photoelectric conversion from the dichroic film 4 can be performed. It can function as a light guide path up to the section 3.
[0095]
Further, since the interface between the first refractive index layer 5 and the second refractive index layer 6 is formed in the shape of a quadrangular pyramid projecting toward the photoelectric conversion unit 3, the light reflected by the dichroic film 4 is Light can be incident on an adjacent pixel. Further, since the interface between the second refractive index layer 6 and the dichroic film 4 is formed in the shape of a quadrangular pyramid projecting toward the microlens 2, the light reflected by the dichroic film 4 can be efficiently emitted in a specific direction. Can be reflected. Further, the dichroic film 4 selectively transmits a light beam of a predetermined wavelength and reflects light beams of other wavelengths among the light beams condensed by the microlens 2, thereby efficiently separating the light beams. can do.
[0096]
Examples of embodiments of the present invention are listed below.
[0097]
Embodiment 1 An imaging apparatus including an imaging element in which pixels are arranged in a matrix,
The pixel is a light-collecting unit that collects light incident from the outside,
Of the light beams condensed by the light condensing unit, a wavelength selection unit that selectively transmits a light beam of a predetermined wavelength and reflects a light beam of another wavelength.
Reflected light introducing means for introducing the light reflected by the wavelength selecting means into the wavelength selecting means corresponding to the adjacent pixel;
An imaging device comprising: a photoelectric conversion unit that converts a light beam transmitted by the wavelength selection unit into an electric signal.
[0098]
[Embodiment 2] The reflected light beam introducing means is provided between the first refractive index layer and the wavelength selecting means, and a first refractive index layer in contact with the light collecting means, and 2. The imaging apparatus according to claim 1, further comprising a second refractive index layer having a higher refractive index than the refractive index layer.
[0099]
[Embodiment 3] The imaging apparatus according to embodiment 2, wherein an interface between the first refractive index layer and the second refractive index layer has an inclined surface from an optical axis toward a peripheral portion.
[0100]
[Embodiment 4] A high-refractive-index portion provided in contact with each of the wavelength-selecting unit and the photoelectric conversion unit, and a high-refractive-index portion provided around the high-refractive-index portion, and The imaging device according to any one of Embodiments 1 to 3, further comprising a low refractive index portion having a low refractive index.
[0101]
Fifth Embodiment The interface between the second refractive index layer and the wavelength selection means has an inclined surface from an optical axis toward a peripheral portion, according to any one of the second to fourth embodiments. Imaging device.
[0102]
[Sixth Embodiment] An interface between the first refractive index layer and the second refractive index layer has a quadrangular pyramid shape protruding toward the photoelectric conversion unit. The imaging device according to any one of claims 1 to 5.
[0103]
[Embodiment 7] The interface according to any one of Embodiments 2 to 5, wherein an interface between the second refractive index layer and the wavelength selecting unit has a shape of a quadrangular pyramid that is convex toward the light collecting unit. The imaging device according to claim 1.
[0104]
[Eighth Embodiment] The imaging apparatus according to any one of the first to seventh embodiments, wherein the wavelength selection unit is a dichroic film.
[0105]
【The invention's effect】
According to the present invention, the light reflected by the wavelength selecting means is introduced into the wavelength selecting means of an adjacent pixel, so that the utilization efficiency of incident light is improved without complicating or miniaturizing the structure. An imaging device having an imaging element can be realized.
[Brief description of the drawings]
FIG. 1 is a schematic sectional view of an imaging device in an imaging device according to a first embodiment.
FIG. 2 is a perspective view of the imaging device of the imaging device according to the first embodiment as viewed obliquely from above.
FIG. 3 is a cross-sectional perspective view of an imaging device in the imaging device according to the first embodiment.
FIG. 4 is a diagram illustrating a layer configuration of a dichroic film of the image sensor.
FIG. 5 is a transmission characteristic diagram of a dichroic film.
FIG. 6 is a ray trace diagram of reflected light from an image sensor in the image capturing apparatus according to the first embodiment.
FIG. 7 is a ray trace diagram of light transmitted through an imaging device in the imaging device according to the first embodiment.
FIG. 8 is a diagram illustrating transmission characteristics of each color of the dichroic film.
FIG. 9 is a layout diagram of RGB pixels of the image sensor.
FIG. 10 is a characteristic diagram when green light is reflected by the transmitting dichroic film and blue light is transmitted by the transmitting dichroic film.
FIG. 11 is a characteristic diagram when the light is reflected by the dichroic film for transmitting green light and transmits through the dichroic film for transmitting red light.
FIG. 12 is a characteristic diagram when light is reflected by a dichroic film for transmitting red light and is transmitted by a dichroic film for transmitting green light.
FIG. 13 is a characteristic diagram when light is reflected by a dichroic film for transmitting blue light and is transmitted by a dichroic film for transmitting green light.
FIG. 14 is a schematic diagram showing a light beam capturing range in a green pixel.
FIG. 15 is a schematic diagram showing a light ray capturing range in a green pixel.
FIG. 16 is a characteristic diagram of MTF for a spatial frequency component in the horizontal direction of a green pixel.
FIG. 17 is a characteristic diagram of an MTF of a pixel having a rectangular opening.
FIG. 18 is a diagram illustrating an MTF of an optical low-pass filter.
FIG. 19 is a characteristic diagram of the MTF of the aberration-free lens assuming that the F-number is 4.0 and the wavelength of the object image is 550 nm.
FIG. 20 is a characteristic diagram of a total MTF of pixels of an imaging lens and an image sensor when a green pixel is used.
FIG. 21 is a characteristic diagram of an overall MTF in a pixel of an imaging lens, an optical low-pass filter, and an image sensor when a conventional pixel is used.
FIG. 22 is a characteristic diagram of a total MTF when a conventional pixel does not use an optical low-pass filter.
FIG. 23 is a schematic cross-sectional view of an imaging device in the imaging device according to the second embodiment.
FIG. 24 is a ray trace diagram of light reflected by an image sensor in the image pickup apparatus according to the second embodiment.
FIG. 25 is a ray trace diagram of transmitted light of an image sensor in the image capturing apparatus according to the second embodiment.
FIG. 26 is a schematic configuration diagram of an imaging device in an imaging device according to a third embodiment.
FIG. 27 is a schematic diagram illustrating a light beam capturing range of a pixel of an image sensor in the image capturing apparatus according to the third embodiment.
FIG. 28 is a schematic diagram illustrating a light capturing range of a pixel of an image sensor in an image capturing apparatus according to a third embodiment.
FIG. 29 is a schematic cross-sectional view of a pixel of an imaging device in a conventional imaging device.
FIG. 30 is a schematic plan view of an imaging device in a conventional imaging device.
FIG. 31 is a schematic configuration diagram of an imaging element in a conventional imaging device.
FIG. 32 is a characteristic diagram of a color filter.
[Explanation of symbols]
1 Silicon wafer
2 Micro lens
3 photoelectric conversion unit
4 Wavelength selector
4g Green transmission wavelength selector
4r Red transmission wavelength selector
5 First refractive index layer
50g, 51g, 50r, 51r Tapered surface
6. Second refractive index layer
7 Light refractive index part
71 Tapered surface
8 Low refractive index part
10 Poly wiring layer
11 AL1 wiring layer
12 AL2 wiring layer
13 AL3 wiring layer
14 Flattening layer
15 Refraction layer
16 Cap layer
17 Microlens support layer
18 Low refractive index layer
41 Color Filter
41g green color filter
41r red color filter
61 Image sensor (conventional)
61mnr red pixel
61mng, 61mng2 Green pixel
61mnb blue pixel
91 Effective pixel aperture
92 Effective pixel aperture (reflected light)
100 Image sensor
100g, 200g Green pixel
100r, 101r, 200r, 201r Red pixel
110, 120 Object light

Claims (1)

画素がマトリクス状に配設された撮像素子を備える撮像装置であって、
前記画素は、外部から入射した光線を集光する集光手段と、
前記集光手段で集光された光線のうち、所定の波長の光線を選択的に透過するとともに他の波長の光線を反射する波長選択手段と、
前記波長選択手段で反射させた光線を隣接する画素に対応する前期波長選択手段に導入する反射光線導入手段と、
前記波長選択手段で透過させた光線を電気信号に変換する光電変換手段とを有することを特徴とする撮像装置。
An imaging device including an imaging element in which pixels are arranged in a matrix,
The pixel is a light-collecting unit that collects light incident from the outside,
Of the light beams condensed by the light condensing unit, a wavelength selection unit that selectively transmits a light beam of a predetermined wavelength and reflects a light beam of another wavelength.
Reflected light introducing means for introducing the light reflected by the wavelength selecting means into the wavelength selecting means corresponding to the adjacent pixel;
An imaging device comprising: a photoelectric conversion unit that converts a light beam transmitted by the wavelength selection unit into an electric signal.
JP2002358597A 2002-12-10 2002-12-10 Imaging device Withdrawn JP2004193284A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002358597A JP2004193284A (en) 2002-12-10 2002-12-10 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002358597A JP2004193284A (en) 2002-12-10 2002-12-10 Imaging device

Publications (2)

Publication Number Publication Date
JP2004193284A true JP2004193284A (en) 2004-07-08
JP2004193284A5 JP2004193284A5 (en) 2006-01-26

Family

ID=32758272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002358597A Withdrawn JP2004193284A (en) 2002-12-10 2002-12-10 Imaging device

Country Status (1)

Country Link
JP (1) JP2004193284A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013035858A1 (en) * 2011-09-07 2013-03-14 株式会社ニコン Stereoscopic image pickup apparatus and pickup device used for stereoscopic image pickup apparatus
JP2013143533A (en) * 2012-01-12 2013-07-22 Toshiba Corp Solid state image pickup device
KR20170106251A (en) * 2017-07-20 2017-09-20 이영종 Hyper spectral image sensor and 3D Scanner using it
CN113363267A (en) * 2020-03-04 2021-09-07 爱思开海力士有限公司 Image sensor with a plurality of pixels
US20210320138A1 (en) * 2020-04-13 2021-10-14 SK Hynix Inc. Image sensing device
KR20220157245A (en) * 2021-05-20 2022-11-29 주식회사 디오에프연구소 3D scanner
KR20220157249A (en) * 2021-05-20 2022-11-29 주식회사 디오에프연구소 3D scanner
KR20220157247A (en) * 2021-05-20 2022-11-29 주식회사 디오에프연구소 3D scanner

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013035858A1 (en) * 2011-09-07 2015-03-23 株式会社ニコン IMAGING DEVICE AND IMAGING ELEMENT FOR IMAGING DEVICE
WO2013035858A1 (en) * 2011-09-07 2013-03-14 株式会社ニコン Stereoscopic image pickup apparatus and pickup device used for stereoscopic image pickup apparatus
JP2013143533A (en) * 2012-01-12 2013-07-22 Toshiba Corp Solid state image pickup device
US9252177B2 (en) 2012-01-12 2016-02-02 Kabuhiki Kaisha Toshiba Solid state imaging device
KR20170106251A (en) * 2017-07-20 2017-09-20 이영종 Hyper spectral image sensor and 3D Scanner using it
KR102040368B1 (en) * 2017-07-20 2019-11-04 이영종 Hyper spectral image sensor and 3D Scanner using it
US11688752B2 (en) * 2020-03-04 2023-06-27 SK Hynix Inc. Image sensor
CN113363267A (en) * 2020-03-04 2021-09-07 爱思开海力士有限公司 Image sensor with a plurality of pixels
US20210280625A1 (en) * 2020-03-04 2021-09-09 SK Hynix Inc. Image sensor
US20210320138A1 (en) * 2020-04-13 2021-10-14 SK Hynix Inc. Image sensing device
US11676982B2 (en) 2020-04-13 2023-06-13 SK Hynix Inc. Image sensing device
CN113542638A (en) * 2020-04-13 2021-10-22 爱思开海力士有限公司 Image sensing device
CN113542638B (en) * 2020-04-13 2024-06-28 爱思开海力士有限公司 Image sensing device
KR20220157245A (en) * 2021-05-20 2022-11-29 주식회사 디오에프연구소 3D scanner
KR20220157249A (en) * 2021-05-20 2022-11-29 주식회사 디오에프연구소 3D scanner
KR20220157247A (en) * 2021-05-20 2022-11-29 주식회사 디오에프연구소 3D scanner
KR102607613B1 (en) 2021-05-20 2023-11-29 주식회사 디오에프연구소 3D scanner
KR102607610B1 (en) 2021-05-20 2023-11-29 주식회사 디오에프연구소 3D scanner
KR102607612B1 (en) 2021-05-20 2023-11-29 주식회사 디오에프연구소 3D scanner

Similar Documents

Publication Publication Date Title
JP4652634B2 (en) Imaging device
US7245324B2 (en) Image pickup apparatus for photographing an object
KR100508068B1 (en) Image pickup apparatus
JP5538553B2 (en) Solid-state imaging device and imaging apparatus
JP4740018B2 (en) Solid-state imaging device, camera, and signal processing method
KR101265432B1 (en) Imaging element and imaging apparatus using the same
JP5619294B2 (en) Imaging apparatus and focusing parameter value calculation method
JP5180538B2 (en) Imaging device and imaging apparatus
JP2011197080A (en) Image pickup apparatus and camera
TW201031188A (en) Image capture device
JP2000151933A (en) Image pickup element and its manufacture
JP2005167356A (en) Imaging device
JP2003258220A (en) Imaging element and imaging device
WO2013099151A1 (en) Solid-state imaging element, imaging device, and signal processing method
JP2004193284A (en) Imaging device
JP5263373B2 (en) Semiconductor device and imaging device
JP3397758B2 (en) Imaging device
JP4027116B2 (en) Imaging device and imaging apparatus
JP4298209B2 (en) Imaging apparatus and system
JP2004128201A (en) Solid-state imaging device and imaging system
JP4027115B2 (en) Imaging device and imaging apparatus
JP2012156194A (en) Solid state imaging device and imaging apparatus
WO2022113363A1 (en) Optical element, imaging element, and imaging device
JP5074760B2 (en) Image pickup device and image pickup apparatus having the same
JPH023990A (en) Solid-state image pickup element

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051202

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080602