JP4182459B2 - Condenser simulator - Google Patents

Condenser simulator Download PDF

Info

Publication number
JP4182459B2
JP4182459B2 JP13286199A JP13286199A JP4182459B2 JP 4182459 B2 JP4182459 B2 JP 4182459B2 JP 13286199 A JP13286199 A JP 13286199A JP 13286199 A JP13286199 A JP 13286199A JP 4182459 B2 JP4182459 B2 JP 4182459B2
Authority
JP
Japan
Prior art keywords
light
incident
pixel
microlens
camera lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP13286199A
Other languages
Japanese (ja)
Other versions
JP2000324518A (en
Inventor
直紀 大河内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP13286199A priority Critical patent/JP4182459B2/en
Publication of JP2000324518A publication Critical patent/JP2000324518A/en
Application granted granted Critical
Publication of JP4182459B2 publication Critical patent/JP4182459B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は固体撮像素子を用いたカメラ装置に関し、特に、撮影中に撮像画面上の各画素の受光部に効率よく集光するためのマイクロレンズを各画素に設けて構成される固体撮像素子を用いたカメラ装置において、固体撮像素子への集光をシミュレーションして、マイクロレンズを設計するための集光シミュレータに関する。
【0002】
【従来の技術】
固体撮像素子は、近年においては多画素化が進み、画素サイズも小さくなってきている。CCD(Charge-Coupled Device)等では電荷転送部、増幅用トランジスタ等の占める領域、すなわち、光電変換部以外の領域が構造的に存在するため、多画素化が進むに応じて撮像画面全体に占める受光面の開口率が下がる傾向にある。このようなことから従来から、受光面直上にマイクロレンズを形成して入射光を受光面に集光させ、実効開口率を高める工夫が知られている。このような構成において、最適なマイクロレンズ構造を求めるために、従来からいくつかの集光シミュレーションが試みられている(例えば、特許第2574524号公報参照)。
【0003】
このようなマイクロレンズ付き固体撮像素子における集光シミュレーションの一例を、図13を参照して説明する。このシミュレーションにおいては、トーリック面を有したドーム型のマイクロレンズ101を有した固体撮像素子を仮定し、この固体撮像素子に平行光が入射するときの集光シミュレーションを行っている。この図には固体撮像素子における一つの画素構成を示しており、図から分かるように、各画素毎にマイクロレンズ101およびこれにより集光された光を受光する受光部(フォトダイオード)102が設けられており、受光部102の受光面を露出させるとともにこれ以外の領域を覆う遮光膜103が設けられている。このような画素が同一平面上にマトリクス状に配設されて固体撮像素子が構成される。
【0004】
この集光シミュレーションにおいては、各画素の構造データ(例えば、画素配列ピッチ、隣同士のマイクロレンズの間隔、マイクロレンズの厚み、マイクロレンズから受光部までの距離、受光部の開口寸法、遮光膜の厚さなど)と、マイクロレンズおよびその下における受光部までの部分の光学定数(屈折率等)が与えられ、スネルの法則から、光線追跡によりマイクロレンズによる入射光線の集光の様子がシミュレーションされる。このシミュレーション結果による光線経路を、図13に実線で示しており、入射光線本数に対して受光部102に到達した光線の本数の割合を計算すれば、マイクロレンズ付き固体撮像素子の実効開口率が求まる。
【0005】
【発明が解決しようとする課題】
しかしながら、上記のシミュレーションでは平行光線のみを用いて光線追跡を行っているため、撮像素子の全面に平行光線が入射するというきわめて特殊な場合の集光率を比較的精度良く計算できるだけである。実際のビデオカメラやデジタルスチルカメラでは、カメラレンズ系で集光された光線が撮像素子に入射しており、レンズの焦点距離やF数によって入射光線の入射角等は大きく変化する。また、レンズの光軸上の画素に集光する光と、光軸から離れた位置の画素に集光する光とでは、同じ焦点距離とF数のカメラレンズ系で集光された光でも、画素への光入射の様子は異なる。このため、上記シミュレーションではこのような実際に生じる入射光線に対して正確なシミュレーションを行えないという問題がある。
【0006】
さらに、マイクロレンズの表面を解析的な曲面として厳密にモデル化することは非常に難しく、上記のようにトーリック面と仮定した場合には、マイクロレンズの平面視における中心部の曲面は実際のレンズに良好に近似するが、マイクロレンズの端部では実際のレンズの曲面形状との誤差が大きくなり、集光率の計算誤差が大きくなるという問題がある。このようなことから、従来のシミュレーション方法では、カメラレンズ系の影響や、画素端部でのシェーディングをシミュレーションできず、シミュレーション精度があまり良くなかった。
【0007】
本発明は、このような問題に鑑みたもので、マイクロレンズの曲面モデルをより現実の形状に近づけ、固体撮像素子に入射する前のカメラレンズ系の条件を考慮し、さらに、固体撮像素子の各画素部におけるシェーディングも考慮し、精度の高い集光シミュレータを提供することを目的とする。
【0008】
【課題を解決するための手段】
このような目的達成のため、本発明に係る集光シミュレータは、カメラレンズ系により集光された光を画素毎にマイクロレンズを設けた固体撮像素子に入射させるときの三次元集光シミュレーションを行うものであるが、少なくともカメラレンズ系の焦点距離およびF数(レンズ口径比)を含む、該カメラレンズ系の光学設計値に関するデータを入力する第1入力手段と、マイクロレンズの構造に関するデータを入力する第2入力手段と、マイクロレンズの下側における固体撮像素子を構成する平坦化膜、カラーフィルタ、配線部、フォトダイオード等の構造に関するデータを入力する第3入力手段と、固体撮像素子における撮像面の画素を構成するフォトダイオードの位置を入力する第4入力手段と、マイクロレンズ、平坦化膜、カラーフィルタ、配線部、フォトダイオード等の各界面での光の入射角および屈折角、光の透過率および反射率を計算する第1計算手段と、カメラレンズ系の口径食を考慮し、入射光強度の光軸に対する入射角依存性を計算する第2計算手段と、上記第1〜第4入力手段により入力されたデータと上記第1および第2計算手段の計算結果とに基づいて、各画素位置におけるフォトダイオードの受光量を計算する第3計算手段とを備えて集光シミュレータを構成する。
【0009】
なお、固体撮像素子にフォトダイオードの受光面の周りを遮光する遮光膜を設け、集光シミュレータが遮光膜における光反射を計算する第4計算手段も備え、上記第3計算手段は、第4計算手段も加えてフォトダイオードの受光量の計算を行うようにするのが好ましい。
【0010】
このような構成の本発明に係る集光シミュレータを用いれば、マイクロレンズの曲面モデルをより現実の形状に近づけ、固体撮像素子に入射する前のカメラレンズ系の条件(例えば、レンズ口径食、入射角度等)を考慮し、さらに、固体撮像素子の各画素部におけるシェーディングも考慮し、精度の高い集光シミュレーションを行うことができる。
【0011】
【発明の実施の形態】
以下、図面を参照して本発明の好ましい実施形態について説明する。まず、本発明の集光シミュレータにより集光シミュレーションを行う対象となる固体撮像素子の一つの画素構造を図1(a)に模式的に示している。この画素構造は、シリコン(Si)基板507の上に、固体撮像素子の駆動回路等が設けられた配線部506、遮光膜505、平坦化膜504、OFC(オンチップカラーフィルタ)503、無反射膜502およびマイクロレンズ501を図示のように積層形成して構成される。なお、カラーフィルタ503は通常、原色系か補色系の色付き樹脂であり、無反射膜502および平坦化膜504は無色透明な樹脂である。また、遮光膜505には矩形状の遮光開口部508が形成されており、シリコン基板507にはこの遮光開口部508に対向して受光部(フォトダイオード)509が設けられている。
【0012】
マイクロレンズ501は、平面図上の中心点Oを通る垂直線上において頂点Aを有し、この位置での厚みt(=距離AO)を有し、平面図におけるx方向の幅BCとy方向の幅CDとを有する。さらに、x方向のギャップはdivTの二倍の値であり、y方向のギャップはdivLの二倍の値である。遮光膜505のx方向およびy方向の開口幅をそれぞれTcutおよびLcutで示し、受光部のx方向およびy方向の幅をそれぞれTPDおよびLPDで示している。この図にはコーン状に集光された入射光束510を示しており、この光束は無反射膜502の表面の点Gに焦点を有する。本実施形態では、このような入射光束が画素上の全面に無数に入射するとしてシミュレーションが行われる。
【0013】
次にマイクロレンズの形状について説明する。マイクロレンズ501を頂点Aと中心点Oを結ぶ垂直線AOを含む任意の面で切断した場合の断面形状を、図1(b)に示しており、本実施形態においてはこの断面が円弧状になると仮定した。なお、この円弧の曲率は、厚さt(=AO)が決まっているため、底辺EFの長さが決まれば定義され、この長さは、図1(a)から分かるように、切断面の位置に応じて変化する。
【0014】
本シミュレーションでは、集光率の計算において、撮像素子に入射する前の光学系(例えば、カメラのレンズ系)の依存性を考慮するために、カメラレンズ系の焦点距離f、F数に基づいて入射光の入射角度を計算する。さらに、特に大型撮像素子などでは、撮像素子の撮像面中心部と撮像面端部では同じカメラレンズ系でも入射角の入射角度成分が変化し、撮像面端部の方がより斜め入射成分が多くなり、シェーディングが起こりやすくなる。このような現象をシミュレーションするために、カメラレンズ系の焦点距離f、F数および撮像面内の位置に依存する、ある角度幅を持ったコーン状に集光した入射光を考え、このコーン状の入射光が一つの画素上のあらゆる場所に無数に入射する場合における各光線の追跡を行って集光率を計算する。
【0015】
まず、カメラレンズ系からの入射光が、入射する画素位置によってどのように変化すると仮定しているかを、図2により説明する。図2(a)は、焦点距離f、レンズ有効径φのレンズの光軸上の焦点における集光の様子を二次元の断面図で示したものである。レンズの口径比F数は、下記の式(1)で表される。
【0016】
【数1】
F=f/φ …(1)
【0017】
図2(a)における光軸上の焦点での最大入射角θijは、下記の式(2)で表される。
【0018】
【数2】
θij =tan−1{(φ/2)/f}
=tan−1{1/(2F)} …(2)
【0019】
焦点距離f=50mm、F=1.4のレンズ系を使用した場合の撮像面中心部での画素の入射光の最大入射角は、上記(2)式より、θij =19.65°であり、画素への入射光は図2(a)の光軸を中心に、上下とも0〜19.65°までの入射角の光が入射する。
【0020】
図2(b)では、同じカメラレンズ系の像面上で、光軸から距離Lだけずれ位置(図における点Oの位置)での集光の様子を示している。このように光軸からずれた位置で、カメラレンズ系による口径食(ケラレ、またはvignetting)が無いと仮定すると、0点での入射角は図2(b)のθi2〜θi3の範囲であることが分かる、これらθi2およびθi3は、図2(b)より下記(3)および(4)式で表される。
【0021】
【数3】

Figure 0004182459
【0022】
具体的には、例えば、APS-Cサイズの撮像素子の画素端部(中心からx方向に12.55mm、y方向に8.35mmずれた位置の画素部)では、集光位置は撮像素子上(結像面上)をカメラレンズ系の光軸に垂直な方向に15.07mm(={(12.55mm)2+(8.35mm)2}1/2)だけずれた位置となる。よって、焦点距離f=50mm、F=1.4のカメラレンズ系を使用した場合、(3),(4)式に、F=1.4、f=50、L=15.07を代入すると、図2(b)でθi2とθi3はそれぞれ、33.37°と3.19°となり、光軸上の場合に比べて、より入射角度の大きい斜め入射成分の光線が多くなる。
【0023】
本シミュレーションでは、上記のような光線追跡を三次元空間で行い、入射光線の本数に対する受光部での受光本数の割合を計算することによって集光率を計算する。但し、実際のカメラレンズ系では、1枚の単レンズのみで構成されていることは殆どなく、複数のレンズが組み合わされて構成されている、このため、結像面側での実際のカメラレンズの光学系では焦点距離fとレンズ有効径φの代わりに、射出瞳位置feffと射出瞳径φeffを用いる方が有効である。この場合には、光軸上では上記式(1),(2)にf=feffとφ=φeffを代入してもそのまま成り立つ。また、本シミュレーションでは、光軸からずれた位置に置いても、上記式(3),(4)にf=feffとφ=φeffを代入してそのまま成り立つと仮定している。さらに、光軸からのずれ量に基づいてfeffとφeffの変化量を計算することにより精度の高いシミュレーションが可能となる。このため、以後の計算においても、実際に用いられるカメラレンズ系を想定したシミュレーションの場合には、f=feffとφ=φeffを代入して計算する。
【0024】
さらに、カメラレンズ系からくるある角度幅を持った入射光束は、そのカメラレンズ系特有の光線密度を持っており(一般に、レンズ系の中心を通る光線の方が、端部を通る光線より光線密度が高い)、その光線密度に比例して入射角度幅内に光線を配分する(図2(c)参照)。当然ながら、配分する光線の本数を増やして、光線追跡を密に行えば計算の精度は上がるが、計算時間と計算精度のバランスを考えて、光線の本数を設定する。
【0025】
本実施例では、上記シミュレーションを三次元に拡張する。カメラレンズ系からの光が撮像素子の各画素にどのように集光すると仮定しているかについて、図3を用いて説明する。空間を、xyzの座標軸で表現するとして、原点を中心としたxy平面内の円Oをカメラレンズ系の有効径内領域とする。なお、レンズデータとして、ケラレを考慮するために、撮像素子上の各画素の位置(光軸からのずれ量)によって、射出瞳径の変化を考慮し、図3の円Oの形(射出瞳)を変化させることにより、さらに精度の高いシミュレーションが可能である。
【0026】
図において、長さfはカメラレンズ系の焦点距離を示し、四角形ABCDは撮像面を示し、点aは画素中心部を示し、点bは撮像素子上の任意の画素部を示し、番号701はカメラレンズ系からの入射光線束を示す。本シミュレーションでは円Oを底面として、点bを頂点としたコーン状の光束701が点bの画素に集光すると仮定している。このコーン状の光束701は画素中心部a以外では傾いた円錐形であり、点bが四角形ABCDの端部になるほどその傾きはきつくなり、画素端部での斜め入射光束を良く再現している。
【0027】
二次元集光シミュレーションの場合、図2(c)と同様に、図3のカメラレンズ系からくるある角度幅を持ったコーン状の光束も、そのカメラレンズ系特有の光線密度を持っており(一般に、レンズ系の中心を通る光線の方が、端部を通る光線より光線密度が高い、すなわち、図3の円Oの中心近傍で光線密度が高い)、その光線密度に比例して入射角度幅内、すなわち、図3の円O内に光線を配分する。当然、配分する光線の本数を増やして密に光線追跡を行えば計算の精度は上がるが、計算時間と計算精度のバランスを考慮して、光線の本数を決定する。
【0028】
次に、各画素での集光シミュレーション方法について、まず、図4(a)〜(d)の二次元断面図を用いて説明する。図4(a)は図2(a)のカメラレンズ系からの入射光束の集光点O1近傍の1画素を拡大して示す。図4(a)において、Wpitchは1画素分のピッチであり、WPDは受光部の開口幅であり、309は画素表面から受光部310までの構造を示し、この構造部分は、無反射膜層、OCF層、平坦化膜層、遮光Al膜層、配線部層などの積層構造からなる。点O1は各集光光束301〜304の集光点305〜308を示しており、図2(a)の点O1に対応している。
【0029】
撮像素子に焦点が合っている場合、前述のようにある角度幅を持った入射光束が画素に入射する際に、撮像素子の最表面には図2(a)で示される形状の集光光束301〜304が一画素上に無数に入射する。なお、図4(a)の場合は、マイクロレンズがない場合であり、各入射光束301〜304の焦点はそれぞれ撮像素子の最表面に合っている。このとき、ある角度幅を持った入射光束301〜304を1画素上に等間隔に設定する。このとき、当然ながら、入射光束の設定間隔を密にすれば計算精度はあがるが、計算時間と計算精度のバランスを考慮してその間隔を設定する。
【0030】
また、厳密には、1画素上の集光点305〜308に収束する光束301〜304はそれぞれ、光軸からの距離に応じて微妙に集光状態が変化する。当然、光束301〜304を、光軸からの距離を正確に勘案して計算しても良い。本実施例では、同一画素上では各集光光束301〜304は同一の形状であると近似してシミュレーションを行っている。図4(a)の場合は1画素の集光点を4点に分割し、入射光束も四つ描いたケースである。図4(a)の場合、二次元平面での集光を考慮しており、マイクロレンズが存在しないため、入射光線の総本数に対する受光部内に到達する光線の本数は、1画素の幅(すなわち、画素ピッチ)に対する受光部の開口幅の割合(=WPD/Wpitch)と一致する。
【0031】
次に、図4(b)を用いて、撮像素子中心部の画素において、マイクロレンズ311が設けられている場合の集光率の計算について説明する。ここでは、カメラレンズ系からの入射光線束は図4(a)の場合と同様に撮像素子の最表面に焦点が合うように入射すると仮定する。すると、各光線束は撮像素子の最表面上に形成されたマイクロレンズにより、図4(b)に示すように集光し、このときの入射光線の総本数に対する受光部内に到達する光線の本数が、マイクロレンズ付きの撮像素子の集光率に対応する。
【0032】
さらに、図4(c),(d)を用いて、撮像面端部の画素で、マイクロレンズがある場合の集光率の計算について説明する。図4(c)は図2(b)のカメラレンズ系からの光束の集光点O2近傍の1画素を拡大した図であり、撮像面端部の画素でのマイクロレンズがない場合の集光の様子を示す。図2(b)のO2点に集光する光束301はある角度幅を有している。集光光束302〜304も光束301と同様の形状の集光光束であり、それぞれ集光点306〜308を有する。撮像素子に焦点が合っている場合、撮像面端部の画素では、前述のようにある角度幅を持った入射光束が画素に入射する際に、撮像素子の最表面には図2(b)で示される形状の集光光束301が1画素に無数に入射する。なお、図4(c)の場合はマイクロレンズがないケースであり、4個の集光光束301〜304が示されており、各入射光束の焦点はそれぞれ撮像素子の最表面にあっている。
【0033】
このとき、ある角度幅を持った入射光束301〜304を1画素上に等間隔に設定するが、当然その間隔を密にすれば計算精度は上がるが、計算時間と計算精度のバランスを考慮してその間隔を設定する。また、厳密には1画素上の集光点305〜308に収束する光束301〜304はそれぞれ、光軸からの距離に応じて微妙に変化する。当然、光束301〜304を光軸からの距離を正確に勘案してそれぞれ計算しても良い。本実施例では、同一画素上では各集光光束301〜304は同一の形状であると近似してシミュレーションを行っている。なお、図4(c)の場合は1画素の集光点を4点に分割し、入射光束も四つ描いたケースである。
【0034】
図4(c)の場合、二次元平面での集光を考慮しており、マイクロレンズが存在しないため、入射光線の総本数に対する受光部内に到達する光線の本数は、1画素の幅(すなわち、画素ピッチ)に対する受光部の開口幅の割合(=WPD/Wpitch)と一致する。
【0035】
次に、図4(d)は図2(b)のカメラレンズ系からの光束の集光点O2近傍の1画素を拡大した図であり、さらに画素部にマイクロレンズがある場合を示す。このとき、カメラレンズ系からの入射光線束は撮像面端部の画素であることから、図2(b)のように、ある斜め入射成分を中心に幅を持った入射角の光線束になる。そして、このような光線束が図4(b)と同様に、撮像素子の最表面に焦点が合うように入射すると仮定する。すると各光線束は撮像素子の最表面に形成されたマイクロレンズにより、図4(d)に示すように集光し、このときの入射光線の総本数に対する受光部内に到達する光線の本数が、マイクロレンズ付きの撮像素子の集光率となる。
【0036】
本実施例では上記シミュレーションを三次元に拡張する。各画素部での入射光線束が入射する様子を図5に示す。この図では、図1(a)と同様に、カメラレンズ系からコーン状に集光してきた入射光線束810〜890を示しており、各入射光線束810〜890は焦点P1〜P9を有する。この図は一つの画素を示しており、最表面部801の上に波線で示すマイクロレンズ802を有する。上記焦点P1〜P9は最表面部801の上にあり、面上に均等に分配されている。各入射光線束810〜890は、図3で定義された光線束701に該当し、カメラレンズ系の焦点距離fとF数と撮像面上の画素位置によって決定される。図5では、入射光線束の焦点は9点である。一画素面上でこの点の数を増やして入射光線束の数を増やせば、より密に光線追跡ができて計算精度は上がるが、計算時間と計算精度のバランスを考慮して光線束の本数を設定する。そして、各光線束内に図7の光線束と同様の光線密度を定義する。
【0037】
次に、上記のように定義された各光線が、マイクロレンズおよびその下の無反射膜、OCF、平坦化膜、遮光Al層、配線層などを通って受光部に至るときの光線追跡の計算を行う。なお、この光線追跡の計算に際して、各材料の界面の屈折の計算を、式(5)に示すスネルの法則を用いて行った。
【0038】
【数4】
1 sinθ1 = n2 sinθ2 …(5)
【0039】
式(5)において、n1は入射側の屈折率、θ1はその入射角、n2は屈折して透過した側の屈折率、θ2はその屈折角である。また、界面での屈折率差に起因する反射率、透過率の計算では、下記式(6)〜(9)に示すフレネルの反射、透過係数を用いて、S偏光とP偏光それぞれについて入射角度依存性を考慮した。
【0040】
【数5】
Figure 0004182459
【0041】
式(6)において、TPは界面でのP偏光の透過率である。式(7)において、TSは界面でのS偏光の透過率である。また、入射光は自然光であり、電場の振動方向がランダムに変化する光であると仮定し、その場合の自然光の透過率は、P偏光とS偏光の二つの成分の強度の和と考えて計算した。よって、式(8)において、Tは自然光の界面での透過率である。また、式(9)において、Rは界面での吸収がないと仮定した場合の自然光の界面での反射率である。必要があれば、参照データとして各界面での反射率の計算も、式(9)により可能である。
【0042】
さらに、カメラレンズ系への斜め入射成分については、cos4θ法則を用いた。これはカメラレンズ系の光軸上の入射光束の像点での明るさを1とすると、反射や吸収を考慮しなければ、入射光束と光軸の傾きがθの光束の像点での明るさはcos4θとなるという法則である。
【0043】
その他、カメラレンズ系特有のケラレのデータを入力することにより、より高精度なシミュレーションが行える。
【0044】
以上のように、撮像素子の各画素に入射する光はその前のカメラレンズ系の光学的構造(焦点距離fとF数)と、画素の撮像素子上の位置によって入射の様子が変化する。撮像素子の撮像面端部でのシェーディングを考慮した光学設計を行うためには、これらのことを考慮する必要がある。本発明の集光シミュレータでは、以上のことを全て考慮して、撮像素子の撮像面端部でのシェーディングや集光率のカメラレンズF数依存性を三次元で精度良くシミュレーションすることができる。
【0045】
図6は、本発明の三次元集光シミュレータの概略構成を示すブロック図である。このシミュレータは、マイクロレンズ付き撮像素子の一画素の幾何学的、光学的構造パラメータと、カメラレンズ系により決定される撮像素子への集光光線の入射条件と、入射光線本数や、一画素上の入射点数などの計算条件を入力する装置(キーボードなど)601と、光線追跡計算および集光率計算を行うCPU602と、計算結果を出力する出力装置(CRTやプリンタなど)603を有する。
【0046】
図7A〜図7Cは、本発明の三次元集光シミュレータの演算装置内で実行されるシミュレーションの演算フローチャートを示し、図7Aから図7Bに繋がり、さらに、図7Bから図7Cに繋がる。以下、図7A〜7Cのフローチャートを用いて実際のシミュレーションの手順の説明を行う。
【0047】
このシミュレーションにおいては、キーボードから、撮像素子の画素ピッチPと、マイクロレンズの厚みd micおよび屈折率nmicと、マイクロレンズのx方向の分離幅divTおよびy方向の分離幅divLといったような、マイクロレンズの幾何学的および光学的構造を入力する(ステップS1)と、これら入力データに基づいてマイクロレンズの曲面が決定される(ステップS2)。
【0048】
次に、無反射膜の厚みdarおよび屈折率narと、OCFの厚みdocfおよび屈折率nocfと、平坦化膜dflatおよび屈折率nflatと、遮光膜の厚みdcutと、開口部のx方向およびy方向のサイズTcut,Lcutと、配線部層の厚みdwireおよび屈折率nwireと、受光部のx方向およびy方向のサイズTPD,LPDとを入力する(ステップS3)と、これら入力データに基づいて、撮像画素部の幾何学的、光学的構造が決定される(ステップS4)。
【0049】
次に、カメラレンズ系の焦点距離fとF数、および撮像素子上のどの位置の画素位置を指定するかという条件、具体的には、中心画素からx方向へのずれ量Tpixとy方向へのずれ量Lpixとを入力する(ステップS5)と、これら入力データに基づいて、カメラレンズ系から撮像素子への光の入射条件が決まる(ステップS6)。
【0050】
次に、一画素への入射光線の本数の入力を行う。ここではまず、入射光線束の数(例えば、図5の場合には点P1〜P9までの9点)をx方向の分割数NTとy方向の分割数NL(図5の場合はNT,NLとも3点)を用いて入力する。さらに、一つの入射光線束に対する光線本数の設定を行うが、この設定の仕方を図8を用いて説明する。コーン状の図形は図3と同様の入射光線束を表し、点Oを中心とした円はカメラレンズ系の有効径を表す。撮像素子の任意の画素部bに、カメラレンズの有効径内がコーン状に入射してきた光線束の焦点が位置する。そして、カメラレンズの有効径内の円を、中心Oを通るn個の方向d1〜dnに分割する。例えば、図8では、d1〜d4の4方向に分割している。さらに、各方向をm個の点に分割する(図9では6個)。これにより、一入射光線束の光線本数は(n×m)本となる。また、一画素に入射する総光線本数は、(n×m×NT×NL)本となり、このデータ入力を行えば(ステップS7)、追跡する光線の総本数と、その入射方向および位置が決定する。
【0051】
以上により、計算条件の設定が終了し、計算がスタートする(ステップS8)。そして、入射光が直接マイクロレンズへ入射するか否か判断し(ステップS9)、マイクロレンズへ入射するならば、入射光とマイクロレンズの交点を計算して、空気とマイクロレンズの界面での入射角、屈折角と光の透過率Tmicを求め(ステップS10)、さらに、屈折後のマイクロレンズ内での入射光線追跡を行い、入射光のマイクロレンズと無反射膜界面での交点を計算して、その界面での入射角、屈折角と光の透過率Tarを求める(ステップS11a)。また、入射光がマイクロレンズへは入射せずに直接無反射膜へ入射する場合は、入射光と無反射膜の交点を計算して、空気と無反射膜の界面での入射角、屈折角と光の透過率Tarを求める(ステップS11b)。
【0052】
次に、ステップS11aおよび11bでの計算結果に基づいて、これらの光の屈折後の無反射膜内での入射光線追跡を行い、入射光の無反射膜とOCF界面での交点を計算して、その界面での入射角、屈折角と光の透過率Tocfを求める(ステップS12)。そして、屈折後のOCF内での入射光線追跡を行い、入射光のOCFと平坦化膜界面での交点を計算して、その界面での入射角、屈折角と光の透過率Tflatを求める(ステップS13)。
【0053】
次に、屈折後の平坦化膜内での入射光線追跡を行い、入射光の平坦化膜と遮光Al膜との界面での交点を計算して、遮光Al膜の開口部へ光が入射しているかどうかを判断する(ステップS14)。開口部へ入射している場合は、開口部は主に撮像素子の配線層であるため、既にステップS14で計算された平坦化膜と遮光Al膜開口部(すなわち、配線層)との交点を用いて、その界面での入射角、屈折角と光の透過率Twireを求める(ステップS15)。一方、開口部へ入射していない場合には、その光線は受光部には達しないと判断して、受光光線本数NPDには、それまでの受光光線本数NPDを代入する(ステップS17b)。
【0054】
遮光Al膜開口部を通過してきた入射光については、屈折後の配線層内での入射光線追跡を行い、入射光の配線層と受光部面との界面での交点を計算して受光部内へ光が入射しているか否かを判断する(ステップS16)。受光部へ入射している場合は、式(10)によりNPDを求める(ステップS17a)。
【0055】
【数6】
PD=NPD+(Tmic×Tar×Tocf×Tflat×Twire)
…(10)
【0056】
上記ステップS17aもしくは17bにおけるNPDの計算がなされると、全光線について追跡計算したか否かを判断し(ステップS18)、まだ、光線追跡計算をしていない入射光線があれば、その入射光線についてステップS9に戻って上記と同様の計算を行う。また、全入射光線について計算が終了したら、式(11)より集光率を求める(ステップS19)。
【0057】
【数7】
集光率=NPD/(NT×NL×n×m) …(11)
【0058】
最後に集光率をCRTやプリンター等に出力する(ステップS20)。また、受光部での光線の集光する様子や、任意の断面での集光の様子を、途中の光線追跡中の座標をプロットする事により二次元で描画して、CRTやプリンター等に出力する(ステップS20)。
【0059】
なお、この実施例では撮像素子のマイクロレンズの集光シミュレーションについて説明したが、本シミュレーションは撮像素子に限定されるものではなく、LCDやプロジェクターなどのシミュレーションにも応用可能である。
【0060】
次に、実際のシミュレーション結果を図9および図10に示す。これらの図10は全て同じ画素構造を示し、マイクロレンズ1001、無反射膜1002、OCF1003、平坦化膜1004、遮光Al膜1005、配線層1006および受光部1007をSi基板1008の上に有して画素が構成される。
【0061】
図9(a)は、焦点距離50mm、F数11のカメラレンズを用いた場合の、中心部の画素での集光の様子を、光軸と平行な断面図で見たものである。図9(b)は、焦点距離50mm、F数1.4のカメラレンズを用いた場合の、中心部の画素での集光の様子を、光軸と平行な断面図で見たものである。図10(a)は、焦点距離50mm、F数11のカメラレンズを用いた場合の、撮像面の端部の画素での集光の様子を、光軸と平行な断面図で見たものである。図10(b)は、焦点距離50mm、F数1.4のカメラレンズを用いた場合の、撮像面の端部の画素での集光の様子を、光軸と平行な断面図で見たものである。
【0062】
これらの図からも分かるように、同じ素子でもカメラレンズのF数によって集光の様子が異なっており、F数が小さくなるほど受光部での集光が甘くなり、遮光Al膜によって蹴られる光が多くなる。また、撮像面の端部の画素では斜め入射光が遮光Al膜により蹴られてシェーディングが起こっている様子がわかる。
【0063】
さらに、図9および図10の遮光Al膜1005の端面での光の反射を考慮すると集光率は上がってくる。つまり、入射光線が遮光Al膜の端面で反射して、その反射光が受光部1007に入射する場合には、その光線は受光された光線としてカウントするのである。実際に本集光シミュレータで上記のように遮光Al膜の端面での反射を考慮したシミュレーションを行うと、反射を考慮しない場合に比べて、カメラレンズ系のF数にも依存して、数パーセントから十数パーセントの集光率の向上が確認できる。また、実際のCCD等の素子では、遮光膜が受光面まで落とし込んで形成されている場合が多く、その遮光面での反射を考慮する方が、より現実に忠実なシミュレーションとなると考えられる。本集光シミュレータでも、遮光膜での反射を計算することにより、より高精度なシミュレーションを可能としている。
【0064】
図11は、同じ画素構造で、焦点距離100mm、F数11のカメラレンズを用いた場合の、撮像面の端部の画素での集光の様子を、光軸と平行な断面で見たものである。図10(a)と比べて、焦点距離が長い分だけ斜め入射光の傾きが小さく、シェーディングも起こりにくくなっている様子が分かる。
【0065】
図12は、図9および図10と同様の条件で、撮像面中心部の画素と撮像面端部の画素の集光率のF数依存性を計算した結果である。この計算では、光軸からずれた位置でのカメラレンズ系によるケラレも考慮した光強度分布を持った入射光線束を用いている。▲1▼の曲線は、撮像面中心部の画素での集光率のF数依存性を示す。▲2▼の曲線は、撮像面端部の画素での集光率のF数依存性を示し、カメラレンズ系に依存する口径食や、cos4θ法則も考慮したシミュレーション結果である。▲3▼の曲線は、撮像面端部の画素で、画素の受光部に対してマイクロレンズを少し撮像面中心部よりずらした場合の集光率のF数依存性を示す。この図から分かるように、シェーディングにより、中心部に比べて端部において集光率が落ちており、中心部および端部とも、F数が小さくなるに従って集光率が落ちている。また、マイクロレンズを最適な位置にずらすことにより、撮像面端部の画素の集光率が上がっている。
【0066】
さらに、多種多様なカメラレンズ系の光軸上および光軸から外れた任意の位置での(撮影距離などの撮影条件の依存性やケラレなども考慮した)光強度シミュレータにより、撮像面の任意の位置での集光光束を計算して、その集光光束を用いて本三次元集光シミュレータにより、マイクロレンズによる撮像素子内での集光の様子を光線追跡することができる。さらに、受光部であるフォトダイオード内での光電変換効率および信号読み出し線への転送効率を、デバイスシミュレータにより計算することにより、固体撮像素子による撮像状態を高精度に且つ総合的にシミュレーションすることが可能となる。
【0067】
【発明の効果】
以上説明したように、本発明に係る集光シミュレータを用いれば、マイクロレンズの曲面モデルをより現実の形状に近づけ、固体撮像素子に入射する前のカメラレンズ系の条件(例えば、レンズ口径食、入射角度等)を考慮し、さらに、固体撮像素子の各画素部におけるシェーディングも考慮し、精度の高い集光シミュレーションを行うことができる。
【0068】
より具体的には、撮像素子に入射する前のカメラレンズ系からの入射光線の条件を、レンズの焦点距離とF数で規定し、さらに、撮像素子の各画素位置の光軸からのずれを考慮して、マイクロレンズの三次元的な形状とその下部構造の幾何学的および光学的な構造を規定して光線追跡することにより、画素端部でのシェーディングや、集光率のカメラレンズ系のF数依存性などのシミュレーションが可能となり、より実用的で高精度なマイクロレンズの三次元集光シミュレーションを行うことが可能となる。そして、この三次元集光シミュレータにより、集光率向上のための最適構造や、画素端部でのシェーディング抑制のための最適構造の設計を高精度に行うことが可能となる。
【図面の簡単な説明】
【図1】固体撮像素子の画素構造を示す模式図およびこの素子を構成するマイクロレンズの断面図である。
【図2】カメラレンズ系による集光例を示す二次元断面図である。
【図3】カメラレンズ系から撮像素子への集光光束モデルを示す説明図である。
【図4(a)】マイクロレンズがない固体撮像素子における中心部の画素での集光シミュレーションモデルの二次元断面図である。
【図4(b)】マイクロレンズを有する固体撮像素子における中心部の画素での集光シミュレーションモデルの二次元断面図である。
【図4(c)】マイクロレンズがない固体撮像素子における撮像面端部の画素での集光シミュレーションモデルの二次元断面図である。
【図4(d)】マイクロレンズを有する固体撮像素子における撮像面端部の画素での集光シミュレーションモデルの二次元断面図である。
【図5】本発明に係る実施例における三次元集光シミュレータモデルの画素への集光の様子を示す模式図である。
【図6】本発明に係る実施例における三次元シミュレータの概略構成を示すブロック図である。
【図7A】本発明に係る三次元シミュレータにおける演算内容を示すフローチャートである。
【図7B】本発明に係る三次元シミュレータにおける演算内容を示すフローチャートである。
【図7C】本発明に係る三次元シミュレータにおける演算内容を示すフローチャートである。
【図8】本発明におけるカメラレンズから撮像素子への入射光線束の光線本数の設定方法を説明するための模式図である。
【図9】焦点距離50mm、F11およびF1.4のカメラレンズを用いた場合での、本発明の三次元シミュレータによる中心部の画素での計算結果を示す断面説明図である。
【図10】焦点距離50mm、F11およびF1.4のカメラレンズを用いた場合での、本発明の三次元シミュレータによる端部の画素での計算結果を示す断面説明図である。
【図11】焦点距離100mm、F11のカメラレンズを用いた場合での、本発明の三次元シミュレータによる端部の画素での計算結果を示す断面説明図である。
【図12】本発明に係る三次元シミュレータによる、中心部と端部のそれぞれの画素での集光率のF数依存性と、画素の端部でマイクロレンズをずらした場合の集光率のF数依存性を示すグラフである。
【図13】従来のマイクロレンズ集光シミュレーションモデルによる計算例を示す説明図である。
【符号の説明】
100 ドーム型マイクロレンズ
102,310 受光部
301〜304 カメラレンズからの入射光束
305〜308 カメラレンズからの入射光束の集光点
311,501,802 マイクロレンズ
502,1002 無反射膜
503,1003 オンチップカラーフィルタ(OCF)
504,1004 平坦化膜
505,1005 遮光膜
506,1006 配線層
507,1008 Si基板
509,1007 受光部
601 三次元シミュレータ入力装置
602 三次元シミュレータCPU
603 三次元シミュレータ出力装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a camera device using a solid-state image sensor, and in particular, to a solid-state image sensor configured by providing each pixel with a microlens for efficiently condensing on a light receiving portion of each pixel on an imaging screen during photographing. The present invention relates to a condensing simulator for designing a microlens by simulating condensing on a solid-state imaging device in the used camera device.
[0002]
[Prior art]
In recent years, the number of pixels of solid-state imaging devices has increased, and the pixel size has also decreased. In a CCD (Charge-Coupled Device) or the like, an area occupied by a charge transfer unit, an amplifying transistor, etc., that is, an area other than the photoelectric conversion unit is structurally present, and therefore occupies the entire imaging screen as the number of pixels increases. The aperture ratio of the light receiving surface tends to decrease. For this reason, conventionally, a device has been known in which a microlens is formed immediately above the light receiving surface to collect incident light on the light receiving surface, thereby increasing the effective aperture ratio. In such a configuration, in order to obtain an optimal microlens structure, several light collection simulations have been attempted (see, for example, Japanese Patent No. 2574524).
[0003]
An example of a condensing simulation in such a solid-state imaging device with a microlens will be described with reference to FIG. In this simulation, a solid-state imaging device having a dome-shaped microlens 101 having a toric surface is assumed, and a condensing simulation is performed when parallel light is incident on the solid-state imaging device. This figure shows one pixel configuration in the solid-state imaging device. As can be seen from the figure, each pixel is provided with a microlens 101 and a light receiving portion (photodiode) 102 for receiving the light condensed thereby. In addition, a light shielding film 103 that exposes the light receiving surface of the light receiving unit 102 and covers other regions is provided. Such pixels are arranged in a matrix on the same plane to constitute a solid-state imaging device.
[0004]
In this condensing simulation, the structure data of each pixel (for example, the pixel arrangement pitch, the distance between adjacent microlenses, the thickness of the microlens, the distance from the microlens to the light receiving portion, the aperture size of the light receiving portion, the light shielding film Thickness) and the optical constants (refractive index, etc.) of the microlens and the light receiving part below it are given, and from Snell's law, the state of condensing incident light by the microlens is simulated by ray tracing. The The ray path based on the simulation result is shown by a solid line in FIG. 13, and the effective aperture ratio of the solid-state imaging device with a microlens can be obtained by calculating the ratio of the number of rays reaching the light receiving unit 102 with respect to the number of incident rays. I want.
[0005]
[Problems to be solved by the invention]
However, in the above simulation, since ray tracing is performed using only parallel rays, it is only possible to calculate the condensing rate in a very special case where parallel rays are incident on the entire surface of the image sensor with relatively high accuracy. In an actual video camera or digital still camera, the light beam collected by the camera lens system is incident on the image sensor, and the incident angle of the incident light beam varies greatly depending on the focal length and F number of the lens. In addition, the light condensed on the pixel on the optical axis of the lens and the light condensed on the pixel at a position away from the optical axis may be light condensed by the camera lens system having the same focal length and F number. The state of light incident on the pixel is different. For this reason, the above simulation has a problem that an accurate simulation cannot be performed for such incident light rays actually generated.
[0006]
Furthermore, it is very difficult to accurately model the surface of a microlens as an analytical curved surface, and when the toric surface is assumed as described above, the curved surface at the center of the microlens in plan view is the actual lens. However, at the end of the microlens, there is a problem that an error with the actual curved surface shape of the lens becomes large, and a calculation error of the condensing rate becomes large. For this reason, in the conventional simulation method, the influence of the camera lens system and the shading at the pixel end cannot be simulated, and the simulation accuracy is not so good.
[0007]
The present invention has been made in view of such a problem. The curved surface model of the microlens is made closer to an actual shape, the conditions of the camera lens system before entering the solid-state image sensor are taken into account, and further, the solid-state image sensor An object of the present invention is to provide a highly accurate light collecting simulator in consideration of shading in each pixel unit.
[0008]
[Means for Solving the Problems]
In order to achieve such an object, the light collecting simulator according to the present invention is configured to make light collected by the camera lens system incident on a solid-state imaging device provided with a microlens for each pixel. Three-dimensional Condensation simulation is performed, Including at least the focal length and F number (lens aperture ratio) of the camera lens system, First input means for inputting data relating to the optical design values of the camera lens system, second input means for inputting data relating to the structure of the microlens, a flattening film constituting a solid-state imaging device below the microlens, and color Third input means for inputting data relating to the structure of the filter, wiring portion, photodiode, etc., fourth input means for inputting the position of the photodiode constituting the pixel of the imaging surface in the solid-state imaging device, microlens, flattening Taking into account the vignetting of the camera lens system, the first calculation means for calculating the incident angle and refraction angle of light at each interface of the film, color filter, wiring portion, photodiode, etc., light transmittance and reflectance, Second calculation means for calculating the incident angle dependence of the incident light intensity on the optical axis; data input by the first to fourth input means; and the first and second input means. Beauty based on the calculation result of the second calculation means, constitute a condensing simulator and a third calculation means for calculating the amount of light received by the photodiode in each pixel position.
[0009]
The solid-state imaging device is provided with a light-shielding film that shields light around the light-receiving surface of the photodiode, and the light collecting simulator also includes fourth calculation means for calculating light reflection at the light-shielding film. It is preferable to calculate the amount of light received by the photodiode in addition to the means.
[0010]
When the condensing simulator according to the present invention having such a configuration is used, the curved surface model of the microlens is brought closer to an actual shape, and the conditions of the camera lens system before entering the solid-state imaging device (for example, lens vignetting, incidence Angle, etc.), and further, shading in each pixel portion of the solid-state imaging device is taken into consideration, so that a highly accurate condensing simulation can be performed.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. First, FIG. 1A schematically shows one pixel structure of a solid-state imaging device that is a target for performing a light concentration simulation by the light concentration simulator of the present invention. This pixel structure has a wiring portion 506 provided with a drive circuit for a solid-state imaging device on a silicon (Si) substrate 507, a light shielding film 505, a planarizing film 504, an OFC (on-chip color filter) 503, a non-reflective. A film 502 and a microlens 501 are laminated and formed as shown. The color filter 503 is usually a primary or complementary colored resin, and the non-reflective film 502 and the planarizing film 504 are colorless and transparent resins. In addition, a rectangular light shielding opening 508 is formed in the light shielding film 505, and a light receiving portion (photodiode) 509 is provided on the silicon substrate 507 so as to face the light shielding opening 508.
[0012]
The microlens 501 has a vertex A on a vertical line passing through the center point O on the plan view, has a thickness t (= distance AO) at this position, and has a width BC in the x direction and a width BC in the plan view. And a width CD. Further, the gap in the x direction is twice the value of divT, and the gap in the y direction is twice the value of divL. The opening widths of the light shielding film 505 in the x direction and the y direction are indicated by Tcut and Lcut, respectively, and the widths of the light receiving portion in the x direction and the y direction are indicated by TPD and LPD, respectively. This figure shows an incident light beam 510 condensed in a cone shape, and this light beam has a focal point at a point G on the surface of the non-reflective film 502. In the present embodiment, simulation is performed on the assumption that such incident light beams enter innumerably on the entire surface of the pixel.
[0013]
Next, the shape of the microlens will be described. FIG. 1B shows a cross-sectional shape when the microlens 501 is cut along an arbitrary plane including the vertical line AO connecting the vertex A and the center point O. In this embodiment, the cross-section is an arc shape. It was assumed that The curvature of the arc is defined when the length of the base EF is determined because the thickness t (= AO) is determined. As can be seen from FIG. It changes according to the position.
[0014]
In this simulation, in order to consider the dependence of the optical system (for example, the camera lens system) before entering the image sensor in the calculation of the light collection rate, it is based on the focal length f and F number of the camera lens system. The incident angle of incident light is calculated. Furthermore, especially in large image sensors, the incident angle component of the incident angle changes at the center of the imaging surface and the edge of the imaging surface of the image sensor even with the same camera lens system, and there are more oblique incident components at the imaging surface edge. And shading is likely to occur. In order to simulate such a phenomenon, the incident light condensed in a cone shape having a certain angle width depending on the focal length f and F number of the camera lens system and the position in the imaging surface is considered. When the incident light enters a number of places on one pixel innumerably, each light ray is traced to calculate the light collection rate.
[0015]
First, how the incident light from the camera lens system is assumed to change depending on the incident pixel position will be described with reference to FIG. FIG. 2A is a two-dimensional cross-sectional view showing the state of light collection at the focal point on the optical axis of a lens having a focal length f and a lens effective diameter φ. The aperture ratio F number of the lens is expressed by the following formula (1).
[0016]
[Expression 1]
F = f / φ (1)
[0017]
The maximum incident angle θij at the focal point on the optical axis in FIG. 2A is expressed by the following equation (2).
[0018]
[Expression 2]
θij = tan -1 {(Φ / 2) / f}
= Tan -1 {1 / (2F)} (2)
[0019]
When using a lens system with a focal length f = 50 mm and F = 1.4, the maximum incident angle of incident light at the center of the imaging surface is θij = 19.65 ° from the above equation (2). Incident light is incident on the top and bottom of the optical axis in FIG.
[0020]
In FIG. 2B, on the image plane of the same camera lens system, a position shifted by a distance L from the optical axis (point O in the figure). 2 The state of light collection at (position) is shown. Assuming that there is no vignetting (vignetting) by the camera lens system at a position deviated from the optical axis in this way, 0 2 It can be seen that the incident angle at the point is in the range of θi2 to θi3 in FIG. 2B. These θi2 and θi3 are expressed by the following equations (3) and (4) from FIG.
[0021]
[Equation 3]
Figure 0004182459
[0022]
Specifically, for example, at the pixel end portion of the APS-C size image sensor (the pixel portion at a position shifted by 12.55 mm in the x direction and 8.35 mm in the y direction), the condensing position is on the image sensor (concatenation). 15.07mm (= {(12.55mm) in the direction perpendicular to the optical axis of the camera lens system) 2 + (8.35mm) 2 } 1/2 ). Therefore, when a camera lens system having a focal length f = 50 mm and F = 1.4 is used, substituting F = 1.4, f = 50, and L = 1.07 into the equations (3) and (4), FIG. Thus, θi2 and θi3 are 33.37 ° and 3.19 °, respectively, and there are more rays of oblique incident components having a larger incident angle than those on the optical axis.
[0023]
In this simulation, the light ray tracing as described above is performed in a three-dimensional space, and the light collection rate is calculated by calculating the ratio of the number of light received by the light receiving unit to the number of incident light rays. However, in an actual camera lens system, it is rarely configured by only one single lens, and is configured by combining a plurality of lenses. Therefore, an actual camera lens on the image plane side In this optical system, instead of the focal length f and the effective lens diameter φ, the exit pupil position f eff And exit pupil diameter φ eff It is more effective to use In this case, f = f in the above equations (1) and (2) on the optical axis. eff And φ = φ eff Even if is substituted, it holds as it is. Further, in this simulation, f = f in the above formulas (3) and (4) even if the position is shifted from the optical axis. eff And φ = φ eff Is assumed to hold as is. Further, based on the amount of deviation from the optical axis, f eff And φ eff By calculating the amount of change, it is possible to perform a highly accurate simulation. For this reason, in the subsequent calculations, f = f in the case of simulation assuming an actually used camera lens system. eff And φ = φ eff Substitute for and calculate.
[0024]
Furthermore, the incident light flux with a certain angle width coming from the camera lens system has a light density peculiar to the camera lens system (in general, the light beam that passes through the center of the lens system is light ray than the light beam that passes through the end. The light is distributed within the incident angle width in proportion to the light density (see FIG. 2C). Of course, if the number of rays to be distributed is increased and the ray tracing is performed closely, the accuracy of the calculation increases. However, the number of rays is set in consideration of the balance between the calculation time and the calculation accuracy.
[0025]
In this embodiment, the simulation is extended to three dimensions. How the light from the camera lens system is assumed to be collected on each pixel of the image sensor will be described with reference to FIG. Assuming that the space is expressed by the coordinate axes of xyz, a circle O in the xy plane with the origin at the center is set as an effective diameter area of the camera lens system. In order to consider vignetting as lens data, the change of the exit pupil diameter is considered according to the position of each pixel (deviation from the optical axis) on the image sensor, and the shape of the circle O in FIG. ) Can be changed to perform a more accurate simulation.
[0026]
In the figure, the length f indicates the focal length of the camera lens system, the square ABCD indicates the imaging surface, the point a indicates the pixel center, the point b indicates an arbitrary pixel portion on the imaging device, and the number 701 is Fig. 2 shows an incident light bundle from a camera lens system. In this simulation, it is assumed that a cone-shaped light beam 701 with the circle O as the bottom surface and the point b as the apex is condensed on the pixel at the point b. This cone-shaped light beam 701 has a conical shape that is inclined except at the pixel center portion a, and the inclination becomes tighter as the point b becomes the end of the square ABCD, and the oblique incident light beam at the pixel end is well reproduced. .
[0027]
In the case of the two-dimensional focusing simulation, as in FIG. 2C, the cone-shaped light flux having a certain angular width coming from the camera lens system in FIG. 3 has a light density peculiar to the camera lens system ( In general, the light beam passing through the center of the lens system has a higher light beam density than the light beam passing through the end, that is, the light beam density is higher near the center of the circle O in FIG. The light rays are distributed within the width, that is, within the circle O in FIG. Naturally, if the number of light rays to be distributed is increased and the light ray tracing is performed closely, the accuracy of the calculation is improved, but the number of light rays is determined in consideration of the balance between the calculation time and the calculation accuracy.
[0028]
Next, a condensing simulation method for each pixel will be described first with reference to the two-dimensional cross-sectional views of FIGS. FIG. 4A shows a condensing point O of the incident light beam from the camera lens system of FIG. 1 One pixel in the vicinity is shown enlarged. In FIG. 4A, Wpitch is a pitch for one pixel, and Wpitch PD Is the opening width of the light receiving portion, 309 indicates the structure from the pixel surface to the light receiving portion 310, and this structure portion includes a non-reflective film layer, an OCF layer, a planarizing film layer, a light shielding Al film layer, a wiring portion layer, It has a laminated structure. A point O1 indicates the condensing points 305 to 308 of the respective condensed light beams 301 to 304, and corresponds to the point O1 in FIG.
[0029]
When the image sensor is in focus, when an incident light beam having a certain angle width enters the pixel as described above, the condensed light beam having the shape shown in FIG. 2A is formed on the outermost surface of the image sensor. 301 to 304 are incident innumerably on one pixel. In the case of FIG. 4A, there is no microlens, and the incident light beams 301 to 304 are focused on the outermost surface of the image sensor. At this time, incident light beams 301 to 304 having a certain angle width are set at equal intervals on one pixel. At this time, as a matter of course, if the setting interval of the incident light beam is made dense, the calculation accuracy is improved, but the interval is set in consideration of the balance between the calculation time and the calculation accuracy.
[0030]
Strictly speaking, the light fluxes 301 to 304 that converge at the light condensing points 305 to 308 on one pixel change slightly in the light condensing state according to the distance from the optical axis. Of course, the light fluxes 301 to 304 may be calculated in consideration of the distance from the optical axis accurately. In the present embodiment, the simulation is performed by approximating that the condensed light beams 301 to 304 have the same shape on the same pixel. In the case of FIG. 4A, the condensing point of one pixel is divided into four points and four incident light beams are drawn. In the case of FIG. 4 (a), since condensing on a two-dimensional plane is considered and there is no microlens, the number of rays reaching the light receiving unit with respect to the total number of incident rays is the width of one pixel (that is, , Pixel pitch) ratio of aperture width of light receiving portion (= W PD / Wpitch).
[0031]
Next, with reference to FIG. 4B, calculation of the light collection rate in the case where the micro lens 311 is provided in the pixel at the center of the image sensor will be described. Here, it is assumed that the incident light beam from the camera lens system is incident so as to be focused on the outermost surface of the image sensor as in the case of FIG. Then, each light bundle is condensed as shown in FIG. 4B by the microlens formed on the outermost surface of the image sensor, and the number of light rays reaching the light receiving portion with respect to the total number of incident light rays at this time. Corresponds to the light collection rate of the image pickup device with a microlens.
[0032]
Furthermore, the calculation of the light condensing rate when there is a microlens at the pixel on the edge of the imaging surface will be described with reference to FIGS. FIG. 4C is an enlarged view of one pixel in the vicinity of the condensing point O2 of the light beam from the camera lens system of FIG. 2B, and condensing when there is no microlens at the pixel on the edge of the imaging surface. The state of is shown. The light beam 301 condensed at the point O2 in FIG. 2B has a certain angular width. Condensed light beams 302 to 304 are also condensed light beams having the same shape as the light beam 301, and have condensing points 306 to 308, respectively. When the imaging element is in focus, when an incident light beam having a certain angular width is incident on the pixel at the edge of the imaging surface, the outermost surface of the imaging element is shown in FIG. The collected light beam 301 having the shape indicated by is incident innumerably on one pixel. In the case of FIG. 4C, there is no microlens, and four condensed light beams 301 to 304 are shown, and the focal points of the incident light beams are respectively on the outermost surface of the image sensor.
[0033]
At this time, incident light beams 301 to 304 having a certain angular width are set at equal intervals on one pixel. Naturally, if the interval is made dense, calculation accuracy increases, but considering the balance between calculation time and calculation accuracy. Set the interval. Strictly speaking, the light beams 301 to 304 that converge at the condensing points 305 to 308 on one pixel change slightly according to the distance from the optical axis. Of course, the light fluxes 301 to 304 may be calculated in consideration of the distance from the optical axis accurately. In the present embodiment, the simulation is performed by approximating that the condensed light beams 301 to 304 have the same shape on the same pixel. In the case of FIG. 4C, the condensing point of one pixel is divided into four points and four incident light beams are drawn.
[0034]
In the case of FIG. 4 (c), since condensing in a two-dimensional plane is considered and there is no microlens, the number of light rays reaching the light receiving portion with respect to the total number of incident light rays is the width of one pixel (that is, , Pixel pitch) ratio of aperture width of light receiving portion (= W PD / Wpitch).
[0035]
Next, FIG. 4D is an enlarged view of one pixel near the condensing point O2 of the light beam from the camera lens system of FIG. 2B, and further shows a case where there is a microlens in the pixel portion. At this time, since the incident light bundle from the camera lens system is a pixel at the edge of the imaging surface, as shown in FIG. 2B, the incident light bundle has a width with a certain oblique incident component as the center. . Then, it is assumed that such a light bundle is incident on the outermost surface of the image sensor so as to be in focus as in FIG. 4B. Then, each light bundle is condensed as shown in FIG. 4D by the microlens formed on the outermost surface of the image sensor, and the number of light rays reaching the light receiving portion with respect to the total number of incident light rays at this time is This is the light collection rate of the image sensor with a microlens.
[0036]
In this embodiment, the simulation is extended to three dimensions. FIG. 5 shows a state in which an incident light beam is incident on each pixel unit. In this figure, similar to FIG. 1A, incident beam bundles 810 to 890 collected in a cone shape from the camera lens system are shown, and each of the incident beam bundles 810 to 890 has a focal point P. 1 ~ P 9 Have This figure shows one pixel and has a microlens 802 indicated by a wavy line on the outermost surface portion 801. Focus P above 1 ~ P 9 Are on the top surface 801 and are evenly distributed on the surface. Each incident light bundle 810 to 890 corresponds to the light bundle 701 defined in FIG. 3, and is determined by the focal length f and F number of the camera lens system and the pixel position on the imaging surface. In FIG. 5, the focal point of the incident light bundle is nine points. Increasing the number of incident rays and increasing the number of incident rays on one pixel surface increases the accuracy of ray tracing and increases the calculation accuracy, but the number of ray bundles takes into account the balance between calculation time and calculation accuracy. Set. Then, the same light density as the light bundle in FIG. 7 is defined in each light bundle.
[0037]
Next, calculation of ray tracing when each ray defined as described above passes through the microlens and the antireflective film, OCF, planarization film, light shielding Al layer, wiring layer, and the like below the microlens. I do. In this ray tracing calculation, the refraction of the interface of each material was calculated using Snell's law shown in Equation (5).
[0038]
[Expression 4]
n 1 sinθ 1 = N 2 sinθ 2 ... (5)
[0039]
In formula (5), n 1 Is the refractive index on the incident side, θ 1 Is its angle of incidence, n 2 Is the refractive index of the side refracted and transmitted, θ 2 Is the refraction angle. In addition, in the calculation of the reflectance and transmittance due to the difference in refractive index at the interface, the incident angle for each of S-polarized light and P-polarized light using the Fresnel reflection and transmission coefficients shown in the following formulas (6) to (9). Dependency was taken into account.
[0040]
[Equation 5]
Figure 0004182459
[0041]
In equation (6), T P Is the transmittance of P-polarized light at the interface. In equation (7), T S Is the transmittance of S-polarized light at the interface. In addition, it is assumed that the incident light is natural light and the vibration direction of the electric field changes randomly, and the transmittance of natural light in that case is considered as the sum of the intensities of the two components of P-polarized light and S-polarized light. Calculated. Therefore, in Equation (8), T is the transmittance at the natural light interface. In Equation (9), R is the reflectance at the interface of natural light on the assumption that there is no absorption at the interface. If necessary, calculation of the reflectance at each interface as reference data is also possible using equation (9).
[0042]
Furthermore, regarding the oblique incident component to the camera lens system, cos Four The θ law was used. If the brightness at the image point of the incident light beam on the optical axis of the camera lens system is 1, the brightness at the image point of the incident light beam and the light beam whose inclination of the optical axis is θ, unless reflection or absorption is considered. Cos Four The law is that θ.
[0043]
In addition, more accurate simulation can be performed by inputting vignetting data peculiar to the camera lens system.
[0044]
As described above, the incident state of light incident on each pixel of the image sensor changes depending on the optical structure (focal length f and F number) of the previous camera lens system and the position of the pixel on the image sensor. In order to perform an optical design in consideration of shading at the end of the imaging surface of the imaging device, it is necessary to take these into consideration. In consideration of all of the above, the condensing simulator of the present invention can accurately simulate three-dimensionally the shading at the imaging surface end of the image sensor and the dependency of the condensing rate on the camera lens F number.
[0045]
FIG. 6 is a block diagram showing a schematic configuration of the three-dimensional focusing simulator of the present invention. This simulator uses the geometric and optical structure parameters of one pixel of the image sensor with a microlens, the incident condition of the condensed light beam on the image sensor determined by the camera lens system, the number of incident light beams, A device (keyboard or the like) 601 for inputting calculation conditions such as the number of incident points, a CPU 602 for performing ray tracing calculation and light collection rate calculation, and an output device (CRT, printer, or the like) 603 for outputting the calculation results.
[0046]
7A to 7C show calculation flowcharts of the simulation executed in the calculation device of the three-dimensional focusing simulator of the present invention, which are connected to FIGS. 7A to 7B and further to FIGS. 7B to 7C. Hereinafter, the actual simulation procedure will be described with reference to the flowcharts of FIGS.
[0047]
In this simulation, a microlens such as a pixel pitch P of an image sensor, a microlens thickness d mic and a refractive index nmic, a separation width divT in the x direction of the microlens, and a separation width divL in the y direction from the keyboard. When the geometrical and optical structures are input (step S1), the curved surface of the microlens is determined based on these input data (step S2).
[0048]
Next, the thickness dar and the refractive index nar of the non-reflective film, the thickness docf and the refractive index nocf of the OCF, the flattened film dflat and the refractive index nflat, the thickness dcut of the light shielding film, and the x and y directions of the opening When the sizes Tcut and Lcut, the thickness dwire and refractive index nwire of the wiring portion layer, and the sizes TPD and LPD of the light receiving portion in the x and y directions are input (step S3), imaging is performed based on these input data. The geometrical and optical structure of the pixel portion is determined (step S4).
[0049]
Next, the focal lengths f and F number of the camera lens system and the conditions for specifying the position of the pixel on the image sensor, specifically, the shift amount Tpix in the x direction from the center pixel and the y direction. Is input (step S5), the light incident condition from the camera lens system to the image sensor is determined based on the input data (step S6).
[0050]
Next, the number of incident light rays to one pixel is input. Here, first, the number of incident light bundles (for example, nine points P1 to P9 in the case of FIG. 5) is divided into the number of divisions NT in the x direction and the number of divisions NL in the y direction (NT, NL in the case of FIG. 5). (3 points). Further, the number of rays for one incident ray bundle is set, and the setting method will be described with reference to FIG. The cone-shaped figure represents the same incident ray bundle as in FIG. 3, and the circle around the point O represents the effective diameter of the camera lens system. The focal point of the light beam that has entered the cone within the effective diameter of the camera lens is located at an arbitrary pixel portion b of the image sensor. Then, the circle within the effective diameter of the camera lens is divided into n directions d1 to dn passing through the center O. For example, in FIG. 8, it is divided into four directions d1 to d4. Further, each direction is divided into m points (six in FIG. 9). As a result, the number of light rays of one incident light bundle is (n × m). Further, the total number of rays incident on one pixel is (n × m × NT × NL), and if this data is input (step S7), the total number of rays to be traced, the incident direction and position thereof are determined. To do.
[0051]
Thus, the setting of the calculation conditions is completed and the calculation starts (step S8). Then, it is determined whether or not the incident light is directly incident on the microlens (step S9). If the incident light is incident on the microlens, the intersection of the incident light and the microlens is calculated and incident at the interface between the air and the microlens. The angle, the refraction angle, and the light transmittance Tmic are obtained (step S10), and the incident ray is traced in the microlens after refraction, and the intersection of the incident light at the microlens and the non-reflective film interface is calculated. The incident angle, the refraction angle, and the light transmittance Tar at the interface are obtained (step S11a). In addition, when the incident light is directly incident on the antireflective film without entering the microlens, the intersection of the incident light and the antireflective film is calculated, and the incident angle and refraction angle at the interface between the air and the antireflective film are calculated. And the light transmittance Tar are obtained (step S11b).
[0052]
Next, based on the calculation results in steps S11a and 11b, the incident light ray is traced in the non-reflective film after refraction of these lights, and the intersection of the incident light at the non-reflective film and the OCF interface is calculated. Then, the incident angle, the refraction angle, and the light transmittance Tocf at the interface are obtained (step S12). Then, the incident ray is traced in the refracted OCF, the intersection of the incident light at the OCF and the flattening film interface is calculated, and the incident angle, the refraction angle and the light transmittance Tflat at the interface are obtained ( Step S13).
[0053]
Next, incident rays are traced in the flattened film after refraction, and the intersection of the incident light at the interface between the flattened film and the light-shielding Al film is calculated, and light enters the opening of the light-shielding Al film. It is judged whether it is (step S14). When the light is incident on the opening, since the opening is mainly the wiring layer of the image sensor, the intersection between the planarization film and the light-shielding Al film opening (that is, the wiring layer) already calculated in step S14 is determined. The incident angle, the refraction angle, and the light transmittance Twire at the interface are obtained (step S15). On the other hand, if the light does not enter the opening, it is determined that the light beam does not reach the light receiving unit, and the number of received light beams N PD The number of received light beams so far is N PD Is substituted (step S17b).
[0054]
For incident light that has passed through the opening of the light-shielding Al film, the incident ray is traced in the wiring layer after refraction, and the intersection of the incident light at the interface between the wiring layer and the light-receiving part surface is calculated to enter the light-receiving part. It is determined whether or not light is incident (step S16). When the light is incident on the light receiving portion, N is obtained from the equation (10). PD Is obtained (step S17a).
[0055]
[Formula 6]
N PD = N PD + (Tmic x Tar x Tocf x Tflat x Twire)
(10)
[0056]
N in step S17a or 17b above PD Is calculated (step S18), and if there is an incident ray that has not been subjected to ray tracing calculation, the process returns to step S9 for the incident ray and Similar calculations are performed. When the calculation is completed for all incident rays, the light collection rate is obtained from equation (11) (step S19).
[0057]
[Expression 7]
Condensing rate = NPD / (NT × NL × n × m) (11)
[0058]
Finally, the light collection rate is output to a CRT or a printer (step S20). In addition, two-dimensional drawing of the state of light condensing at the light receiving unit and the state of light condensing in an arbitrary cross section is plotted by plotting the coordinates during light ray tracing on the way, and output to a CRT or printer (Step S20).
[0059]
In this embodiment, the condensing simulation of the microlens of the image pickup device has been described. However, the present simulation is not limited to the image pickup device, and can be applied to a simulation of an LCD or a projector.
[0060]
Next, actual simulation results are shown in FIGS. 10 all show the same pixel structure, and have a microlens 1001, an antireflective film 1002, an OCF 1003, a planarizing film 1004, a light shielding Al film 1005, a wiring layer 1006, and a light receiving portion 1007 on an Si substrate 1008. A pixel is constructed.
[0061]
FIG. 9A is a cross-sectional view parallel to the optical axis showing the state of light condensing at the central pixel when a camera lens having a focal length of 50 mm and an F number of 11 is used. FIG. 9B is a cross-sectional view parallel to the optical axis showing the state of light condensing at the central pixel when a camera lens having a focal length of 50 mm and an F number of 1.4 is used. FIG. 10A is a cross-sectional view parallel to the optical axis showing the state of light condensing at the pixels at the end of the imaging surface when a camera lens having a focal length of 50 mm and an F number of 11 is used. is there. FIG. 10B is a cross-sectional view parallel to the optical axis showing the state of light condensing at the pixels at the end of the imaging surface when a camera lens having a focal length of 50 mm and an F number of 1.4 is used. is there.
[0062]
As can be seen from these figures, even in the same element, the state of condensing differs depending on the F number of the camera lens. The smaller the F number, the less the condensing at the light receiving part, and the light kicked by the light shielding Al film. Become more. Further, it can be seen that the shading is caused by the oblique incident light being kicked by the light-shielding Al film at the pixel at the end of the imaging surface.
[0063]
Furthermore, when the reflection of light at the end face of the light-shielding Al film 1005 in FIGS. 9 and 10 is taken into consideration, the light collection rate increases. That is, when incident light is reflected by the end face of the light-shielding Al film and the reflected light enters the light receiving unit 1007, the light is counted as a received light. When the simulation considering the reflection at the end face of the light-shielding Al film is actually performed with the light collecting simulator as described above, it is several percent depending on the F number of the camera lens system as compared with the case where the reflection is not considered. From this, it can be confirmed that the light collection rate is improved by a dozen percent. Further, in an actual element such as a CCD, the light shielding film is often formed down to the light receiving surface, and it is considered that a simulation more faithful to reality can be achieved by considering reflection on the light shielding surface. Even in this condensing simulator, more accurate simulation is possible by calculating the reflection at the light shielding film.
[0064]
FIG. 11 is a cross-sectional view parallel to the optical axis showing the state of light condensing at the pixel at the edge of the imaging surface when a camera lens having the same pixel structure and a focal length of 100 mm and an F number of 11 is used. It is. Compared to FIG. 10A, it can be seen that the inclination of obliquely incident light is smaller by the amount of the focal length and shading is less likely to occur.
[0065]
FIG. 12 is a result of calculating the F number dependency of the light collection rate of the pixel at the center of the imaging surface and the pixel at the edge of the imaging surface under the same conditions as in FIGS. 9 and 10. In this calculation, an incident light bundle having a light intensity distribution in consideration of vignetting by the camera lens system at a position shifted from the optical axis is used. The curve (1) shows the F number dependency of the light collection rate at the pixel at the center of the imaging surface. The curve of (2) shows the F number dependency of the light collection rate at the pixel on the edge of the imaging surface, vignetting depending on the camera lens system, cos Four The simulation results also take into account the θ law. The curve {circle around (3)} shows the F-number dependency of the light collection rate when the microlens is slightly shifted from the center of the imaging surface with respect to the light receiving portion of the pixel at the imaging surface end. As can be seen from this figure, due to shading, the light collection rate at the end is lower than at the center, and the light collection rate at both the center and the end is reduced as the F number is reduced. Further, by shifting the microlens to the optimum position, the light collection rate of the pixels at the end of the imaging surface is increased.
[0066]
In addition, a light intensity simulator on the optical axis of various camera lens systems and at any position deviating from the optical axis (considering the dependency of shooting conditions such as shooting distance and vignetting) allows any arbitrary imaging surface. The condensed light flux at the position is calculated, and using this condensed light flux, the state of light collection in the image sensor by the microlens can be traced by this three-dimensional light collection simulator. Furthermore, by calculating the photoelectric conversion efficiency and the transfer efficiency to the signal readout line in the photodiode as the light receiving unit with a device simulator, it is possible to simulate the imaging state by the solid-state imaging device with high accuracy and comprehensively. It becomes possible.
[0067]
【The invention's effect】
As described above, by using the condensing simulator according to the present invention, the curved surface model of the microlens is brought closer to an actual shape, and the conditions of the camera lens system before entering the solid-state imaging device (for example, lens vignetting, In consideration of the incident angle and the like, and further considering shading in each pixel portion of the solid-state imaging device, it is possible to perform a highly accurate light collection simulation.
[0068]
More specifically, the condition of the incident light from the camera lens system before entering the image sensor is defined by the focal length and F number of the lens, and further, the deviation from the optical axis of each pixel position of the image sensor is determined. By taking into account the ray tracing by defining the three-dimensional shape of the microlens and the geometric and optical structure of its substructure, shading at the pixel end and the camera lens system of the light collection rate F-number dependence can be simulated, and more practical and high-precision microlens three-dimensional focusing simulation can be performed. The three-dimensional light collection simulator enables the design of the optimum structure for improving the light collection rate and the optimum structure for suppressing shading at the pixel end with high accuracy.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a pixel structure of a solid-state imaging device and a cross-sectional view of a microlens that constitutes the device.
FIG. 2 is a two-dimensional cross-sectional view showing an example of light collection by a camera lens system.
FIG. 3 is an explanatory diagram showing a condensed light flux model from a camera lens system to an image sensor.
FIG. 4A is a two-dimensional cross-sectional view of a condensing simulation model at a central pixel in a solid-state imaging device having no microlens.
FIG. 4B is a two-dimensional cross-sectional view of a condensing simulation model at a central pixel in a solid-state imaging device having a microlens.
FIG. 4C is a two-dimensional cross-sectional view of a condensing simulation model at a pixel at the edge of the imaging surface in a solid-state imaging device having no microlens.
FIG. 4D is a two-dimensional cross-sectional view of a condensing simulation model at a pixel at the edge of the imaging surface in a solid-state imaging device having a microlens.
FIG. 5 is a schematic diagram showing a state of light condensing on a pixel of a three-dimensional light condensing simulator model in an embodiment according to the present invention.
FIG. 6 is a block diagram showing a schematic configuration of a three-dimensional simulator in an embodiment according to the present invention.
FIG. 7A is a flowchart showing calculation contents in the three-dimensional simulator according to the present invention.
FIG. 7B is a flowchart showing calculation contents in the three-dimensional simulator according to the present invention.
FIG. 7C is a flowchart showing calculation contents in the three-dimensional simulator according to the present invention.
FIG. 8 is a schematic diagram for explaining a method for setting the number of rays of incident light flux from the camera lens to the image sensor according to the present invention.
FIG. 9 is an explanatory cross-sectional view showing a calculation result of a pixel at the center by the three-dimensional simulator of the present invention when a camera lens having a focal length of 50 mm, F11, and F1.4 is used.
FIG. 10 is an explanatory cross-sectional view showing a calculation result at an end pixel by the three-dimensional simulator of the present invention when a camera lens having a focal length of 50 mm, F11, and F1.4 is used.
FIG. 11 is an explanatory cross-sectional view showing a calculation result at an end pixel by the three-dimensional simulator of the present invention when a camera lens having a focal length of 100 mm and F11 is used.
FIG. 12 shows the F number dependency of the light collection rate at each pixel at the center and the edge by the three-dimensional simulator according to the present invention, and the light collection rate when the microlens is shifted at the edge of the pixel. It is a graph which shows F number dependence.
FIG. 13 is an explanatory diagram illustrating a calculation example using a conventional microlens focusing simulation model.
[Explanation of symbols]
100 Dome type micro lens
102,310 light receiving part
301-304 Incident luminous flux from camera lens
305 to 308 Condensing point of incident light beam from camera lens
311 501 802 Microlens
502,1002 Non-reflective film
503,1003 On-chip color filter (OCF)
504, 1004 Planarization film
505, 1005 Shading film
506, 1006 Wiring layer
507, 1008 Si substrate
509,1007 Light receiving part
601 3D simulator input device
602 3D simulator CPU
603 3D simulator output device

Claims (2)

カメラレンズ系により集光された光を画素毎にマイクロレンズを設けた固体撮像素子に入射させるときの三次元集光シミュレーションを行う集光シミュレータであって、
少なくとも前記カメラレンズ系の焦点距離およびF数を含む、前記カメラレンズ系の光学設計値に関するデータを入力する第1入力手段と、
前記マイクロレンズの構造に関するデータを入力する第2入力手段と、
前記マイクロレンズの下側における前記固体撮像素子を構成するフォトダイオードを含む部材の構造に関するデータを入力する第3入力手段と、
前記固体撮像素子における撮像面の画素を構成する前記フォトダイオードの位置を入力する第4入力手段と、
前記マイクロレンズ、前記フォトダイオードおよび前記部材の各界面での光の入射角および屈折角、光の透過率および反射率を計算する第1計算手段と、
前記カメラレンズ系の口径食を考慮し、入射光強度の光軸に対する入射角依存性を計算する第2計算手段と、
前記第1〜第4入力手段により入力されたデータと前記第1および第2計算手段の計算結果とに基づいて、前記撮像面の各画素位置における前記フォトダイオードの受光量を計算する第3計算手段とを備えたことを特徴とする集光シミュレータ。
A light collecting simulator for performing a three-dimensional light collecting simulation when light collected by a camera lens system is incident on a solid-state imaging device provided with a microlens for each pixel,
First input means for inputting data relating to an optical design value of the camera lens system, including at least a focal length and an F number of the camera lens system;
Second input means for inputting data relating to the structure of the microlens;
Third input means for inputting data relating to a structure of a member including a photodiode constituting the solid-state imaging device on the lower side of the microlens;
A fourth input means for inputting the position of the photodiode that constitutes a pixel on the imaging surface of the solid-state imaging device;
First calculation means for calculating an incident angle and a refraction angle of light at each interface of the microlens, the photodiode, and the member, light transmittance and reflectance;
Taking into account the vignetting of the camera lens system, second calculating means for calculating the incident angle dependence of the incident light intensity on the optical axis;
Third calculation for calculating the amount of light received by the photodiode at each pixel position on the imaging surface based on the data input by the first to fourth input means and the calculation results of the first and second calculation means. And a light collecting simulator.
前記固体撮像素子が前記フォトダイオードの受光面の周りを遮光する遮光膜を有しており、前記遮光膜における光反射を計算する第4計算手段を備え、
前記第3計算手段は、前記第4計算手段の計算結果も加えて前記フォトダイオードの受光量の計算を行うことを特徴とする請求項1に記載の集光シミュレータ。
The solid-state imaging device has a light-shielding film that shields light around the light-receiving surface of the photodiode, and includes fourth calculation means for calculating light reflection in the light-shielding film,
2. The condensing simulator according to claim 1, wherein the third calculation unit calculates the amount of light received by the photodiode in addition to the calculation result of the fourth calculation unit.
JP13286199A 1999-05-13 1999-05-13 Condenser simulator Expired - Lifetime JP4182459B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13286199A JP4182459B2 (en) 1999-05-13 1999-05-13 Condenser simulator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13286199A JP4182459B2 (en) 1999-05-13 1999-05-13 Condenser simulator

Publications (2)

Publication Number Publication Date
JP2000324518A JP2000324518A (en) 2000-11-24
JP4182459B2 true JP4182459B2 (en) 2008-11-19

Family

ID=15091260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13286199A Expired - Lifetime JP4182459B2 (en) 1999-05-13 1999-05-13 Condenser simulator

Country Status (1)

Country Link
JP (1) JP4182459B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006019918A (en) * 2004-06-30 2006-01-19 Matsushita Electric Ind Co Ltd Imaging device
WO2005043893A1 (en) * 2003-11-04 2005-05-12 Matsushita Electric Industrial Co., Ltd. Imaging device
JP5272433B2 (en) 2008-02-15 2013-08-28 富士通セミコンダクター株式会社 Method and apparatus for calculating shift amount of image pickup device, image pickup device, and device incorporating image pickup device
JP5319370B2 (en) * 2009-04-06 2013-10-16 オリンパス株式会社 Imaging device pixel structure structure determination method, imaging device pixel structure structure determination program, and imaging device pixel structure structure determination device

Also Published As

Publication number Publication date
JP2000324518A (en) 2000-11-24

Similar Documents

Publication Publication Date Title
US9116271B2 (en) Image pickup apparatus
US9204067B2 (en) Image sensor and image capturing apparatus
JP5589107B2 (en) Optical image processing device
JP5914055B2 (en) Imaging device
CN101960353B (en) Focus detection device and imaging apparatus having the same
CN105593738B (en) Focus-regulating device, camera and focus adjusting method
US20090174020A1 (en) Solid-state imaging device and method for manufacturing the same
JP2001061109A (en) Image input device
CN103037180A (en) Image sensor and image pickup apparatus
CN102385168A (en) Stereoscopic imaging method and system that divides a pixel matrix into subgroups
CN107111102A (en) Focus-regulating device, camera arrangement and focus adjusting method
US7608866B2 (en) Solid-state image sensor with micro-lenses for anti-shading
JP4532968B2 (en) Focus detection device
US8860855B2 (en) Solid-state image sensor with dispersing element that disperses light according to color component, image capture device and signal processing method
US8902339B2 (en) Solid-state imaging element and dispersing element array for improved color imaging
US10868945B2 (en) Light-field camera and method using wafer-level integration process
JP4182459B2 (en) Condenser simulator
JPH0338570B2 (en)
JP2010074218A (en) Solid-state image pickup element and method of manufacturing the same, and image pickup apparatus using the solid-state image pickup element
JPH05243543A (en) Solid-state image sensing device
JP5412892B2 (en) Lens shape design method, lens formation method, imaging device, and photomask design method
JP2010087399A (en) Simulation method of solid-state imaging device
JPH0548980A (en) Solid-state image pickup element
JP4366107B2 (en) Optical device
JP5408215B2 (en) Solid-state imaging device, manufacturing method thereof, and imaging apparatus using solid-state imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080808

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080821

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110912

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110912

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140912

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140912

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140912

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term