JP5254392B2 - Image sensor - Google Patents

Image sensor Download PDF

Info

Publication number
JP5254392B2
JP5254392B2 JP2011070746A JP2011070746A JP5254392B2 JP 5254392 B2 JP5254392 B2 JP 5254392B2 JP 2011070746 A JP2011070746 A JP 2011070746A JP 2011070746 A JP2011070746 A JP 2011070746A JP 5254392 B2 JP5254392 B2 JP 5254392B2
Authority
JP
Japan
Prior art keywords
light
image sensor
optical waveguide
field
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011070746A
Other languages
Japanese (ja)
Other versions
JP2012204796A (en
Inventor
鳥 顕 司 都
村 玲 子 吉
田 直 美 信
田 康 之 堀
田 紘 山
茂 彦 森
田 宰 多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011070746A priority Critical patent/JP5254392B2/en
Publication of JP2012204796A publication Critical patent/JP2012204796A/en
Application granted granted Critical
Publication of JP5254392B2 publication Critical patent/JP5254392B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明の実施形態は、イメージセンサに関する。   Embodiments described herein relate generally to an image sensor.

イメージセンサは、光を電気信号に変換し、画像を取得する装置であり、フォトダイオードや半導体デバイスとの組み合わせで構成された素子である。近年の開発方針は、高画素数化、高感度化、小型化である。画素数は数100万画素クラスまでとなっており、2k×4k(2000×4000)の画素数も開発の目標となってきている。搭載アプリケーションは主に携帯電話に搭載のカメラが中心となっている。   An image sensor is a device that converts light into an electrical signal and obtains an image, and is an element configured in combination with a photodiode or a semiconductor device. The recent development policy is to increase the number of pixels, increase the sensitivity, and reduce the size. The number of pixels is up to several million pixel class, and the number of pixels of 2k × 4k (2000 × 4000) has become a development target. The installed applications are mainly cameras mounted on mobile phones.

イメージセンサはCCD、CMOSイメージセンサの二種類に分類される。イメージセンサは、高画素数化、1画素の面積の微細化が進んでいる。微細化に関しては、微細化すると感度が低下する傾向にあり、画質のノイズが多くなる。これにより、画像間の境界が曖昧になる。この画像間の境界の曖昧さを画像処理で行うことが考えられる。この画像処理はデジタル回路で行われるが、画素数が多くなると情報処理量は指数関数的に多くなる。例えば、オートフォーカスは画像処理の結果により集光レンズの位置が決められるが、画素数が多くなれば、オートフォーカスの速度が遅くなるという問題がある。また、当然ながら、記録デバイスに書き込まれる時間が長くなり、連写等に影響を与える。   Image sensors are classified into two types, CCD and CMOS image sensors. In the image sensor, the number of pixels is increasing and the area of one pixel is miniaturized. As for miniaturization, sensitivity tends to decrease when miniaturization occurs, and noise in image quality increases. Thereby, the boundary between images becomes ambiguous. It is conceivable to perform the ambiguity of the boundary between images by image processing. This image processing is performed by a digital circuit, but the amount of information processing increases exponentially as the number of pixels increases. For example, although the position of the condenser lens is determined by the result of image processing in autofocus, there is a problem that the speed of autofocus becomes slow as the number of pixels increases. Of course, the time for writing to the recording device becomes longer, which affects continuous shooting and the like.

イメージセンサは高画素数化が開発の傾向であるが、画素数が多くなると画像処理速度が遅くなり、オートフォーカスや連写機能に悪影響を与える。特に画像間の境界線に影響を与え易く、画像間の境界が曖昧になり易い。   Image sensors have a tendency to develop with a higher number of pixels, but as the number of pixels increases, the image processing speed decreases, which adversely affects autofocus and continuous shooting functions. In particular, the boundary line between images tends to be affected, and the boundary between images tends to be ambiguous.

特開2005−39204号公報JP 2005-39204 A

本発明が解決しようとする課題は、画像処理速度が速いとともに、画像間の境界が曖昧になるのを抑制することのできるイメージセンサを提供することである。   The problem to be solved by the present invention is to provide an image sensor that has a high image processing speed and can prevent the boundary between images from becoming ambiguous.

本実施形態のイメージセンサは、入射された伝播光を電気信号に変換する複数の画素と、前記複数の画素のうちの少なくとも一部の画素間を接続するように設けられ、入射された伝播光を近接場光に変換するとともに前記近接場光を伝播する近接場光導波路と、を備えていることを特徴とする。   The image sensor of the present embodiment is provided so as to connect a plurality of pixels that convert incident propagation light into an electrical signal and at least some of the plurality of pixels, and the incident propagation light. And a near-field optical waveguide for propagating the near-field light.

図1(a)、1(b)は近接場光導波路に関する実験を説明する図。FIGS. 1A and 1B are diagrams illustrating an experiment on a near-field optical waveguide. 図2(a)、2(b)は近接場光導波路に関する実験を説明する図。FIGS. 2A and 2B are diagrams illustrating an experiment related to a near-field optical waveguide. 第1実施形態によるCMOSイメージセンサの断面図。Sectional drawing of the CMOS image sensor by 1st Embodiment. 第1実施形態によるCMOSイメージセンサの製造工程を説明する断面図。Sectional drawing explaining the manufacturing process of the CMOS image sensor by 1st Embodiment. 第1実施形態によるCMOSイメージセンサの製造工程を説明する断面図。Sectional drawing explaining the manufacturing process of the CMOS image sensor by 1st Embodiment. 第1実施形態によるCMOSイメージセンサの製造工程を説明する断面図。Sectional drawing explaining the manufacturing process of the CMOS image sensor by 1st Embodiment. 第1実施形態によるCMOSイメージセンサの製造工程を説明する断面図。Sectional drawing explaining the manufacturing process of the CMOS image sensor by 1st Embodiment. 第1実施形態によるCMOSイメージセンサの製造工程を説明する断面図。Sectional drawing explaining the manufacturing process of the CMOS image sensor by 1st Embodiment. 第1実施形態によるCMOSイメージセンサの製造工程を説明する断面図。Sectional drawing explaining the manufacturing process of the CMOS image sensor by 1st Embodiment. 近接場光導波路に関する実験を説明する図。The figure explaining the experiment regarding a near field optical waveguide. 第2実施形態によるCMOSイメージセンサの断面図。Sectional drawing of the CMOS image sensor by 2nd Embodiment. 図12(a)、12(b)は、第2実施形態によるCMOSイメージセンサを説明する図。12A and 12B are diagrams illustrating a CMOS image sensor according to the second embodiment. 図13(a)乃至13(d)は、第2実施形態によるCMOSイメージセンサに関する効果を説明する図。FIGS. 13A to 13D are views for explaining the effects related to the CMOS image sensor according to the second embodiment.

実施形態を説明する前に、本実施形態に至った経緯について説明する。   Before describing the embodiment, the background to the present embodiment will be described.

まず、図1(a)に示すように、光が照射されたときに近接場光を発生する断面が台形状の複数の変換部2aと、発生された近接場光を伝播する導波路2bとを有する金からなる近接場光導波路2を用意する。複数の変換部2aは、各変換部2aの幅が200nmで、560nmの間隔で、導波路2bの一方の面に配置されている。   First, as shown in FIG. 1A, a plurality of converters 2a having a trapezoidal cross section that generates near-field light when irradiated with light, and a waveguide 2b that propagates the generated near-field light, A near-field optical waveguide 2 made of gold having is prepared. The plurality of conversion units 2a are arranged on one surface of the waveguide 2b with the width of each conversion unit 2a being 200 nm and an interval of 560 nm.

この近接場光導波路2に対して複数の変換部2aが設けられた側と反対側の面に近接して近接場光学顕微鏡のプローブ4を配置するとともに、凸部2aが設けられた側から光6を照射し、近接場光導波路2内を近接場光が伝播する様子を近接場光顕微鏡で観察した。その結果、隣接する変換部2a間から近接場光が発生したことが観察された。   The probe 4 of the near-field optical microscope is disposed close to the surface opposite to the side on which the plurality of conversion portions 2a are provided with respect to the near-field optical waveguide 2, and the light from the side on which the convex portions 2a are provided. 6 and the state of near-field light propagating in the near-field optical waveguide 2 was observed with a near-field light microscope. As a result, it was observed that near-field light was generated between adjacent converters 2a.

これに対して、図1(b)に示すように比較例として、両面が平坦な金からなる部材3を用意し、この部材3の一方の面に近接して近接場光学顕微鏡のプローブ4を配置するとともに、他方の面側から円形パターンの光6を照射し、近接場光の発生の有無を近接場光顕微鏡で観察した。この比較例においては、近接場光は発生しなかった。   On the other hand, as shown in FIG. 1B, as a comparative example, a member 3 made of gold having flat surfaces is prepared, and the probe 4 of the near-field optical microscope is placed close to one surface of the member 3. While arranging, the circular pattern light 6 was irradiated from the other surface side, and the presence or absence of near-field light generation was observed with a near-field light microscope. In this comparative example, no near-field light was generated.

そして、近接場光導波路2の場合には、図2(a)に示すように、第1組となる隣接する2つの変換部2aと、この第1組の変換部2aに隣接し第2組となる隣接する2つの変換部2aとを選び、これらの二組の変換部2a、2aのみに円形状の光を照射した。すると、第1組の変換部2a間から近接場光8aが発生するとともに、第2組の変換部2a間から近接場光8aが発生することが近接場光顕微鏡で観察された。その後、図2(b)に示すように、これらの近接場光8a、8aは導波路2bを伝播し、第1組の変換部2aと、第2組の変換部2aとの間にも近接場光8bが伝播された。この近接場光8bは、近接場光8a、8aがそれぞれ半分ずつ伝播したものであり、近接場光8a、8aに比べてわずかに広がりを有することが近接場光顕微鏡で観察された。 In the case of the near-field optical waveguide 2, as shown in FIG. 2A, two adjacent converters 2 a 1 forming the first set, and adjacent to the first set of converters 2 a 1 , Two adjacent conversion units 2a 2 in two sets were selected, and only these two sets of conversion units 2a 1 and 2a 2 were irradiated with circular light. Then, it was observed with a near-field light microscope that near-field light 8a 1 was generated from between the first set of conversion units 2a 1 and near-field light 8a 2 was generated from between the second set of conversion units 2a 2 . . Thereafter, as shown in FIG. 2B, these near-field lights 8a 1 and 8a 2 propagate through the waveguide 2b, and the first set of conversion units 2a 1 and the second set of conversion units 2a 2 Near-field light 8b was also propagated between them. The near-field light 8b is for near-field light 8a 1, 8a 2 is propagated halves respectively, were observed in the near-field light microscope to have a slightly spread compared to the near-field light 8a 1, 8a 2 It was.

以上の実験結果から、本発明者達は、イメージセンサの画素のそれぞれに対応して、伝播光を近接場光に変換する変換部と、これらの変換部を接続し近接場光を導波させる導波路と、を有する近接場光導波路を設ければ、信号が入った画素の間に信号が入らない画素があった場合でも、信号が入らない画素にも両側の画素から半分ずつの信号が入り、画素が埋まり、境界面がはっきりした画像が得られると考えた。   From the above experimental results, the inventors of the present invention correspond to each pixel of the image sensor, and convert the propagation light into near-field light, and connect these conversion parts to guide the near-field light. If a near-field optical waveguide having a waveguide is provided, even if there is a pixel that does not receive a signal between pixels that receive a signal, half of the signals from both sides of the pixel that do not receive a signal are also received. I thought that an image with a clear boundary surface could be obtained.

以下に、実施形態を説明する。   Embodiments will be described below.

(第1実施形態)
第1実施形態によるCMOSイメージセンサを図3に示す。この第1実施形態のCMOSイメージセンサ10は、単色の画素が正方格子状に配列した裏面照射型のCMOSイメージセンサであり、層間絶縁膜12aに形成された配線12bが多層に積層された多層配線12を備えている。この多層配線12上には、複数の画素14と、画素14からの信号の読み出し等の処理を行うトランジスタを含む処理回路16が設けられている。各画素14上には近接場光導波路18が設けられている。この近接場光導波路18は、各画素14上に設けられ照射された光を近接場光に変換する変換部18aと、変換部18aによって変換された近接場光を伝播する導波路18bとを有している。この近接場光導波路18の上方には各画素14に対応してマイクロレンズ28が設けられている。この近接場光導波路18とマイクロレンズ28との間には、マイクロレンズ28によって集光された光を、より効率的に対応する画素に入射させるバッファ層20が設けられている。このバッファ層20は、各画素14に対応して、各画素14上に設けられファーフィールド光が隣接する画素へ到達しにくいようにする高屈折率部22と、この高屈折率部22を取り囲むように設けられ、光を透過する材料、例えばSiOからなるSiO膜24と、このSiO膜24を取り囲むように設けられ、光を遮光する遮光部26とを備えている。
(First embodiment)
A CMOS image sensor according to the first embodiment is shown in FIG. The CMOS image sensor 10 according to the first embodiment is a back-illuminated CMOS image sensor in which monochrome pixels are arranged in a square lattice pattern, and a multilayer wiring in which wirings 12b formed in an interlayer insulating film 12a are stacked in multiple layers. 12 is provided. On the multilayer wiring 12, a plurality of pixels 14 and a processing circuit 16 including a transistor that performs processing such as reading of signals from the pixels 14 are provided. A near-field optical waveguide 18 is provided on each pixel 14. The near-field optical waveguide 18 includes a conversion unit 18a that is provided on each pixel 14 and converts irradiated light into near-field light, and a waveguide 18b that propagates the near-field light converted by the conversion unit 18a. doing. Microlenses 28 are provided above the near-field optical waveguide 18 so as to correspond to the respective pixels 14. A buffer layer 20 is provided between the near-field optical waveguide 18 and the microlens 28 so that the light condensed by the microlens 28 is incident on the corresponding pixel more efficiently. The buffer layer 20 corresponds to each pixel 14 and is provided on each pixel 14 so as to make it difficult for far-field light to reach adjacent pixels, and surrounds the high refractive index portion 22. It provided as a material that transmits light, for example, a SiO 2 film 24 made of SiO 2, provided so as to surround the SiO 2 film 24, and a light blocking portion 26 for blocking light.

次に、第1実施形態のCMOSイメージセンサ1の製造方法について図4乃至図9を参照して説明する。   Next, a method for manufacturing the CMOS image sensor 1 of the first embodiment will be described with reference to FIGS.

まず、濃度が1015atom/cm〜1017atom/cm程度のn型シリコン層を有するSOI基板40を用意し、上記n型シリコン層上に濃度が1015atom/cm〜1017atom/cm程度のn型シリコン層42を形成する(図4)。 First, an SOI substrate 40 having an n-type silicon layer having a concentration of about 10 15 atoms / cm 3 to 10 17 atoms / cm 3 is prepared, and the concentration is 10 15 atoms / cm 3 to 10 17 on the n-type silicon layer. An n-type silicon layer 42 of about atoms / cm 3 is formed (FIG. 4).

次に、n型シリコン層42に公知の方法でCMOS構造を有するセンサ部を形成する。このセンサ部は、複数の画素14と、画素14からの信号の読み出し等の処理を行うトランジスタを含む処理回路16とを有している(図5)。続いて、公知の技術を用いて、層間絶縁膜12aに設けられた配線12bが多層に積層された多層配線12を形成する(図6)。   Next, a sensor portion having a CMOS structure is formed on the n-type silicon layer 42 by a known method. The sensor unit includes a plurality of pixels 14 and a processing circuit 16 including a transistor that performs processing such as reading of signals from the pixels 14 (FIG. 5). Subsequently, a multilayer wiring 12 in which wirings 12b provided in the interlayer insulating film 12a are laminated in a multilayer manner is formed using a known technique (FIG. 6).

次に、SOI基板40を研磨することにより削除し(図7)、上記センサ部上に、リソグラフィ技術を用いて、画素14間を接続する近接場光導波路18を形成する(図8)。近接場光導波路18は、センサ部に近接させる必要があり、密着しているとなお良い。近接場光導波路18は金属細線や、金属−エアギャップ構造、金属や半導体の粒子配列、またはナノ粒子分散型構造等があり、これらのいずれでも良い。近接場光導波路18の材質としては、Cu、Au、Ag、Fe、Ni、Co、Zn、Cr、W、Ti、Al、In、Ir、Mn、Mo、Bi、Pt、Si、Ge、Sn、Pb、II−VI族半導体、III−V族半導体を用いることができる。近接場光導波路18は干渉させて導波させた方が、信号が入らない画素の信号を効率よく補うことができる。また、伝播光と近接場光との変換の効率が向上させるために、本実施形態においては、近接場光導波路18は金で形成し、近接場光導波路18の変換部18aの形状を楔形とした。なお、変換部18aの材料として、Cu、Au、Ag、Fe、Ni、Co、Zn、Cr、W、Ti、Al、In、Ir、Mn、Mo、Bi、Pt、Si、Ge、Sn、Pb、II−VI族半導体、III−V族半導体、グラフェン、またはカーボンナノチューブ(CNT)を用いることができる。また変換部18aの形状は三角錐(楔)、球、台形であることが好ましい。なお、変換部18aは、伝播光を近接場光に効率良く変換させるものであって、設けなくともよい。   Next, the SOI substrate 40 is removed by polishing (FIG. 7), and the near-field optical waveguide 18 that connects the pixels 14 is formed on the sensor portion using a lithography technique (FIG. 8). The near-field optical waveguide 18 needs to be close to the sensor unit, and it is more preferable that the near-field optical waveguide 18 is in close contact. The near-field optical waveguide 18 has a fine metal wire, a metal-air gap structure, a metal / semiconductor particle arrangement, a nanoparticle-dispersed structure, or the like. The material of the near-field optical waveguide 18 includes Cu, Au, Ag, Fe, Ni, Co, Zn, Cr, W, Ti, Al, In, Ir, Mn, Mo, Bi, Pt, Si, Ge, Sn, Pb, II-VI group semiconductor, and III-V group semiconductor can be used. If the near-field optical waveguide 18 is guided by interference, it can efficiently compensate for the signal of a pixel that does not receive a signal. In order to improve the efficiency of conversion between propagating light and near-field light, in the present embodiment, the near-field optical waveguide 18 is formed of gold, and the shape of the conversion portion 18a of the near-field optical waveguide 18 is a wedge shape. did. In addition, as a material of the conversion part 18a, Cu, Au, Ag, Fe, Ni, Co, Zn, Cr, W, Ti, Al, In, Ir, Mn, Mo, Bi, Pt, Si, Ge, Sn, Pb II-VI group semiconductors, III-V group semiconductors, graphene, or carbon nanotubes (CNT) can be used. The shape of the conversion unit 18a is preferably a triangular pyramid (wedge), a sphere, or a trapezoid. Note that the conversion unit 18a efficiently converts propagating light to near-field light, and may not be provided.

次に、図9に示すように、近接場光導波路18上に、マイクロレンズの焦点距離を調整するバッファ層20を形成する。このバッファ層20には、ファーフィールド光が隣接する画素へ到達しにくいように各画素14の上部に透明性の高い材料の高屈折部22と、この高屈折部22を取り囲むように設けられるSiO膜24と、このSiO膜24を取り囲むように設けられ例えばSiからなる遮光部26と、を備えている。なお、高屈折部22は設けなくともよく、この場合、代わりにSiO膜を設ける。また、遮光部26を形成すると伝播光による画像の境界面でのにじみを低減することができる。続いて、バッファ層20上に、各画素に対応してマイクロレンズ28を形成する(図9)。 Next, as shown in FIG. 9, the buffer layer 20 for adjusting the focal length of the microlens is formed on the near-field optical waveguide 18. In the buffer layer 20, a high refractive part 22 made of a highly transparent material and an SiO 2 provided so as to surround the high refractive part 22 are provided above each pixel 14 so that far-field light does not easily reach adjacent pixels. Two films 24 and a light shielding portion 26 made of, for example, Si, are provided so as to surround the SiO 2 film 24. Note that the high refractive portion 22 need not be provided. In this case, a SiO 2 film is provided instead. Further, when the light shielding portion 26 is formed, it is possible to reduce blurring at the boundary surface of the image due to the propagating light. Subsequently, a microlens 28 is formed on the buffer layer 20 corresponding to each pixel (FIG. 9).

このように構成された第1実施形態のイメージセンサにおいては、マイクロレンズ28を通過した伝播光が近接場光導波路18に照射し、近接場光に変換される。変換されない成分は、直接画素に入力される。変換された近接場光は、一部が隣接する画素に伝わり、画像の境界面における「ぼやけ」または「曖昧さ」を塗りつぶすように働く。   In the image sensor of the first embodiment configured as described above, the propagating light that has passed through the microlens 28 irradiates the near-field optical waveguide 18 and is converted into near-field light. The component that is not converted is directly input to the pixel. A part of the converted near-field light is transmitted to adjacent pixels, and works so as to fill in “blurring” or “ambiguity” in the boundary surface of the image.

近接場光導波路18は、その特性により伝播距離を制御することができる。例えば、金属ナノ粒子分散系では金属種や金属ナノ粒子間の距離を変えることにより、近接場相互作用の強さが変化し、導波距離を制御することができる。金属細線では、金属種や線幅で制御が可能である。本実施形態の場合、金属ナノ粒子に平均粒径約10nmの金を用い、粒間距離に約5nmの距離を開けて分散させているが、構造は、オレイルアミンをリガンドとするコアシェル型金ナノ粒子である。シェル厚を2nm〜3nmにすることにより、粒子間隔を5nm程度にすることができているが、粒子間隔を広げると、伝播長を短くすることができる。金属細線では、幅を広げると伝播長が短くなる。   The propagation distance of the near-field optical waveguide 18 can be controlled by its characteristics. For example, in the metal nanoparticle dispersion system, the strength of the near-field interaction is changed by changing the metal species and the distance between the metal nanoparticles, and the waveguide distance can be controlled. In the case of a thin metal wire, it can be controlled by the metal type and the line width. In the case of the present embodiment, gold having an average particle diameter of about 10 nm is used for the metal nanoparticles and the distance between the grains is about 5 nm and dispersed, but the structure is a core-shell type gold nanoparticle having oleylamine as a ligand. It is. By setting the shell thickness to 2 nm to 3 nm, the particle spacing can be reduced to about 5 nm. However, if the particle spacing is increased, the propagation length can be shortened. In a thin metal wire, if the width is increased, the propagation length becomes shorter.

以上説明したように、第1実施形態によれば、近接場光を利用して画像間の境界が曖昧になるのを抑制することができる。このため、画像間の境界が曖昧になるのを抑制する画像処理を近接場光で補っているので、画像処理速度を早く行うことができる。これにより、フォーカシングの時間を短くすることが可能となり、動画でも単焦点動作ではなく、対象物の動きに合わせてフォーカス動作を行うことができる。なお、画像間の境界が曖昧になるのを抑制することが可能となるので、暗く、曖昧な画像の境界をくっきりさせることができ、画像を見やすくすることができる。また、近接場光の導波速度は真空中の光の速度の数分の1程度である。したがって、画素間を導波する時間は、10−15秒程度であるので、デジタル回路による画像処理速度に比べると処理時間はほとんどゼロと言ってよい。このため、近接場光で処理する量だけ全体の処理速度が速くなる。 As described above, according to the first embodiment, it is possible to prevent the boundary between images from becoming ambiguous using near-field light. For this reason, since the image processing which suppresses that the boundary between images becomes ambiguous is supplemented by near-field light, the image processing speed can be increased. Thereby, it is possible to shorten the focusing time, and it is possible to perform a focusing operation in accordance with the movement of an object, not a single-focus operation even in a moving image. In addition, since it becomes possible to suppress that the boundary between images becomes ambiguous, the boundary of a dark and ambiguous image can be clarified and it can be made easy to see an image. The waveguide speed of near-field light is about a fraction of the speed of light in vacuum. Therefore, since the time for wave guiding between the pixels is about 10 −15 seconds, it can be said that the processing time is almost zero compared to the image processing speed by the digital circuit. For this reason, the entire processing speed is increased by the amount processed by the near-field light.

(第2実施形態)
次に、第2実施形態によるCMOSイメージセンサについて図10乃至図13を参照して説明する。
(Second Embodiment)
Next, a CMOS image sensor according to the second embodiment will be described with reference to FIGS.

まず、第2実施形態のCMOSイメージセンサについて説明する前に、図10に示すように、近接場光導波路2の光が入射する側にG(緑)のカラーフィルタ50を形成し、近接場光導波路2のカラーフィルタ50が形成され側と反対側の面に近接して近接場光顕微鏡のプローブ4を配置した模擬的な撮像素子を用意する。なお、近接場光導波路2は、薄い部分2bの厚みが50nm、幅(紙面に対して直交する方向のサイズ)が100nm、突起2aの周期が約800nm、その高さが50nm、突起2aの長さ(紙面に平行な方向のサイズ)が100nmとした。そして、この撮像素子にカラーフィルタ50側から白色光を入射し、近接場光顕微鏡により、近接場光の伝播の様子を観察した。この観察結果によれば、近接場光の広がりによりが画像の境界がはっきりすることが分かった。   First, before describing the CMOS image sensor of the second embodiment, as shown in FIG. 10, a G (green) color filter 50 is formed on the light incident side of the near-field optical waveguide 2, and the near-field light is guided. A simulated imaging device is prepared in which the color filter 50 of the waveguide 2 is formed and the probe 4 of the near-field light microscope is arranged close to the surface opposite to the side. The near-field optical waveguide 2 has a thin portion 2b having a thickness of 50 nm, a width (size in a direction perpendicular to the paper surface) of 100 nm, a period of the protrusion 2a of about 800 nm, a height of 50 nm, and a length of the protrusion 2a. The thickness (size in the direction parallel to the paper surface) was 100 nm. Then, white light was incident on the image sensor from the color filter 50 side, and the state of propagation of near-field light was observed with a near-field light microscope. According to this observation result, it was found that the boundary of the image becomes clear due to the spread of near-field light.

第2実施形態によるCMOSイメージセンサを図11に示す。この第2実施形態のCMOイメージセンサは、裏面照射型のカラーイメージセンサであって、図3に示す第1実施形態のイメージセンサにおいて、バッファ層20とマイクロレンズ28との間に、G(緑)、B(青)、R(赤)からなるカラーフィルタ27G、27B、27Rを設けた構成となっている。なお、図11においては、近接場光導波路18の変換部を表示していないが、図3に示す第1実施形態の場合と同様に、変換部となる突起部を設けてもよい。なお、第2実施形態においては、近接場光導波路18は、入射された光を近接場光に変換する機能を有している。   A CMOS image sensor according to the second embodiment is shown in FIG. The CMO image sensor according to the second embodiment is a back-illuminated color image sensor. In the image sensor according to the first embodiment shown in FIG. 3, G (green) is interposed between the buffer layer 20 and the microlens 28. ), B (blue), and R (red) color filters 27G, 27B, and 27R are provided. In FIG. 11, the conversion part of the near-field optical waveguide 18 is not displayed, but similarly to the case of the first embodiment shown in FIG. 3, a projection part serving as the conversion part may be provided. In the second embodiment, the near-field optical waveguide 18 has a function of converting incident light into near-field light.

また、第2実施形態においては、図12(a)に示すように、Gのカラーフィルタ27Gは、BおよびRのカラーフィルタ27B、27Rのそれぞれの個数よりも2倍の個数となるように、カラーフィルタが構成されている。この第2実施形態においては、Gのカラーフィルタは図12(a)に示すように斜めに隣接した構成である。一つの色の画素のサイズは、縦、横が約780nmであり、G、B、R、Gからなる4画素で1組のカラーフィルタのセルを構成している。また、図12(b)に示すように、Gの画素間を50nm幅の金の細線からなる近接場光導波路18で結合させている。   In the second embodiment, as shown in FIG. 12A, the number of the G color filters 27G is twice the number of each of the B and R color filters 27B and 27R. A color filter is configured. In the second embodiment, the G color filter is configured to be adjacent obliquely as shown in FIG. The size of one color pixel is about 780 nm in length and width, and one pixel of a set of color filters is composed of four pixels of G, B, R, and G. Further, as shown in FIG. 12B, the G pixels are coupled by a near-field optical waveguide 18 made of a thin gold wire having a width of 50 nm.

近接場光導波路18は、金属−エアギャップ構造、金属や半導体の細線やナノ粒子分散構造、グラフェン、またはカーボンナノチューブ(CNT)のいずれかで構成することができる。近接場光導波路18に変換部を設ける場合は、この変換部の材料として、Cu、Au、Ag、Fe、Ni、Co、Zn、Cr、W、Ti、Al、In、Ir、Mn、Mo、Bi、Pt、Si、Ge、Sn、Pb、II−VI族半導体、III−V族半導体、グラフェン、またはカーボンナノチューブ(CNT)を用いることができる。   The near-field optical waveguide 18 can be composed of any one of a metal-air gap structure, a metal or semiconductor thin wire or a nanoparticle dispersion structure, graphene, or a carbon nanotube (CNT). When providing the conversion part in the near-field optical waveguide 18, as a material of this conversion part, Cu, Au, Ag, Fe, Ni, Co, Zn, Cr, W, Ti, Al, In, Ir, Mn, Mo, Bi, Pt, Si, Ge, Sn, Pb, II-VI group semiconductor, III-V group semiconductor, graphene, or carbon nanotube (CNT) can be used.

第2実施形態のイメージセンサに、円形の光を、焦点をややずらして照射した結果を図13(a)乃至13(d)に示す。図13(a)はRの画素またはBの画素の境界における原画像を示し、図13(b)は上記原画像に対して第2実施形態によって撮像した、上記境界における画像を模式的に示す図である。図13(c)はGの画素の境界における原画像を示し、図13(d)は上記原画像に対して第2実施形態によって撮像した、上記境界における画像を模式的に示す図である。図13(a)乃至13(d)からわかるように、Gの画素では、円形界面形状がくっきりし、R、Bの画素画像では、元のややぼやけた画像が得られた。   FIGS. 13A to 13D show the results of irradiating the image sensor of the second embodiment with circular light with the focus slightly shifted. FIG. 13A shows the original image at the boundary between the R pixel and the B pixel, and FIG. 13B schematically shows the image at the boundary captured by the second embodiment with respect to the original image. FIG. FIG. 13C shows an original image at the boundary of G pixels, and FIG. 13D is a diagram schematically showing an image at the boundary captured by the second embodiment with respect to the original image. As can be seen from FIGS. 13A to 13D, the circular interface shape is clear in the G pixel, and the original slightly blurred image is obtained in the R and B pixel images.

以上説明したように、本実施形態のイメージセンサにおいては、G画像の境界面をくっきりさせることができた。   As described above, in the image sensor according to the present embodiment, the boundary surface of the G image can be sharpened.

この第2実施形態も第1実施形態と同様に、近接場光を利用して画像間の境界が曖昧になるのを抑制することができる。このため、画像間の境界が曖昧になるのを抑制する画像処理を近接場光で補っているので、画像処理速度を早く行うことができる。これにより、フォーカシングの時間を短くすることが可能となり、動画でも単焦点動作ではなく、対象物の動きに合わせてフォーカス動作を行うことができる。なお、画像間の境界が曖昧になるのを抑制することが可能となるので、暗く、曖昧な画像の境界をくっきりさせることができ、画像を見やすくすることができる。また、近接場光で処理する量だけ全体の処理速度を速くすることができる。なお、本実施形態は、CMOSイメージセンサーに限ったことではなく、CCDにて適用できる。   Similarly to the first embodiment, the second embodiment can also suppress the ambiguity between images using near-field light. For this reason, since the image processing which suppresses that the boundary between images becomes ambiguous is supplemented by near-field light, the image processing speed can be increased. Thereby, it is possible to shorten the focusing time, and it is possible to perform a focusing operation in accordance with the movement of an object, not a single-focus operation even in a moving image. In addition, since it becomes possible to suppress that the boundary between images becomes ambiguous, the boundary of a dark and ambiguous image can be clarified and it can be made easy to see an image. In addition, the overall processing speed can be increased by the amount processed with near-field light. The present embodiment is not limited to a CMOS image sensor, but can be applied to a CCD.

本発明のいくつかの実施形態を説明したが、これらの実施例として提示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, they are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the invention described in the claims and equivalents thereof as well as included in the scope and gist of the invention.

2 近接場光導波路
2a 変換部
2a、2a 変換部
2b 導波路
3 部材
4 近接場光学顕微鏡のプローブ
6 光
8a、8a 近接場光
8b 近接場光
10 CMOSイメージセンサ
12 多層配線
12a 配線
12b 層間絶縁膜
14 画素
16 処理回路
18 近接場光導波路
18a 変換部
18b 導波路
20 バッファ層
22 高屈折率部
24 SiO
26 遮光部
27G 緑色フィルタ
27B 青色フィルタ
27R 赤色フィルタ
28 マイクロレンズ
40 SOI基板
42 n型Si層
2 near-field optical waveguide 2a converting unit 2a 1, 2a 2 conversion unit 2b waveguide 3 members 4 near-field optical microscope probe 6 light 8a 1, 8a 2 near-field light 8b near field light 10 CMOS image sensor 12 multilayer wiring 12a interconnection 12b Interlayer insulating film 14 Pixel 16 Processing circuit 18 Near-field optical waveguide 18a Converter 18b Waveguide 20 Buffer layer 22 High refractive index part 24 SiO 2 film 26 Light-shielding part 27G Green filter 27B Blue filter 27R Red filter 28 Microlens 40 SOI substrate 42 n-type Si layer

Claims (6)

入射された伝播光を電気信号に変換する複数の画素と、
前記複数の画素のうちの少なくとも一部の画素間を接続するように設けられ、入射された伝播光を近接場光に変換するとともに前記近接場光を伝播する近接場光導波路と、
を備えていることを特徴とするイメージセンサ。
A plurality of pixels that convert incident propagating light into an electrical signal;
A near-field optical waveguide that is provided so as to connect at least some of the plurality of pixels and that converts incident propagation light into near-field light and propagates the near-field light;
An image sensor comprising:
前記近接場光導波路は、伝播光を近接場光に変換する凸形状の変換部を備えていることを特徴とする請求項1記載のイメージセンサ。   The image sensor according to claim 1, wherein the near-field optical waveguide includes a convex conversion unit that converts propagating light into near-field light. 前記複数の画素は、G(緑)、B(青)、R(赤)の画素を有し、前記近接場光導波路はGの画素を接続するように設けられていることを特徴とする請求項1または2記載のイメージセンサ。   The plurality of pixels include G (green), B (blue), and R (red) pixels, and the near-field optical waveguide is provided to connect the G pixels. Item 3. The image sensor according to item 1 or 2. 各画素に対応してマイクロレンズが設けられ、前記近接場光導波路は前記マイクロレンズと、前記画素との間に設けられることを特徴とする請求項1乃至3のいずれかに記載のイメージセンサ。   4. The image sensor according to claim 1, wherein a microlens is provided for each pixel, and the near-field optical waveguide is provided between the microlens and the pixel. 前記マイクロレンズと前記近接場光導波路との間に、前記マイクロレンズによって集光された光を対応する画素に入射させるバッファ層を更に備えていることを特徴とする請求項4記載のイメージセンサ。   5. The image sensor according to claim 4, further comprising a buffer layer between the microlens and the near-field optical waveguide, which makes the light condensed by the microlens enter a corresponding pixel. 前記バッファ層は、ファーフィールド光が隣接する画素へ到達しにくいようにする高屈折率部と、隣接する画素への光を遮光する遮光部とを備えていることを特徴とする請求項5記載のイメージセンサ。   6. The buffer layer includes a high refractive index portion that makes it difficult for far-field light to reach an adjacent pixel, and a light blocking portion that blocks light to the adjacent pixel. Image sensor.
JP2011070746A 2011-03-28 2011-03-28 Image sensor Active JP5254392B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011070746A JP5254392B2 (en) 2011-03-28 2011-03-28 Image sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011070746A JP5254392B2 (en) 2011-03-28 2011-03-28 Image sensor

Publications (2)

Publication Number Publication Date
JP2012204796A JP2012204796A (en) 2012-10-22
JP5254392B2 true JP5254392B2 (en) 2013-08-07

Family

ID=47185384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011070746A Active JP5254392B2 (en) 2011-03-28 2011-03-28 Image sensor

Country Status (1)

Country Link
JP (1) JP5254392B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102501643B1 (en) 2015-09-24 2023-02-20 삼성전자주식회사 Optical device having high refractive index optical functional layer and method of fabricating the same

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001077339A (en) * 1999-09-03 2001-03-23 Sony Corp Solid-state image sensing element
JP2007328188A (en) * 2006-06-08 2007-12-20 Toshiba Corp Near-field interaction control element
JP5300344B2 (en) * 2007-07-06 2013-09-25 キヤノン株式会社 Photodetection element, imaging element, photodetection method, and imaging method
JP2010161180A (en) * 2009-01-07 2010-07-22 Sony Corp Solid-state image-taking apparatus, manufacturing method thereof, and camera
JP2010271049A (en) * 2009-05-19 2010-12-02 Sony Corp Two-dimensional solid-state imaging device
JP2011180426A (en) * 2010-03-02 2011-09-15 Canon Inc Spectral device

Also Published As

Publication number Publication date
JP2012204796A (en) 2012-10-22

Similar Documents

Publication Publication Date Title
US9659986B2 (en) Two-dimensional solid-state image capture device with polarization member and color filter for sub-pixel regions and polarization-light data processing method therefor
TWI472023B (en) Imaging device and imaging apparatus
CN110085607B (en) Solid-state imaging element, imaging device, and electronic apparatus
KR101613346B1 (en) Imaging apparatus
TW201706224A (en) Sensor assembly with selective infrared filter array
GB2558967A (en) Imaging device, imaging system and moveable object
WO2010134626A1 (en) Solid-state image sensor
JP2008192771A (en) Solid-state imaging element and manufacturing method therefor
JP2012015424A (en) Solid-state imaging device
JP2012182432A5 (en)
WO2010007792A1 (en) Solid state imaging element
JP2009252973A (en) Solid-state imaging device and manufacturing method therefor
WO2012169136A1 (en) Color separation filter array, solid-state imaging element, imaging device, and display device
JP2011082324A (en) Solid-state image sensor
JP2014027178A (en) Solid state image sensor and electronic information equipment
JP4711657B2 (en) Solid-state imaging device
US10825858B2 (en) Image pickup element, image pickup apparatus, and method of manufacturing image pickup element
JP2016015431A (en) Solid-state image sensor and electronic apparatus
TWI651843B (en) Image pickup device, method of manufacturing same, and electronic apparatus
JP5254392B2 (en) Image sensor
JP7271127B2 (en) Photoelectric conversion device
WO2021117648A1 (en) Imaging device and electronic apparatus
JP2014022649A (en) Solid-state image sensor, imaging device, and electronic apparatus
JP5408216B2 (en) Manufacturing method of solid-state imaging device
JP2005203676A (en) Solid-state imaging device and method of manufacturing the same

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130417

R151 Written notification of patent or utility model registration

Ref document number: 5254392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3