JP2021072295A - Solid-state imaging device and electronic device - Google Patents

Solid-state imaging device and electronic device Download PDF

Info

Publication number
JP2021072295A
JP2021072295A JP2019195805A JP2019195805A JP2021072295A JP 2021072295 A JP2021072295 A JP 2021072295A JP 2019195805 A JP2019195805 A JP 2019195805A JP 2019195805 A JP2019195805 A JP 2019195805A JP 2021072295 A JP2021072295 A JP 2021072295A
Authority
JP
Japan
Prior art keywords
layer
light
convex portion
solid
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019195805A
Other languages
Japanese (ja)
Inventor
竹内 幸一
Koichi Takeuchi
幸一 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2019195805A priority Critical patent/JP2021072295A/en
Priority to PCT/JP2020/038367 priority patent/WO2021085091A1/en
Publication of JP2021072295A publication Critical patent/JP2021072295A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Optics & Photonics (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Optical Filters (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

To improve photoelectric conversion efficiency.SOLUTION: A solid-state imaging comprises: a photoelectric conversion unit provided on a semiconductor substrate; a first insulation film positioned on an incidence surface side of light to the photoelectric conversion unit relative to the semiconductor substrate; and an uneven structure positioned between the photoelectric conversion unit and the first insulation film; and the uneven structure is positioned on the photoelectric conversion unit side, and comprises a first layer which diffracts light incident on the photoelectric conversion unit; and a second layer which is positioned on the first insulation film side and suppresses reflection toward the first insulation film side.SELECTED DRAWING: Figure 6

Description

本開示は、固体撮像装置及び電子機器に関する。 The present disclosure relates to a solid-state image sensor and an electronic device.

従来、デジタルスチルカメラやデジタルビデオカメラなどの撮像機能を備えた電子機器においては、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの固体撮像装置が使用されている。 Conventionally, in electronic devices having an imaging function such as a digital still camera and a digital video camera, a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor has been used.

また、近年では、ToF(Time-of-Flight)法により距離計測を行う距離画像センサが注目されている。例えば、距離画像センサには、CMOS半導体集積回路技術を用いて、複数のSPAD(Single Photon Avalanche Diode)画素が平面的に配置されるように形成された固体撮像装置を利用することができる。SPAD画素では、降伏電圧よりもはるかに大きい電圧を印加した状態で、高電界のPN接合領域へ1個のフォトンが入ると、アバランシェ増幅が発生する。その際の瞬間的に電流が流れた時間を検出することで、高精度に距離を計測することができる。 Further, in recent years, a distance image sensor that measures a distance by a ToF (Time-of-Flight) method has attracted attention. For example, as a distance image sensor, a solid-state image sensor formed so that a plurality of SPAD (Single Photon Avalanche Diode) pixels are arranged in a plane can be used by using CMOS semiconductor integrated circuit technology. In the SPAD pixel, avalanche amplification occurs when one photon enters the PN junction region of a high electric field in a state where a voltage much larger than the yield voltage is applied. By detecting the time when the current flows momentarily at that time, the distance can be measured with high accuracy.

特開2018−88532号公報Japanese Unexamined Patent Publication No. 2018-88532 特開2006−147991号公報Japanese Unexamined Patent Publication No. 2006-147991 特開2004−47682号公報Japanese Unexamined Patent Publication No. 2004-47682 国際公開第16/194654号International Publication No. 16/194654

以上のような固体撮像装置については、画質や測距精度等を向上させるために、入射光を電荷に変換する光電変換素子における光電変換効率を向上させることが望まれている。 With respect to the solid-state image pickup device as described above, it is desired to improve the photoelectric conversion efficiency in the photoelectric conversion element that converts incident light into electric charges in order to improve the image quality, distance measurement accuracy, and the like.

そこで本開示では、光電変換効率を向上させることが可能な固体撮像装置及び電子機器を提案する。 Therefore, the present disclosure proposes a solid-state image sensor and an electronic device capable of improving the photoelectric conversion efficiency.

上記の課題を解決するために、本開示に係る一形態の固体撮像装置は、半導体基板に設けられた光電変換部と、前記半導体基板に対して前記光電変換部への光の入射面側に位置する第1絶縁膜と、前記光電変換部と前記第1絶縁膜との間に位置する凹凸構造とを備え、前記凹凸構造は、前記光電変換部側に位置し、前記光電変換部へ入射する光を回折させる第1層と、前記第1絶縁膜側に位置し、前記第1絶縁膜側への反射を抑制する第2層とを備える。 In order to solve the above problems, the solid-state imaging apparatus according to the present disclosure has a photoelectric conversion unit provided on the semiconductor substrate and a light incident surface side of the semiconductor substrate on the photoelectric conversion unit. It includes a first insulating film located and a concavo-convex structure located between the photoelectric conversion unit and the first insulating film, and the concavo-convex structure is located on the photoelectric conversion unit side and is incident on the photoelectric conversion unit. A first layer for diffusing the light to be generated and a second layer located on the first insulating film side and suppressing reflection to the first insulating film side are provided.

第1の実施形態に係る固体撮像装置を搭載した電子機器の概略構成例を示すブロック図である。It is a block diagram which shows the schematic configuration example of the electronic device equipped with the solid-state image sensor which concerns on 1st Embodiment. 第1の実施形態に係る固体撮像装置の概略構成例を示すブロック図である。It is a block diagram which shows the schematic structure example of the solid-state image sensor which concerns on 1st Embodiment. 第1の実施形態に係る単位画素の概略構成例を示す回路図である。It is a circuit diagram which shows the schematic structure example of the unit pixel which concerns on 1st Embodiment. 第1の実施形態に係る固体撮像装置の積層構造例を示す図である。It is a figure which shows the example of the laminated structure of the solid-state image sensor which concerns on 1st Embodiment. 第1の実施形態に係る固体撮像装置の断面構造例を示す断面図である。It is sectional drawing which shows the example of the sectional structure of the solid-state image sensor which concerns on 1st Embodiment. 第1の実施形態におけるフォトダイオードの受光面に形成された凹凸構造を示す断面図である。It is sectional drawing which shows the uneven structure formed on the light receiving surface of a photodiode in 1st Embodiment. 第1の実施形態に係る凹凸構造における第1層の一例を示す上面レイアウト図である。It is a top layout view which shows an example of the 1st layer in the concavo-convex structure which concerns on 1st Embodiment. 第1の実施形態に係る凹凸構造における第1層の他の一例を示す上面レイアウト図である。It is a top layout view which shows another example of the 1st layer in the concavo-convex structure which concerns on 1st Embodiment. 第1の実施形態に係る凹凸構造における第2層の一例を示す上面レイアウト図である。It is a top layout view which shows an example of the 2nd layer in the concavo-convex structure which concerns on 1st Embodiment. 第1の実施形態に係る凹凸構造における第2層の他の一例を示す上面レイアウト図である。It is a top layout view which shows another example of the 2nd layer in the concavo-convex structure which concerns on 1st Embodiment. 第1の実施形態に係る凹凸構造における第2層のさらに他の一例を示す上面レイアウト図である。It is a top layout view which shows still another example of the 2nd layer in the concavo-convex structure which concerns on 1st Embodiment. 第1の実施形態に係る凹凸構造における第2層のさらに他の一例を示す上面レイアウト図である。It is a top layout view which shows still another example of the 2nd layer in the concavo-convex structure which concerns on 1st Embodiment. 第1の実施形態に係る凹凸構造における第2層のさらに他の一例を示す上面レイアウト図である。It is a top layout view which shows still another example of the 2nd layer in the concavo-convex structure which concerns on 1st Embodiment. 第1の実施形態に係る凹凸構造における第2層のさらに他の一例を示す断面図である。It is sectional drawing which shows still another example of the 2nd layer in the concavo-convex structure which concerns on 1st Embodiment. 第1の実施形態に係る凹凸構造における第2層のさらに他の一例を示す断面図である。It is sectional drawing which shows still another example of the 2nd layer in the concavo-convex structure which concerns on 1st Embodiment. 第2の実施形態におけるフォトダイオードの受光面に形成された凹凸構造を示す断面図である。It is sectional drawing which shows the uneven structure formed on the light receiving surface of a photodiode in the 2nd Embodiment. 第2の実施形態に係る凹凸構造における第2層の他の一例を示す断面図である。It is sectional drawing which shows the other example of the 2nd layer in the concavo-convex structure which concerns on 2nd Embodiment. 第2の実施形態に係る凹凸構造における第2層のさらに他の一例を示す断面図である。It is sectional drawing which shows still another example of the 2nd layer in the concavo-convex structure which concerns on 2nd Embodiment. 第1及び第2の実施形態に係る瞳補正を説明するための断面図である。It is sectional drawing for demonstrating the pupil correction which concerns on 1st and 2nd Embodiment. 比較例に係る層構造と第1及び第2の実施形態に係る層構造との断面構造例を横並びに列挙した図である。It is a figure which listed side by side the example of the cross-sectional structure of the layer structure which concerns on a comparative example, and the layer structure which concerns on 1st and 2nd Embodiment. 図20の(a)〜(e)それぞれに示した断面構造に対して入射光を受光面の垂直方向(図面中、上から下方向)に入射した際の各断面における光の強度をFDTD法で計算した結果を示す図である。The FDTD method is used to determine the intensity of light in each cross section when incident light is incident on the light receiving surface in the direction perpendicular to the light receiving surface (from top to bottom in the drawing) with respect to the cross-sectional structures shown in FIGS. 20 (a) to 20 (e). It is a figure which shows the result calculated in. 図20の(a)〜(e)に示す層構造に対して上側への反射率を計算した結果を示すグラフである。It is a graph which shows the result of having calculated the reflectance to the upper side with respect to the layer structure shown by (a) to (e) of FIG. 受光面から半導体基板における上面層との境界面から深さ方向に2μmまでの平均光強度を計算した結果を示すグラフである。It is a graph which shows the result of having calculated the average light intensity from the light receiving surface to the boundary surface with the upper surface layer of a semiconductor substrate up to 2 μm in the depth direction. ベイヤー配列であるカラーフィルタ配列の一例を示すレイアウト図である。It is a layout figure which shows an example of the color filter array which is a Bayer array. 第1及び第2の実施形態に係る赤色(R)の波長成分を選択的に透過させるカラーフィルタと組み合わされた単位画素の断面構造例を示す断面図である。It is sectional drawing which shows the example of the sectional structure of the unit pixel combined with the color filter which selectively transmits the wavelength component of red (R) which concerns on 1st and 2nd Embodiment. 第1及び第2の実施形態に係る緑色(G)の波長成分を選択的に透過させるカラーフィルタと組み合わされた単位画素の断面構造例を示す断面図である。It is sectional drawing which shows the sectional structure example of the unit pixel combined with the color filter which selectively transmits the wavelength component of green (G) which concerns on 1st and 2nd Embodiment. 第1及び第2の実施形態に係る青色(B)の波長成分を選択的に透過させるカラーフィルタと組み合わされた単位画素の断面構造例を示す断面図である。It is sectional drawing which shows the example of the sectional structure of the unit pixel combined with the color filter which selectively transmits the wavelength component of blue (B) which concerns on 1st and 2nd Embodiment. 第1及び第2の実施形態に係る入射光の波長と凹凸構造のピッチとの関係を示すグラフである。It is a graph which shows the relationship between the wavelength of the incident light and the pitch of an uneven structure which concerns on 1st and 2nd Embodiment. 第1及び第2の実施形態に係る入射光の波長と凹凸構造の第1層における下凸部の高さとの関係を示すグラフである。It is a graph which shows the relationship between the wavelength of the incident light which concerns on 1st and 2nd Embodiment, and the height of the downward convex part in the 1st layer of the concavo-convex structure. 第1及び第2の実施形態に係る入射光の波長と凹凸構造の第1層における下凸部の体積占有率とを1:1とした場合の関係を示すグラフである。It is a graph which shows the relationship when the wavelength of the incident light which concerns on 1st and 2nd Embodiment and the volume occupancy ratio of the lower convex part in the 1st layer of the concavo-convex structure are 1: 1. 車両制御システムの概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of the schematic structure of a vehicle control system. 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。It is explanatory drawing which shows an example of the installation position of the vehicle exterior information detection unit and the image pickup unit. 内視鏡手術システムの概略的な構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the endoscopic surgery system. カメラヘッド及びCCUの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of a camera head and a CCU.

以下に、本開示の一実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Hereinafter, one embodiment of the present disclosure will be described in detail with reference to the drawings. In the following embodiments, the same parts are designated by the same reference numerals, so that duplicate description will be omitted.

また、以下に示す項目順序に従って本開示を説明する。
1.はじめに
2.第1の実施形態
2.1 電子機器の構成例
2.2 固体撮像装置の構成例
2.3 単位画素の構成例
2.4 単位画素の基本機能例
2.5 固体撮像装置の積層構造例
2.6 単位画素の断面構造例
2.7 凹凸構造について
2.7.1 第1層の構造例
2.7.2 第2層の構造例
2.8 作用・効果
3.第2の実施形態
3.1 凹凸構造について
3.1.1 第1層の構造例
3.1.2 第2層の構造例
3.2 作用・効果
4.瞳補正について
5.比較結果
6.ターゲットとする波長帯域について
7.凹凸構造の製造方法
8.カラーフィルタとの組み合わせ
9.移動体への応用例1
10.内視鏡手術システムへの応用例
In addition, the present disclosure will be described according to the order of items shown below.
1. 1. Introduction 2. 1st Embodiment 2.1 Configuration example of electronic device 2.2 Configuration example of solid-state image sensor 2.3 Configuration example of unit pixel 2.4 Basic function example of unit pixel 2.5 Stacked structure example of solid-state image sensor 2 .6 Example of cross-sectional structure of unit pixel 2.7 Concavo-convex structure 2.7.1 Structural example of the first layer 2.7.2 Structural example of the second layer 2.8 Action / effect 3. 2nd Embodiment 3.1 Concavo-convex structure 3.11 Structural example of 1st layer 31.2 Structural example of 2nd layer 3.2 Action / effect 4. About pupil correction 5. Comparison result 6. Target wavelength band 7. Manufacturing method of uneven structure 8. Combination with color filter 9. Application example to mobile body 1
10. Application example to endoscopic surgery system

1.はじめに
上述したように、固体撮像装置については、画質や測距精度等を向上させるために、入射光を電荷に変換する光電変換素子における光電変換効率を向上させることが望まれている。
1. 1. Introduction As described above, in the solid-state image sensor, it is desired to improve the photoelectric conversion efficiency of the photoelectric conversion element that converts incident light into electric charges in order to improve the image quality, distance measurement accuracy, and the like.

例えば、固体撮像装置を用いたカメラ等においては、フォトダイオードなどの光電変換素子の受光面で光が反射して他の画素の光電変換素子に入射することによる迷光(ゴーストフレア)が発生すると、画質が劣化してしまうという課題がある。 For example, in a camera or the like using a solid-state image sensor, when light is reflected on the light receiving surface of a photoelectric conversion element such as a photodiode and is incident on the photoelectric conversion element of another pixel, stray light (ghost flare) is generated. There is a problem that the image quality deteriorates.

光電変換素子としてフォトダイオードを使用した場合に反射光が発生する理由としては、フォトダイオードの上面(光の入射に対する上面。受光面に相当)において屈折率が大きく変化していることが挙げられる。例えば、フォトダイオードのP層及びN層にシリコン基板を用い、フォトダイオードの上面をシリコン酸化膜で覆った場合、シリコンの屈折率が可視光領域で3.8〜5.6と高屈折率であるのに対して、シリコン酸化膜は約1.46でシリコンのそれよりもかなり小さい。そのため、シリコン基板とシリコン酸化膜との界面での反射率が20%以上になり、フォトダイオードの上面で多くの光が反射してしまう。これは、迷光の発生による画質の劣化や光電変換効率の低下による画質や測距精度等の低下の要因となる。 The reason why the reflected light is generated when the photodiode is used as the photoelectric conversion element is that the refractive index changes significantly on the upper surface of the photodiode (the upper surface with respect to the incident light, which corresponds to the light receiving surface). For example, when a silicon substrate is used for the P layer and the N layer of the photodiode and the upper surface of the photodiode is covered with a silicon oxide film, the refractive index of silicon is as high as 3.8 to 5.6 in the visible light region. In contrast, the silicon oxide film is about 1.46, which is much smaller than that of silicon. Therefore, the reflectance at the interface between the silicon substrate and the silicon oxide film becomes 20% or more, and a large amount of light is reflected on the upper surface of the photodiode. This causes deterioration of image quality due to the generation of stray light and deterioration of image quality, distance measurement accuracy, etc. due to deterioration of photoelectric conversion efficiency.

そこで本実施形態では、フォトダイオードなどの光電変換素子の上面からの反射光を低減することを可能にする。光電変換素子の上面からの反射光を低減できれば、迷光を抑制することができるとともに、フォトダイオード中に入射する光の割合が高められるため、光電変換効率を向上させることが可能になる。 Therefore, in the present embodiment, it is possible to reduce the reflected light from the upper surface of the photoelectric conversion element such as a photodiode. If the light reflected from the upper surface of the photoelectric conversion element can be reduced, the stray light can be suppressed and the ratio of the light incident on the photodiode can be increased, so that the photoelectric conversion efficiency can be improved.

しかし、フォトダイオード内に取り込まれる光を増加させたとしても、フォトダイオードを厚くするのが困難なために十分な光を吸収できず、感度が不十分になるという課題が存在する。 However, even if the amount of light taken into the photodiode is increased, there is a problem that sufficient light cannot be absorbed because it is difficult to make the photodiode thick, and the sensitivity becomes insufficient.

フォトダイオード中の光吸収率を向上させるには、フォトダイオード内での光路長を増加させることが有効である。ここで、光路長を増加させる方法としては、フォトダイオード上面にピラミッド型の凹凸を形成することにより、入射光を反射または屈折させる方法が考えられる。このような構造によれば、フォトダイオード内に光が斜めに入射して素子構造で反射することとなるため、垂直入射した場合よりも光路長を増加させることができる。 In order to improve the light absorption rate in the photodiode, it is effective to increase the optical path length in the photodiode. Here, as a method of increasing the optical path length, a method of reflecting or refracting incident light by forming pyramid-shaped irregularities on the upper surface of the photodiode can be considered. According to such a structure, the light is obliquely incident in the photodiode and reflected by the element structure, so that the optical path length can be increased as compared with the case where the light is vertically incident.

ただし、ピラミッド型の凹凸からの反射光が存在するため、迷光が発生するという課題が存在する。 However, since the reflected light from the pyramid-shaped unevenness exists, there is a problem that stray light is generated.

フォトダイオード上面からの反射光を低減する方法としては、フォトダイオードの上面に微細な突起、いわゆるモスアイ構造を形成する方法が存在する。ただし、フォトダイオード上面をモスアイ構造とした構造では、フォトダイオード上面からの反射を低減することはできるものの、フォトダイオード内へは光が回折せずに垂直に入射してしまうため、光吸収率を改善することができず、感度が不十分になるという課題が残る。 As a method of reducing the reflected light from the upper surface of the photodiode, there is a method of forming a fine protrusion, a so-called moth-eye structure, on the upper surface of the photodiode. However, in the structure in which the upper surface of the photodiode has a moth-eye structure, although the reflection from the upper surface of the photodiode can be reduced, the light is vertically incident into the photodiode without being diffracted, so that the light absorption rate is increased. The problem remains that it cannot be improved and the sensitivity becomes insufficient.

そこで以下の実施形態では、フォトダイオード上面で反射する光を抑制してフォトダイオード内に取り込まれる光の量を増加させるとともに、フォトダイオード内での光路長を長くして吸収される光の量を増加させることで、光電変換効率を向上させることが可能な固体撮像装置及び電子機器について、例を挙げて説明する。 Therefore, in the following embodiment, the light reflected on the upper surface of the photodiode is suppressed to increase the amount of light taken into the photodiode, and the optical path length in the photodiode is lengthened to increase the amount of light absorbed. An example of a solid-state image sensor and an electronic device capable of improving the photoelectric conversion efficiency by increasing the number will be described.

2.第1の実施形態
まず、第1の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。なお、本実施形態では、CMOSイメージセンサに本実施形態に係る技術を適用した場合を例示するが、これに限定されず、例えば、SPAD画素を用いたToFセンサなど、光電変換素子を備える種々のセンサに本実施形態に係る技術を適用することが可能である。
2. First Embodiment First, the solid-state image sensor and the electronic device according to the first embodiment will be described in detail with reference to the drawings. In the present embodiment, the case where the technique according to the present embodiment is applied to the CMOS image sensor is illustrated, but the present invention is not limited to this, and various types including a photoelectric conversion element such as a ToF sensor using a SPAD pixel are provided. It is possible to apply the technique according to this embodiment to the sensor.

2.1 電子機器の構成例
図1は、第1の実施形態に係る固体撮像装置を搭載した電子機器の概略構成例を示すブロック図である。図1に示すように、電子機器1は、例えば、撮像レンズ10と、固体撮像装置100と、記憶部30と、プロセッサ20とを備える。
2.1 Configuration Example of Electronic Device FIG. 1 is a block diagram showing a schematic configuration example of an electronic device equipped with the solid-state image sensor according to the first embodiment. As shown in FIG. 1, the electronic device 1 includes, for example, an image pickup lens 10, a solid-state image pickup device 100, a storage unit 30, and a processor 20.

撮像レンズ10は、入射光を集光してその像を固体撮像装置100の受光面に結像する光学系の一例である。受光面とは、固体撮像装置100における光電変換素子が配列する面であってよい。固体撮像装置100は、入射光を光電変換して画像データを生成する。また、固体撮像装置100は、生成した画像データに対し、ノイズ除去やホワイトバランス調整等の所定の信号処理を実行する。 The image pickup lens 10 is an example of an optical system that collects incident light and forms an image on the light receiving surface of the solid-state image pickup device 100. The light receiving surface may be a surface on which the photoelectric conversion elements in the solid-state image sensor 100 are arranged. The solid-state image sensor 100 generates image data by photoelectrically converting the incident light. Further, the solid-state image sensor 100 executes predetermined signal processing such as noise removal and white balance adjustment on the generated image data.

記憶部30は、例えば、フラッシュメモリやDRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等で構成され、固体撮像装置100から入力された画像データ等を記録する。 The storage unit 30 is composed of, for example, a flash memory, a DRAM (Dynamic Random Access Memory), a SRAM (Static Random Access Memory), or the like, and records image data or the like input from the solid-state imaging device 100.

プロセッサ20は、例えば、CPU(Central Processing Unit)等を用いて構成され、オペレーティングシステムや各種アプリケーションソフトウエア等を実行するアプリケーションプロセッサや、GPU(Graphics Processing Unit)やベースバンドプロセッサなどが含まれ得る。プロセッサ20は、固体撮像装置100から入力された画像データや記憶部30から読み出した画像データ等に対し、必要に応じた種々処理を実行したり、ユーザへの表示を実行したり、所定のネットワークを介して外部へ送信したりする。 The processor 20 may include, for example, an application processor configured by using a CPU (Central Processing Unit) or the like and executing an operating system, various application software, or the like, a GPU (Graphics Processing Unit), a baseband processor, or the like. The processor 20 executes various processes as necessary for the image data input from the solid-state image sensor 100, the image data read from the storage unit 30, and the like, executes display to the user, and performs a predetermined network. It is sent to the outside via.

2.2 固体撮像装置の構成例
図2は、第1の実施形態に係るCMOS型の固体撮像装置(単にCMOSイメージセンサ又はイメージセンサという)の概略構成例を示すブロック図である。ここで、CMOSイメージセンサとは、CMOSプロセスを応用して、または、部分的に使用して作成されたイメージセンサである。例えば、本実施形態に係るイメージセンサ100は、裏面照射型のイメージセンサで構成されている。
2.2 Configuration Example of Solid-State Image Sensor FIG. 2 is a block diagram showing a schematic configuration example of a CMOS-type solid-state image sensor (simply referred to as a CMOS image sensor or an image sensor) according to the first embodiment. Here, the CMOS image sensor is an image sensor created by applying or partially using the CMOS process. For example, the image sensor 100 according to the present embodiment is composed of a back-illuminated image sensor.

本実施形態に係るイメージセンサ100は、例えば、画素アレイ部101が形成された半導体チップと、周辺回路が形成された半導体チップとが積層されたスタック構造を有する。周辺回路には、例えば、垂直駆動回路102、カラム処理回路103、水平駆動回路104及びシステム制御部105が含まれ得る。 The image sensor 100 according to the present embodiment has, for example, a stack structure in which a semiconductor chip on which a pixel array portion 101 is formed and a semiconductor chip on which peripheral circuits are formed are laminated. Peripheral circuits may include, for example, a vertical drive circuit 102, a column processing circuit 103, a horizontal drive circuit 104, and a system control unit 105.

イメージセンサ100は更に、信号処理部108及びデータ格納部109を備えている。信号処理部108及びデータ格納部109は、周辺回路と同じ半導体チップに設けられてもよいし、別の半導体チップに設けられてもよい。 The image sensor 100 further includes a signal processing unit 108 and a data storage unit 109. The signal processing unit 108 and the data storage unit 109 may be provided on the same semiconductor chip as the peripheral circuit, or may be provided on another semiconductor chip.

画素アレイ部101は、受光した光量に応じた電荷を生成しかつ蓄積する光電変換素子を有する単位画素(以下、単に「画素」と記述する場合もある)110が行方向及び列方向に、すなわち、行列状に2次元格子状に配置された構成を有する。ここで、行方向とは画素行の画素の配列方向(図面中、横方向)をいい、列方向とは画素列の画素の配列方向(図面中、縦方向)をいう。単位画素の具体的な回路構成や画素構造の詳細については後述する。 In the pixel array unit 101, unit pixels (hereinafter, may be simply referred to as “pixels”) 110 having a photoelectric conversion element that generates and stores electric charges according to the amount of received light are arranged in the row direction and the column direction, that is, , It has a structure arranged in a two-dimensional grid pattern in a matrix. Here, the row direction means the arrangement direction of the pixels in the pixel row (in the drawing, the horizontal direction), and the column direction means the arrangement direction of the pixels in the pixel row (in the drawing, the vertical direction). The specific circuit configuration of the unit pixel and the details of the pixel structure will be described later.

画素アレイ部101では、行列状の画素配列に対し、画素行ごとに画素駆動線LDが行方向に沿って配線され、画素列ごとに垂直信号線VSLが列方向に沿って配線されている。画素駆動線LDは、画素から信号を読み出す際の駆動を行うための駆動信号を伝送する。図2では、画素駆動線LDが1本ずつの配線として示されているが、1本ずつに限られるものではない。画素駆動線LDの一端は、垂直駆動回路102の各行に対応した出力端に接続されている。 In the pixel array unit 101, the pixel drive line LD is wired along the row direction for each pixel row and the vertical signal line VSL is wired along the column direction for each pixel row with respect to the matrix-shaped pixel array. The pixel drive line LD transmits a drive signal for driving when reading a signal from the pixel. In FIG. 2, the pixel drive lines LD are shown as wiring one by one, but the wiring is not limited to one by one. One end of the pixel drive line LD is connected to the output end corresponding to each line of the vertical drive circuit 102.

垂直駆動回路102は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部101の各画素を全画素同時あるいは行単位等で駆動する。すなわち、垂直駆動回路102は、当該垂直駆動回路102を制御するシステム制御部105と共に、画素アレイ部101の各画素の動作を制御する駆動部を構成している。この垂直駆動回路102はその具体的な構成については図示を省略するが、一般的に、読出し走査系と掃出し走査系との2つの走査系を備えている。 The vertical drive circuit 102 is composed of a shift register, an address decoder, and the like, and drives each pixel of the pixel array unit 101 simultaneously or in units of rows. That is, the vertical drive circuit 102 constitutes a drive unit that controls the operation of each pixel of the pixel array unit 101 together with the system control unit 105 that controls the vertical drive circuit 102. Although the specific configuration of the vertical drive circuit 102 is not shown, it generally includes two scanning systems, a read scanning system and a sweep scanning system.

読出し走査系は、単位画素から信号を読み出すために、画素アレイ部101の単位画素を行単位で順に選択走査する。単位画素から読み出される信号はアナログ信号である。掃出し走査系は、読出し走査系によって読出し走査が行われる読出し行に対して、その読出し走査よりも露光時間分だけ先行して掃出し走査を行う。 The read-out scanning system selectively scans the unit pixels of the pixel array unit 101 row by row in order to read a signal from the unit pixels. The signal read from the unit pixel is an analog signal. The sweep-out scanning system performs sweep-out scanning for the read-out line on which read-out scanning is performed by the read-out scanning system, ahead of the read-out scan by the exposure time.

この掃出し走査系による掃出し走査により、読出し行の単位画素の光電変換素子から不要な電荷が掃き出されることによって当該光電変換素子がリセットされる。そして、この掃出し走査系で不要電荷を掃き出す(リセットする)ことにより、所謂電子シャッタ動作が行われる。ここで、電子シャッタ動作とは、光電変換素子の電荷を捨てて、新たに露光を開始する(電荷の蓄積を開始する)動作のことを言う。 By the sweep scanning by this sweep scanning system, the photoelectric conversion element is reset by sweeping out unnecessary charges from the photoelectric conversion element of the unit pixel of the read row. Then, by sweeping out (resetting) unnecessary charges with this sweep-out scanning system, a so-called electronic shutter operation is performed. Here, the electronic shutter operation refers to an operation of discarding the electric charge of the photoelectric conversion element and starting a new exposure (starting the accumulation of electric charge).

読出し走査系による読出し動作によって読み出される信号は、その直前の読出し動作または電子シャッタ動作以降に受光した光量に対応している。そして、直前の読出し動作による読出しタイミングまたは電子シャッタ動作による掃出しタイミングから、今回の読出し動作による読出しタイミングまでの期間が、単位画素における電荷の蓄積期間(露光期間ともいう)となる。 The signal read by the read operation by the read scanning system corresponds to the amount of light received after the read operation or the electronic shutter operation immediately before that. Then, the period from the read timing by the immediately preceding read operation or the sweep timing by the electronic shutter operation to the read timing by the current read operation is the charge accumulation period (also referred to as the exposure period) in the unit pixel.

垂直駆動回路102によって選択走査された画素行の各単位画素から出力される信号は、画素列ごとに垂直信号線VSLの各々を通してカラム処理回路103に入力される。カラム処理回路103は、画素アレイ部101の画素列ごとに、選択行の各画素から垂直信号線VSLを通して出力される信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。 The signal output from each unit pixel of the pixel row selectively scanned by the vertical drive circuit 102 is input to the column processing circuit 103 through each of the vertical signal lines VSL for each pixel column. The column processing circuit 103 performs predetermined signal processing on the signal output from each pixel of the selected row through the vertical signal line VSL for each pixel column of the pixel array unit 101, and temporarily processes the pixel signal after the signal processing. Hold the target.

具体的には、カラム処理回路103は、信号処理として少なくとも、ノイズ除去処理、例えばCDS(Correlated Double Sampling:相関二重サンプリング)処理や、DDS(Double Data Sampling)処理を行う。例えば、CDS処理により、リセットノイズや画素内の増幅トランジスタの閾値ばらつき等の画素固有の固定パターンノイズが除去される。カラム処理回路103は、その他にも、例えば、AD(アナログ−デジタル)変換機能を備え、光電変換素子から読み出され得たアナログの画素信号をデジタル信号に変換して出力する。 Specifically, the column processing circuit 103 performs at least noise removal processing, for example, CDS (Correlated Double Sampling) processing and DDS (Double Data Sampling) processing as signal processing. For example, the CDS process removes pixel-specific fixed pattern noise such as reset noise and threshold variation of the amplification transistor in the pixel. The column processing circuit 103 also has, for example, an AD (analog-digital) conversion function, and converts an analog pixel signal read from a photoelectric conversion element into a digital signal and outputs the signal.

水平駆動回路104は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理回路103の画素列に対応する読出し回路(以下、画素回路という)を順番に選択する。この水平駆動回路104による選択走査により、カラム処理回路103において画素回路ごとに信号処理された画素信号が順番に出力される。 The horizontal drive circuit 104 is composed of a shift register, an address decoder, and the like, and sequentially selects a read circuit (hereinafter, referred to as a pixel circuit) corresponding to the pixel sequence of the column processing circuit 103. By the selective scanning by the horizontal drive circuit 104, the pixel signals that have been signal-processed for each pixel circuit in the column processing circuit 103 are sequentially output.

システム制御部105は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、当該タイミングジェネレータで生成された各種のタイミングを基に、垂直駆動回路102、カラム処理回路103、及び、水平駆動回路104などの駆動制御を行う。 The system control unit 105 is configured by a timing generator or the like that generates various timing signals, and based on the various timings generated by the timing generator, the vertical drive circuit 102, the column processing circuit 103, and the horizontal drive circuit 104. Drive control such as.

信号処理部108は、少なくとも演算処理機能を有し、カラム処理回路103から出力される画素信号に対して演算処理等の種々の信号処理を行う。データ格納部109は、信号処理部108での信号処理にあたって、その処理に必要なデータを一時的に格納する。 The signal processing unit 108 has at least an arithmetic processing function, and performs various signal processing such as arithmetic processing on the pixel signal output from the column processing circuit 103. The data storage unit 109 temporarily stores the data required for the signal processing in the signal processing unit 108.

なお、信号処理部108から出力された画像データは、例えば、イメージセンサ100を搭載する電子機器1におけるプロセッサ20等において所定の処理が実行されたり、所定のネットワークを介して外部へ送信されたりしてもよい。 The image data output from the signal processing unit 108 may be, for example, executed by a processor 20 or the like in the electronic device 1 equipped with the image sensor 100, or transmitted to the outside via a predetermined network. You may.

2.3 単位画素の構成例
図3は、本実施形態に係る単位画素の概略構成例を示す回路図である。図3に示すように、単位画素110は、フォトダイオードPDと、転送トランジスタ111と、リセットトランジスタ112と、増幅トランジスタ113と、選択トランジスタ114と、浮遊拡散層FDとを備える。
2.3 Configuration example of a unit pixel FIG. 3 is a circuit diagram showing a schematic configuration example of a unit pixel according to the present embodiment. As shown in FIG. 3, the unit pixel 110 includes a photodiode PD, a transfer transistor 111, a reset transistor 112, an amplification transistor 113, a selection transistor 114, and a floating diffusion layer FD.

選択トランジスタ114のゲートには、画素駆動線LDに含まれる選択トランジスタ駆動線LD114が接続され、リセットトランジスタ112のゲートには、画素駆動線LDに含まれるリセットトランジスタ駆動線LD112が接続され、転送トランジスタ111のゲートには、画素駆動線LDに含まれる転送トランジスタ駆動線LD111が接続されている。また、増幅トランジスタ113のドレインには、カラム処理回路103に一端が接続される垂直信号線VSLが選択トランジスタ114を介して接続されている。 The selection transistor drive line LD 114 included in the pixel drive line LD is connected to the gate of the selection transistor 114, and the reset transistor drive line LD 112 included in the pixel drive line LD is connected to the gate of the reset transistor 112. The transfer transistor drive line LD111 included in the pixel drive line LD is connected to the gate of 111. Further, a vertical signal line VSL having one end connected to the column processing circuit 103 is connected to the drain of the amplification transistor 113 via the selection transistor 114.

以下の説明において、リセットトランジスタ112、増幅トランジスタ113と及び選択トランジスタ114は、まとめて画素回路とも称される。この画素回路には、浮遊拡散層FD及び/又は転送トランジスタ111が含まれてもよい。 In the following description, the reset transistor 112, the amplification transistor 113, and the selection transistor 114 are also collectively referred to as a pixel circuit. The pixel circuit may include a floating diffusion layer FD and / or a transfer transistor 111.

フォトダイオードPDは、入射した光を光電変換する。転送トランジスタ111は、フォトダイオードPDに発生した電荷を転送する。浮遊拡散層FDは、転送トランジスタ111が転送した電荷を蓄積する。増幅トランジスタ113は、浮遊拡散層FDに蓄積された電荷に応じた電圧値の画素信号を垂直信号線VSLに出現させる。リセットトランジスタ112は、浮遊拡散層FDに蓄積された電荷を放出する。選択トランジスタ114は、読出し対象の単位画素110を選択する。 The photodiode PD photoelectrically converts the incident light. The transfer transistor 111 transfers the electric charge generated in the photodiode PD. The floating diffusion layer FD accumulates the electric charge transferred by the transfer transistor 111. The amplification transistor 113 causes a pixel signal having a voltage value corresponding to the electric charge accumulated in the floating diffusion layer FD to appear on the vertical signal line VSL. The reset transistor 112 releases the electric charge accumulated in the floating diffusion layer FD. The selection transistor 114 selects the unit pixel 110 to be read.

フォトダイオードPDのアノードは、接地されており、カソ−ドは、転送トランジスタ111のソースに接続されている。転送トランジスタ111のドレインは、リセットトランジスタ112のソースおよび増幅トランジスタ113のゲートに接続されており、これらの接続点であるノードが浮遊拡散層FDを構成する。なお、リセットトランジスタ112のドレインは、不図示の垂直リセット入力線に接続されている。 The anode of the photodiode PD is grounded and the cascade is connected to the source of the transfer transistor 111. The drain of the transfer transistor 111 is connected to the source of the reset transistor 112 and the gate of the amplification transistor 113, and the nodes at these connection points form the floating diffusion layer FD. The drain of the reset transistor 112 is connected to a vertical reset input line (not shown).

増幅トランジスタ113のソースは、不図示の垂直電流供給線に接続されている。増幅トランジスタ113のドレインは、選択トランジスタ114のソースに接続されており、選択トランジスタ114のドレインは、垂直信号線VSLに接続されている。 The source of the amplification transistor 113 is connected to a vertical current supply line (not shown). The drain of the amplification transistor 113 is connected to the source of the selection transistor 114, and the drain of the selection transistor 114 is connected to the vertical signal line VSL.

浮遊拡散層FDは、蓄積している電荷をその電荷量に応じた電圧値の電圧に変換する。なお、浮遊拡散層FDは、例えば、対接地容量であってもよい。ただし、これに限定されず、浮遊拡散層FDは、転送トランジスタ111のドレインとリセットトランジスタ112のソースと増幅トランジスタ113のゲートとが接続するノードにキャパシタなどを意図的に接続することで付加された容量であってもよい。 The floating diffusion layer FD converts the accumulated electric charge into a voltage having a voltage value corresponding to the amount of the electric charge. The floating diffusion layer FD may have, for example, a grounding capacitance. However, the present invention is not limited to this, and the floating diffusion layer FD is added by intentionally connecting a capacitor or the like to a node to which the drain of the transfer transistor 111, the source of the reset transistor 112, and the gate of the amplification transistor 113 are connected. It may be a capacity.

2.4 単位画素の基本機能例
次に、単位画素110の基本機能について、図3を参照して説明する。リセットトランジスタ112は、垂直駆動回路102からリセットトランジスタ駆動線LD112を介して供給されるリセット信号RSTに従って、浮遊拡散層FDに蓄積されている電荷の排出(リセット)を制御する。なお、リセットトランジスタ112がオン状態であるときに転送トランジスタ111をオン状態とすることで、浮遊拡散層FDに蓄積されている電荷に加え、フォトダイオードPDに蓄積されている電荷を排出(リセット)することも可能である。
2.4 Example of Basic Function of Unit Pixel Next, the basic function of the unit pixel 110 will be described with reference to FIG. The reset transistor 112 controls the discharge (reset) of the electric charge stored in the floating diffusion layer FD according to the reset signal RST supplied from the vertical drive circuit 102 via the reset transistor drive line LD112. By turning on the transfer transistor 111 when the reset transistor 112 is on, in addition to the electric charge accumulated in the floating diffusion layer FD, the electric charge accumulated in the photodiode PD is discharged (reset). It is also possible to do.

リセットトランジスタ112のゲートにHighレベルのリセット信号RSTが入力されると、浮遊拡散層FDが垂直リセット入力線を通して印加される電圧にクランプされる。これにより、浮遊拡散層FDに蓄積されていた電荷が排出(リセット)される。 When a high level reset signal RST is input to the gate of the reset transistor 112, the floating diffusion layer FD is clamped to the voltage applied through the vertical reset input line. As a result, the electric charge accumulated in the floating diffusion layer FD is discharged (reset).

また、リセットトランジスタ112のゲートにLowレベルのリセット信号RSTが入力されると、浮遊拡散層FDは、垂直リセット入力線と電気的に切断され、浮遊状態になる。 Further, when the Low level reset signal RST is input to the gate of the reset transistor 112, the floating diffusion layer FD is electrically disconnected from the vertical reset input line and becomes a floating state.

フォトダイオードPDは、入射光を光電変換し、その光量に応じた電荷を生成する。生成された電荷は、フォトダイオードPDのカソード側に蓄積する。転送トランジスタ111は、垂直駆動回路102から転送トランジスタ駆動線LD111を介して供給される転送制御信号TRGに従って、フォトダイオードPDから浮遊拡散層FDへの電荷の転送を制御する。 The photodiode PD photoelectrically converts the incident light and generates an electric charge according to the amount of the light. The generated charge is accumulated on the cathode side of the photodiode PD. The transfer transistor 111 controls the transfer of electric charges from the photodiode PD to the floating diffusion layer FD according to the transfer control signal TRG supplied from the vertical drive circuit 102 via the transfer transistor drive line LD111.

例えば、転送トランジスタ111のゲートにHighレベルの転送制御信号TRGが入力されると、フォトダイオードPDに蓄積されている電荷が浮遊拡散層FDに転送される。一方、転送トランジスタ111のゲートにLowレベルの転送制御信号TRGが供給されると、フォトダイオードPDからの電荷の転送が停止する。 For example, when a high-level transfer control signal TRG is input to the gate of the transfer transistor 111, the charge stored in the photodiode PD is transferred to the floating diffusion layer FD. On the other hand, when the low level transfer control signal TRG is supplied to the gate of the transfer transistor 111, the transfer of electric charge from the photodiode PD is stopped.

浮遊拡散層FDは、上述したように、フォトダイオードPDから転送トランジスタ111を介して転送された電荷をその電荷量に応じた電圧値の電圧に変換する機能を持つ。したがって、リセットトランジスタ112がオフした浮遊状態では、浮遊拡散層FDの電位は、それぞれが蓄積する電荷量に応じて変調される。 As described above, the floating diffusion layer FD has a function of converting the electric charge transferred from the photodiode PD via the transfer transistor 111 into a voltage having a voltage value corresponding to the amount of the electric charge. Therefore, in the floating state in which the reset transistor 112 is turned off, the potential of the floating diffusion layer FD is modulated according to the amount of electric charge accumulated by each.

増幅トランジスタ113は、そのゲートに接続された浮遊拡散層FDの電位変動を入力信号とする増幅器として機能し、その出力電圧信号は選択トランジスタ114を介して垂直信号線VSLに画素信号として出現する。 The amplification transistor 113 functions as an amplifier that uses the potential fluctuation of the floating diffusion layer FD connected to the gate as an input signal, and the output voltage signal appears as a pixel signal on the vertical signal line VSL via the selection transistor 114.

選択トランジスタ114は、垂直駆動回路102から選択トランジスタ駆動線LD114を介して供給される選択制御信号SELに従って、増幅トランジスタ113による画素信号の垂直信号線VSLへの出現を制御する。例えば、選択トランジスタ114のゲートにHighレベルの選択制御信号SELが入力されると、増幅トランジスタ113による画素信号が垂直信号線VSLに出現される。一方、選択トランジスタ114のゲートにLowレベルの選択制御信号SELが入力されると、垂直信号線VSLへの画素信号の出現が停止される。これにより、複数の単位画素110が接続された垂直信号線VSLにおいて、選択した単位画素110の出力のみを取り出すことが可能となる。 The selection transistor 114 controls the appearance of the pixel signal by the amplification transistor 113 on the vertical signal line VSL according to the selection control signal SEL supplied from the vertical drive circuit 102 via the selection transistor drive line LD 114. For example, when a high-level selection control signal SEL is input to the gate of the selection transistor 114, a pixel signal from the amplification transistor 113 appears on the vertical signal line VSL. On the other hand, when the Low level selection control signal SEL is input to the gate of the selection transistor 114, the appearance of the pixel signal on the vertical signal line VSL is stopped. As a result, in the vertical signal line VSL in which a plurality of unit pixels 110 are connected, it is possible to extract only the output of the selected unit pixel 110.

2.5 固体撮像装置の積層構造例
図4は、本実施形態に係るイメージセンサの積層構造例を示す図である。図4に示すように、イメージセンサ100は、受光チップ121と回路チップ122とが上下に積層された構造を備える。受光チップ121は、例えば、フォトダイオードPDが配列する画素アレイ部101を備える半導体チップであり、回路チップ122は、例えば、図3に示す画素回路が配列する半導体チップである。
2.5 Example of laminated structure of solid-state image sensor FIG. 4 is a diagram showing an example of a laminated structure of an image sensor according to the present embodiment. As shown in FIG. 4, the image sensor 100 has a structure in which a light receiving chip 121 and a circuit chip 122 are vertically laminated. The light receiving chip 121 is, for example, a semiconductor chip including a pixel array unit 101 in which the photodiode PD is arranged, and the circuit chip 122 is, for example, a semiconductor chip in which the pixel circuits shown in FIG. 3 are arranged.

受光チップ121と回路チップ122との接合には、例えば、それぞれの接合面を平坦化して両者を電子間力で貼り合わせる、いわゆる直接接合を用いることができる。ただし、これに限定されず、例えば、互いの接合面に形成された銅(Cu)製の電極パッド同士をボンディングする、いわゆるCu−Cu接合や、その他、バンプ接合などを用いることも可能である。 For joining the light receiving chip 121 and the circuit chip 122, for example, so-called direct bonding, in which the respective bonding surfaces are flattened and the two are bonded by intermolecular force, can be used. However, the present invention is not limited to this, and for example, so-called Cu-Cu bonding in which copper (Cu) electrode pads formed on the bonding surfaces of each other are bonded to each other, or other bump bonding or the like can be used. ..

また、受光チップ121と回路チップ122とは、例えば、半導体基板を貫通するTSV(Through-Silicon Via)などの接続部を介して電気的に接続される。TSVを用いた接続には、例えば、受光チップ121に設けられたTSVと受光チップ121から回路チップ122にかけて設けられたTSVとの2つのTSVをチップ外表で接続する、いわゆるツインTSV方式や、受光チップ121から回路チップ122まで貫通するTSVで両者を接続する、いわゆるシェアードTSV方式などを採用することができる。 Further, the light receiving chip 121 and the circuit chip 122 are electrically connected via, for example, a connecting portion such as a TSV (Through-Silicon Via) penetrating the semiconductor substrate. Connections using TSVs include, for example, a so-called twin TSV method in which two TSVs, a TSV provided on the light receiving chip 121 and a TSV provided from the light receiving chip 121 to the circuit chip 122, are connected on the outer surface of the chip, or a light receiving method. A so-called shared TSV method or the like in which both are connected by a TSV penetrating from the chip 121 to the circuit chip 122 can be adopted.

ただし、受光チップ121と回路チップ122との接合にCu−Cu接合やバンプ接合を用いた場合には、Cu−Cu接合部やバンプ接合部を介して両者が電気的に接続される。 However, when Cu-Cu bonding or bump bonding is used for bonding the light receiving chip 121 and the circuit chip 122, both are electrically connected via the Cu-Cu bonding portion or the bump bonding portion.

2.6 単位画素の断面構造例
次に、図5を参照して、第1の実施形態に係るイメージセンサ100の断面構造例を説明する。図5は、第1の実施形態に係るイメージセンサの断面構造例を示す断面図である。なお、図5には、画素110におけるフォトダイオードPDが形成された受光チップ121の断面構造例が示されている。
2.6 Example of cross-sectional structure of a unit pixel Next, an example of a cross-sectional structure of the image sensor 100 according to the first embodiment will be described with reference to FIG. FIG. 5 is a cross-sectional view showing an example of a cross-sectional structure of the image sensor according to the first embodiment. Note that FIG. 5 shows an example of a cross-sectional structure of the light receiving chip 121 on which the photodiode PD in the pixel 110 is formed.

図5に示すように、イメージセンサ100では、フォトダイオードPDが、半導体基板138の裏面(図では上面)側から入射する入射光L1を受光する。フォトダイオードPDの上方には、平坦化膜133及びオンチップレンズ131が設けられており、各部を順次介して入射した入射光L1を、受光面137で受光して光電変換が行われる。 As shown in FIG. 5, in the image sensor 100, the photodiode PD receives the incident light L1 incident from the back surface (upper surface in the figure) side of the semiconductor substrate 138. A flattening film 133 and an on-chip lens 131 are provided above the photodiode PD, and incident light L1 incident through each portion is received by the light receiving surface 137 to perform photoelectric conversion.

例えば、フォトダイオードPDは、N型半導体領域139が、電荷(電子)を蓄積する電荷蓄積領域として形成されている。フォトダイオードPDにおいては、N型半導体領域139は、半導体基板138のP型半導体領域136及び144で囲まれた領域内に設けられている。N型半導体領域139の、半導体基板138の表面(下面)側には、裏面(上面)側よりも不純物濃度が高いP型半導体領域144が設けられている。つまり、フォトダイオードPDは、HAD(Hole-Accumulation Diode)構造になっており、N型半導体領域139の上面側と下面側との各界面において、暗電流が発生することを抑制するように、P型半導体領域136及び144が形成されている。 For example, in the photodiode PD, the N-type semiconductor region 139 is formed as a charge storage region for accumulating charges (electrons). In the photodiode PD, the N-type semiconductor region 139 is provided in the region surrounded by the P-type semiconductor regions 136 and 144 of the semiconductor substrate 138. On the front surface (lower surface) side of the semiconductor substrate 138 of the N-type semiconductor region 139, a P-type semiconductor region 144 having a higher impurity concentration than the back surface (upper surface) side is provided. That is, the photodiode PD has a HAD (Hole-Accumulation Diode) structure, and the P is suppressed so as to suppress the generation of dark current at each interface between the upper surface side and the lower surface side of the N-type semiconductor region 139. Type semiconductor regions 136 and 144 are formed.

半導体基板138の内部には、複数の画素110の間を電気的に分離する画素分離部140が設けられており、この画素分離部140で区画された領域に、フォトダイオードPDが設けられている。図中、上面側から、イメージセンサ100を見た場合、画素分離部140は、例えば、複数の画素110の間に介在するように格子状に形成されており、フォトダイオードPDは、この画素分離部140で区画された領域内に形成されている。 Inside the semiconductor substrate 138, a pixel separation unit 140 that electrically separates a plurality of pixels 110 is provided, and a photodiode PD is provided in a region partitioned by the pixel separation unit 140. .. When the image sensor 100 is viewed from the upper surface side in the figure, the pixel separation unit 140 is formed in a grid pattern so as to intervene between a plurality of pixels 110, for example, and the photodiode PD has the pixel separation. It is formed in the area partitioned by the part 140.

各フォトダイオードPDでは、アノードが接地されており、イメージセンサ100において、フォトダイオードPDが蓄積した信号電荷(例えば、電子)は、図示せぬ転送トランジスタ111(図3参照)等を介して読み出され、電気信号として、図示せぬ垂直信号線124(図3参照)へ出力される。 In each photodiode PD, the anode is grounded, and in the image sensor 100, the signal charges (for example, electrons) accumulated in the photodiode PD are read out via a transfer transistor 111 (see FIG. 3) (see FIG. 3) which is not shown. Then, it is output as an electric signal to a vertical signal line 124 (see FIG. 3) (see FIG. 3) which is not shown.

配線層145は、半導体基板138のうち、遮光膜134、オンチップレンズ131等の各部が設けられた裏面(上面)とは反対側の表面(下面)に設けられる。 The wiring layer 145 is provided on the front surface (lower surface) of the semiconductor substrate 138 opposite to the back surface (upper surface) where the light-shielding film 134, the on-chip lens 131, and the like are provided.

配線層145は、配線146と絶縁層147とを含み、絶縁層147内において、配線146が各素子に電気的に接続するように形成されている。配線層145は、いわゆる多層配線の層になっており、絶縁層147を構成する層間絶縁膜と配線146とが交互に複数回積層されて形成されている。ここでは、配線146としては、転送トランジスタ111等のフォトダイオードPDから電荷を読み出すためのトランジスタへの配線や、垂直信号線124等の各配線が、絶縁層147を介して積層されている。 The wiring layer 145 includes a wiring 146 and an insulating layer 147, and is formed in the insulating layer 147 so that the wiring 146 is electrically connected to each element. The wiring layer 145 is a layer of so-called multi-layer wiring, and is formed by alternately laminating the interlayer insulating film constituting the insulating layer 147 and the wiring 146 a plurality of times. Here, as the wiring 146, wiring to a transistor for reading charge from a photodiode PD such as a transfer transistor 111 and wiring such as a vertical signal line 124 are laminated via an insulating layer 147.

配線層145の、フォトダイオードPDが設けられている側に対して反対側の面には、例えば、図4で例示した回路チップ122が接合されている。 For example, the circuit chip 122 illustrated in FIG. 4 is bonded to the surface of the wiring layer 145 opposite to the side on which the photodiode PD is provided.

遮光膜134は、半導体基板138の裏面(図では上面)の側に設けられている。 The light-shielding film 134 is provided on the back surface side (upper surface in the drawing) of the semiconductor substrate 138.

遮光膜134は、半導体基板138の上方から半導体基板138の裏面へ向かう入射光L1の一部を、遮光するように構成されている。 The light-shielding film 134 is configured to block a part of the incident light L1 from above the semiconductor substrate 138 toward the back surface of the semiconductor substrate 138.

遮光膜134は、半導体基板138の内部に設けられた画素分離部140の上方に設けられている。ここでは、遮光膜134は、半導体基板138の裏面(上面)上において、シリコン酸化膜等の絶縁膜135を介して、凸形状に突き出るように設けられている。これに対して、半導体基板138の内部に設けられたフォトダイオードPDの上方においては、フォトダイオードPDに入射光L1が入射するように、遮光膜134は、設けられておらず、開口している。 The light-shielding film 134 is provided above the pixel separation portion 140 provided inside the semiconductor substrate 138. Here, the light-shielding film 134 is provided on the back surface (upper surface) of the semiconductor substrate 138 so as to project in a convex shape via an insulating film 135 such as a silicon oxide film. On the other hand, above the photodiode PD provided inside the semiconductor substrate 138, the light-shielding film 134 is not provided and is open so that the incident light L1 is incident on the photodiode PD. ..

つまり、図中、上面側から、イメージセンサ100を見た場合、遮光膜134の平面形状は、格子状になっており、入射光L1が受光面137へ通過する開口が形成されている。 That is, when the image sensor 100 is viewed from the upper surface side in the drawing, the planar shape of the light-shielding film 134 is a grid pattern, and an opening through which the incident light L1 passes to the light receiving surface 137 is formed.

遮光膜134は、光を遮光する遮光材料で形成されている。例えば、チタン(Ti)膜とタングステン(W)膜とを、順次、積層することで、遮光膜134が形成されている。この他に、遮光膜134は、例えば、窒化チタン(TiN)膜とタングステン(W)膜とを、順次、積層することで形成することができる。 The light-shielding film 134 is formed of a light-shielding material that blocks light. For example, the light-shielding film 134 is formed by sequentially laminating a titanium (Ti) film and a tungsten (W) film. In addition to this, the light-shielding film 134 can be formed, for example, by sequentially laminating a titanium nitride (TiN) film and a tungsten (W) film.

遮光膜134は、平坦化膜133によって被覆されている。平坦化膜133は、光を透過する絶縁材料を用いて形成されている。この絶縁材料には、例えば、酸化シリコン(SiO)などを用いることができる。 The light-shielding film 134 is covered with the flattening film 133. The flattening film 133 is formed by using an insulating material that transmits light. For this insulating material, for example, silicon oxide (SiO 2 ) or the like can be used.

画素分離部140は、例えば、溝部141、固定電荷膜142、及び、絶縁膜143を有する。 The pixel separation unit 140 has, for example, a groove portion 141, a fixed charge film 142, and an insulating film 143.

固定電荷膜142は、半導体基板138の裏面(上面)の側において、複数の画素110の間を区画している溝部141を覆うように形成されている。 The fixed charge film 142 is formed on the back surface (upper surface) side of the semiconductor substrate 138 so as to cover the groove 141 partitioning between the plurality of pixels 110.

具体的には、固定電荷膜142は、半導体基板138において裏面(上面)側に形成された溝部141の内側の面を一定の厚みで被覆するように設けられている。そして、その固定電荷膜142で被覆された溝部141の内部を埋め込むように、絶縁膜143が設けられている(充填されている)。 Specifically, the fixed charge film 142 is provided so as to cover the inner surface of the groove portion 141 formed on the back surface (upper surface) side of the semiconductor substrate 138 with a constant thickness. Then, an insulating film 143 is provided (filled) so as to embed the inside of the groove portion 141 covered with the fixed charge film 142.

ここでは、固定電荷膜142は、半導体基板138との界面部分において正電荷(ホール)蓄積領域が形成されて暗電流の発生が抑制されるように、負の固定電荷を有する高誘電体を用いて形成されている。固定電荷膜142が負の固定電荷を有するように形成されていることで、その負の固定電荷によって、半導体基板138との界面に電界が加わり、正電荷(ホール)蓄積領域が形成される。 Here, the fixed charge film 142 uses a high dielectric having a negative fixed charge so that a positive charge (hole) storage region is formed at the interface with the semiconductor substrate 138 and the generation of dark current is suppressed. Is formed. Since the fixed charge film 142 is formed so as to have a negative fixed charge, an electric field is applied to the interface with the semiconductor substrate 138 due to the negative fixed charge, and a positive charge (hole) storage region is formed.

固定電荷膜142は、例えば、ハフニウム酸化膜(HfO膜)で形成することができる。また、固定電荷膜142は、その他、例えば、ハフニウム、ジルコニウム、アルミニウム、タンタル、チタン、マグネシウム、イットリウム、ランタノイド元素等の酸化物の少なくとも1つを含むように形成することができる。 The fixed charge film 142 can be formed of, for example, a hafnium oxide film (HfO 2 film). In addition, the fixed charge film 142 can be formed so as to contain at least one of other oxides such as hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium, and lanthanoid elements.

なお、画素分離部140は、上記構成に限定されず、種々変形することができる。例えば、絶縁膜143の代わりにタングステン(W)膜などの光を反射する反射膜を用いることで、画素分離部140を光反射構造とすることが可能となる。それにより、フォトダイオードPD内に進入した入射光L1を画素分離部140で反射させることが可能となるため、フォトダイオードPD内での入射光L1の光路長を長くすることが可能となる。加えて、画素分離部140を光反射構造とすることで、隣接画素への光の漏れ込みを低減することが可能となるため、画質や測距精度等をより向上させることも可能となる。なお、反射膜の材料としてタングステン(W)などの金属材料を用いた場合には、固定電荷膜142の代わりにシリコン酸化膜などの絶縁膜を溝部141内に設けるとよい。 The pixel separation unit 140 is not limited to the above configuration and can be variously modified. For example, by using a light-reflecting reflective film such as a tungsten (W) film instead of the insulating film 143, the pixel separation unit 140 can have a light-reflecting structure. As a result, the incident light L1 that has entered the photodiode PD can be reflected by the pixel separation unit 140, so that the optical path length of the incident light L1 in the photodiode PD can be lengthened. In addition, by forming the pixel separation unit 140 with a light reflection structure, it is possible to reduce leakage of light to adjacent pixels, so that it is possible to further improve image quality, distance measurement accuracy, and the like. When a metal material such as tungsten (W) is used as the material of the reflective film, an insulating film such as a silicon oxide film may be provided in the groove 141 instead of the fixed charge film 142.

また、画素分離部140を光反射構造とする構成は、反射膜を用いる構成に限定されず、例えば、溝部141内に半導体基板138よりも高い屈折率若しくは低い屈折率の材料を埋め込むことでも実現することができる。 Further, the configuration in which the pixel separation portion 140 has a light reflection structure is not limited to the configuration using a reflective film, and can be realized by, for example, embedding a material having a refractive index higher or lower than that of the semiconductor substrate 138 in the groove portion 141. can do.

さらに、図5には、半導体基板138の裏面(上面)側から形成された溝部141内に画素分離部140が設けられた、いわゆるRDTI(Reverse Deep Trench Isolation)構造の画素分離部140が例示されているが、これに限定されず、例えば、半導体基板138の表面(下面)側から形成された溝部内に画素分離部140が設けられた、いわゆるDTI(Deep Trench Isolation)構造や、半導体基板138の表裏面を貫通するように形成された溝部内に画素分離部140が設けられた、いわゆるFTI(Full Trench Isolation)構造など、種々の構造の画素分離部140を採用することが可能である。 Further, FIG. 5 illustrates a pixel separation portion 140 having a so-called RDTI (Reverse Deep Trench Isolation) structure in which the pixel separation portion 140 is provided in the groove portion 141 formed from the back surface (upper surface) side of the semiconductor substrate 138. However, the present invention is not limited to this, for example, a so-called DTI (Deep Trench Isolation) structure in which the pixel separation portion 140 is provided in the groove portion formed from the surface (lower surface) side of the semiconductor substrate 138, or the semiconductor substrate 138. It is possible to adopt a pixel separation portion 140 having various structures such as a so-called FTI (Full Trench Isolation) structure in which a pixel separation portion 140 is provided in a groove portion formed so as to penetrate the front and back surfaces of the above.

また、本実施形態では、図5に示すように、半導体基板138と絶縁膜135との界面であってフォトダイオードPDの受光面137に、入射光L1の反射を抑制しつつ入射光L1を回折させるための凹凸構造150が設けられている。この凹凸構造150については、以下に詳細に説明する。 Further, in the present embodiment, as shown in FIG. 5, the incident light L1 is diffracted on the light receiving surface 137 of the photodiode PD at the interface between the semiconductor substrate 138 and the insulating film 135 while suppressing the reflection of the incident light L1. A concave-convex structure 150 for making the structure 150 is provided. The uneven structure 150 will be described in detail below.

2.7 凹凸構造について
図6は、本実施形態におけるフォトダイオードの受光面に形成された凹凸構造を示す断面図である。なお、図6及び以下の説明では、簡略化のため、フォトダイオードPDが形成される半導体基板138と半導体基板138上に形成される絶縁膜135とを抜粋する。また、本説明では、明確化のため、入射光L1の入射側を上側とする。
2.7 Concavo-convex structure FIG. 6 is a cross-sectional view showing a concavo-convex structure formed on the light receiving surface of the photodiode in the present embodiment. In FIG. 6 and the following description, for simplification, the semiconductor substrate 138 on which the photodiode PD is formed and the insulating film 135 formed on the semiconductor substrate 138 are extracted. Further, in this description, for the sake of clarification, the incident side of the incident light L1 is set to the upper side.

図6に示すように、本実施形態では、フォトダイオードPDの受光面137に凹凸構造150が形成される。なお、受光面137は、例えば、半導体基板138の最上面であって凹凸構造150における上凸部152aの上面を含む平面であってよい。たたし、これに限定されず、凹凸構造150における下凸部151aが形成する溝の底面を含む平面や、上凸部152aの上面を含む平面と下凸部151aが形成する溝の底面を含む平面との間の領域など、種々変更され得る。 As shown in FIG. 6, in the present embodiment, the concave-convex structure 150 is formed on the light receiving surface 137 of the photodiode PD. The light receiving surface 137 may be, for example, a flat surface that is the uppermost surface of the semiconductor substrate 138 and includes the upper surface of the upper convex portion 152a in the concave-convex structure 150. However, the present invention is not limited to this, and the flat surface including the bottom surface of the groove formed by the downward convex portion 151a in the concave-convex structure 150 and the flat surface including the upper surface of the upper convex portion 152a and the bottom surface of the groove formed by the downward convex portion 151a. Various changes can be made, such as the area between the containing planes.

凹凸構造150は、フォトダイオードPDに入射する入射光L1に対して、反射を低減し、かつフォトダイオードPD内に透過回折する割合を増加させる機能を備える。この2つの機能に実現するために、凹凸構造150は、以下の式(1)及び式(2)を満たすように構成される。

Figure 2021072295
Figure 2021072295
The concave-convex structure 150 has a function of reducing reflection of incident light L1 incident on the photodiode PD and increasing the ratio of transmitted diffraction in the photodiode PD. In order to realize these two functions, the concave-convex structure 150 is configured to satisfy the following equations (1) and (2).
Figure 2021072295
Figure 2021072295

式(1)及び式(2)において、nはフォトダイオードPDを形成する材料、すなわち半導体基板138の屈折率であり、nはフォトダイオードPD上に形成される膜、すなわち絶縁膜135の屈折率である。また、Pは凹凸構造150のピッチであり、λは入射光L1の真空中の波長である。なお、屈折率nおよびnはこの波長に対する値である。 In the formulas (1) and (2), n p is the refractive index of the material forming the photodiode PD, that is, the semiconductor substrate 138, and n U is the film formed on the photodiode PD, that is, the insulating film 135. Refractive index. Further, P is the pitch of the concave-convex structure 150, and λ 0 is the wavelength of the incident light L1 in vacuum. The refractive indexes n p and n U are values for this wavelength.

式(1)は、フォトダイオードPDを形成する半導体基板138の屈折率npより、絶縁膜135の屈折率nを小さくすることを示している。また、式(2)は、凹凸構造150のピッチ条件を示している。なお、式(1)は、式(2)の条件を満たすために必要な条件である。 Equation (1) shows that the refractive index n U of the insulating film 135 is smaller than the refractive index n p of the semiconductor substrate 138 forming the photodiode PD. Further, the equation (2) shows the pitch condition of the concave-convex structure 150. The equation (1) is a condition necessary to satisfy the condition of the equation (2).

絶縁膜135内での入射光L1の波長はλ/nとなり、フォトダイオードPD中での入射光L1の波長はλ/nとなる。したがって、絶縁膜135内での入射光L1の波長よりもフォトダイオードPD内での入射光L1の波長の方が短い。 The wavelength of the incident light L1 in the insulating film 135 is λ 0 / n U , and the wavelength of the incident light L1 in the photodiode PD is λ 0 / n P. Therefore, the wavelength of the incident light L1 in the photodiode PD is shorter than the wavelength of the incident light L1 in the insulating film 135.

また、式(2)の左辺は、凹凸構造150を通過した入射光L1がフォトダイオードPD中で回折するために必要な条件である。式(2)の左右辺は、凹凸構造150から上側に向けて反射型の回折光を発生させないために必要となる条件である。このような条件を満足することで、上側への反射については非回折光(平面の場合と同様な反射光)L2以外を無視することが可能となるため、凹凸構造150の設計を容易化することができる。 Further, the left side of the equation (2) is a condition necessary for the incident light L1 passing through the concave-convex structure 150 to be diffracted in the photodiode PD. The left and right sides of the formula (2) are conditions necessary for not generating reflected diffracted light from the concave-convex structure 150 upward. By satisfying such a condition, it is possible to ignore non-diffraction light (reflected light similar to that in the case of a flat surface) L2 for reflection to the upper side, which facilitates the design of the concave-convex structure 150. be able to.

さらに、凹凸構造150の寸法は、入射光L1がフォトダイオードPD内に透過回折する割合を増加させるように設計されている。つまり、凹凸構造150は、フォトダイオードPD側から見て、非回折光L10の強度が小さくなる回折格子として機能する。 Further, the dimensions of the concave-convex structure 150 are designed to increase the rate at which the incident light L1 is transmitted and diffracted in the photodiode PD. That is, the concave-convex structure 150 functions as a diffraction grating in which the intensity of the non-diffraction light L10 is reduced when viewed from the photodiode PD side.

ただし、凹凸構造150をフォトダイオードPD側への非回折光L10が小さくなるように設計した場合、上側、すなわち絶縁膜135側への反射が発生する。そこで本実施形態では、絶縁膜135側への反射を抑制するために、凹凸構造150が、下凸部151aよりなる第1層151と、上凸部152aよりなる第2層152とに分かれている。 However, when the concave-convex structure 150 is designed so that the non-diffraction light L10 toward the photodiode PD side becomes small, reflection occurs on the upper side, that is, on the insulating film 135 side. Therefore, in the present embodiment, in order to suppress reflection to the insulating film 135 side, the concave-convex structure 150 is divided into a first layer 151 made of a downward convex portion 151a and a second layer 152 made of an upper convex portion 152a. There is.

なお、フォトダイオードPD内に透過回折した回折光L11は、隣接するフォトダイオードPD間に設けられた高反射率の画素分離部140(図6では不図示)によってフォトダイオードPD内に閉じ込められるように反射する。 The diffracted light L11 transmitted and diffracted in the photodiode PD is confined in the photodiode PD by a high reflectance pixel separation unit 140 (not shown in FIG. 6) provided between the adjacent photodiode PDs. reflect.

つづいて、凹凸構造150における第1層151と第2層152とのそれぞれの構造について、以下に説明する。なお、フォトダイオードPDに入射する光(入射光L1)は受光面137に対して垂直な成分が支配的であるため、以下では、垂直入射光に最適化した場合を説明する。 Subsequently, the respective structures of the first layer 151 and the second layer 152 in the concave-convex structure 150 will be described below. Since the light incident on the photodiode PD (incident light L1) is dominated by the component perpendicular to the light receiving surface 137, the case of optimizing for the vertically incident light will be described below.

2.7.1 第1層の構造例
まず、第1層151の構造例について説明する。第1層151は、例えば、回折格子の構造を備える。そこで、第1層151は、フォトダイオードPD側に非回折光L10が多く発生しないように、その寸法が以下の式(3)及び式(4)に近づくように設計される。

Figure 2021072295
Figure 2021072295
2.7.1 Structural example of the first layer First, a structural example of the first layer 151 will be described. The first layer 151 includes, for example, a structure of a diffraction grating. Therefore, the first layer 151 is designed so that its dimensions approach the following equations (3) and (4) so that a large amount of non-diffraction light L10 is not generated on the photodiode PD side.
Figure 2021072295
Figure 2021072295

式(3)において、凸部とは下凸部151aであり、その上面とは下凸部151aの上面である。また、凹部とは隣り合う下凸部151aの間の溝であり、その底面とは溝の底面である。 In the formula (3), the convex portion is the downward convex portion 151a, and the upper surface thereof is the upper surface of the downward convex portion 151a. Further, the concave portion is a groove between adjacent downward convex portions 151a, and the bottom surface thereof is the bottom surface of the groove.

高さを表す式(4)は、凸部を透過する光と凹部を通過する光との位相差が半周期であることを意味する。式(4)の条件を満たすことで、凸部を通過する光と凹部を通過する光とが打消し合う。その結果、理想的には、非回折光L10の強度がゼロとなる。 The equation (4) expressing the height means that the phase difference between the light passing through the convex portion and the light passing through the concave portion is half a cycle. By satisfying the condition of the equation (4), the light passing through the convex portion and the light passing through the concave portion cancel each other out. As a result, ideally, the intensity of the non-diffraction light L10 becomes zero.

なお、半導体基板138の上部に形成される第1層151における下凸部151aの上面レイアウトは、特定の形状に限定されない。例えば、図7に示すように、ストライプ形状の繰り返しパターンであっても良いし、図8に示すように、ドット形状の繰り返しパターンであってもよい。 The upper surface layout of the downward convex portion 151a in the first layer 151 formed on the upper portion of the semiconductor substrate 138 is not limited to a specific shape. For example, as shown in FIG. 7, it may be a stripe-shaped repeating pattern, or as shown in FIG. 8, it may be a dot-shaped repeating pattern.

また、図6には、下凸部151aの側壁が受光面137に対して垂直である場合が例示されているが、これに限定されるものではない。例えば、下凸部151aの側壁は、受光面137に対して傾斜していてもよい。この場合も、第1層151における下凸部151aの上面下面のレイアウト及び高さは、非回折光L10の強度がより小さくなるように設計される。 Further, FIG. 6 illustrates a case where the side wall of the downward convex portion 151a is perpendicular to the light receiving surface 137, but the present invention is not limited to this. For example, the side wall of the downward convex portion 151a may be inclined with respect to the light receiving surface 137. Also in this case, the layout and height of the upper surface and the lower surface of the lower convex portion 151a in the first layer 151 are designed so that the intensity of the non-diffraction light L10 becomes smaller.

なお、下凸部151aのレイアウト寸法は、例えば、電磁場計算法の一種であるFDTD法(Finite-Difference Time-Domain Method)を用いて最適化されてもよい。 The layout dimension of the downward convex portion 151a may be optimized by using, for example, the FDTD method (Finite-Difference Time-Domain Method), which is a kind of electromagnetic field calculation method.

2.7.2 第2層の構造例
つぎに、第2層152の構造例について説明する。第2層152を構成する上凸部152aのサイズ及び高さは、例えば、上側への反射光L2の強度が小さくなるように設計される。
2.7.2 Structural example of the second layer Next, a structural example of the second layer 152 will be described. The size and height of the upper convex portion 152a constituting the second layer 152 are designed so that, for example, the intensity of the reflected light L2 upward is reduced.

ここで、第1層151の実効屈折率をneff11とすると、第2層152は、その実効屈折率neff12が式(5)に近い値となるように設計される。

Figure 2021072295
Here, assuming that the effective refractive index of the first layer 151 is n eff11, the second layer 152 is designed so that its effective refractive index n eff12 is a value close to the equation (5).
Figure 2021072295

第2層152の実効屈折率neff12を式(7)に近づけるために、上凸部152aの高さH12は、以下の式(6)に近い値となるように設計される。

Figure 2021072295
In order to bring the effective refractive index n eff 12 of the second layer 152 closer to the equation (7), the height H 12 of the upper convex portion 152a is designed to have a value close to the following equation (6).
Figure 2021072295

式(5)及び式(6)は、第2層152の上面での反射光と第2層152の下面での反射光とが打ち消し合うための条件である。 Equations (5) and (6) are conditions for canceling the reflected light on the upper surface of the second layer 152 and the reflected light on the lower surface of the second layer 152.

ここで、ある媒質1とこれと異なる媒質2との混合物である層の実効屈折率は、例えば、以下の式(7)に示すLorentz-Lorenzの式から求めることができる。

Figure 2021072295
Here, the effective refractive index of the layer which is a mixture of a certain medium 1 and a different medium 2 can be obtained from, for example, the Lorentz-Lorenz equation shown in the following equation (7).
Figure 2021072295

したがって、式(5)により第2層152に望まれる実効屈折率neff12が求まれば、式(7)より第2層152における凸部と凹部との体積比、すなわち上凸部152aが形成された領域と上凸部152aが形成されていない領域との体積比が求まる。それにより、上凸部152aの上面の寸法を求めることができる。 Therefore, if the effective refractive index n eff12 desired for the second layer 152 is obtained by the equation (5), the volume ratio of the convex portion to the concave portion in the second layer 152, that is, the upper convex portion 152a is formed from the equation (7). The volume ratio between the formed region and the region where the upper convex portion 152a is not formed can be obtained. Thereby, the dimension of the upper surface of the upper convex portion 152a can be obtained.

なお、上側への反射光L2を小さくするための上凸部152aの寸法は、例えば、FDTD法等を用いて決定してもよい。 The size of the upper convex portion 152a for reducing the reflected light L2 upward may be determined by using, for example, the FDTD method or the like.

また、第2層152aにおける上凸部152aのレイアウトは、特定の形状に限定されない。さらに、上凸部152aの側壁も、受光面137に対して垂直である必要はない。 Further, the layout of the upper convex portion 152a in the second layer 152a is not limited to a specific shape. Further, the side wall of the upper convex portion 152a does not have to be perpendicular to the light receiving surface 137.

例えば、図7に例示したストライプ形状の下凸部151aの上面上に、図9に例示するような、ストライプ形状の上凸部152aを形成してもよいし、図10に例示するような、矩形のドット形状の上凸部152aを形成してもよいし、図11に例示するような、下凸部151aの幅と同程度の長さのストライプ形状の上凸部152aを形成してもよい。 For example, a striped upper convex portion 152a as illustrated in FIG. 9 may be formed on the upper surface of the striped lower convex portion 151a illustrated in FIG. 7, or a striped upper convex portion 152a as illustrated in FIG. 10 may be formed. A rectangular dot-shaped upper convex portion 152a may be formed, or a striped upper convex portion 152a having a length similar to the width of the lower convex portion 151a as illustrated in FIG. 11 may be formed. Good.

なお、図9〜図11に示す例では、隣接する上凸部152aの間の間隔は、λ/2nより小さければ、均一でなくてもよい。 In the examples shown in FIGS. 9 to 11, the distance between the adjacent upper convex portions 152a does not have to be uniform as long as it is smaller than λ 0 / 2n U.

また、図8に例示したドット形状の下凸部151aの上面上に、図12に例示するような、矩形のドット形状の上凸部152aを形成してもよいし、図13に例示するような、丸形のドット形状の上凸部152aを形成してもよい。 Further, a rectangular dot-shaped upper convex portion 152a as illustrated in FIG. 12 may be formed on the upper surface of the dot-shaped lower convex portion 151a illustrated in FIG. 8, as illustrated in FIG. The upper convex portion 152a having a round dot shape may be formed.

さらに、図14に例示するように、上凸部152aは、上面が平坦で側面が傾斜した錐台や、上面が尖った錐体などであってもよい。 Further, as illustrated in FIG. 14, the upper convex portion 152a may be a frustum having a flat upper surface and an inclined side surface, a frustum having a sharp upper surface, or the like.

さらにまた、第2層152は、さらに複数の層に分かれていてもよい。例えば、図15に例示するように、第2層152が、第1上凸部1521aよりなる下層1521と、第2上凸部1522aよりなる上層1522から構成されていてもよい。このように、第2層152をさらに多層にした場合、多層の反射防止膜と同等の効果を奏することが可能となるため、広帯域の波長の光に対しても十分にその反射を低減することが可能となる。 Furthermore, the second layer 152 may be further divided into a plurality of layers. For example, as illustrated in FIG. 15, the second layer 152 may be composed of a lower layer 1521 composed of a first upper convex portion 1521a and an upper layer 1522 composed of a second upper convex portion 1522a. In this way, when the second layer 152 is further made into multiple layers, it is possible to obtain the same effect as the multi-layered antireflection film, so that the reflection thereof can be sufficiently reduced even for light having a wide band wavelength. Is possible.

2.8 作用・効果
以上で説明したように、本実施形態によれば、凹凸構造150が、フォトダイオードPDへの透過回折を目的とした第1層151と、上側への反射低減を目的とした第2層152との多層構造を備えている。それにより、フォトダイオードPD上面での入射光L1の反射を低減することが可能になるため、反射光L2が迷光(ゴーストフレア)として他の画素に映り込むことが低減され、その結果、画質の低下を抑制することが可能となる。加えて、フォトダイオードPD中で吸収される光の割合を増加させることが可能になるため、光電変換効率を向上して感度を高めることが可能となる。また、光電変換効率が向上したことにより、フォトダイオードPDの深さ方向に相当する半導体基板138の厚さを薄くすることが可能となるため、固体撮像装置100の小型化や製造の容易化や製造コストの低減等を達成することも可能となる。
2.8 Actions / Effects As described above, according to the present embodiment, the concave-convex structure 150 aims at the first layer 151 for the purpose of transmission diffraction to the photodiode PD and for the purpose of reducing reflection upward. It has a multi-layer structure with the second layer 152. As a result, it is possible to reduce the reflection of the incident light L1 on the upper surface of the photodiode PD, so that the reflected light L2 is less likely to be reflected on other pixels as stray light (ghost flare), and as a result, the image quality is improved. It is possible to suppress the decrease. In addition, since it is possible to increase the proportion of light absorbed in the photodiode PD, it is possible to improve the photoelectric conversion efficiency and increase the sensitivity. Further, since the photoelectric conversion efficiency is improved, the thickness of the semiconductor substrate 138 corresponding to the depth direction of the photodiode PD can be reduced, so that the solid-state image sensor 100 can be downsized and manufactured easily. It is also possible to achieve reduction of manufacturing cost and the like.

3.第2の実施形態
つぎに、第2の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。なお、以下の説明において、第1の実施形態と同様の構成については、同一の符号を付し、その重複する説明を省略する。
3. 3. Second Embodiment Next, the solid-state image sensor and the electronic device according to the second embodiment will be described in detail with reference to the drawings. In the following description, the same components as those in the first embodiment are designated by the same reference numerals, and the duplicated description thereof will be omitted.

本実施形態において、固体撮像装置及び電子機器の概略構成例は、第1の実施形態において説明したものと同様であってよい。ただし、本実施形態では、凹凸構造150が、以下で例示するものに置き換えられる。 In the present embodiment, the schematic configuration example of the solid-state image sensor and the electronic device may be the same as that described in the first embodiment. However, in the present embodiment, the concave-convex structure 150 is replaced with the one illustrated below.

3.1 凹凸構造について
図16は、本実施形態におけるフォトダイオードの受光面に形成された凹凸構造を示す断面図である。なお、図16及び以下の説明では、簡略化のため、フォトダイオードPDが形成される半導体基板138と半導体基板138上に形成される絶縁膜135とを抜粋する。また、本説明では、明確化のため、入射光L1の入射側を上側とする。
3.1 Concavo-convex structure FIG. 16 is a cross-sectional view showing a concavo-convex structure formed on the light receiving surface of the photodiode in the present embodiment. In FIG. 16 and the following description, for simplification, the semiconductor substrate 138 on which the photodiode PD is formed and the insulating film 135 formed on the semiconductor substrate 138 are extracted. Further, in this description, for the sake of clarification, the incident side of the incident light L1 is set to the upper side.

また、以下の説明では、第1の実施形態でも述べたように、フォトダイオードPDに入射する光(入射光L1)は受光面137に対して垂直な成分が支配的であるため、以下では、垂直入射光に最適化した構造を説明する。 Further, in the following description, as described in the first embodiment, the light incident on the photodiode PD (incident light L1) is dominated by the component perpendicular to the light receiving surface 137. A structure optimized for vertically incident light will be described.

図16に示すように、本実施形態に係る凹凸構造250は、複数の凸部251aよりなる第1層251と、凸部251aを覆い且つ上面が平坦な第2層252とを備える。第2層252は、例えば、凸部251aとは屈折率nが異なる材料で構成された膜であってよい。 As shown in FIG. 16, the concavo-convex structure 250 according to the present embodiment includes a first layer 251 composed of a plurality of convex portions 251a and a second layer 252 that covers the convex portions 251a and has a flat upper surface. The second layer 252 may be, for example, a film having a refractive index n M is composed of a different material than the protruding portion 251a.

3.1.1 第1層の構造例
第1層251における凸部251aは、例えば、第1の実施形態において例示した第1層151の下凸部151aと同様であってよい。ただし、凹凸構造250では、第1層251における凸部251aの間が第2層252で埋められている。そのため、凸部251aのピッチや高さ等の寸法は、以下のようにして設定される。
3.1.1 Structural Example of First Layer The convex portion 251a in the first layer 251 may be, for example, the same as the lower convex portion 151a of the first layer 151 illustrated in the first embodiment. However, in the concave-convex structure 250, the space between the convex portions 251a in the first layer 251 is filled with the second layer 252. Therefore, dimensions such as the pitch and height of the convex portion 251a are set as follows.

第2層252の屈折率nは、フォトダイオードPDの屈折率nと、絶縁膜135の屈折率nとの間の値に設定される。そのため、フォトダイオードPDに入射する入射光L1に対して、反射を低減し、かつフォトダイオードPD内に透過回折する割合を増加させるためには、第1層251を構成する凸部251aのピッチPが以下の式(8)に示す条件を満たすように設計される必要がある。

Figure 2021072295
The refractive index n M of the second layer 252 is set to a value between the refractive index n p of the photodiode PD and the refractive index n U of the insulating film 135. Therefore, in order to reduce the reflection of the incident light L1 incident on the photodiode PD and increase the ratio of transmitted diffraction in the photodiode PD, the pitch P of the convex portion 251a constituting the first layer 251 is increased. Needs to be designed to satisfy the condition shown in the following equation (8).
Figure 2021072295

一方で、フォトダイオードPD側への透過型の非回折光L10を抑制するためには、第1層251の凸部251aの寸法が、以下の式(9)及び式(10)に近づくように設計される。

Figure 2021072295
Figure 2021072295
On the other hand, in order to suppress the non-diffraction light L10 transmitted to the photodiode PD side, the dimensions of the convex portion 251a of the first layer 251 should approach the following equations (9) and (10). Designed.
Figure 2021072295
Figure 2021072295

式(10)において、凸部とは凸部251aであり、その上面とは凸部251aの上面である。また、凹部とは隣り合う凸部251aの間の溝であり、その底面とは溝の底面である。 In the formula (10), the convex portion is the convex portion 251a, and the upper surface thereof is the upper surface of the convex portion 251a. Further, the concave portion is a groove between adjacent convex portions 251a, and the bottom surface thereof is the bottom surface of the groove.

高さを表す式(10)は、第1の実施形態における第1層151と同様に、凸部を透過する光と凹部を通過する光との位相差が半周期であることを意味する。式(10)の条件を満たすことで、凸部を通過する光と凹部を通過する光とが打消し合う。その結果、理想的には、非回折光L10の強度がゼロとなる。 The equation (10) expressing the height means that the phase difference between the light passing through the convex portion and the light passing through the concave portion is half a cycle, as in the case of the first layer 151 in the first embodiment. By satisfying the condition of the equation (10), the light passing through the convex portion and the light passing through the concave portion cancel each other out. As a result, ideally, the intensity of the non-diffraction light L10 becomes zero.

なお、第1の実施形態における下凸部151aと同様に、凸部251aの上面レイアウトは、特定の形状に限定されない。また、凸部251aの側壁も、下凸部151aと同様に、受光面137に対して垂直であっても傾斜していてもよい。この場合も、第1層251における凸部251aの上面下面のレイアウト及び高さは、非回折光L10の強度がより小さくなるように設計される。また、凸部251aのレイアウト寸法は、例えば、FDTD法を用いて最適化されてもよい。 Similar to the downward convex portion 151a in the first embodiment, the upper surface layout of the convex portion 251a is not limited to a specific shape. Further, the side wall of the convex portion 251a may be perpendicular to or inclined with respect to the light receiving surface 137, similarly to the downward convex portion 151a. Also in this case, the layout and height of the upper surface and the lower surface of the convex portion 251a in the first layer 251 are designed so that the intensity of the non-diffraction light L10 becomes smaller. Further, the layout dimensions of the convex portion 251a may be optimized by using, for example, the FDTD method.

3.1.2 第2層の構造例
つぎに、第2層252の構造例について説明する。第2層252は、例えば、第1層251の凸部251aとは屈折率が異なる絶縁材料を用いて形成される。絶縁材料には、例えば、ハフニウム、ジルコニウム、アルミニウム、タンタル、チタン、マグネシウム、イットリウム、ランタノイド元素等の酸化物を使用することができる。ただし、これに限定されず、凸部251aと屈折率が異なる絶縁材料であれば、種々の材料が用いられてよい。
3.1.2 Structural example of the second layer Next, a structural example of the second layer 252 will be described. The second layer 252 is formed, for example, by using an insulating material having a refractive index different from that of the convex portion 251a of the first layer 251. As the insulating material, for example, oxides such as hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium, and lanthanoid elements can be used. However, the present invention is not limited to this, and various materials may be used as long as they are insulating materials having a refractive index different from that of the convex portion 251a.

第2層252の屈折率nと高さHとは、上側への反射強度が小さくなるように設計される。ここで、第1層251の実効屈折率をneff21とすると、第2層252の屈折率nは、以下の式(11)に近い値となるように設計される。なお、第2層252の屈折率nは、例えば、材料組成や成膜条件等を制御することで調整することが可能である。

Figure 2021072295
The refractive index n M and the height H M of the second layer 252 are designed such that the reflected intensity in the upper is reduced. Here, assuming that the effective refractive index of the first layer 251 is n eff21, the refractive index n M of the second layer 252 is designed to have a value close to the following equation (11). The refractive index n M of the second layer 252 can be adjusted by controlling, for example, the material composition, the film forming conditions, and the like.
Figure 2021072295

また、第2層252の高さH、すなわち凸部251aの上面から第2層252の上面までの厚さは、以下の式(12)に近い値となるように設計される。

Figure 2021072295
The height H M of the second layer 252, that is, the thickness from the upper surface of the convex portion 251a to the upper surface of the second layer 252 is designed to be a value close to the following equation (12).
Figure 2021072295

式(11)及び式(12)は、第2層252の上面からの反射光と下面からの反射光とが互いに打ち消し合うための条件である。 Equations (11) and (12) are conditions for the reflected light from the upper surface and the reflected light from the lower surface of the second layer 252 to cancel each other out.

なお、図17に例示するように、第2層252は、下層252aと上層252bとを含む多層構造を有していてもよい。その際、図18に例示するように、下層252aを含む1層以上は、第1層251の凸部251aにコンフォーマルに形成されていてもよい。 As illustrated in FIG. 17, the second layer 252 may have a multi-layer structure including the lower layer 252a and the upper layer 252b. At that time, as illustrated in FIG. 18, one or more layers including the lower layer 252a may be conformally formed on the convex portion 251a of the first layer 251.

第2層252を多層構造とした場合、各層の高さを求める計算が複雑になり、シミュレーション等を用いて決定する必要があるものの、上側への反射を抑制する原理は単層とした場合と同様である。すなわち、第1層251の凸部251aの間の凹部に形成される第2層252については、第1層251の凸部251aを通過した光とその間の凹部を通過した光との位相差が半周期となるように各層の高さを設計することで、フォトダイオードPD内への非回折光L10を低減することができる。また、凸部251aの上面より上の第2層252については、上側への反射が最小になるように各層の高さが設計される。 When the second layer 252 has a multi-layer structure, the calculation for obtaining the height of each layer becomes complicated and it is necessary to determine it by using simulation or the like, but the principle of suppressing the reflection to the upper side is the case where it is a single layer. The same is true. That is, with respect to the second layer 252 formed in the concave portion between the convex portions 251a of the first layer 251, the phase difference between the light passing through the convex portion 251a of the first layer 251 and the light passing through the concave portion between them is large. By designing the height of each layer so as to have a half cycle, the non-diffraction light L10 in the photodiode PD can be reduced. Further, for the second layer 252 above the upper surface of the convex portion 251a, the height of each layer is designed so that the reflection to the upper side is minimized.

第2層252を多層構造とすることで、第2層252に使用する材料についての選択の自由度を高めることが可能になるとともに、広帯域の波長の光に対しても十分にその反射を低減することが可能となる。 By forming the second layer 252 into a multi-layer structure, it is possible to increase the degree of freedom in selecting the material used for the second layer 252, and to sufficiently reduce the reflection of light having a wide band wavelength. It becomes possible to do.

3.2 作用・効果
以上で説明したように、本実施形態によれば、第1の実施形態と同様に、凹凸構造150が、フォトダイオードPDへの透過回折を目的とした第1層251と、上側への反射低減を目的とした第2層252との多層構造を備えている。それにより、フォトダイオードPD上面での入射光L1の反射を低減することが可能になるため、迷光(ゴーストフレア)による画質低下の抑制や、光電変換効率の向上による感度向上を達成することが可能となる。
3.2 Actions / Effects As described above, according to the first embodiment, the concave-convex structure 150 is the first layer 251 for the purpose of transmission diffraction to the photodiode PD. It has a multi-layer structure with a second layer 252 for the purpose of reducing reflection on the upper side. As a result, it is possible to reduce the reflection of the incident light L1 on the upper surface of the photodiode PD, so that it is possible to suppress deterioration of image quality due to stray light (ghost flare) and improve sensitivity by improving photoelectric conversion efficiency. It becomes.

その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。 Since other configurations, operations, and effects may be the same as those in the above-described embodiment, detailed description thereof will be omitted here.

4.瞳補正について
上述した実施形態では、フォトダイオードPDに入射する入射光L1のうち受光面137に対して垂直な成分が支配的である場合を例示したが、受光面137の法線に対して傾斜する成分が支配的である場合、すなわち、撮像レンズ10の光学中心からの距離である像高が高い場合でも、同様の手法により各層の寸法を設計することが可能である。
4. About pupil correction In the above-described embodiment, the case where the component perpendicular to the light receiving surface 137 is dominant in the incident light L1 incident on the photodiode PD is illustrated, but it is inclined with respect to the normal of the light receiving surface 137. Even when the components to be formed are dominant, that is, when the image height, which is the distance from the optical center of the image pickup lens 10, is high, the dimensions of each layer can be designed by the same method.

例えば、図19に例示するように、入射光L1が光軸Cに対して角度θ傾いて入射したとすると、垂直方向の波長成分はλ/cosθとして求めることができる。したがって、凹凸構造150/250における第1層151/251及び第2層152/252の寸法については、波長λの代わりにλ/cosθを用いて求めることができる。その際、FDTD法等を用いて寸法を最適化してもよい。 For example, as illustrated in FIG. 19, assuming that the incident light L1 is incident at an angle θ with respect to the optical axis C, the wavelength component in the vertical direction can be obtained as λ 0 / cos θ. Therefore, the dimensions of the first layer 151/251 and the second layer 152/252 in the concave-convex structure 150/250 can be obtained by using λ 0 / cos θ instead of the wavelength λ 0. At that time, the dimensions may be optimized by using the FDTD method or the like.

このような像高に応じた補正(瞳補正)は、例えば、入射光L1の主成分の光軸に対する傾き、すなわち、各単位画素110の増高に応じた光軸に対する入射光L1の傾きに応じて、最適化されてもよい。 Such correction according to the image height (pupil correction) is, for example, the inclination of the incident light L1 with respect to the optical axis of the main component, that is, the inclination of the incident light L1 with respect to the optical axis according to the increase of each unit pixel 110. It may be optimized accordingly.

5.比較結果
次に、上述した各実施形態に係る効果を比較例との対比に基づいて説明する。
5. Comparison Results Next, the effects of each of the above-described embodiments will be described based on comparison with comparative examples.

図20は、比較例に係る層構造と第1及び第2の実施形態に係る層構造との断面構造例を横並びに列挙した図である。なお、層構造とは、例えば、上述した実施形態におけるフォトダイオードPDが形成される半導体基板138と、その上の絶縁膜135との層構造に対応する層構造であってよい。なお、本説明では、絶縁膜135の代わりに、上面膜501を用いた場合を例示する。また、本説明では、明確化のため、入射光の入射側を上側とする。 FIG. 20 is a side-by-side list of cross-sectional structure examples of the layer structure according to the comparative example and the layer structure according to the first and second embodiments. The layer structure may be, for example, a layer structure corresponding to the layer structure of the semiconductor substrate 138 on which the photodiode PD is formed in the above-described embodiment and the insulating film 135 on the semiconductor substrate 138. In this description, a case where the upper surface film 501 is used instead of the insulating film 135 will be illustrated. Further, in this description, for the sake of clarification, the incident side of the incident light is set to the upper side.

さらに、以下に説明するシミュレーションでは、半導体基板138にシリコン基板を用い、上面膜501にアルミナ(Al)を用いたとする。また、入射光L1の波長を700nmとし、半導体基板138の屈折率nを3.722とし、半導体基板138の消衰係数kを0.011とし、上面膜501の屈折率nを1.511とし、上面膜501の消衰係数kを0とする。 Further, in the simulation described below, it is assumed that a silicon substrate is used for the semiconductor substrate 138 and alumina (Al 2 O 3 ) is used for the upper surface film 501. Further, the wavelength of the incident light L1 is 700 nm, the refractive index n of the semiconductor substrate 138 is 3.722, the extinction coefficient k of the semiconductor substrate 138 is 0.011, and the refractive index n of the upper surface film 501 is 1.511. , The extinction coefficient k of the upper surface film 501 is set to 0.

図20において、(a)は、半導体基板138と上面膜501との界面(受光面137に相当)に凹凸構造がなくフラットである場合の断面構造例(これを比較例1とする)を示し、(b)は、半導体基板138と上面膜501との界面に反射低減を目的とした微細な凹凸構造(以下、これもモスアイ構造と称する)520が設けられた場合の断面構造例(これを比較例2とする)を示し、(c)は、半導体基板138と上面膜501との界面にピッチP及び寸法が上述した第1の実施形態における式(2)〜式4)に示す上面を満たす凹凸構造530が設けられた場合の断面構造例(これを比較例2とする)を示し、(d)は、半導体基板138と上面膜501との界面に第1の実施形態に係る凹凸構造150が設けられた場合の断面構造例を示し、(e)は、半導体基板138と上面膜501との界面に第2の実施形態に係る凹凸構造250が設けられた場合の断面構造例を示している。 In FIG. 20, (a) shows an example of a cross-sectional structure (this is referred to as Comparative Example 1) in the case where the interface between the semiconductor substrate 138 and the upper surface film 501 (corresponding to the light receiving surface 137) is flat without an uneven structure. , (B) is an example of a cross-sectional structure in the case where a fine concavo-convex structure (hereinafter, also referred to as a moth-eye structure) 520 for the purpose of reducing reflection is provided at the interface between the semiconductor substrate 138 and the upper surface film 501 (this is referred to as a cross-sectional structure). Comparative Example 2) is shown, and (c) shows the upper surface represented by the formulas (2) to 4) in the first embodiment having the pitch P and the dimensions at the interface between the semiconductor substrate 138 and the upper surface film 501. An example of a cross-sectional structure (this is referred to as Comparative Example 2) in the case where the concavo-convex structure 530 to be satisfied is provided, and (d) shows the concavo-convex structure according to the first embodiment at the interface between the semiconductor substrate 138 and the upper surface film 501. An example of a cross-sectional structure when 150 is provided is shown, and (e) shows an example of a cross-sectional structure when the concavo-convex structure 250 according to the second embodiment is provided at the interface between the semiconductor substrate 138 and the upper surface film 501. ing.

(b)に示す比較例2においては、モスアイ構造520の凹凸のピッチを100nmとし、凸部の高さを73nmとし、モスアイ構造520における凸部の上面と凹部の底面との面積比率を60.3%とした。 In Comparative Example 2 shown in (b), the uneven pitch of the moth-eye structure 520 is 100 nm, the height of the convex portion is 73 nm, and the area ratio between the upper surface of the convex portion and the bottom surface of the concave portion of the moth-eye structure 520 is 60. It was set to 3%.

(c)に示す比較例3においては、凹凸構造530の凹凸のピッチを200nmとし、凸部の高さを155nmとし、凹凸構造530における凸部の上面と凹部の底面との面積比を1:1とした。 In Comparative Example 3 shown in (c), the uneven pitch of the concave-convex structure 530 is 200 nm, the height of the convex portion is 155 nm, and the area ratio between the upper surface of the convex portion and the bottom surface of the concave portion in the concave-convex structure 530 is 1: 1. It was set to 1.

(d)に示す第1の実施形態においては、凹凸構造150における第1層151の下凸部151aのピッチを200nmとし、下凸部151aの高さを155nmとし、下凸部151aの上面とそれが形成する凹部の底面との面積比を1:1とするとともに、第2層152の上凸部152aのピッチを200nmとし、上凸部152aの高さを96nmとし、上凸部152aの上面とそれが形成する凹部の底面との面積比率を26.1%とした。 In the first embodiment shown in (d), the pitch of the lower convex portion 151a of the first layer 151 in the concave-convex structure 150 is 200 nm, the height of the lower convex portion 151a is 155 nm, and the upper surface of the lower convex portion 151a is set. The area ratio of the concave portion formed therein to the bottom surface is 1: 1, the pitch of the upper convex portion 152a of the second layer 152 is 200 nm, the height of the upper convex portion 152a is 96 nm, and the upper convex portion 152a is formed. The area ratio between the upper surface and the bottom surface of the recess formed by the upper surface was set to 26.1%.

(e)に示す第2の実施形態においては、凹凸構造250における第1層251の凸部251aのピッチを200nmとし、凸部251aの高さを179nmとし、凸部251aの上面とそれが形成する凹部の底面との面積比を1:1とするとともに、第2層252の屈折率nを1.817とし、第2層252の消衰係数kを0とし、凸部251a上面から第2層252の上面までの高さを96nmとした。また、第2層252には、屈折率が1.817となるように元素比が調整されたSiONを使用した。 In the second embodiment shown in (e), the pitch of the convex portion 251a of the first layer 251 in the concave-convex structure 250 is 200 nm, the height of the convex portion 251a is 179 nm, and the upper surface of the convex portion 251a and the convex portion 251a are formed. The area ratio of the concave portion to the bottom surface is 1: 1, the refractive index n of the second layer 252 is 1.817, the extinction coefficient k of the second layer 252 is 0, and the convex portion 251a is second from the upper surface. The height to the upper surface of the layer 252 was set to 96 nm. Further, for the second layer 252, SiON whose element ratio was adjusted so that the refractive index was 1.817 was used.

図21は、図20の(a)〜(e)それぞれに示した断面構造に対して入射光を受光面の垂直方向(図面中、上から下方向)に入射した際の各断面における光の強度をFDTD法で計算した結果を示す図である。図21の(a)は図20の(a)に対応し、図21の(b)は図20の(b)に対応し、図21の(c)は図20の(c)に対応し、図21の(d)は図20の(d)に対応し、図21の(e)は図20の(e)に対応している。なお、図面中に示されているバー500は、光の強度と各断面図におけるハッチングの濃さとの対応関係を示している。 FIG. 21 shows the light in each cross section when the incident light is incident on the light receiving surface in the direction perpendicular to the light receiving surface (from top to bottom in the drawing) with respect to the cross-sectional structures shown in FIGS. 20 (a) to 20 (e). It is a figure which shows the result of having calculated the intensity by the FDTD method. 21 (a) corresponds to FIG. 20 (a), FIG. 21 (b) corresponds to FIG. 20 (b), and FIG. 21 (c) corresponds to FIG. 20 (c). , FIG. 21 (d) corresponds to FIG. 20 (d), and FIG. 21 (e) corresponds to FIG. 20 (e). The bar 500 shown in the drawing shows the correspondence between the light intensity and the hatching density in each cross-sectional view.

図21の(a)に示すように、比較例1では、上側への反射が大きいために、上面膜501内の定在波(入射光と反射光による干渉縞)が大きくなっている。一方、半導体基板138中の光強度は比較的低いことから、半導体基板138内にはあまり光が入射していないことが分かる。 As shown in FIG. 21 (a), in Comparative Example 1, since the reflection to the upper side is large, the standing wave (interference fringes due to the incident light and the reflected light) in the upper surface film 501 is large. On the other hand, since the light intensity in the semiconductor substrate 138 is relatively low, it can be seen that not much light is incident in the semiconductor substrate 138.

(b)に示すように、比較例2では、モスアイ構造520によって界面での反射が低減し、それにより、上面膜501中の定在波も減少している。しかし、半導体基板138中には回折光同士による干渉縞が見られないことから、回折光が発生しておらず、半導体基板138中の光路長が延びていないことが分かる。 As shown in (b), in Comparative Example 2, the reflection at the interface is reduced by the moth-eye structure 520, and thereby the standing wave in the upper surface film 501 is also reduced. However, since no interference fringes due to the diffracted light are observed in the semiconductor substrate 138, it can be seen that the diffracted light is not generated and the optical path length in the semiconductor substrate 138 is not extended.

(b)に示すように、比較例3では、半導体基板138中に周期的に明瞭な明暗(干渉縞)が見られる。これは、非回折光が小さく、±1次の回折光が干渉することにより形成された干渉縞であることから、半導体基板138中の光路長が延びていることが分かる。しかし、上側への反射が抑制されていないため、上面膜501中の定在波も大きくなっている。 As shown in (b), in Comparative Example 3, clear light and darkness (interference fringes) are periodically observed in the semiconductor substrate 138. It can be seen that the optical path length in the semiconductor substrate 138 is extended because the non-diffraction light is small and the interference fringes are formed by the interference of the ± 1st-order diffracted light. However, since the upward reflection is not suppressed, the standing wave in the upper surface film 501 is also large.

(d)及び(e)に示すように、第1及び第2の実施形態では、半導体基板138中に±1次の回折光により干渉縞が見られることから、半導体基板138中の光路長が延びていることがわかる。加えて、上面膜501内の定在波が小さくなっていることから、上側への反射が抑制されていることもわかる。 As shown in (d) and (e), in the first and second embodiments, interference fringes are observed in the semiconductor substrate 138 due to the ± 1st order diffracted light, so that the optical path length in the semiconductor substrate 138 is increased. You can see that it is extended. In addition, since the standing wave in the upper surface film 501 is small, it can be seen that the upward reflection is suppressed.

図20の(a)〜(e)に示す層構造に対して上側への反射率を計算した結果を図22に示す。また、受光面137から半導体基板138における上面層501との境界面(ただし、モスアイ構造又は凹凸構造を備える場合にはその下面)から深さ方向に2μm(マイクロメートル)までの平均光強度(水平方向で平均)を計算した結果を図23に示す。なお、図23において、線S1は、比較例1の計算結果を示し、線S2は、比較例2の計算結果を示し、線S3は、比較例3の計算結果を示し、線S4は、第1の実施形態の計算結果を示し、線S5は、第2の実施形態の計算結果を示している。 FIG. 22 shows the results of calculating the reflectance upward with respect to the layer structures shown in FIGS. 20 (a) to 20 (e). Further, the average light intensity (horizontal) from the light receiving surface 137 to the boundary surface of the semiconductor substrate 138 with the upper surface layer 501 (however, the lower surface of the semiconductor substrate 138 if it has a moth-eye structure or a concave-convex structure) to 2 μm (micrometer) in the depth direction. The result of calculating the average in the direction) is shown in FIG. In FIG. 23, the line S1 shows the calculation result of Comparative Example 1, the line S2 shows the calculation result of Comparative Example 2, the line S3 shows the calculation result of Comparative Example 3, and the line S4 is the first. The calculation result of the first embodiment is shown, and the line S5 shows the calculation result of the second embodiment.

図22及び図23からわかるように、比較例1及び3は、上側への反射率が他の構造と比べて高い。また、比較例1では、上側への反射が大きいために、半導体基板138中の平均光強度が他の構造よりも小さい。 As can be seen from FIGS. 22 and 23, Comparative Examples 1 and 3 have higher upward reflectance than other structures. Further, in Comparative Example 1, the average light intensity in the semiconductor substrate 138 is smaller than that of other structures because the reflection to the upper side is large.

比較例2は、比較例1よりも半導体基板138中の平均光強度は大きいが、比較例3や第1及び第2の実施形態の平均光強度と比べると小さい。また、比較例2では、深さ方向での平均光強度の減少の傾きが小さい。 In Comparative Example 2, the average light intensity in the semiconductor substrate 138 is larger than that in Comparative Example 1, but is smaller than the average light intensity in Comparative Example 3 and the first and second embodiments. Further, in Comparative Example 2, the slope of the decrease in the average light intensity in the depth direction is small.

比較例3、第1及び第2の実施形態では、入射光が回折して半導体基板138中に入射し、半導体基板138中において斜め方向に光が伝搬するため、単位深さ当たりの光路長が増加している。そのため、比較例1及び2と比べて、深さ方向での平均光強度の減少の傾きが大きい。これは、比較例3、第1及び第2の実施形態では、深さ当たりの光の吸収量が大きいことを意味している。 In Comparative Examples 3, 1st and 2nd embodiments, the incident light is diffracted and incident on the semiconductor substrate 138, and the light propagates in the semiconductor substrate 138 in the oblique direction, so that the optical path length per unit depth is increased. It has increased. Therefore, the slope of the decrease in the average light intensity in the depth direction is larger than that in Comparative Examples 1 and 2. This means that in Comparative Examples 3, 1st and 2nd embodiments, the amount of light absorbed per depth is large.

以上のことから、第1及び第2の実施形態によれば、上側への反射の低減と、半導体基板138中での光吸収率の増加との両方の効果を達成できていることがわかる。 From the above, it can be seen that according to the first and second embodiments, both the effects of reducing the upward reflection and increasing the light absorption rate in the semiconductor substrate 138 can be achieved.

6.ターゲットとする波長帯域について
上述した実施形態では、可視領域の光を入射光L1としてセンシングする場合を例示したが、ターゲットとする光の波長帯域は、可視領域に限定されず、他の波長領域であってもよい。例えば、波長850nmの近赤外や、それより長波長の赤外であってもよい。近赤外や赤外の光はシリコンなどのフォトダイオードPD材料に対して吸収が小さいことから、上述した実施形態は特に有効であると考えられる。また、ターゲット波長を長波長とした場合、凹凸構造150/250のピッチを大きくすることが可能となるため、凹凸構造150/250の製造が容易になるという効果もえられる。
6. Target wavelength band In the above-described embodiment, the case where light in the visible region is sensed as incident light L1 is illustrated, but the wavelength band of the target light is not limited to the visible region and is in other wavelength regions. There may be. For example, it may be near infrared with a wavelength of 850 nm or infrared with a longer wavelength. Since near-infrared and infrared light absorbs less than a photodiode PD material such as silicon, the above-described embodiment is considered to be particularly effective. Further, when the target wavelength is a long wavelength, the pitch of the concave-convex structure 150/250 can be increased, so that the effect that the concave-convex structure 150/250 can be easily manufactured can be obtained.

7.凹凸構造の製造方法
上述した実施形態に係る凹凸構造150/250は、例えば、半導体基板138上に半導体基板138とのエッチング選択比が確保されたマスクを形成し、このマスク越しに半導体基板138を例えば異方性ドライエッチングでエッチングすることで、形成することが可能である。その際、凹凸構造150のように、第1層151と第2層152とで異なる寸法の凸部(151a及び152a)を形成する場合には、まず、マスクを介して下層側の凸部を形成した後に、マスクの開口を広げて上層の凸部を形成する工程を経ることで、寸法の異なる凸部を形成することが可能である。
7. Method for Manufacturing Concavo-convex Structure In the concavo-convex structure 150/250 according to the above-described embodiment, for example, a mask having an etching selectivity with that of the semiconductor substrate 138 is formed on the semiconductor substrate 138, and the semiconductor substrate 138 is passed through the mask. For example, it can be formed by etching by anisotropic dry etching. At that time, when forming convex portions (151a and 152a) having different dimensions in the first layer 151 and the second layer 152 as in the concave-convex structure 150, first, the convex portions on the lower layer side are formed through a mask. After forming, it is possible to form convex portions having different dimensions by going through a step of widening the opening of the mask to form a convex portion of the upper layer.

ただし、凹凸構造150/250の形成方法は、上記方法に限定されず、種々変形されてよい。 However, the method for forming the concave-convex structure 150/250 is not limited to the above method, and various modifications may be made.

8.カラーフィルタとの組み合わせ
上述した実施形態に係る単位画素110は、例えば、カラーフィルタと組み合わせることが可能である。その際、ベイヤー配列などの各色成分を透過するカラーフィルタが所定の配列で繰り返されているカラーフィルタ配列と組み合わせることで、各カラーフィルタ配列に応じたカラー画像を取得可能な固体撮像装置を実現することができる。
8. Combination with a color filter The unit pixel 110 according to the above-described embodiment can be combined with a color filter, for example. At that time, by combining a color filter that transmits each color component such as a Bayer array with a color filter array that is repeated in a predetermined array, a solid-state image sensor capable of acquiring a color image corresponding to each color filter array is realized. be able to.

図24に、ベイヤー配列であるカラーフィルタ配列の一例を示す。図24に示すように、ベイヤー配列であるカラーフィルタ配列801の繰返しの単位は、2×2の配列を有し、1つの対角に緑色の波長成分を選択的に透過させる2つのカラーフィルタ810Gが配置され、他の1つの対角に赤色の波長成分を選択的に透過させるカラーフィルタ810Rと青色の波長成分を選択的に透過させるカラーフィルタ810Bとが配置された配列構造を備える。なお、以下の説明において、個々のカラーフィルタ810R、810G及び810Bを区別しない場合、その符号を810とする。 FIG. 24 shows an example of a color filter array which is a Bayer array. As shown in FIG. 24, the repeating unit of the color filter array 801 which is the Bayer array has a 2 × 2 array and two color filters 810G which selectively transmit the green wavelength component on one diagonal. Is arranged, and has an array structure in which a color filter 810R that selectively transmits a red wavelength component and a color filter 810B that selectively transmits a blue wavelength component are arranged on the other diagonal. In the following description, when the individual color filters 810R, 810G and 810B are not distinguished, the reference numerals thereof are set to 810.

このようなカラーフィルタ配列801は、例えば、図5に示した断面構造における平坦化膜133とオンチップレンズ131との間に配置される。その際、1つのカラーフィルタ810が1つの単位画素110に対応付けられてもよいし、1つのカラーフィルタ810が複数の単位画素110に対応付けられてもよいし、複数のカラーフィルタ810が1つの単位画素110に対応付けられてもよい。以下の説明では、1つのカラーフィルタ810が1つの単位画素110に対応付けられている場合について説明する。 Such a color filter array 801 is arranged, for example, between the flattening film 133 and the on-chip lens 131 in the cross-sectional structure shown in FIG. At that time, one color filter 810 may be associated with one unit pixel 110, one color filter 810 may be associated with a plurality of unit pixels 110, or a plurality of color filters 810 may be associated with one unit pixel 110. It may be associated with one unit pixel 110. In the following description, a case where one color filter 810 is associated with one unit pixel 110 will be described.

図25は、赤色(R)の波長成分を選択的に透過させるカラーフィルタと組み合わされた単位画素の断面構造例を示す断面図であり、図26は、緑色(G)の波長成分を選択的に透過させるカラーフィルタと組み合わされた単位画素の断面構造例を示す断面図であり、図27は、青色(B)の波長成分を選択的に透過させるカラーフィルタと組み合わされた単位画素の断面構造例を示す断面図である。 FIG. 25 is a cross-sectional view showing an example of a cross-sectional structure of a unit pixel combined with a color filter that selectively transmits a wavelength component of red (R), and FIG. 26 is a cross-sectional view showing a wavelength component of green (G) selectively. FIG. 27 is a cross-sectional view showing an example of a cross-sectional structure of a unit pixel combined with a color filter that transmits a blue (B) wavelength component. FIG. 27 is a cross-sectional structure of a unit pixel combined with a color filter that selectively transmits a wavelength component of blue (B). It is sectional drawing which shows an example.

なお、図25〜図27及び以下の説明では、簡略化のため、半導体基板138の上層部分と絶縁膜135とカラーフィルタ810とを抜粋して説明する。したがって、図25〜図27では、絶縁膜135の直上にカラーフィルタ810が配置されているが、カラーフィルタ810は絶縁膜135の上に位置する平坦化膜133上に配置されてもよい。 In addition, in FIGS. 25 to 27 and the following description, for simplification, the upper layer portion of the semiconductor substrate 138, the insulating film 135, and the color filter 810 will be excerpted and described. Therefore, in FIGS. 25 to 27, the color filter 810 is arranged directly above the insulating film 135, but the color filter 810 may be arranged on the flattening film 133 located on the insulating film 135.

また、本説明では、第1の実施形態において図6を用いて説明した凹凸構造150をベースとした場合を例示するが、これに限定されず、第1の実施形態で説明した他の凹凸構造150や第2の実施形態で説明した凹凸構造250をベースとすることも可能である。 Further, in this description, the case where the concave-convex structure 150 described with reference to FIG. 6 is used as the base in the first embodiment is illustrated, but the present invention is not limited to this, and the other concave-convex structure described in the first embodiment is not limited to this. It is also possible to base on the 150 or the concave-convex structure 250 described in the second embodiment.

図25〜図27に示すように、赤色の波長成分を選択的に透過するカラーフィルタ810Rが配置された単位画素110Rの凹凸構造150は、下凸部151a及び上凸部152aのピッチ及びサイズが、カラーフィルタ810Rが選択的に透過する赤色の波長成分の波長(例えば、中心波長)に応じて補正される。同様に、緑色の波長成分を選択的に透過するカラーフィルタ810Gが配置された単位画素110Gの凹凸構造150は、下凸部151a及び上凸部152aのピッチ及びサイズがカラーフィルタ810Gが選択的に透過する緑色の波長成分の波長(例えば、中心波長)に応じて補正され、青色の波長成分を選択的に透過するカラーフィルタ810Bが配置された単位画素110Bの凹凸構造150は、下凸部151a及び上凸部152aのピッチ及びサイズがカラーフィルタ810Bが選択的に透過する緑色の波長成分の波長(例えば、中心波長)に応じて補正される。 As shown in FIGS. 25 to 27, the concave-convex structure 150 of the unit pixel 110R in which the color filter 810R that selectively transmits the red wavelength component is arranged has the pitch and size of the downward convex portion 151a and the upper convex portion 152a. , The color filter 810R is corrected according to the wavelength (for example, the center wavelength) of the red wavelength component selectively transmitted. Similarly, in the concave-convex structure 150 of the unit pixel 110G in which the color filter 810G that selectively transmits the green wavelength component is arranged, the pitch and size of the downward convex portion 151a and the upper convex portion 152a are selectively selected by the color filter 810G. The concave-convex structure 150 of the unit pixel 110B in which the color filter 810B which is corrected according to the wavelength (for example, the center wavelength) of the transmitted green wavelength component and selectively transmits the blue wavelength component is arranged is the downward convex portion 151a. And the pitch and size of the upper convex portion 152a are corrected according to the wavelength (for example, the center wavelength) of the green wavelength component selectively transmitted by the color filter 810B.

図28は、入射光の波長と凹凸構造のピッチとの関係を示すグラフである。図28に示すように、ターゲットとする波長帯域(以下、センシング波長域という)を400〜700nmとした場合、このセンシング波長域に対して上述の式(2)を満たすピッチPの範囲は、図28における線S11と線S12との間の範囲となる。 FIG. 28 is a graph showing the relationship between the wavelength of incident light and the pitch of the uneven structure. As shown in FIG. 28, when the target wavelength band (hereinafter referred to as the sensing wavelength range) is 400 to 700 nm, the range of the pitch P satisfying the above equation (2) with respect to this sensing wavelength range is shown in FIG. It is the range between the line S11 and the line S12 at 28.

また、図29は、入射光の波長と凹凸構造の第1層における下凸部の高さとの関係を示すグラフである。図29に示すように、センシング波長を400〜700nmとした場合、このセンシング波長域に対して上述の式(4)を満たす下凸部151aの高さは、図29における線S13と線S14との間の範囲となる。 Further, FIG. 29 is a graph showing the relationship between the wavelength of the incident light and the height of the downward convex portion in the first layer of the concave-convex structure. As shown in FIG. 29, when the sensing wavelength is 400 to 700 nm, the height of the downward convex portion 151a satisfying the above equation (4) with respect to this sensing wavelength range is the line S13 and the line S14 in FIG. 29. It is in the range between.

さらに、図30には、入射光の波長と凹凸構造の第1層における下凸部の体積占有率とを1:1とした場合の関係が示されている(式(3)参照)。 Further, FIG. 30 shows the relationship between the wavelength of the incident light and the volume occupancy of the downward convex portion in the first layer of the concave-convex structure when 1: 1 is set (see equation (3)).

図28〜図30に示す条件を満足するように、各単位画素810R、810G及び810Bがターゲットとする波長域の中心波長に対してピッチ(式(2))、高さ(式(3))及び面積比(式(4))を最適化した場合、それぞれのピッチ及び寸法は、以下のようになる。 Pitch (formula (2)) and height (formula (3)) with respect to the center wavelength of the target wavelength range of each unit pixel 810R, 810G and 810B so as to satisfy the conditions shown in FIGS. 28 to 30. And when the area ratio (Equation (4)) is optimized, the pitch and dimensions of each are as follows.

例えば、単位画素110Rでは、第1層151の下凸部151aのピッチが165nmとされ、下凸部151aの高さが142nmとされ、下凸部151aの上面とそれが形成する凹部の底面との面積比が1:1とされるとともに、第2層152の上凸部152aのピッチが165nmとされ、上凸部152aの高さが87nmとされ、上凸部152aの上面とそれが形成する凹部の底面との面積比率を26.2%とされる。 For example, in the unit pixel 110R, the pitch of the lower convex portion 151a of the first layer 151 is 165 nm, the height of the lower convex portion 151a is 142 nm, and the upper surface of the lower convex portion 151a and the bottom surface of the concave portion formed by the lower convex portion 151a. The area ratio of the upper convex portion 152a is 1: 1 and the pitch of the upper convex portion 152a of the second layer 152 is 165 nm, the height of the upper convex portion 152a is 87 nm, and the upper surface of the upper convex portion 152a and the upper surface thereof are formed. The area ratio with the bottom surface of the recess is 26.2%.

同様に、単位画素110Gでは、第1層151の下凸部151aのピッチが135nmとされ、下凸部151aの高さが119nmとされ、下凸部151aの上面とそれが形成する凹部の底面との面積比が1:1とされるとともに、第2層152の上凸部152aのピッチが135nmとされ、上凸部152aの高さが76nmとされ、上凸部152aの上面とそれが形成する凹部の底面との面積比率を26.3%とされる。 Similarly, in the unit pixel 110G, the pitch of the lower convex portion 151a of the first layer 151 is 135 nm, the height of the lower convex portion 151a is 119 nm, and the upper surface of the lower convex portion 151a and the bottom surface of the concave portion formed by the lower convex portion 151a. The area ratio is 1: 1 and the pitch of the upper convex portion 152a of the second layer 152 is 135 nm, the height of the upper convex portion 152a is 76 nm, and the upper surface of the upper convex portion 152a and it are The area ratio with the bottom surface of the recess to be formed is 26.3%.

同様に、単位画素110Bでは、第1層151の下凸部151aのピッチが105nmとされ、下凸部151aの高さが75nmとされ、下凸部151aの上面とそれが形成する凹部の底面との面積比が1:1とされるとともに、第2層152の上凸部152aのピッチが105nmとされ、上凸部152aの高さが56nmとされ、上凸部152aの上面とそれが形成する凹部の底面との面積比率を26.6%とされる。 Similarly, in the unit pixel 110B, the pitch of the lower convex portion 151a of the first layer 151 is 105 nm, the height of the lower convex portion 151a is 75 nm, and the upper surface of the lower convex portion 151a and the bottom surface of the concave portion formed by the lower convex portion 151a. The area ratio is 1: 1 and the pitch of the upper convex portion 152a of the second layer 152 is 105 nm, the height of the upper convex portion 152a is 56 nm, and the upper surface of the upper convex portion 152a and it are The area ratio with the bottom surface of the recess to be formed is 26.6%.

9.移動体への応用例1
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
9. Application example to mobile body 1
The technology according to the present disclosure (the present technology) can be applied to various products. For example, the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.

図31は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 FIG. 31 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.

車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図31に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。 The vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001. In the example shown in FIG. 31, the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050. Further, as a functional configuration of the integrated control unit 12050, a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are shown.

駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。 The drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs. For example, the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.

ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。 The body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs. For example, the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps. In this case, the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches. The body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.

車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。 The vehicle exterior information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000. For example, the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030. The vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image. The vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or characters on the road surface based on the received image.

撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。 The imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received. The image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.

車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。 The in-vehicle information detection unit 12040 detects information in the vehicle. For example, a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040. The driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.

マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。 The microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit. A control command can be output to 12010. For example, the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.

また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。 Further, the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver can control the driver. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.

また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。 Further, the microcomputer 12051 can output a control command to the body system control unit 12030 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030. For example, the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.

音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図31の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。 The audio-image output unit 12052 transmits an output signal of at least one of audio and an image to an output device capable of visually or audibly notifying the passenger of the vehicle or the outside of the vehicle. In the example of FIG. 31, an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices. The display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.

図32は、撮像部12031の設置位置の例を示す図である。 FIG. 32 is a diagram showing an example of the installation position of the imaging unit 12031.

図32では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。 In FIG. 32, the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.

撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。 The imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as, for example, the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100. The imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100. The imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100. The imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100. The imaging unit 12105 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.

なお、図32には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。 Note that FIG. 32 shows an example of the photographing range of the imaging units 12101 to 12104. The imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose, the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively, and the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103. The imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.

撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。 At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information. For example, at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.

例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。 For example, the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100). By obtaining, it is possible to extract as the preceding vehicle a three-dimensional object that is the closest three-dimensional object on the traveling path of the vehicle 12100 and that travels in substantially the same direction as the vehicle 12100 at a predetermined speed (for example, 0 km / h or more). it can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.

例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。 For example, the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.

撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。 At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays. For example, the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104. Such pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine. When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian. The display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.

以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。撮像部12031に本開示に係る技術を適用することにより、より見やすい撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。 The example of the vehicle control system to which the technique according to the present disclosure can be applied has been described above. The technique according to the present disclosure can be applied to the imaging unit 12031 and the like among the configurations described above. By applying the technique according to the present disclosure to the imaging unit 12031, it is possible to obtain a photographed image that is easier to see, and thus it is possible to reduce driver fatigue.

10.内視鏡手術システムへの応用例
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
10. Examples of application to endoscopic surgery systems The technology according to the present disclosure (this technology) can be applied to various products. For example, the techniques according to the present disclosure may be applied to endoscopic surgery systems.

図33は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。 FIG. 33 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.

図33では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。 FIG. 33 shows a surgeon (doctor) 11131 performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000. As shown, the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100. , A cart 11200 equipped with various devices for endoscopic surgery.

内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。 The endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101. In the illustrated example, the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. Good.

鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。 An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101. A light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101 to be an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens. The endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.

カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。 An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system. The observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated. The image signal is transmitted to the camera control unit (CCU: Camera Control Unit) 11201 as RAW data.

CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。 The CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).

表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。 The display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.

光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。 The light source device 11203 is composed of, for example, a light source such as an LED (light emitting diode), and supplies irradiation light for photographing an operating part or the like to the endoscope 11100.

入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。 The input device 11204 is an input interface to the endoscopic surgery system 11000. The user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204. For example, the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.

処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。 The treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like of a tissue. The pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator. To send. Recorder 11207 is a device capable of recording various information related to surgery. The printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.

なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。 The light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof. When a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out. Further, in this case, the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-division manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to correspond to each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.

また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。 Further, the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals. By controlling the drive of the image sensor of the camera head 11102 in synchronization with the timing of changing the light intensity to acquire an image in a time-divided manner and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.

また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。 Further, the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation. In special light observation, for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the surface layer of the mucous membrane. So-called narrow band imaging, in which a predetermined tissue such as a blood vessel is photographed with high contrast, is performed. Alternatively, in the special light observation, fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light. In fluorescence observation, the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent. The light source device 11203 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.

図34は、図33に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。 FIG. 34 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG. 33.

カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。 The camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405. CCU11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413. The camera head 11102 and CCU11201 are communicatively connected to each other by a transmission cable 11400.

レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。 The lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101. The observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401. The lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.

撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。 The image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type). When the image pickup unit 11402 is composed of a multi-plate type, for example, each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them. Alternatively, the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (dimensional) display, respectively. The 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site. When the image pickup unit 11402 is composed of a multi-plate type, a plurality of lens units 11401 may be provided corresponding to each image pickup element.

また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。 Further, the imaging unit 11402 does not necessarily have to be provided on the camera head 11102. For example, the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.

駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。 The drive unit 11403 is composed of an actuator, and moves the zoom lens and the focus lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.

通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。 The communication unit 11404 is configured by a communication device for transmitting and receiving various types of information to and from the CCU11201. The communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.

また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。 Further, the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405. The control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image, and the like. Contains information about the condition.

なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。 The above-mentioned imaging conditions such as frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of CCU11201 based on the acquired image signal. Good. In the latter case, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.

カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。 The camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.

通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。 The communication unit 11411 is composed of a communication device for transmitting and receiving various types of information to and from the camera head 11102. The communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.

また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。 Further, the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102. Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.

画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。 The image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.

制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。 The control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.

また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。 Further, the control unit 11413 causes the display device 11202 to display the captured image in which the surgical unit or the like is reflected, based on the image signal that has been image-processed by the image processing unit 11412. At this time, the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edge of an object included in the captured image to remove surgical tools such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized. When displaying the captured image on the display device 11202, the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, it is possible to reduce the burden on the surgeon 11131 and to allow the surgeon 11131 to proceed with the surgery reliably.

カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。 The transmission cable 11400 connecting the camera head 11102 and CCU11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.

ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。 Here, in the illustrated example, the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.

以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、カメラヘッド11102の撮像部11402に適用され得る。カメラヘッド11102に本開示に係る技術を適用することにより、より鮮明な術部画像を得ることができるため、術者が術部を確実に確認することが可能になる。 The example of the endoscopic surgery system to which the technique according to the present disclosure can be applied has been described above. The technique according to the present disclosure can be applied to, for example, the image pickup unit 11402 of the camera head 11102 among the configurations described above. By applying the technique according to the present disclosure to the camera head 11102, a clearer surgical site image can be obtained, so that the operator can surely confirm the surgical site.

なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。 Although the endoscopic surgery system has been described here as an example, the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.

以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。 Although the embodiments of the present disclosure have been described above, the technical scope of the present disclosure is not limited to the above-described embodiments as they are, and various changes can be made without departing from the gist of the present disclosure. In addition, components covering different embodiments and modifications may be combined as appropriate.

また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。 Further, the effects in each of the embodiments described in the present specification are merely examples and are not limited, and other effects may be obtained.

なお、本技術は以下のような構成も取ることができる。
(1)
半導体基板に設けられた光電変換部と、
前記半導体基板に対して前記光電変換部への光の入射面側に位置する第1絶縁膜と、
前記光電変換部と前記第1絶縁膜との間に位置する凹凸構造と、
を備え、
前記凹凸構造は、
前記光電変換部側に位置し、前記光電変換部へ入射する光を回折させる第1層と、
前記第1絶縁膜側に位置し、前記第1絶縁膜側への反射を抑制する第2層と、
を備える固体撮像装置。
(2)
前記第1層は、回折格子である前記(1)に記載の固体撮像装置。
(3)
前記回折格子は、前記光電変換部へ入射する光のうち非回折光の強度がゼロに近づくように設計されている前記(2)に記載の固体撮像装置。
(4)
前記回折格子は、前記半導体基板における前記光の入射面に形成された凸部と凹部とで構成され、
前記凸部と前記凹部とのピッチPは、前記半導体基板の屈折率をn、前記第1絶縁膜の屈折率をn、入射光の波長をλとした場合、以下の式(13)及び式(14)を満たすように設計されている

Figure 2021072295
Figure 2021072295
前記(2)又は(3)に記載の固体撮像装置。
(5)
前記凸部と前記凹部とは、前記凸部の底面から上面までの高さをH11とした場合、以下の式(15)及び式(16)に近づくように設計されている
Figure 2021072295
Figure 2021072295
前記(4)に記載の固体撮像装置。
(6)
前記第2層は、前記光の入射面と平行な平面に配列する微細な凹凸を含む前記(1)〜(5)の何れか1項に記載の固体撮像装置。
(7)
前記第2層は、前記第1絶縁膜の屈折率をnとし、前記第1層の実効屈折率をneff11とし、当該第2層の実効屈折率をneff12とした場合、以下の式(17)に近づくように設計されている
Figure 2021072295
前記(6)に記載の固体撮像装置。
(8)
前記第2層は、前記微細な凹凸の底面から上面までの高さをH12とした場合、以下の式(18)に近づくように設計されている
Figure 2021072295
前記(7)に記載の固体撮像装置。
(9)
前記第1層の前記凸部は、前記半導体基板の前記光の入射面に形成されたストライプ状の凸部である前記(4)又は(5)に記載の固体撮像装置。
(10)
前記凸部は、前記半導体基板の前記光の入射面に形成されたドット状の凸部である前記(4)又は(5)に記載の固体撮像装置。
(11)
前記第2層は、前記光の入射面と平行な平面に配列する微細な凹凸を含み、
前記第2層の前記微細な凹凸は、前記ストライプ状の前記凸部上に設けられ、当該凸部と同一方向に延在するストライプ状の凸部を含む
前記(9)に記載の固体撮像装置。
(12)
前記第2層は、前記光の入射面と平行な平面に配列する微細な凹凸を含み、
前記第2層の前記微細な凹凸は、前記第1層の前記凸部上に設けられたドット状の凸部を含む
前記(9)又は(10)に記載の固体撮像装置。
(13)
前記回折格子は、前記半導体基板における前記光の入射面に形成された凸部と凹部とで構成され、
前記第2層は、前記凹部の内部並びに前記凸部及び前記凹部上に設けられた第2絶縁膜よりなり、
前記凸部と前記凹部とのピッチPは、前記半導体基板の屈折率をn、前記第2絶縁膜の屈折率をn、入射光の波長をλとした場合、以下の式(19)を満たすように設計されている
Figure 2021072295
前記(2)又は(3)に記載の固体撮像装置。
(14)
前記凸部と前記凹部とは、前記凸部の底面から上面までの高さをH21とした場合、以下の式(20)及び式(21)に近づくように設計されている
Figure 2021072295
Figure 2021072295
前記(13)に記載の固体撮像装置。
(15)
前記第2層は、前記第1絶縁膜の屈折率をnとし、前記第1層の実効屈折率をneff11とした場合、以下の式(22)に近づくように設計されている
Figure 2021072295
前記(13)又は(14)に記載の固体撮像装置。
(16)
前記第2層は、前記第1層の上面から当該第2層の上面までの高さをHとした場合、以下の式(23)に近づくように設計されている
Figure 2021072295
前記(15)に記載の固体撮像装置。
(17)
前記半導体基板は、
複数の前記光電変換部と、
前記複数の光電変換部の間に設けられ、前記複数の光電変換部間を光学的に分離する画素分離部と、
を備える前記(1)〜(16)の何れか1項に記載の固体撮像装置。
(18)
前記凹凸構造を挟んで前記光電変換素子と反対側に配置され、所定の波長帯域の光を透過させるカラーフィルタをさらに備える前記(1)〜(17)の何れか1項に記載の固体撮像装置。
(19)
前記半導体基板は、複数の前記光電変換部が行列状に配列する画素アレイ部を備え、
前記凹凸構造は、前記画素アレイ部における位置に応じて補正されている
前記(1)〜(18)の何れか1項に記載の固体撮像装置。
(20)
複数の単位画素が行列方向に配列した画素アレイ部と、
前記複数の単位画素における読出し対象の単位画素を駆動する駆動回路と、
前記駆動回路により駆動された前記読出し対象の単位画素から画素信号を読み出す処理回路と、
前記駆動回路及び前記処理回路を制御する制御部と、
を備え、
前記単位画素は、
半導体基板に設けられた光電変換部と、
前記半導体基板に対して前記光電変換部への光の入射面側に位置する第1絶縁膜と、
前記光電変換部と前記第1絶縁膜との間に位置する凹凸構造と、
を備え、
前記凹凸構造は、
前記光電変換部側に位置し、前記光電変換部へ入射する光を回折させる第1層と、
前記第1絶縁膜側に位置し、前記第1絶縁膜側への反射を抑制する第2層と、
を備える電子機器。 The present technology can also have the following configurations.
(1)
The photoelectric conversion unit provided on the semiconductor substrate and
A first insulating film located on the incident surface side of the light incident on the photoelectric conversion unit with respect to the semiconductor substrate,
An uneven structure located between the photoelectric conversion unit and the first insulating film,
With
The uneven structure
A first layer located on the photoelectric conversion unit side and diffracting light incident on the photoelectric conversion unit, and
A second layer located on the first insulating film side and suppressing reflection to the first insulating film side,
A solid-state image sensor.
(2)
The solid-state image sensor according to (1) above, wherein the first layer is a diffraction grating.
(3)
The solid-state imaging device according to (2) above, wherein the diffraction grating is designed so that the intensity of non-diffraction light among the light incident on the photoelectric conversion unit approaches zero.
(4)
The diffraction grating is composed of convex portions and concave portions formed on the incident surface of the light on the semiconductor substrate.
The pitch P between the convex portion and the concave portion is calculated by the following equation (13) when the refractive index of the semiconductor substrate is n p , the refractive index of the first insulating film is n U , and the wavelength of the incident light is λ 0. ) And equation (14)
Figure 2021072295
Figure 2021072295
The solid-state image sensor according to (2) or (3) above.
(5)
Wherein a convex portion and the concave portion, if the height from the bottom surface of the convex portion to the top face and the H 11, are designed to approach the following equation (15) and (16)
Figure 2021072295
Figure 2021072295
The solid-state image sensor according to (4) above.
(6)
The solid-state image sensor according to any one of (1) to (5) above, wherein the second layer includes fine irregularities arranged on a plane parallel to the incident surface of the light.
(7)
And the second layer, the refractive index of the first insulating film as a n U, the effective refractive index of the first layer and Neff11, when the effective refractive index of the second layer and Neff12, the following equation (17 ) Is designed to approach
Figure 2021072295
The solid-state image sensor according to (6) above.
(8)
The second layer, if the height from the bottom surface of the fine irregularities to the top face and the H 12, are designed to approach the following equation (18)
Figure 2021072295
The solid-state image sensor according to (7) above.
(9)
The solid-state image sensor according to (4) or (5), wherein the convex portion of the first layer is a striped convex portion formed on the incident surface of the light of the semiconductor substrate.
(10)
The solid-state image sensor according to (4) or (5) above, wherein the convex portion is a dot-shaped convex portion formed on the incident surface of the light of the semiconductor substrate.
(11)
The second layer contains fine irregularities arranged in a plane parallel to the incident surface of the light.
The solid-state image sensor according to (9), wherein the fine unevenness of the second layer is provided on the striped convex portion and includes a striped convex portion extending in the same direction as the convex portion. ..
(12)
The second layer contains fine irregularities arranged in a plane parallel to the incident surface of the light.
The solid-state image sensor according to (9) or (10), wherein the fine unevenness of the second layer includes a dot-shaped convex portion provided on the convex portion of the first layer.
(13)
The diffraction grating is composed of convex portions and concave portions formed on the incident surface of the light on the semiconductor substrate.
The second layer is composed of the inside of the concave portion and the convex portion and the second insulating film provided on the concave portion.
Pitch P of the concave and the convex portion, the refractive index of the semiconductor substrate n p, if the refractive index of the second insulating film was n M, the wavelength of the incident light lambda 0, the following equation (19 ) Is designed to meet
Figure 2021072295
The solid-state image sensor according to (2) or (3) above.
(14)
Wherein a convex portion and the concave portion, if the height from the bottom surface of the convex portion to the top face and the H 21, are designed to approach the following equation (20) and (21)
Figure 2021072295
Figure 2021072295
The solid-state image sensor according to (13) above.
(15)
The second layer, the refractive index of the first insulating film as a n U, when the effective refractive index of the first layer and Neff11, are designed to approach the following equation (22)
Figure 2021072295
The solid-state image sensor according to (13) or (14).
(16)
The second layer, if said the height from the upper surface of the first layer to the upper surface of the second layer and H M, are designed to approach the following equation (23)
Figure 2021072295
The solid-state image sensor according to (15) above.
(17)
The semiconductor substrate is
With the plurality of photoelectric conversion units
A pixel separation unit provided between the plurality of photoelectric conversion units and optically separating the plurality of photoelectric conversion units,
The solid-state image sensor according to any one of (1) to (16) above.
(18)
The solid-state image pickup device according to any one of (1) to (17), further comprising a color filter that is arranged on the opposite side of the photoelectric conversion element with the uneven structure interposed therebetween and transmits light in a predetermined wavelength band. ..
(19)
The semiconductor substrate includes a pixel array unit in which a plurality of the photoelectric conversion units are arranged in a matrix.
The solid-state image sensor according to any one of (1) to (18), wherein the uneven structure is corrected according to a position in the pixel array portion.
(20)
A pixel array section in which multiple unit pixels are arranged in the matrix direction,
A drive circuit that drives the unit pixel to be read in the plurality of unit pixels, and
A processing circuit that reads a pixel signal from the unit pixel to be read, which is driven by the drive circuit, and
A control unit that controls the drive circuit and the processing circuit,
With
The unit pixel is
The photoelectric conversion unit provided on the semiconductor substrate and
A first insulating film located on the incident surface side of the light incident on the photoelectric conversion unit with respect to the semiconductor substrate,
An uneven structure located between the photoelectric conversion unit and the first insulating film,
With
The uneven structure
A first layer located on the photoelectric conversion unit side and diffracting light incident on the photoelectric conversion unit, and
A second layer located on the first insulating film side and suppressing reflection to the first insulating film side,
Electronic equipment equipped with.

1 電子機器
10 撮像レンズ
20 プロセッサ
30 記憶部
100 固体撮像装置
101 画素アレイ部
102 垂直駆動回路
103 カラム処理回路
104 水平駆動回路
105 システム制御部
108 信号処理部
109 データ格納部
110、110B、110G、110R 単位画素
111 転送トランジスタ
112 リセットトランジスタ
113 増幅トランジスタ
114 選択トランジスタ
121 受光チップ
122 回路チップ
131 オンチップレンズ
133 平坦化膜
134 遮光膜
135 絶縁膜
136、144 P型半導体領域
137 受光面
138 半導体基板
139 N型半導体領域
140 画素分離部
141 溝部
142 固定電荷膜
143 絶縁膜
145 配線層
146 配線
147 絶縁層
150、250 凹凸構造
151、251 第1層
151a 下凸部
152、252 第2層
152a 上凸部
810 カラーフィルタ配列
810B、810G、810R カラーフィルタ
1521、252a 下層
1521a 第1上凸部
1522、252b 上層
1522a 第2上凸部
L1 入射光
L2 反射光
L10 非回折光
L11 回折光
LD 画素駆動線
PD フォトダイオード
VSL 垂直信号線
1 Electronic equipment 10 Imaging lens 20 Processor 30 Storage unit 100 Solid-state imaging device 101 Pixel array unit 102 Vertical drive circuit 103 Column processing circuit 104 Horizontal drive circuit 105 System control unit 108 Signal processing unit 109 Data storage unit 110, 110B, 110G, 110R Unit pixel 111 Transfer transistor 112 Reset transistor 113 Amplification transistor 114 Select transistor 121 Light receiving chip 122 Circuit chip 131 On-chip lens 133 Flattening film 134 Light-shielding film 135 Insulating film 136, 144 P-type semiconductor area 137 Light-receiving surface 138 Semiconductor substrate 139 N-type Semiconductor area 140 Pixel separation part 141 Groove part 142 Fixed charge film 143 Insulation film 145 Wiring layer 146 Wiring 147 Insulation layer 150, 250 Concavo-convex structure 151, 251 First layer 151a Lower convex part 152, 252 Second layer 152a Upper convex part 810 Color Filter arrangement 810B, 810G, 810R Color filter 1521, 252a Lower layer 1521a First upper convex part 1522, 252b Upper layer 1522a Second upper convex part L1 Incident light L2 Reflected light L10 Non-diffractive light L11 Diffractive light LD Pixel drive line PD Transistor VSL Vertical signal line

Claims (20)

半導体基板に設けられた光電変換部と、
前記半導体基板に対して前記光電変換部への光の入射面側に位置する第1絶縁膜と、
前記光電変換部と前記第1絶縁膜との間に位置する凹凸構造と、
を備え、
前記凹凸構造は、
前記光電変換部側に位置し、前記光電変換部へ入射する光を回折させる第1層と、
前記第1絶縁膜側に位置し、前記第1絶縁膜側への反射を抑制する第2層と、
を備える固体撮像装置。
The photoelectric conversion unit provided on the semiconductor substrate and
A first insulating film located on the incident surface side of the light incident on the photoelectric conversion unit with respect to the semiconductor substrate,
An uneven structure located between the photoelectric conversion unit and the first insulating film,
With
The uneven structure
A first layer located on the photoelectric conversion unit side and diffracting light incident on the photoelectric conversion unit, and
A second layer located on the first insulating film side and suppressing reflection to the first insulating film side,
A solid-state image sensor.
前記第1層は、回折格子である請求項1に記載の固体撮像装置。 The solid-state image sensor according to claim 1, wherein the first layer is a diffraction grating. 前記回折格子は、前記光電変換部へ入射する光のうち非回折光の強度がゼロに近づくように設計されている請求項2に記載の固体撮像装置。 The solid-state imaging device according to claim 2, wherein the diffraction grating is designed so that the intensity of non-diffraction light among the light incident on the photoelectric conversion unit approaches zero. 前記回折格子は、前記半導体基板における前記光の入射面に形成された凸部と凹部とで構成され、
前記凸部と前記凹部とのピッチPは、前記半導体基板の屈折率をn、前記第1絶縁膜の屈折率をn、入射光の波長をλとした場合、以下の式(1)及び式(2)を満たすように設計されている
Figure 2021072295
Figure 2021072295
請求項2に記載の固体撮像装置。
The diffraction grating is composed of convex portions and concave portions formed on the incident surface of the light on the semiconductor substrate.
The pitch P between the convex portion and the concave portion is calculated by the following equation (1) when the refractive index of the semiconductor substrate is n p , the refractive index of the first insulating film is n U , and the wavelength of the incident light is λ 0. ) And equation (2)
Figure 2021072295
Figure 2021072295
The solid-state image sensor according to claim 2.
前記凸部と前記凹部とは、前記凸部の底面から上面までの高さをH11とした場合、以下の式(3)及び式(4)に近づくように設計されている
Figure 2021072295
Figure 2021072295
請求項4に記載の固体撮像装置。
Wherein a convex portion and the concave portion, if the height from the bottom surface of the convex portion to the top face and the H 11, are designed to approach the following equation (3) and (4)
Figure 2021072295
Figure 2021072295
The solid-state image sensor according to claim 4.
前記第2層は、前記光の入射面と平行な平面に配列する微細な凹凸を含む請求項1に記載の固体撮像装置。 The solid-state image sensor according to claim 1, wherein the second layer includes fine irregularities arranged on a plane parallel to the incident surface of the light. 前記第2層は、前記第1絶縁膜の屈折率をnとし、前記第1層の実効屈折率をneff11とし、当該第2層の実効屈折率をneff12とした場合、以下の式(5)に近づくように設計されている
Figure 2021072295
請求項6に記載の固体撮像装置。
And the second layer, the refractive index of the first insulating film as a n U, the effective refractive index of the first layer and Neff11, when the effective refractive index of the second layer and Neff12, the following equation (5 ) Is designed to approach
Figure 2021072295
The solid-state image sensor according to claim 6.
前記第2層は、前記微細な凹凸の底面から上面までの高さをH12とした場合、以下の式(6)に近づくように設計されている
Figure 2021072295
請求項7に記載の固体撮像装置。
The second layer, if the height from the bottom surface of the fine irregularities to the top face and the H 12, are designed to approach the following equation (6)
Figure 2021072295
The solid-state image sensor according to claim 7.
前記第1層の前記凸部は、前記半導体基板の前記光の入射面に形成されたストライプ状の凸部である請求項4に記載の固体撮像装置。 The solid-state image sensor according to claim 4, wherein the convex portion of the first layer is a striped convex portion formed on the incident surface of the light of the semiconductor substrate. 前記凸部は、前記半導体基板の前記光の入射面に形成されたドット状の凸部である請求項4に記載の固体撮像装置。 The solid-state image sensor according to claim 4, wherein the convex portion is a dot-shaped convex portion formed on the incident surface of the light of the semiconductor substrate. 前記第2層は、前記光の入射面と平行な平面に配列する微細な凹凸を含み、
前記第2層の前記微細な凹凸は、前記ストライプ状の前記凸部上に設けられ、当該凸部と同一方向に延在するストライプ状の凸部を含む
請求項9に記載の固体撮像装置。
The second layer contains fine irregularities arranged in a plane parallel to the incident surface of the light.
The solid-state image sensor according to claim 9, wherein the fine unevenness of the second layer is provided on the striped convex portion and includes a striped convex portion extending in the same direction as the convex portion.
前記第2層は、前記光の入射面と平行な平面に配列する微細な凹凸を含み、
前記第2層の前記微細な凹凸は、前記第1層の前記凸部上に設けられたドット状の凸部を含む
請求項9に記載の固体撮像装置。
The second layer contains fine irregularities arranged in a plane parallel to the incident surface of the light.
The solid-state image sensor according to claim 9, wherein the fine unevenness of the second layer includes a dot-shaped convex portion provided on the convex portion of the first layer.
前記回折格子は、前記半導体基板における前記光の入射面に形成された凸部と凹部とで構成され、
前記第2層は、前記凹部の内部並びに前記凸部及び前記凹部上に設けられた第2絶縁膜よりなり、
前記凸部と前記凹部とのピッチPは、前記半導体基板の屈折率をn、前記第2絶縁膜の屈折率をn、入射光の波長をλとした場合、以下の式(7)を満たすように設計されている
Figure 2021072295
請求項2に記載の固体撮像装置。
The diffraction grating is composed of convex portions and concave portions formed on the incident surface of the light on the semiconductor substrate.
The second layer is composed of the inside of the concave portion and the convex portion and the second insulating film provided on the concave portion.
Pitch P of the concave and the convex portion, the refractive index of the semiconductor substrate n p, if the refractive index of the second insulating film was n M, the wavelength of the incident light lambda 0, the following equation (7 ) Is designed to meet
Figure 2021072295
The solid-state image sensor according to claim 2.
前記凸部と前記凹部とは、前記凸部の底面から上面までの高さをH21とした場合、以下の式(8)及び式(9)に近づくように設計されている
Figure 2021072295
Figure 2021072295
請求項13に記載の固体撮像装置。
Wherein a convex portion and the concave portion, if the height from the bottom surface of the convex portion to the top face and the H 21, are designed to approach the following equation (8) and (9)
Figure 2021072295
Figure 2021072295
The solid-state image sensor according to claim 13.
前記第2層は、前記第1絶縁膜の屈折率をnとし、前記第1層の実効屈折率をneff11とした場合、以下の式(10)に近づくように設計されている
Figure 2021072295
請求項13に記載の固体撮像装置。
The second layer, the refractive index of the first insulating film as a n U, when the effective refractive index of the first layer and Neff11, are designed to approach the following equation (10)
Figure 2021072295
The solid-state image sensor according to claim 13.
前記第2層は、前記第1層の上面から当該第2層の上面までの高さをHとした場合、以下の式(11)に近づくように設計されている
Figure 2021072295
請求項15に記載の固体撮像装置。
The second layer, if said the height from the upper surface of the first layer to the upper surface of the second layer and H M, are designed to approach the equation (11) below
Figure 2021072295
The solid-state image sensor according to claim 15.
前記半導体基板は、
複数の前記光電変換部と、
前記複数の光電変換部の間に設けられ、前記複数の光電変換部間を光学的に分離する画素分離部と、
を備える請求項1に記載の固体撮像装置。
The semiconductor substrate is
With the plurality of photoelectric conversion units
A pixel separation unit provided between the plurality of photoelectric conversion units and optically separating the plurality of photoelectric conversion units,
The solid-state image sensor according to claim 1.
前記凹凸構造を挟んで前記光電変換素子と反対側に配置され、所定の波長帯域の光を透過させるカラーフィルタをさらに備える請求項1に記載の固体撮像装置。 The solid-state image pickup device according to claim 1, further comprising a color filter that is arranged on the opposite side of the photoelectric conversion element with the uneven structure interposed therebetween and transmits light in a predetermined wavelength band. 前記半導体基板は、複数の前記光電変換部が行列状に配列する画素アレイ部を備え、
前記凹凸構造は、前記画素アレイ部における位置に応じて補正されている
請求項1に記載の固体撮像装置。
The semiconductor substrate includes a pixel array unit in which a plurality of the photoelectric conversion units are arranged in a matrix.
The solid-state image sensor according to claim 1, wherein the uneven structure is corrected according to a position in the pixel array portion.
複数の単位画素が行列方向に配列した画素アレイ部と、
前記複数の単位画素における読出し対象の単位画素を駆動する駆動回路と、
前記駆動回路により駆動された前記読出し対象の単位画素から画素信号を読み出す処理回路と、
前記駆動回路及び前記処理回路を制御する制御部と、
を備え、
前記単位画素は、
半導体基板に設けられた光電変換部と、
前記半導体基板に対して前記光電変換部への光の入射面側に位置する第1絶縁膜と、
前記光電変換部と前記第1絶縁膜との間に位置する凹凸構造と、
を備え、
前記凹凸構造は、
前記光電変換部側に位置し、前記光電変換部へ入射する光を回折させる第1層と、
前記第1絶縁膜側に位置し、前記第1絶縁膜側への反射を抑制する第2層と、
を備える電子機器。
A pixel array section in which multiple unit pixels are arranged in the matrix direction,
A drive circuit that drives the unit pixel to be read in the plurality of unit pixels, and
A processing circuit that reads a pixel signal from the unit pixel to be read, which is driven by the drive circuit, and
A control unit that controls the drive circuit and the processing circuit,
With
The unit pixel is
The photoelectric conversion unit provided on the semiconductor substrate and
A first insulating film located on the incident surface side of the light incident on the photoelectric conversion unit with respect to the semiconductor substrate,
An uneven structure located between the photoelectric conversion unit and the first insulating film,
With
The uneven structure
A first layer located on the photoelectric conversion unit side and diffracting light incident on the photoelectric conversion unit, and
A second layer located on the first insulating film side and suppressing reflection to the first insulating film side,
Electronic equipment equipped with.
JP2019195805A 2019-10-29 2019-10-29 Solid-state imaging device and electronic device Pending JP2021072295A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019195805A JP2021072295A (en) 2019-10-29 2019-10-29 Solid-state imaging device and electronic device
PCT/JP2020/038367 WO2021085091A1 (en) 2019-10-29 2020-10-09 Solid-state imaging device and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019195805A JP2021072295A (en) 2019-10-29 2019-10-29 Solid-state imaging device and electronic device

Publications (1)

Publication Number Publication Date
JP2021072295A true JP2021072295A (en) 2021-05-06

Family

ID=75714055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019195805A Pending JP2021072295A (en) 2019-10-29 2019-10-29 Solid-state imaging device and electronic device

Country Status (2)

Country Link
JP (1) JP2021072295A (en)
WO (1) WO2021085091A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113724613A (en) * 2021-08-31 2021-11-30 湖北长江新型显示产业创新中心有限公司 Display module
WO2023127498A1 (en) * 2021-12-27 2023-07-06 ソニーセミコンダクタソリューションズ株式会社 Light detection device and electronic instrument
JP2023152268A (en) * 2022-03-31 2023-10-16 采▲ぎょく▼科技股▲ふん▼有限公司 Image sensor and manufacturing method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5702625B2 (en) * 2011-02-22 2015-04-15 ソニー株式会社 Image sensor, image sensor manufacturing method, pixel design method, and electronic device
JP7023109B2 (en) * 2015-06-05 2022-02-21 ソニーグループ株式会社 Solid-state image sensor
JP6971722B2 (en) * 2017-09-01 2021-11-24 ソニーセミコンダクタソリューションズ株式会社 Solid-state image sensor and electronic equipment
JP2018088532A (en) * 2017-12-28 2018-06-07 ソニー株式会社 Solid-state imaging element and electronic device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113724613A (en) * 2021-08-31 2021-11-30 湖北长江新型显示产业创新中心有限公司 Display module
WO2023127498A1 (en) * 2021-12-27 2023-07-06 ソニーセミコンダクタソリューションズ株式会社 Light detection device and electronic instrument
JP2023152268A (en) * 2022-03-31 2023-10-16 采▲ぎょく▼科技股▲ふん▼有限公司 Image sensor and manufacturing method thereof
JP7510976B2 (en) 2022-03-31 2024-07-04 采▲ぎょく▼科技股▲ふん▼有限公司 Image sensor and its manufacturing method

Also Published As

Publication number Publication date
WO2021085091A1 (en) 2021-05-06

Similar Documents

Publication Publication Date Title
JP6971722B2 (en) Solid-state image sensor and electronic equipment
US12062681B2 (en) Solid-state imaging apparatus
WO2020175195A1 (en) Solid-state imaging device and electronic apparatus
CN111295761A (en) Imaging element, method for manufacturing imaging element, and electronic apparatus
US11508768B2 (en) Solid-state imaging device and electronic apparatus
WO2021085091A1 (en) Solid-state imaging device and electronic apparatus
JP2020174157A (en) Solid-state imaging device
US20230008784A1 (en) Solid-state imaging device and electronic device
CN115699314A (en) Imaging element and imaging device
JPWO2020158443A1 (en) Imaging equipment and electronic equipment
US20230387166A1 (en) Imaging device
WO2021140958A1 (en) Imaging element, manufacturing method, and electronic device
EP4124010A1 (en) Sensor package, method for manufacturing same, and imaging device
JP7316340B2 (en) Solid-state imaging device and electronic equipment
WO2024043067A1 (en) Photodetector
WO2023021740A1 (en) Imaging element, imaging device and production method
WO2023037624A1 (en) Imaging device and electronic apparatus
WO2023127498A1 (en) Light detection device and electronic instrument
TWI849045B (en) Camera equipment and camera system
WO2024053299A1 (en) Light detection device and electronic apparatus
WO2023195315A1 (en) Light detecting device
WO2023195316A1 (en) Light detecting device
EP4415047A1 (en) Imaging device
WO2023013156A1 (en) Imaging element and electronic device
WO2023106308A1 (en) Light-receiving device